Computerhaus Quickborn

Allgemein

Wie Sie mit SPM im Business die richtige Wette abschließen​

Allgemein

In Zeiten wirtschaftlicher Unsicherheit und struktureller Veränderungen gewinnt Strategisches Portfolio Management (SPM) für Unternehmen zunehmend an Bedeutung. So planen laut der Corporate Portfolio Management Studie 2023 von PwC Deutschland 55 Prozent der befragten Unternehmen in der Region DACH innerhalb der nächsten zwölf Monate Anpassungen in ihrem Geschäftsbereichsportfolio. Das überrascht wenig: Erwarten doch 44 Prozent der Entscheiderinnen und Entscheider, dass sich ihr Kerngeschäft in den kommenden fünf Jahren um mindestens 20 Prozent verändern wird. Doch für Unternehmen ist SPM ein komplexes Unterfangen mit einigen Herausforderungen: Häufig herrscht bei den Verantwortlichen ein Mangel an strategischer Klarheit und Priorisierung. Einer Gartner-Umfrage zufolge sind nur 16 % der Unternehmen überzeugt, dass ihre Portfoliomanagemententscheidungen die strategischen Ziele effektiv unterstützen. Kurz: Ein effektives SPM ist ein kraftvolles Steuerungsinstrument – aber nur, wenn Strategie, Struktur, Daten und Kultur zusammenspielen. Die genannten Herausforderungen sind typisch, aber mit den richtigen Methoden, Tools und einem konsequenten Führungsansatz lösbar, wie ein CIO Webcast in Zusammenarbeit mit Planview zeigt. Sie erfahren nicht nur, wie genau SPM Ihre aktuellen Herausforderungen löst, sondern auch warum eine leistungsstarke Simulation zur Abwägung von Risiken und Chancen unabdingbar ist. Sabrina Chrobok von Planview erklärt außerdem, was es braucht, damit Sie datengestützt sicherstellen können, dass risikoreiche Investitionen zu optimalen Renditen führen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren. CIO WebcastErfahren Sie im CIO-Webcast, wie Sie mit SPM die wertvollsten Initiativen identifizieren und diesen die nötigen Ressourcen zuweisen.Registrieren Sie sich jetzt 

Wie Sie mit SPM im Business die richtige Wette abschließen​ In Zeiten wirtschaftlicher Unsicherheit und struktureller Veränderungen gewinnt Strategisches Portfolio Management (SPM) für Unternehmen zunehmend an Bedeutung. So planen laut der Corporate Portfolio Management Studie 2023 von PwC Deutschland 55 Prozent der befragten Unternehmen in der Region DACH innerhalb der nächsten zwölf Monate Anpassungen in ihrem Geschäftsbereichsportfolio. Das überrascht wenig: Erwarten doch 44 Prozent der Entscheiderinnen und Entscheider, dass sich ihr Kerngeschäft in den kommenden fünf Jahren um mindestens 20 Prozent verändern wird.

Doch für Unternehmen ist SPM ein komplexes Unterfangen mit einigen Herausforderungen: Häufig herrscht bei den Verantwortlichen ein Mangel an strategischer Klarheit und Priorisierung. Einer Gartner-Umfrage zufolge sind nur 16 % der Unternehmen überzeugt, dass ihre Portfoliomanagemententscheidungen die strategischen Ziele effektiv unterstützen. Kurz: Ein effektives SPM ist ein kraftvolles Steuerungsinstrument – aber nur, wenn Strategie, Struktur, Daten und Kultur zusammenspielen.

Die genannten Herausforderungen sind typisch, aber mit den richtigen Methoden, Tools und einem konsequenten Führungsansatz lösbar, wie ein CIO Webcast in Zusammenarbeit mit Planview zeigt. Sie erfahren nicht nur, wie genau SPM Ihre aktuellen Herausforderungen löst, sondern auch warum eine leistungsstarke Simulation zur Abwägung von Risiken und Chancen unabdingbar ist. Sabrina Chrobok von Planview erklärt außerdem, was es braucht, damit Sie datengestützt sicherstellen können, dass risikoreiche Investitionen zu optimalen Renditen führen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren.

CIO WebcastErfahren Sie im CIO-Webcast, wie Sie mit SPM die wertvollsten Initiativen identifizieren und diesen die nötigen Ressourcen zuweisen.Registrieren Sie sich jetzt

Wie Sie mit SPM im Business die richtige Wette abschließen​ Weiterlesen »

Replizieren Sie sich (digital), es lohnt sich!​

Allgemein

Der Digital-Twin-Ansatz funktioniert laut unserer Autorin auch bei Menschen ziemlich gut.Sergey Nivens | shutterstock.com Digitale Zwillinge waren mir ein Begriff – in Zusammenhang mit Gebäuden, Prozessen oder Smart Cities. Allerdings war ich davon ausgegangen, dass digitale Zwillinge von Menschen noch ein paar Jahre in der Zukunft liegen würden. Dann belehrte mich der Anruf eines Tech-Entrepreneurs eines Besseren: Er stellte mir seine Plattform vor, mit der praktisch jeder einen digitalen Klon von sich selbst erschaffen und ihn einem Publikum, respektive einer Zielgruppe, zu Kommunikationszwecken zur Verfügung stellen kann. Dabei lernt der Digital Twin aus Publikationen, Videos, Meeting-Protokollen, E-Mails, WhatsApp-Nachrichten und vielen weiteren Inhalten, sich wie sein menschliches Vorbild zu verhalten, beziehungsweise zu kommunizieren. Das Angebot, mir gegen Bezahlung von einem Entwickler-Team einen Digital Twin erstellen zu lassen, schlug ich allerdings aus. Stattdessen wollte ich viel lieber einfach selbst mit der Plattform experimentieren. Schließlich habe ich in den 1980er Jahren als Programmiererin für Großrechner gearbeitet – und bei dieser Gelegenheit den Technik-Freak in mir entdeckt. In uns allen steckt eben ein kleiner Hacker. Und was konnte schon schiefgehen? Wenn das alles zu klobig und komplex wird, kann ich es ja einfach sein lassen. Doch – so viel vorab – dazu kam es nicht. Per Digital Twin zum Digital Twin Als ich meinen Kollegen von meinem Plan erzählte, mich selbst digital zu klonen, rieten die mir davon ab. Ihr Argument war dabei, dass ich mich dadurch selbst überflüssig machen könnte. Ich selbst hatte dagegen vor allem vor Augen, wie viel weniger Arbeit ich bewältigen müsste – und welchen anderen, besseren Dingen ich meine Zeit widmen könnte. Dann lernte ich Eve kennen – den Digital Twin, der mich dabei unterstützt hat, meinen eigenen Digital Twin namens „CJ2“ zu erstellen. Meine Aufgabe bestand zunächst darin, Buchmanuskripte, Artikel, Videos und Links zu Webseiten zu sammeln und diese – gemeinsam mit meinem LinkedIn-Profil und einem Foto von mir – an Eve zu übergeben, die damit meinen Zwilling „fütterte“.   Das war eine echte Hilfe: So ließen sich einige meiner Bücher nicht in kompletter Form einladen. Deshalb schlug Eve mir vor, sie in separate Dateien zu zerlegen, weil Dokumente mit mehr als 25.000 Wörtern nicht unterstützt werden. Danach klappte alles einwandfrei. Ich war wirklich verblüfft über dieses System, das ich auch ohne jede Schulung frustfrei bedienen konnte. Und gab es doch einmal ein Problem, bei dem Eve nicht weiterhelfen konnte, waren die (menschlichen) Support-Mitarbeiter zur Stelle. So war es mir möglich, in nur etwa einer Woche in “Teilzeitarbeit” meinen eigenen, digitalen Zwilling zu erstellen. Dr. CJ Meadows leitet das Innovation & Entrepreneurship Center an der S P Jain School of Global Management. Sie verfügt über mehr als 25 Jahre Erfahrung als Beraterin, Coach, Unternehmerin, E-Business-Entwicklerin, Autorin und Gründerin. CJ2 habe ich mit den Eigenschaften “natürlich”, “freundlich” und “konsistent” ausgestattet, ihren Kommunikationsstil auf “gesprächig”, “einfühlsam” und “neugierig” justiert. Das Feedback eines Benutzers, CJ2 stelle zu viele Fragen, stellte sich nach Gesprächen mit weiteren Testnutzern als realitätsnahes Feature heraus. Allerdings ist CJ2 keine private KI, die mir helfen soll, mich an Dinge zu erinnern oder nur einer bestimmten, definierten Nutzergruppe zugänglich ist: Stattdessen habe ich meinen digitalen Zwilling allgemein verfügbar gemacht, damit jeder mit ihm interagieren kann. Außerdem verfügt CJ2 auch über eine eigene Landing Page sowie eine Biografie und eine Eröffnungsphrase für Gespräche (um die Ähnlichkeiten zu mir, CJ1, herauszustellen). Die Standard-Antwortschwelle habe ich dabei übrigens auf 0 Prozent gesetzt, so dass CJ2 auch dann antwortet, wenn sie die Antwort nicht in ihrem Speicher hat. Ganz allgemein weiß ich aber, dass CJ2 ziemlich gut funktioniert, denn mein Ehemann streitet sich mit ihr: Nachdem er von CJ2 eine Antwort bekommen hatte, die ihm nicht genehm war, versuchte er, mich gegen meinen Zwilling auszuspielen und auf seine Seite zu ziehen. Bei der von CJ2 gelieferten Antwort mit einem Ähnlichkeitswert von 92 Prozent hätte ihm allerdings klar sein sollen, auf wessen Seite ich stehe. CJ2 lernt weiter durch ihre Interaktionen mit Benutzern – und das neue Material, das ich regelmäßig hochlade. Bislang habe ich zu meinem Digital Twin ausschließlich positives Feedback bekommen. Bilden Sie sich am besten einfach selbst ein Urteil und chatten Sie ganz ungezwungen ein wenig mit CJ2. Wenn dabei eine Antwort mit einem Ähnlichkeitswert von weniger als 45 Prozent herauskommt, fragen Sie eventuell lieber noch einmal bei CJ1 nach. Ich bin mit der Performance meines digitalen Zwillings zufrieden, denn CJ2: war für meine Leser und Workshop-Teilnehmer sehr nützlich, hat mich dabei unterstützt meine Marke auszubauen, hat zu Buchverkäufen beigetragen, und konnte Studierende für Studiengänge und Weiterbildungen gewinnen. Die düstere Vision meiner Kollegen hat sich ebenfalls nicht erfüllt: CJ2 hat mich nicht überflüssig gemacht. Aber ich habe jetzt tatsächlich mehr Zeit, um Menschen dabei zu unterstützen, unstrukturierte Probleme mit wenig bis gar keinen Daten zu lösen. Und um dazu beizutragen, neues Wissen zu schaffen. Beides Dinge, die KI derzeit (noch) nicht besonders gut kann. Wo Twin ist, ist auch Schatten Doch bei aller Begeisterung um meinen persönlichen Digital Twin: Es gibt einige Problemstellungen in Zusammenhang mit diesem Ansatz, die Sie sich vergegenwärtigen sollten, bevor Sie diesen im großen Stil in Ihrem Unternehmen ausrollen. Im Zusammenhang mit digitalen Zwillingen sollten folgende Bereiche kritische Fragen aufwerfen: Security. Können vertrauliche Informationen aus geschlossenen SLMs in öffentliche LLMs gelangen? Wie lassen sich Cyberangriffe auf Digital Twins verhindern, bei denen Informationen geleakt oder Antworten manipuliert werden? Datenschutz. Welche Datenschutzrichtlinien sollten Mitarbeiter beachten, wenn sie Meeting-Protokolle und E-Mails hochladen? Kontrolle. Welche Art von Consent- und Control-Protokollen wird benötigt? Bias. Sind die Antworten der digitalen Zwillinge fair und verfügen sie über eine ausreichende Datenbasis? Fähigkeit zu vergessen. Können veraltete Prozesse, Formulare und Ähnliches entfallen? Identität und Autonomie. Wie stehen die Chancen, dass Menschen Entscheidungen auf der Grundlage eines Digital Twin treffen – und dann Menschen dafür verantwortlich machen? Datenmanagement. Sind die Systeme robust genug, um die anfallenden Datenmengen zu verarbeiten? Sind die Daten standardisiert und interoperabel? Geistiges Eigentum. Wem gehört der Input, der in einen digitalen Zwilling fließt und wem seine Outputs – insbesondere bei Kooperationsinitiativen? Monetarisierung. Soll der Twin kostenlos zur Verfügung stehen oder geht es darum, zahlungspflichtige Services anzubieten? Belegschaft. Kann der Digital-Twin-Einsatz den Bedarf an menschlichen Arbeitskräften verringern? Wer bezahlt die nötige Weiterbildung der Mitarbeiter? Regulierungen und Governance. Wie sollen Richtlinienänderungen und Governance-Prozesse gestemmt werden? Digital-Twin-Tipps für Unternehmen Sie ahnen es wahrscheinlich längst: Was Sie brauchen, um eine Digital-Twin-Initiative (für Menschen) in Unternehmen erfolgreich umzusetzen, ist ein interdisziplinärer Ansatz. Dieser sollte (unter anderem) miteinbeziehen: IT-Profis, KI-Ethiker, Juristen, Marketing-Fachleute, sowie Experten aus dem Personalwesen. Sind die richtigen Menschen an Bord, sollten Sie das auch nutzen: Versuchen Sie nicht, alles selbst zu entwerfen und umzusetzen. Leiten Sie stattdessen eine demokratische Basisbewegung. Und: Behalten Sie strategische Vorteile im Auge. Das funktioniert am besten, indem Sie Was-wäre-wenn-Szenarien durchzuspielen. Einige Tipps zur Umsetzung für IT-Entscheider und Ihre Mitarbeiter: Experimentieren Sie in entsprechenden “Safe Spaces” – am besten (auch) selbst. Behalten Sie Risiken im Hinterkopf und kommunizieren Sie mit den zuständigen Kollegen. Auch in diesem Bereich empfehlen sich Experimente – bei entsprechend geringem Risiko. Identifizieren Sie Vorreiter, die die Technologie wirklich durchdringen und als Fürsprecher fungieren können. Definieren Sie Leitplanken – idealerweise in Form eines Videos im „Influencer-Stil“. Das ist geeignet, um die Initiative, die gewählte Plattform, die KI-Nutzung und ihre Vorteile sowie die Richtlinien ansprechend zu präsentieren – und Ängste abzubauen.   Bewerten Sie kontinuierlich die Ergebnisse Ihrer Experimente und die daraus gewonnenen Erkenntnisse. Am besten im Austausch mit den übrigen Beteiligten. Das kann auch Anreize schaffen, Anwendungsfälle zu erweitern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Replizieren Sie sich (digital), es lohnt sich!​ Der Digital-Twin-Ansatz funktioniert laut unserer Autorin auch bei Menschen ziemlich gut.Sergey Nivens | shutterstock.com

Digitale Zwillinge waren mir ein Begriff – in Zusammenhang mit Gebäuden, Prozessen oder Smart Cities. Allerdings war ich davon ausgegangen, dass digitale Zwillinge von Menschen noch ein paar Jahre in der Zukunft liegen würden. Dann belehrte mich der Anruf eines Tech-Entrepreneurs eines Besseren: Er stellte mir seine Plattform vor, mit der praktisch jeder einen digitalen Klon von sich selbst erschaffen und ihn einem Publikum, respektive einer Zielgruppe, zu Kommunikationszwecken zur Verfügung stellen kann.

Dabei lernt der Digital Twin aus Publikationen, Videos, Meeting-Protokollen, E-Mails, WhatsApp-Nachrichten und vielen weiteren Inhalten, sich wie sein menschliches Vorbild zu verhalten, beziehungsweise zu kommunizieren. Das Angebot, mir gegen Bezahlung von einem Entwickler-Team einen Digital Twin erstellen zu lassen, schlug ich allerdings aus. Stattdessen wollte ich viel lieber einfach selbst mit der Plattform experimentieren. Schließlich habe ich in den 1980er Jahren als Programmiererin für Großrechner gearbeitet – und bei dieser Gelegenheit den Technik-Freak in mir entdeckt. In uns allen steckt eben ein kleiner Hacker.

Und was konnte schon schiefgehen? Wenn das alles zu klobig und komplex wird, kann ich es ja einfach sein lassen. Doch – so viel vorab – dazu kam es nicht.

Per Digital Twin zum Digital Twin

Als ich meinen Kollegen von meinem Plan erzählte, mich selbst digital zu klonen, rieten die mir davon ab. Ihr Argument war dabei, dass ich mich dadurch selbst überflüssig machen könnte. Ich selbst hatte dagegen vor allem vor Augen, wie viel weniger Arbeit ich bewältigen müsste – und welchen anderen, besseren Dingen ich meine Zeit widmen könnte.

Dann lernte ich Eve kennen – den Digital Twin, der mich dabei unterstützt hat, meinen eigenen Digital Twin namens „CJ2“ zu erstellen. Meine Aufgabe bestand zunächst darin, Buchmanuskripte, Artikel, Videos und Links zu Webseiten zu sammeln und diese – gemeinsam mit meinem LinkedIn-Profil und einem Foto von mir – an Eve zu übergeben, die damit meinen Zwilling „fütterte“.  

Das war eine echte Hilfe: So ließen sich einige meiner Bücher nicht in kompletter Form einladen. Deshalb schlug Eve mir vor, sie in separate Dateien zu zerlegen, weil Dokumente mit mehr als 25.000 Wörtern nicht unterstützt werden. Danach klappte alles einwandfrei. Ich war wirklich verblüfft über dieses System, das ich auch ohne jede Schulung frustfrei bedienen konnte. Und gab es doch einmal ein Problem, bei dem Eve nicht weiterhelfen konnte, waren die (menschlichen) Support-Mitarbeiter zur Stelle. So war es mir möglich, in nur etwa einer Woche in “Teilzeitarbeit” meinen eigenen, digitalen Zwilling zu erstellen.

Dr. CJ Meadows leitet das Innovation & Entrepreneurship Center an der S P Jain School of Global Management. Sie verfügt über mehr als 25 Jahre Erfahrung als Beraterin, Coach, Unternehmerin, E-Business-Entwicklerin, Autorin und Gründerin.

CJ2 habe ich mit den Eigenschaften “natürlich”, “freundlich” und “konsistent” ausgestattet, ihren Kommunikationsstil auf “gesprächig”, “einfühlsam” und “neugierig” justiert. Das Feedback eines Benutzers, CJ2 stelle zu viele Fragen, stellte sich nach Gesprächen mit weiteren Testnutzern als realitätsnahes Feature heraus.

Allerdings ist CJ2 keine private KI, die mir helfen soll, mich an Dinge zu erinnern oder nur einer bestimmten, definierten Nutzergruppe zugänglich ist: Stattdessen habe ich meinen digitalen Zwilling allgemein verfügbar gemacht, damit jeder mit ihm interagieren kann. Außerdem verfügt CJ2 auch über eine eigene Landing Page sowie eine Biografie und eine Eröffnungsphrase für Gespräche (um die Ähnlichkeiten zu mir, CJ1, herauszustellen). Die Standard-Antwortschwelle habe ich dabei übrigens auf 0 Prozent gesetzt, so dass CJ2 auch dann antwortet, wenn sie die Antwort nicht in ihrem Speicher hat.

Ganz allgemein weiß ich aber, dass CJ2 ziemlich gut funktioniert, denn mein Ehemann streitet sich mit ihr: Nachdem er von CJ2 eine Antwort bekommen hatte, die ihm nicht genehm war, versuchte er, mich gegen meinen Zwilling auszuspielen und auf seine Seite zu ziehen. Bei der von CJ2 gelieferten Antwort mit einem Ähnlichkeitswert von 92 Prozent hätte ihm allerdings klar sein sollen, auf wessen Seite ich stehe.

CJ2 lernt weiter durch ihre Interaktionen mit Benutzern – und das neue Material, das ich regelmäßig hochlade. Bislang habe ich zu meinem Digital Twin ausschließlich positives Feedback bekommen. Bilden Sie sich am besten einfach selbst ein Urteil und chatten Sie ganz ungezwungen ein wenig mit CJ2. Wenn dabei eine Antwort mit einem Ähnlichkeitswert von weniger als 45 Prozent herauskommt, fragen Sie eventuell lieber noch einmal bei CJ1 nach.

Ich bin mit der Performance meines digitalen Zwillings zufrieden, denn CJ2:

war für meine Leser und Workshop-Teilnehmer sehr nützlich,

hat mich dabei unterstützt meine Marke auszubauen,

hat zu Buchverkäufen beigetragen, und

konnte Studierende für Studiengänge und Weiterbildungen gewinnen.

Die düstere Vision meiner Kollegen hat sich ebenfalls nicht erfüllt: CJ2 hat mich nicht überflüssig gemacht. Aber ich habe jetzt tatsächlich mehr Zeit, um Menschen dabei zu unterstützen, unstrukturierte Probleme mit wenig bis gar keinen Daten zu lösen. Und um dazu beizutragen, neues Wissen zu schaffen. Beides Dinge, die KI derzeit (noch) nicht besonders gut kann.

Wo Twin ist, ist auch Schatten

Doch bei aller Begeisterung um meinen persönlichen Digital Twin: Es gibt einige Problemstellungen in Zusammenhang mit diesem Ansatz, die Sie sich vergegenwärtigen sollten, bevor Sie diesen im großen Stil in Ihrem Unternehmen ausrollen. Im Zusammenhang mit digitalen Zwillingen sollten folgende Bereiche kritische Fragen aufwerfen:

Security. Können vertrauliche Informationen aus geschlossenen SLMs in öffentliche LLMs gelangen? Wie lassen sich Cyberangriffe auf Digital Twins verhindern, bei denen Informationen geleakt oder Antworten manipuliert werden?

Datenschutz. Welche Datenschutzrichtlinien sollten Mitarbeiter beachten, wenn sie Meeting-Protokolle und E-Mails hochladen?

Kontrolle. Welche Art von Consent- und Control-Protokollen wird benötigt?

Bias. Sind die Antworten der digitalen Zwillinge fair und verfügen sie über eine ausreichende Datenbasis?

Fähigkeit zu vergessen. Können veraltete Prozesse, Formulare und Ähnliches entfallen?

Identität und Autonomie. Wie stehen die Chancen, dass Menschen Entscheidungen auf der Grundlage eines Digital Twin treffen – und dann Menschen dafür verantwortlich machen?

Datenmanagement. Sind die Systeme robust genug, um die anfallenden Datenmengen zu verarbeiten? Sind die Daten standardisiert und interoperabel?

Geistiges Eigentum. Wem gehört der Input, der in einen digitalen Zwilling fließt und wem seine Outputs – insbesondere bei Kooperationsinitiativen?

Monetarisierung. Soll der Twin kostenlos zur Verfügung stehen oder geht es darum, zahlungspflichtige Services anzubieten?

Belegschaft. Kann der Digital-Twin-Einsatz den Bedarf an menschlichen Arbeitskräften verringern? Wer bezahlt die nötige Weiterbildung der Mitarbeiter?

Regulierungen und Governance. Wie sollen Richtlinienänderungen und Governance-Prozesse gestemmt werden?

Digital-Twin-Tipps für Unternehmen

Sie ahnen es wahrscheinlich längst: Was Sie brauchen, um eine Digital-Twin-Initiative (für Menschen) in Unternehmen erfolgreich umzusetzen, ist ein interdisziplinärer Ansatz. Dieser sollte (unter anderem) miteinbeziehen:

IT-Profis,

KI-Ethiker,

Juristen,

Marketing-Fachleute, sowie

Experten aus dem Personalwesen.

Sind die richtigen Menschen an Bord, sollten Sie das auch nutzen: Versuchen Sie nicht, alles selbst zu entwerfen und umzusetzen. Leiten Sie stattdessen eine demokratische Basisbewegung. Und: Behalten Sie strategische Vorteile im Auge. Das funktioniert am besten, indem Sie Was-wäre-wenn-Szenarien durchzuspielen.

Einige Tipps zur Umsetzung für IT-Entscheider und Ihre Mitarbeiter:

Experimentieren Sie in entsprechenden “Safe Spaces” – am besten (auch) selbst.

Behalten Sie Risiken im Hinterkopf und kommunizieren Sie mit den zuständigen Kollegen. Auch in diesem Bereich empfehlen sich Experimente – bei entsprechend geringem Risiko.

Identifizieren Sie Vorreiter, die die Technologie wirklich durchdringen und als Fürsprecher fungieren können.

Definieren Sie Leitplanken – idealerweise in Form eines Videos im „Influencer-Stil“. Das ist geeignet, um die Initiative, die gewählte Plattform, die KI-Nutzung und ihre Vorteile sowie die Richtlinien ansprechend zu präsentieren – und Ängste abzubauen.  

Bewerten Sie kontinuierlich die Ergebnisse Ihrer Experimente und die daraus gewonnenen Erkenntnisse. Am besten im Austausch mit den übrigen Beteiligten. Das kann auch Anreize schaffen, Anwendungsfälle zu erweitern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Replizieren Sie sich (digital), es lohnt sich!​ Weiterlesen »

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​

Allgemein

Bundesdigitalminister Karsten Wildberger auf der re:publica 2025Gregor Fischer/re:publica Vor der neuen Bundesregierung liegen große Herausforderungen. Das liegt auch daran, dass viele Dinge wie veraltete und marode Infrastruktur jahrzehntelang nicht richtig angepackt wurden. Gleiches galt für die digitale Unabhängigkeit. Allerdings hat es erst die US-Regierung mit ihrer unkalkulierbaren Bulldozer-Taktik geschafft, dass hierzulande kurzerhand sogar ein neues Ministerium für Digitalisierung und Staatsmodernisierung aus dem Boden gestampft wurde. Fast müsste man Donald Trump dankbar sein. Nun kommt es darauf an, wie ernst die neue Bundesregierung es mit der digitalen Unabhängigkeit meint. Schließlich wurden auch von der Vorgängerregierung große Investitionen in offene Open-Source-Lösungen versprochen, bevor die Budgets dann nach und nach drastisch gekürzt wurden. Das inkonsequente und zögerliche Handeln führte letztlich dazu, dass einzelne Bundesländer sich dazu entschieden, die digitale Unabhängigkeit selbst in die Hand zu nehmen. So ist man etwa in Schleswig-Holstein nun deutlich weiter als dort, wo die oberste Devise „abwarten“ hieß. ZenDiS kommt Schlüsselrolle zu Um die digitale Souveränität strategisch und koordiniert voranzutreiben, gilt es nun, die vorhandenen Kräfte zu bündeln und zeitnah zu stärken. Eine wichtige Rolle wird dabei dem Zentrum für Digitale Souveränität (ZenDiS) zukommen. Trotz seiner vergleichsweise geringen Ressourcen ist es dem ZenDiS in den letzten Jahren gelungen, gemeinsam mit deutschen und europäischen Open-Source-Unternehmen einen digitalen Arbeitsplatz für die öffentliche Verwaltung zu entwickeln. Bereits seit Oktober letzten Jahres kann die „Office & Collaboration Suite” openDesk als Alternative zu Microsoft & Co. genutzt werden. Mit ihr erhalten Nutzer alle wichtigen Tools, die sie zum täglichen Arbeiten benötigen: von E-Mail und Kontakten über Chats und Video-Calls bis hin zum Cloud-Speicher. Anders als bei proprietärer Software können die Betreiber dabei den Code einsehen und kontrollieren. Zudem sind sie nicht von einzelnen Herstellern abhängig – und damit auch nicht von deren Preispolitik. „Mit openDesk steht der Öffentlichen Verwaltung eine souveräne und sichere Alternative zu proprietärer Software zur Verfügung“, erklärt Pamela Krosta-Hartl, Leiterin Strategie und Kommunikation beim ZenDiS. Zentrale Akteure wie das IT-Systemhaus der Bundeswehr und das Robert Koch-Institut setzten bereits auf openDesk und zeigten, dass europäische souveräne Lösungen konkurrenzfähig sind. Staatliche Lösungen bedrohen Existenz von Open-Source-Spezialisten Die neue Bundesregierung will das ZenDiS und openDesk nun ausdrücklich dazu nutzen, um die Digitalisierung der öffentlichen Verwaltung auf Basis offener Standards und Schnittstellen voranzutreiben. Ob dies flächendeckend gelingt, wird auch davon abhängen, wie andere europäische Nachbarn die digitale Unabhängigkeit angehen. Mit unbedachtem Vorgehen kann selbst bei guten Absichten viel kaputt gemacht werden. Das zeigt sich unter anderem in Frankreich. Hier hat die interministerielle Behörde für Digitales (DINUM) eine Plattform in Eigenregie entwickeln lassen, die mittlerweile verschiedene Open-Source-Tools umfasst. Im Gegensatz zu openDesk wird „La Suite Numérique“ allerdings von festangestellten Entwicklern sowie Freelancern in Eigenregie erstellt und betrieben. Damit schadet die französische Regierung letztlich den Open-Source-Unternehmen, die notwendig sind, um eine echte Alternative zu Microsoft zu bieten. Am Ende werden so die Anbieter geschwächt, auf deren Software “La Suite” basiert. Dieses Vorgehen bringt langfristig also niemanden weiter und zeigt ein weitgehend falsches Verständnis von „Unabhängigkeit“. Vielmehr kostet es viel Zeit und Energie – und am Ende wird es keine Alternativen mehr zu den großen US-Anbietern geben. Andere Länder zeigen Interesse an openDesk Der Ansatz der deutschen Bundesregierung ist hier deutlich zielführender. Zwar wird das ZenDiS als Bundes-GmbH ebenfalls von Steuergeldern finanziert. Doch das ZenDiS entwickelt die Lösungen nicht selbst. Sie fungiert vielmehr als zentrale Koordinierungs- und Anlaufstelle, bei der alle Fäden zusammenlaufen – für die Open-Source-Spezialisten wie für die interessierten Verwaltungen und Ministerien. Das openDesk-Konzept ist dabei so gestaltet, dass die einzelnen Lösungen, wenn notwendig, stets austauschbar und ersetzbar sind. Einige europäische Länder haben bereits Interesse an einer Kooperation sowie der Nutzung von openDesk gezeigt. Österreich hat sogar ein Partnerschaftsabkommen mit dem ZenDiS geschlossen. In der Schweiz wird der digitale Arbeitsplatz derzeit getestet. Die Kooperation mit Frankreich und den Niederlanden geht sogar noch einen Schritt weiter: Mit ihnen arbeitet das ZenDiS bereits grenzüberschreitend gemeinsam an einer europäischen Version des souveränen, Open-Source-basierten PC-Arbeitsplatzes.  Politik muss sicherstellen, dass der Wandel flächendeckend gelingt Nach Jahren des zähen Ringens sieht es also so aus, als könnte sich Europa doch noch von den bislang alles dominierenden US-Software-Konzernen lösen. Dass Deutschland dabei eine Vorreiterrolle zukommt, hätten vor wenigen Jahren nur die wenigsten gedacht. Nun muss die Politik allerdings sicherstellen, dass der Wandel langfristig und flächendeckend gelingt. Dazu müssen nicht nur die entsprechenden Budgets zur Verfügung gestellt und mit den europäischen Nachbarn kooperiert werden, sondern es muss auch ein Ökosystem aus leistungsfähigen Dienstleistern aufgebaut werden. (mb) 

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​ Bundesdigitalminister Karsten Wildberger auf der re:publica 2025Gregor Fischer/re:publica

Vor der neuen Bundesregierung liegen große Herausforderungen. Das liegt auch daran, dass viele Dinge wie veraltete und marode Infrastruktur jahrzehntelang nicht richtig angepackt wurden. Gleiches galt für die digitale Unabhängigkeit. Allerdings hat es erst die US-Regierung mit ihrer unkalkulierbaren Bulldozer-Taktik geschafft, dass hierzulande kurzerhand sogar ein neues Ministerium für Digitalisierung und Staatsmodernisierung aus dem Boden gestampft wurde. Fast müsste man Donald Trump dankbar sein.

Nun kommt es darauf an, wie ernst die neue Bundesregierung es mit der digitalen Unabhängigkeit meint. Schließlich wurden auch von der Vorgängerregierung große Investitionen in offene Open-Source-Lösungen versprochen, bevor die Budgets dann nach und nach drastisch gekürzt wurden. Das inkonsequente und zögerliche Handeln führte letztlich dazu, dass einzelne Bundesländer sich dazu entschieden, die digitale Unabhängigkeit selbst in die Hand zu nehmen. So ist man etwa in Schleswig-Holstein nun deutlich weiter als dort, wo die oberste Devise „abwarten“ hieß.

ZenDiS kommt Schlüsselrolle zu

Um die digitale Souveränität strategisch und koordiniert voranzutreiben, gilt es nun, die vorhandenen Kräfte zu bündeln und zeitnah zu stärken. Eine wichtige Rolle wird dabei dem Zentrum für Digitale Souveränität (ZenDiS) zukommen.

Trotz seiner vergleichsweise geringen Ressourcen ist es dem ZenDiS in den letzten Jahren gelungen, gemeinsam mit deutschen und europäischen Open-Source-Unternehmen einen digitalen Arbeitsplatz für die öffentliche Verwaltung zu entwickeln. Bereits seit Oktober letzten Jahres kann die „Office & Collaboration Suite” openDesk als Alternative zu Microsoft & Co. genutzt werden. Mit ihr erhalten Nutzer alle wichtigen Tools, die sie zum täglichen Arbeiten benötigen: von E-Mail und Kontakten über Chats und Video-Calls bis hin zum Cloud-Speicher.

Anders als bei proprietärer Software können die Betreiber dabei den Code einsehen und kontrollieren. Zudem sind sie nicht von einzelnen Herstellern abhängig – und damit auch nicht von deren Preispolitik.

„Mit openDesk steht der Öffentlichen Verwaltung eine souveräne und sichere Alternative zu proprietärer Software zur Verfügung“, erklärt Pamela Krosta-Hartl, Leiterin Strategie und Kommunikation beim ZenDiS. Zentrale Akteure wie das IT-Systemhaus der Bundeswehr und das Robert Koch-Institut setzten bereits auf openDesk und zeigten, dass europäische souveräne Lösungen konkurrenzfähig sind.

Staatliche Lösungen bedrohen Existenz von Open-Source-Spezialisten

Die neue Bundesregierung will das ZenDiS und openDesk nun ausdrücklich dazu nutzen, um die Digitalisierung der öffentlichen Verwaltung auf Basis offener Standards und Schnittstellen voranzutreiben. Ob dies flächendeckend gelingt, wird auch davon abhängen, wie andere europäische Nachbarn die digitale Unabhängigkeit angehen. Mit unbedachtem Vorgehen kann selbst bei guten Absichten viel kaputt gemacht werden.

Das zeigt sich unter anderem in Frankreich. Hier hat die interministerielle Behörde für Digitales (DINUM) eine Plattform in Eigenregie entwickeln lassen, die mittlerweile verschiedene Open-Source-Tools umfasst. Im Gegensatz zu openDesk wird „La Suite Numérique“ allerdings von festangestellten Entwicklern sowie Freelancern in Eigenregie erstellt und betrieben.

Damit schadet die französische Regierung letztlich den Open-Source-Unternehmen, die notwendig sind, um eine echte Alternative zu Microsoft zu bieten. Am Ende werden so die Anbieter geschwächt, auf deren Software “La Suite” basiert. Dieses Vorgehen bringt langfristig also niemanden weiter und zeigt ein weitgehend falsches Verständnis von „Unabhängigkeit“. Vielmehr kostet es viel Zeit und Energie – und am Ende wird es keine Alternativen mehr zu den großen US-Anbietern geben.

Andere Länder zeigen Interesse an openDesk

Der Ansatz der deutschen Bundesregierung ist hier deutlich zielführender. Zwar wird das ZenDiS als Bundes-GmbH ebenfalls von Steuergeldern finanziert. Doch das ZenDiS entwickelt die Lösungen nicht selbst. Sie fungiert vielmehr als zentrale Koordinierungs- und Anlaufstelle, bei der alle Fäden zusammenlaufen – für die Open-Source-Spezialisten wie für die interessierten Verwaltungen und Ministerien. Das openDesk-Konzept ist dabei so gestaltet, dass die einzelnen Lösungen, wenn notwendig, stets austauschbar und ersetzbar sind.

Einige europäische Länder haben bereits Interesse an einer Kooperation sowie der Nutzung von openDesk gezeigt. Österreich hat sogar ein Partnerschaftsabkommen mit dem ZenDiS geschlossen. In der Schweiz wird der digitale Arbeitsplatz derzeit getestet. Die Kooperation mit Frankreich und den Niederlanden geht sogar noch einen Schritt weiter: Mit ihnen arbeitet das ZenDiS bereits grenzüberschreitend gemeinsam an einer europäischen Version des souveränen, Open-Source-basierten PC-Arbeitsplatzes. 

Politik muss sicherstellen, dass der Wandel flächendeckend gelingt

Nach Jahren des zähen Ringens sieht es also so aus, als könnte sich Europa doch noch von den bislang alles dominierenden US-Software-Konzernen lösen. Dass Deutschland dabei eine Vorreiterrolle zukommt, hätten vor wenigen Jahren nur die wenigsten gedacht.

Nun muss die Politik allerdings sicherstellen, dass der Wandel langfristig und flächendeckend gelingt. Dazu müssen nicht nur die entsprechenden Budgets zur Verfügung gestellt und mit den europäischen Nachbarn kooperiert werden, sondern es muss auch ein Ökosystem aus leistungsfähigen Dienstleistern aufgebaut werden. (mb)

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​ Weiterlesen »

Eine kleine Geschichte der künstlichen Intelligenz​

Allgemein

Eine kleine Geschichte der KI zeigt die wichtigsten Stationen der Künstlichen Intelligenz – vom Mathematiker Turing bis zum IBM-System Watson. Foto: John Williams RUS – shutterstock.com In den letzten Jahren wurden in der Computerwissenschaft und bei der künstlichen Intelligenz (KI) unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf KI verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten. KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine? Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel’sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen – und das zu nachzuahmen, was uns Wesentlich ist. Künstliche Intelligenz – die Vorarbeiten Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal – zum Beispiel durch Regelanwendungen – neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab. Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten – und mit den Unvollständigkeitssätzen die Grenzen – der Logik auf. Auf der anderen Seite war – analog dem menschlichen Gehirn – ein “Behältnis” oder Medium notwendig, in dem dieser Formalismus “ablaufen” konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine. Der britische Mathematiker Alan Turing beeinflusste die Entwicklung der Künstlichen Intelligenz maßgeblich. Foto: Computerhistory.org Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine – heute als Turing-Maschine bekannt – möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar – also in endliche wohldefinierte Einzelschritte zerlegbar – können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die “physische Trägersubstanz” für künstliche Intelligenz verfügbar. Der Turing-Test: 1950 Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel “Computing Machinery and Intelligence” aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behauptet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann. Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussionen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor. Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiberverbindung – heute würde man sagen: ein Terminal mit Tastatur – erfolgen. Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Trägermasse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physische Eigenschaften – Aussehen, Stimme – werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI. Der Turing-Test: Wer ist Mensch und wer ist Maschine? Foto: Suresh Kumar Mukhiya Big Bang in Dartmouth: Das erste KI-Programm – 1956 Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das “Summer Research Project on Artificial Intelligence” in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001). Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde. Foto: Dartmouth.edu Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zusammengestellt und an die jeweilige Zielsprache angepasst. Die Probleme reduzierten sich darauf, umfangreiche Wörterbücher anzulegen und effizient abzusuchen. Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwissen erforderlich ist. Künstliche Intelligenz im Elfenbeinturm: 1965 bis 1975 Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne praktischen Nutzen. Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wissenschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Umgebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme. Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Winograd (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fragen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet. Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford entwickelte erste autonome Roboter – aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Computer. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zimmer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-Umwelt, in der realen Welt war er zum Scheitern verurteilt. SHRDLU ist ein natürlichsprachliches System, das in einer überschaubaren Klötzchenwelt agiert, Fragen nach der Lage von Klötzchen beantwortet und Klötzchen auf Anfrage symbolisch umstellt. Foto: http://hci.stanford.edu/winograd/shrdlu/ Ende der 1960er Jahre war die Geburtsstunde des ersten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das “sprachverstehende” Programm ELIZA. Simuliert wird dabei der Dialog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach. Das Programm ELIZA von Joseph Weizenbaum ahmt einen Psychotherapeuten nach. Hier ein aus dem Englischen übersetztes Beispiel einer Sitzung, die von Weizenbaum aufgezeichnet wurde. Die menschlichen Inputs sind mit „M>“ gekennzeichnet, die Antwort des Computers ist mit „C>“ angegeben. Foto: Weizenbaum Denkende KI-Maschinen? – Starke und schwache KI In den siebziger Jahren begann ein heftig ausgefochtener Streit um den ontologischen Status von KI-Maschinen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die “Physical Symbol System Hypothesis”. Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Auf das Gehirn als solches komme es beim Denken nicht an. Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschinen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich. Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschlichen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutionären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denkprozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simuliertes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken. Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische “Wetware”. Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine gewisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denkprozesse. Sind KI-Maschinen also hinreichend komplex, denken sie in der gleichen Weise wie Sie und ich. Expertensysteme – die KI wird praktisch: 1975 bis 1985 In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt. Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele identisch mit der ganzen KI-Forschung – so wie heute für vieleMachine Learning identisch mit KI ist. In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Expertensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedensten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte. Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN. Expertensysteme wie MYCIN konnten mit Hilfe von Regeln und Wissensbasen Diagnose erstellen und Therapien empfehlen. Foto: University of Science and Culture Die Renaissance neuronaler Netze: 1985 bis 1990 Anfang der 80er Jahre kündigte Japan das ehrgeizige “Fifth Generation Project” an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenforschung zu betreiben. Für die KI-Entwicklung favorisierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädikatenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP. Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leistungsfähige Computer. Nun in den Achtzigern erlebte das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus. Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Informationsverarbeitung auf der Interaktion vieler einfacher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet. Doch selbst dieser zweite Anlauf kam zu früh für neuronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genügend Trainingsdaten, es fehlten Lösungen zur Strukturierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam. Verteilte KI und Robotik: Künstliche Intelligenz zwischen 1990 und 2010 Ab etwa 1990 entstand mit der Verteilten KI ein weiterer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch “Society of Mind” beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intelligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualistische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwerfen. Marvin Minsky gilt als Vater der Verteilten KI. Foto: Creative Commons Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten – er nannte sie Actoren – miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagierenden KI-Systems war damit konkret geboren – und Carl Hewitt zum Vater des neuen Ansatzes der Verteilten KI bzw. Distributed AI geworden. Im Rückblick erweisen sich Minsky’s und Hewitt’s Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten – sogenannte Multi-Agenten-Systeme -ein enormes Potenzial entfaltet. Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachweltmeister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Menschen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt (“Brute Force”) alle nur denkbaren Züge soweit wie möglich durchrechnete. 1997 bezwang erstmals ein Computer – IBMs Deep Blue – den amtierenden Schachweltmeister. Foto: IBM In dieser Zeit bekam auch die bis dahin eher dahindümpelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern. Die kommerzielle Wende: KI ab 2010 Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebiete maschinelles Lernen und Natural Language Processing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben. IBM Watson war 2011 Sieger in einem Wissensquiz mit menschlichen Kandidaten. IBM vermarktet Watson nun als kognitives System für verschiedene Einsatzbereiche. Foto: IBM Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Software und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante – Deep Learning – als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memory-Datenbanken machten KI-Anwendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zunehmende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bildern, mit denen sich die Lernalgorithmen “trainieren” lassen. Im Zuge dieser verbesserten technischen und ökonomischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet. Maschine schlägt Mensch: 2016 besiegte Google’s Machine Learning System AlphaGo den Weltmeister im Spiel Go. Foto: Google Andere Big Player zogen nach. Google, Microsoft, Facebook, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Ein weiteres großes Event der KI-Geschichte ereignete sich im Januar 2016 schlug Google’s AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwingbar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg. Heute sind KI- und Machine-Learning-Verfahren in unterschiedlichsten Ausprägungen nicht nur bei den großen IT-Konzernen im Einsatz. Vor allem große und mittelständische Anwenderunternehmen aus fast allen Branchen nutzen KI-basierte Systeme, um Prozesse zu verbessern, Kundenschnittstellen zu optimieren oder ganz neue Produkte und Märkte zu entwickeln. Die Vielzahl an einschlägigen Cloud-basierten Services hat den Einsatz auch für kleinere Organisationen ohne große Entwicklungsbudgets erschwinglich gemacht. Auf den Weg in den Mainstream: ChatGPT & Generative AI ab 2022 Seit OpenAI im November 2022 seinen KI-Chatbot ChatGPT öffentlich verfügbar gemacht hat, hat sich ein Hype entfaltet, der innerhalb der IT-Branche am ehesten mit dem großen Run auf die Cloud vergleichbar ist. Allerdings schaffte ChatGPT etwas, das anderen KI-Tools bis dahin kaum gelungen war – nämlich künstliche Intelligenz auch zum Dauergesprächsthema in den Mainstream-Medien zu machen. ChatGPT rückte auch andere Tools wie DALL-E oder Stable Diffusion ins Rampenlicht und befeuerte die berufliche wie private Nutzung der Tools. Die werden häufig als Modelle bezeichnet, weil sie versuchen, einen Aspekt der realen Welt auf der Grundlage einer (manchmal sehr großen) Teilmenge von Informationen zu simulieren oder zu modellieren. Die Ergebnisse können Erstaunen hervorrufen, werfen aber auch Fragen auf. Abseits des Hypes geht unter der glänzenden Oberfläche der Systeme weniger Revolutionäres vor sich als man glaubt: Im Grunde geht es bei Generative AI darum, mit Hilfe von Machine Learning große Datenmengen zu verarbeiten, die in vielen Fällen aus dem Netz zusammengesammelt und anschließend als Grundlage für Vorhersagen genutzt werden. Wie ChatGPT sich selbst definiert, lesen Sie im COMPUTERWOCHE-Interview mit der KI-Instanz. Mehr Informationen zur Funktionsweise, Anwendungsfällen sowie den Limitationen von Generative AI erfahren Sie in unserem Grundlagenartikel zum Thema sowie einem weiterführenden Beitrag zum Thema Large Language Models (LLMs). Im Januar 2023 konnte Microsoft einen Deal mit OpenAI verkünden: Die Redmonder erklärten sich bereit, rund zehn Milliarden Dollar in das KI-Startup zu investieren. Im Gegenzug werkelt der Konzern seitdem fleißig daran, die KI-Technologie zunehmend mit seinen eigenen Softwareprodukten im Verbraucher- und Unternehmensumfeld zu verknüpfen. Der Erfolg von ChatGPT (respektive OpenAI und Microsoft) setzte eine Art KI-Goldrausch in Gang und sorgte dafür, dass auch andere große Tech-Player Anstrengungen unternahmen, um möglichst schnell ein Konkurrenzprodukt auf den Markt zu bringen – allen voran Google. Darüber hinaus entstanden im Dunstkreis von ChatGPT zahllose weitere generative KI-Tools und -Services für diverse Einsatzzwecke und Anwendungsfälle. Das hat Folgen: Laut der kommenden Studie “Applied AI 2023” nutzt bereits jeder zweite Entscheider in der DACH-Region Generative AI – beruflich wie privat. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Eine kleine Geschichte der künstlichen Intelligenz​ Eine kleine Geschichte der KI zeigt die wichtigsten Stationen der Künstlichen Intelligenz – vom Mathematiker Turing bis zum IBM-System Watson.
Foto: John Williams RUS – shutterstock.com

In den letzten Jahren wurden in der Computerwissenschaft und bei der künstlichen Intelligenz (KI) unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf KI verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten.

KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine?

Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel’sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen – und das zu nachzuahmen, was uns Wesentlich ist.

Künstliche Intelligenz – die Vorarbeiten

Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal – zum Beispiel durch Regelanwendungen – neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab.

Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten – und mit den Unvollständigkeitssätzen die Grenzen – der Logik auf.

Auf der anderen Seite war – analog dem menschlichen Gehirn – ein “Behältnis” oder Medium notwendig, in dem dieser Formalismus “ablaufen” konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine.

Der britische Mathematiker Alan Turing beeinflusste die Entwicklung der Künstlichen Intelligenz maßgeblich.
Foto: Computerhistory.org

Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine – heute als Turing-Maschine bekannt – möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar – also in endliche wohldefinierte Einzelschritte zerlegbar – können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die “physische Trägersubstanz” für künstliche Intelligenz verfügbar.

Der Turing-Test: 1950

Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel “Computing Machinery and Intelligence” aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behauptet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann.

Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussionen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor.

Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiberverbindung – heute würde man sagen: ein Terminal mit Tastatur – erfolgen.

Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Trägermasse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physische Eigenschaften – Aussehen, Stimme – werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI.

Der Turing-Test: Wer ist Mensch und wer ist Maschine?
Foto: Suresh Kumar Mukhiya

Big Bang in Dartmouth: Das erste KI-Programm – 1956

Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das “Summer Research Project on Artificial Intelligence” in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001).

Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde.
Foto: Dartmouth.edu

Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zusammengestellt und an die jeweilige Zielsprache angepasst. Die Probleme reduzierten sich darauf, umfangreiche Wörterbücher anzulegen und effizient abzusuchen. Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwissen erforderlich ist.

Künstliche Intelligenz im Elfenbeinturm: 1965 bis 1975

Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne praktischen Nutzen.

Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wissenschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Umgebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme.

Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Winograd (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fragen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet.

Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford entwickelte erste autonome Roboter – aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Computer. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zimmer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-Umwelt, in der realen Welt war er zum Scheitern verurteilt.

SHRDLU ist ein natürlichsprachliches System, das in einer überschaubaren Klötzchenwelt agiert, Fragen nach der Lage von Klötzchen beantwortet und Klötzchen auf Anfrage symbolisch umstellt.
Foto: http://hci.stanford.edu/winograd/shrdlu/

Ende der 1960er Jahre war die Geburtsstunde des ersten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das “sprachverstehende” Programm ELIZA. Simuliert wird dabei der Dialog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach.

Das Programm ELIZA von Joseph Weizenbaum ahmt einen Psychotherapeuten nach. Hier ein aus dem Englischen übersetztes Beispiel einer Sitzung, die von Weizenbaum aufgezeichnet wurde. Die menschlichen Inputs sind mit „M>“ gekennzeichnet, die Antwort des Computers ist mit „C>“ angegeben.
Foto: Weizenbaum

Denkende KI-Maschinen? – Starke und schwache KI

In den siebziger Jahren begann ein heftig ausgefochtener Streit um den ontologischen Status von KI-Maschinen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die “Physical Symbol System Hypothesis”. Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Auf das Gehirn als solches komme es beim Denken nicht an.

Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschinen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich.

Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschlichen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutionären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denkprozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simuliertes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken.

Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische “Wetware”. Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine gewisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denkprozesse. Sind KI-Maschinen also hinreichend komplex, denken sie in der gleichen Weise wie Sie und ich.

Expertensysteme – die KI wird praktisch: 1975 bis 1985

In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt.

Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele identisch mit der ganzen KI-Forschung – so wie heute für vieleMachine Learning identisch mit KI ist.

In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Expertensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten.

Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedensten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte.

Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN.

Expertensysteme wie MYCIN konnten mit Hilfe von Regeln und Wissensbasen Diagnose erstellen und Therapien empfehlen.
Foto: University of Science and Culture

Die Renaissance neuronaler Netze: 1985 bis 1990

Anfang der 80er Jahre kündigte Japan das ehrgeizige “Fifth Generation Project” an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenforschung zu betreiben. Für die KI-Entwicklung favorisierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädikatenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP.

Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leistungsfähige Computer. Nun in den Achtzigern erlebte das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus.

Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Informationsverarbeitung auf der Interaktion vieler einfacher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet.

Doch selbst dieser zweite Anlauf kam zu früh für neuronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genügend Trainingsdaten, es fehlten Lösungen zur Strukturierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam.

Verteilte KI und Robotik: Künstliche Intelligenz zwischen 1990 und 2010

Ab etwa 1990 entstand mit der Verteilten KI ein weiterer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch “Society of Mind” beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intelligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualistische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwerfen.

Marvin Minsky gilt als Vater der Verteilten KI.
Foto: Creative Commons

Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten – er nannte sie Actoren – miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagierenden KI-Systems war damit konkret geboren – und Carl Hewitt zum Vater des neuen Ansatzes der Verteilten KI bzw. Distributed AI geworden. Im Rückblick erweisen sich Minsky’s und Hewitt’s Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten – sogenannte Multi-Agenten-Systeme -ein enormes Potenzial entfaltet.

Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachweltmeister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Menschen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt (“Brute Force”) alle nur denkbaren Züge soweit wie möglich durchrechnete.

1997 bezwang erstmals ein Computer – IBMs Deep Blue – den amtierenden Schachweltmeister.
Foto: IBM

In dieser Zeit bekam auch die bis dahin eher dahindümpelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern.

Die kommerzielle Wende: KI ab 2010

Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebiete maschinelles Lernen und Natural Language Processing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben.

IBM Watson war 2011 Sieger in einem Wissensquiz mit menschlichen Kandidaten. IBM vermarktet Watson nun als kognitives System für verschiedene Einsatzbereiche.
Foto: IBM

Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Software und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante – Deep Learning – als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memory-Datenbanken machten KI-Anwendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zunehmende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bildern, mit denen sich die Lernalgorithmen “trainieren” lassen.

Im Zuge dieser verbesserten technischen und ökonomischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet.

Maschine schlägt Mensch: 2016 besiegte Google’s Machine Learning System AlphaGo den Weltmeister im Spiel Go.
Foto: Google

Andere Big Player zogen nach. Google, Microsoft, Facebook, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Ein weiteres großes Event der KI-Geschichte ereignete sich im Januar 2016 schlug Google’s AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwingbar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg.

Heute sind KI- und Machine-Learning-Verfahren in unterschiedlichsten Ausprägungen nicht nur bei den großen IT-Konzernen im Einsatz. Vor allem große und mittelständische Anwenderunternehmen aus fast allen Branchen nutzen KI-basierte Systeme, um Prozesse zu verbessern, Kundenschnittstellen zu optimieren oder ganz neue Produkte und Märkte zu entwickeln. Die Vielzahl an einschlägigen Cloud-basierten Services hat den Einsatz auch für kleinere Organisationen ohne große Entwicklungsbudgets erschwinglich gemacht.

Auf den Weg in den Mainstream: ChatGPT & Generative AI ab 2022

Seit OpenAI im November 2022 seinen KI-Chatbot ChatGPT öffentlich verfügbar gemacht hat, hat sich ein Hype entfaltet, der innerhalb der IT-Branche am ehesten mit dem großen Run auf die Cloud vergleichbar ist. Allerdings schaffte ChatGPT etwas, das anderen KI-Tools bis dahin kaum gelungen war – nämlich künstliche Intelligenz auch zum Dauergesprächsthema in den Mainstream-Medien zu machen.

ChatGPT rückte auch andere Tools wie DALL-E oder Stable Diffusion ins Rampenlicht und befeuerte die berufliche wie private Nutzung der Tools. Die werden häufig als Modelle bezeichnet, weil sie versuchen, einen Aspekt der realen Welt auf der Grundlage einer (manchmal sehr großen) Teilmenge von Informationen zu simulieren oder zu modellieren. Die Ergebnisse können Erstaunen hervorrufen, werfen aber auch Fragen auf. Abseits des Hypes geht unter der glänzenden Oberfläche der Systeme weniger Revolutionäres vor sich als man glaubt: Im Grunde geht es bei Generative AI darum, mit Hilfe von Machine Learning große Datenmengen zu verarbeiten, die in vielen Fällen aus dem Netz zusammengesammelt und anschließend als Grundlage für Vorhersagen genutzt werden. Wie ChatGPT sich selbst definiert, lesen Sie im COMPUTERWOCHE-Interview mit der KI-Instanz. Mehr Informationen zur Funktionsweise, Anwendungsfällen sowie den Limitationen von Generative AI erfahren Sie in unserem Grundlagenartikel zum Thema sowie einem weiterführenden Beitrag zum Thema Large Language Models (LLMs).

Im Januar 2023 konnte Microsoft einen Deal mit OpenAI verkünden: Die Redmonder erklärten sich bereit, rund zehn Milliarden Dollar in das KI-Startup zu investieren. Im Gegenzug werkelt der Konzern seitdem fleißig daran, die KI-Technologie zunehmend mit seinen eigenen Softwareprodukten im Verbraucher- und Unternehmensumfeld zu verknüpfen. Der Erfolg von ChatGPT (respektive OpenAI und Microsoft) setzte eine Art KI-Goldrausch in Gang und sorgte dafür, dass auch andere große Tech-Player Anstrengungen unternahmen, um möglichst schnell ein Konkurrenzprodukt auf den Markt zu bringen – allen voran Google.

Darüber hinaus entstanden im Dunstkreis von ChatGPT zahllose weitere generative KI-Tools und -Services für diverse Einsatzzwecke und Anwendungsfälle. Das hat Folgen: Laut der kommenden Studie “Applied AI 2023” nutzt bereits jeder zweite Entscheider in der DACH-Region Generative AI – beruflich wie privat.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Eine kleine Geschichte der künstlichen Intelligenz​ Weiterlesen »

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​

Allgemein

Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen Foto: TierneyMJ – shutterstock.com “Angehende SAP-Beraterinnen und -Berater können bereits mit einem Einstiegsgehalt von rund 50.000 Euro rechnen”, so Thomas Biber, Geschäftsführer der auf das SAP-Umfeld spezialisierten Personalberatung Biber & Associates. Nach drei bis fünf Jahren Berufserfahrung seien für qualifizierte SAP-Fachkräfte mit einschlägigem Spezialwissen in komplexen Themenbereichen bis zu 100.000 Euro oder sogar mehr möglich. Einstieg in die SAP-Beratung Der klassische Direkteinstieg für Junior-Beraterinnen und -Berater beginnt in der Regel in einem SAP-Beratungshaus. Diese verfügen über Trainingsprogramme, die sich speziell an junge Talente ohne SAP-Vorkenntnisse richten. “Angehende Junioren sollten vor allem wichtige Fähigkeiten wie eine Affinität für Technologie und Wirtschaftsprozesse, Kommunikationsstärke, Leistungsbereitschaft und den Wunsch zur stetigen Weiterentwicklung mitbringen”, so Biber. Bei der Auswahl passender Bewerber seien diese Faktoren den Consulting-Häusern meist wichtiger als der eigentliche Studiengang. Dieser könne von Wirtschaftsinformatik, Naturwissenschaften und Wirtschaftswissenschaften bis hin zu Geisteswissenschaften reichen. Aufstieg zum Senior Consultant Nach drei bis vier Jahren, in denen Junior Consultants ihr Trainingsprogramm und verschiedene Weiterbildungen durchlaufen sowie mit Senior-Fachkräften auf Projekten arbeiten, um Praxiserfahrung zu sammeln, sind sie fähig, Themen weitgehend selbständig zu betreuen. Die Beförderung zum Senior Consultant schlägt sich in einem deutlichen Gehaltsprung auf circa 75.000 bis 85.000 Euro nieder. 100.000-Euro-Gehalt durch Spezial- und Branchenwissen “Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen”, so Biber. Eine Beispielkarriere ist laut Biber ein Management-Consultant mit Schwerpunkt Handelslogistik sowie Spezialkenntnissen in den SAP-Logistikmodulen Materialwirtschaft (SAP MM), Vertrieb/Faktura (SAP SD) und der Einzelhandelssoftware SAP Retail. “Fachkräfte sollten jedoch beachten, dass erfolgsbasierte, variable Gehaltsanteile in Consulting-Firmen die Regel sind”, erläutert Biber. Dieser Anteil könne bis zu 20 bis 30 Prozent der Vergütung betragen. Allerdings gibt es auch Beratungshäuser, die einen hohen Fixanteil mit nur drei bis fünf Prozent variablen Anteil bieten. Zu Benefits in Consulting-Häusern zählen zudem häufig Firmenwägen, die oft auch die private Nutzung inklusive Urlaubsfahrten einschließen. Bei intensiver privater Nutzung kann dies mit Benzin, Unterhalt und Wertverlust leicht 12.000 bis 15.000 Euro pro Jahr ausmachen. Auf der anderen Seite zeigt sich mit der starken Verbreitung neuer Remote-Arbeitsmodelle auch im SAP-Consulting ein Trend hin zu einer weniger intensiven Reisetätigkeit. War früher laut Biber ein Anteil von 80 bis 100 Prozent gefordert, verlangen viele Arbeitgeber heute 50 Prozent oder noch weniger. Ein deutlicher Vorteil für die allgemeine Work-Life-Balance sowie insbesondere für Bewerber, die aufgrund familiärer Verpflichtungen nicht uneingeschränkt mobil sein können. Thomas Biber: “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich” Foto: Biber & Associates Selbstständigkeit – Alternative zur Karriere im Beratungshaus “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”, führt Biber weiter aus. “Eine Alternative ist die Selbstständigkeit. Hier können erfahrene SAP-Profis, die sich in einem Kernmarkt wie etwa Retail und Logistik nach ein bis zwei Jahren gut im Markt etabliert haben, einen Jahresumsatz von circa 200.000 bis 250.000 Euro erreichen. Jedoch will dieser Schritt wohlüberlegt sein, da er – wie jede Selbstständigkeit – mit Risiken und einem hohen Arbeitsvolumen einhergeht.” Was SAP-Profis in Anwenderunternehmen verdienen Stellen im Beratungshaus sind deutlich besser vergütet als Inhouse-Positionen in einem Anwenderunternehmen, gehen jedoch auch mit einer deutlich stärkeren Arbeitsbelastung einher. Im Inhouse-Bereich kommen dafür variable Gehaltsanteile kaum vor, betreffen in der Regel nur Führungspositionen und liegen selten über 10 bis 15 Prozent. Wenn SAP-Profis in Anwenderunternehmen den Schritt zur Führungskraft mit Personalverantwortung gehen, können allerdings auch sie die sechsstellige Gehaltsgrenze knacken, abhängig von der Größe des Unternehmens und des zu leitenden Teams. “In einem mittelständischen Betrieb liegt das Gehalt bei rund 95.000 Euro, wenn die Führungskraft nur ein kleineres Team unter sich hat”, so Biber. Unterstehe ihr jedoch in einem Unternehmen mit 20.000 Mitarbeitern die gesamte BI-Truppe sowie 20 eigene Mitarbeiter, könne das Gehalt 130.000 bis 150.000 Euro oder sogar mehr betragen. Was sich auszahlt: Fachwissen, Branche, Standort Der eigene Marktwert für SAP-Beraterinnen und -Berater steht in direkter Relation zu ihrem technischen Spezialwissen und Branchen-Know-how, welches sie sich in ihrer Berufslaufbahn angeeignet haben. “Besonders gesucht auf dem Markt sind Fachkräfte mit Expertise in S/4HANA und C/4HANA sowie in Cloud-basierten Technologie- und Entwicklungsthemen”, weiß der Kenner des SAP-Arbeitsmarkts. “Auch das Thema Gehaltsabrechnung auf Basis von SAP HCM, Hybris und SuccessFactors wird sehr gut vergütet, da es wegen der sozialversicherungsrechtlichen Rahmenbedingungen besonders komplex ist.” Sehr profitabel sind laut Biber zudem Kenntnisse in Finance- oder Logistikkomponenten wie SAP EWM, IS-Retail oder SAP PP-PI (Produktionsplanung Prozessindustrie). Im Entwicklungsbereich ist vor allem Wissen in SAP BTP, FIORI, WeBUI, SAP UI5 oder anderen Themen rund um die Full-Stack-SAP-Softwareentwicklung gefragt. Besonders hochbezahlte Positionen gibt es laut Biber in der Chemie- und Pharmaindustrie sowie im Anlagenbau und Manufacturing. Ebenfalls gute Verdienstchancen bieten Banken, Versicherungen und die Luxusgüterbranche. Dabei zahlen große Unternehmen üblicherweise besser als kleine. Hinsichtlich des Standorts führen in Bezug auf das Gehalt weiterhin die Ballungsgebiete um München, Stuttgart, Rhein-Main, Rhein-Ruhr sowie Hamburg. “Standort und Branche wirken sich deutlich auf das Gehalt aus”, so Biber. “Bei einem renommierten Industrieunternehmen im Frankfurter oder Stuttgarter Raum sind zum Beispiel für eine SAP-HCM-PY-Fachkraft mit fünf bis sieben Jahren Projekterfahrung auch ohne Führungsverantwortung bis zu 120.000 Euro und mehr möglich. Im Vergleich hierzu verdiene ein SAP-Payroll-Experte in einem Unternehmen aus dem Gesundheitswesen in den neuen Bundesländern mit etwa 75.000 bis 80.000 Euro deutlich weniger. Tipps für den Karriereweg Wichtig für SAP-Fachkräfte ist laut Biber, sich kontinuierlich über die neuesten Technologien auf dem Laufenden zu halten, um den eigenen Marktwert zu erhalten und zu steigern. Dies kann in manchen Fällen auch die Suche nach einer neuen Stelle bedeuten, falls der bisherige Arbeitgeber mit veralteten Technologien arbeitet und es keine interne Möglichkeit der Weiterentwicklung gibt. “Gleichzeitig gilt es, bei der Stellensuche Gehaltsverhandlungen mit Augenmaß zu betreiben”, so Biber. “Fachkräfte müssen stets selbstkritisch prüfen, ob sie die jeweiligen Anforderungen erfüllen und zugleich ihre vorhandenen Fähigkeiten deutlich hervorstellen. Unternehmen haben kein Interesse daran, in Verhandlungen die Gehälter möglichst tief herunterzuhandeln. Schließlich wünschen sie sich eine langjährige Zusammenarbeit und wollen nicht das Risiko eingehen, dass ihnen die Fachkraft sofort wieder abspringt.” SAP-Beraterinnen und -Berater ab drei bis fünf Jahren Berufserfahrung können auch in Erwägung ziehen, eine auf ihr Fachgebiet spezialisierte Personalberatung hinzuzuziehen. Ein erfahrender Headhunter, der sich mit den lokalen Gegebenheiten gut auskennt, kann eine realistische Einschätzung geben, was für das entsprechende Bewerberprofil hinsichtlich des Gehalts möglich ist. Consultants und ihre SprücheGetöse, Getöse … Foto: New Africa – shutterstock.comManchmal ist es gar nicht so einfach, in der täglichen Wörterflut das Wesentliche auszumachen. Wenn dann noch jemand “Denglisch” redet, wird’s manchmal richtig kompliziert. Wir übersetzen für Sie.Commitment … Foto: Krakenimages.com – shutterstock.com… hat sich zu einem gängige Begriff im deutschen Sprachgebrauch gemausert, der eine Verpflichtung beziehungsweise ein Bekenntnis ausdrückt. Sich zu einem “objective committen” bedeutet nichts anderes, als ein Ziel zu akzeptieren.On the way Foto: Dimitrios Karamitros – shutterstock.comDie häufig bemühte “Roadmap” mit ihren “Milestones” ist ein Fahrplan samt Meilensteinen. Vorsicht, VIP! Foto: Hurst Photo – shutterstock.comWenn alles im “Round-up” des “Board-Meetings” als “High-Level-Approach” eingestuft wird, dann heißt das vermutlich: Alles im Vorstand Besprochene ist sehr wichtig.Auch betroffen? Foto: Kzenon – shutterstock.comBeschlossen werden auf Vorstandsebene bisweilen Maßnahmen, die sich auf alle “Stakeholder” auswirken. Gemeint sind alle, die mit dem Unternehmen zu tun haben. Die Betroffenen werden dankbar sein, wenn Ergebnisse zügig “reportet” werden. Vielleicht doch besser auf Deutsch? Foto: fizkes – shutterstock.comOft müssen aber gar nicht Anglizismen herhalten, um Kompetenz zu vermitteln: Zwar gibt es den Ausdruck “Kombinatorik” als Teildisziplin der Mathematik, doch Berater meinen meistens einfach nur die “Kombination”.Unseriös … Foto: Rawpixel.com – shutterstock.com… ist ohne Zweifel die falsche Verwendung des Begriffs “Ressourcen”. Spricht man über Güter, Materialen, Immobilien etc. ist dagegen nichts einzuwenden. Ressourcen als Synonym für Mitarbeiter oder gar Menschen zu verwenden, ist indes gelinde gesagt geschmacklos. Da aber im englischsprachigen Raum von “Human Resources” die Rede ist, lässt sich dieser Fehler zumindest erklären. No risk, no fun … Foto: Mauricio Graiki – shutterstock.comGerne werben Berater auch damit, dass sie “ins Risiko gehen”, also etwas riskieren. Die Steigerung davon heißt vermutlich “ins Verderben rennen” – aber im Projektumfeld mag wohl niemand davon reden.Am Ende des Tages Foto: fizkes – shutterstock.comDer Klassiker im Berater-Slang lautet”Am Ende des Tages“. Kaum ein Berater verzichtet auf diese Phrase, um ein Resümee zu ziehen. Seinen Ursprung hat der Ausdruck in der holprigen Übersetzung der englischen Formulierung “at the end of the day”. Gemeint ist eigentlich “schlussendlich”, “unterm Strich” oder einfach nur “schließlich”. Expertise Foto: Jacek Dudzinski – shutterstock.comAuch der im Deutschen gerne als Synonym für Erfahrung und Kompetenz verwendete Begriff “Expertise” wurde falsch aus dem Englischen übernommen. Eine Expertise ist ein Gutachten. Es macht Sinn Foto: Alice Arts Bar – shutterstock.comDas Gleiche gilt für “Es macht Sinn” (it makes sense). Die korrekte deutsche Übersetzung lautet “Etwas ist sinnvoll” oder “Etwas ergibt Sinn”.In 2023 Foto: Ronald WiltscheckEin häufig zu hörender Ausdruck, wenn Berater Zeitpunkte benennen, lautet: “In 2023 erwarten wir eine Erholung.” Richtiger wäre “Im Jahr 2023 erwarten wir eine Erholung” oder einfach “2023 erwarten wir eine Erholung”. Consultants und ihre Sprüche Foto: GLF Media – shutterstock.comNatürlich müssen die “Surroundings” passen. Welche Umgebung ist denn gemeint? Egal, Hauptsache es klingt wichtig.Business Case Foto: KeyStock – shutterstock.comHäufige Anglizismen sind charakteristisch für das Consulting: Ein “Business Case” ist nichts anderes als ein Geschäftsmodell. Proof of Concept Foto: StockLite – shutterstock.comEin “Proof of Concept” ist eine Machbarkeitsstudie. Line of Business Foto: alphaspirit – Fotolia.comUnd für “Line of Business” gibt es den schönen deutschen Begriff Geschäftsbereich.low hanging fruits Foto: NAN – Fotolia.comAuch gern genommen: “low hanging fruits” und “quick wins“. Damit sind schnelle, einfache Erfolge gemeint. Sie sind wichtig, um für gute Stimmung im Projekt zu sorgen.asap Foto: oatawa – shutterstock.comIn den E-Mail-Verkehr haben viele englische Abkürzungen Einzug gehalten: Doch zum Beispiel “asap” (as soon as possible) und “pdq” (pretty damn quick) sollte man tunlichst nur im Bekanntenkreis verwenden. Denn während diese unmissverständlichen Aufforderungen im US-Amerikanischen gang und gäbe sind und niemanden besonders aufregen, klingen sie im Deutschen aufdringlich und unfreundlich. proaktiv Foto: Kzenon – Fotolia.comWas ist “proaktiv“? Ist es mehr als “aktiv”? Es klingt auf jeden Fall nach mehr. Also benutzen es Berater und Manager. Zielsetzung Foto: zeljkodan – shutterstock.comEbenso verhält es sich mit “Zielsetzung“. Man könnte auch einfach ein Ziel verfolgen und erreichen. Foto: travelcaesar – Fotolia.comDas Anhängen einer überflüssigen Endung ist kein Einzelfall. Gern verwendete Erweiterungen sind etwa “-prozess“, “-struktur” und “-bereich“. Herausforderungen Foto: Sergey Tinyakov – shutterstock.comEs gibt zudem Wörter, die nicht grundsätzlich falsch sind, deren übermäßige Benutzung jedoch aufstößt. Berater kennen beispielsweise keine Probleme und Schwierigkeiten, sondern nur “Herausforderungen” (Challenges). Und sie “fokussieren” sehr häufig. Foto: alphaspirit – shutterstock.comDer Ursprung mancher sonderbaren Ausdrucksweise ist nicht ganz klar. Ein Berater ist “auf einem Projekt” statt “in einem Projekt“. Anglizismen Foto: Roman Samborskyi – shutterstock.comDie inflationäre Verwendung von Anglizismen beschäftigt die Kunden in Großbritannien naturgemäß nicht. Doch auch dort haben die Berater eine eigene Sprache entwickelt. Das Online-Magazin consulting-news.com hat vor geraumer Zeit die Hitliste der nervigsten Beraterphrasen veröffentlicht. Erhoben haben sie die Marktforscher von Coleman Parkes Research. Einige Formulierungen erscheinen erstaunlich vertraut. Platz 13 Foto: Khakimullin Aleksandr – shutterstock.com18 Prozent: Going forward (den Blick nach vorne richten). Platz 12 Foto: AMLbox – shutterstock.com22 Prozent: Leverage (Hebel, Hebelwirkung).Platz 11 Foto: Rawpixel.com – shutterstock.com26 Prozent: Core values (Grundwerte).Platz 10 Foto: Jacob Lund – shutterstock.com27 Prozent: We’re in good shape (Wir sind gut im Rennen).Platz 9 Foto: topshots – Fotolia.com27 Prozent: On the same page (auf einer Wellenlänge, einig sein).Platz 8 Foto: Jeff Metzger – Fotolia.com31 Prozent: Paradigm (Paradigma, Denkmuster).Platz 7 Foto: James Thew – Fotolia.com33 Prozent: Synergy (Synergien).Platz 6 Foto: Picture-Factory – Fotolia.com35 Prozent: At the end of the day (am Ende des Tages).Platz 5 Foto: Ground Picture – shutterstock.com38 Prozent: Let’s have a meet about it (Lasst uns zusammensitzen).Platz 4 Foto: Artur Didyk – shutterstock.com42 Prozent: Lock ‘n load (schussbereit).Platz 3 Foto: xactive – shutterstock.com42 Prozent: Think outside the box (querdenken).Platz 2 Foto: Pressmaster – shutterstock.com42 Prozent: Let’s engage the client (Beziehung zum Kunden aufbauen).Platz 1 Foto: Tomo Jesenicnik – Fotolia.com49 Prozent: Singing from the same hymn sheet (in dasselbe Horn blasen). Foto: patpitchaya – shutterstock.comZum Abschluss noch ein Berater-Witz: “Das Glas ist halb leer”, sagt der Pessimist. “Das Glas ist halb voll “, sagt der Optimist. “Das Glas ist viel zu groß “, sagt der Unternehmensberater. 

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​ Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen
Foto: TierneyMJ – shutterstock.com

“Angehende SAP-Beraterinnen und -Berater können bereits mit einem Einstiegsgehalt von rund 50.000 Euro rechnen”, so Thomas Biber, Geschäftsführer der auf das SAP-Umfeld spezialisierten Personalberatung Biber & Associates. Nach drei bis fünf Jahren Berufserfahrung seien für qualifizierte SAP-Fachkräfte mit einschlägigem Spezialwissen in komplexen Themenbereichen bis zu 100.000 Euro oder sogar mehr möglich.

Einstieg in die SAP-Beratung

Der klassische Direkteinstieg für Junior-Beraterinnen und -Berater beginnt in der Regel in einem SAP-Beratungshaus. Diese verfügen über Trainingsprogramme, die sich speziell an junge Talente ohne SAP-Vorkenntnisse richten. “Angehende Junioren sollten vor allem wichtige Fähigkeiten wie eine Affinität für Technologie und Wirtschaftsprozesse, Kommunikationsstärke, Leistungsbereitschaft und den Wunsch zur stetigen Weiterentwicklung mitbringen”, so Biber. Bei der Auswahl passender Bewerber seien diese Faktoren den Consulting-Häusern meist wichtiger als der eigentliche Studiengang. Dieser könne von Wirtschaftsinformatik, Naturwissenschaften und Wirtschaftswissenschaften bis hin zu Geisteswissenschaften reichen.

Aufstieg zum Senior Consultant

Nach drei bis vier Jahren, in denen Junior Consultants ihr Trainingsprogramm und verschiedene Weiterbildungen durchlaufen sowie mit Senior-Fachkräften auf Projekten arbeiten, um Praxiserfahrung zu sammeln, sind sie fähig, Themen weitgehend selbständig zu betreuen. Die Beförderung zum Senior Consultant schlägt sich in einem deutlichen Gehaltsprung auf circa 75.000 bis 85.000 Euro nieder.

100.000-Euro-Gehalt durch Spezial- und Branchenwissen

“Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen”, so Biber. Eine Beispielkarriere ist laut Biber ein Management-Consultant mit Schwerpunkt Handelslogistik sowie Spezialkenntnissen in den SAP-Logistikmodulen Materialwirtschaft (SAP MM), Vertrieb/Faktura (SAP SD) und der Einzelhandelssoftware SAP Retail.

“Fachkräfte sollten jedoch beachten, dass erfolgsbasierte, variable Gehaltsanteile in Consulting-Firmen die Regel sind”, erläutert Biber. Dieser Anteil könne bis zu 20 bis 30 Prozent der Vergütung betragen. Allerdings gibt es auch Beratungshäuser, die einen hohen Fixanteil mit nur drei bis fünf Prozent variablen Anteil bieten.

Zu Benefits in Consulting-Häusern zählen zudem häufig Firmenwägen, die oft auch die private Nutzung inklusive Urlaubsfahrten einschließen. Bei intensiver privater Nutzung kann dies mit Benzin, Unterhalt und Wertverlust leicht 12.000 bis 15.000 Euro pro Jahr ausmachen. Auf der anderen Seite zeigt sich mit der starken Verbreitung neuer Remote-Arbeitsmodelle auch im SAP-Consulting ein Trend hin zu einer weniger intensiven Reisetätigkeit. War früher laut Biber ein Anteil von 80 bis 100 Prozent gefordert, verlangen viele Arbeitgeber heute 50 Prozent oder noch weniger. Ein deutlicher Vorteil für die allgemeine Work-Life-Balance sowie insbesondere für Bewerber, die aufgrund familiärer Verpflichtungen nicht uneingeschränkt mobil sein können.

Thomas Biber: “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”
Foto: Biber & Associates

Selbstständigkeit – Alternative zur Karriere im Beratungshaus

“Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”, führt Biber weiter aus. “Eine Alternative ist die Selbstständigkeit. Hier können erfahrene SAP-Profis, die sich in einem Kernmarkt wie etwa Retail und Logistik nach ein bis zwei Jahren gut im Markt etabliert haben, einen Jahresumsatz von circa 200.000 bis 250.000 Euro erreichen. Jedoch will dieser Schritt wohlüberlegt sein, da er – wie jede Selbstständigkeit – mit Risiken und einem hohen Arbeitsvolumen einhergeht.”

Was SAP-Profis in Anwenderunternehmen verdienen

Stellen im Beratungshaus sind deutlich besser vergütet als Inhouse-Positionen in einem Anwenderunternehmen, gehen jedoch auch mit einer deutlich stärkeren Arbeitsbelastung einher. Im Inhouse-Bereich kommen dafür variable Gehaltsanteile kaum vor, betreffen in der Regel nur Führungspositionen und liegen selten über 10 bis 15 Prozent. Wenn SAP-Profis in Anwenderunternehmen den Schritt zur Führungskraft mit Personalverantwortung gehen, können allerdings auch sie die sechsstellige Gehaltsgrenze knacken, abhängig von der Größe des Unternehmens und des zu leitenden Teams.

“In einem mittelständischen Betrieb liegt das Gehalt bei rund 95.000 Euro, wenn die Führungskraft nur ein kleineres Team unter sich hat”, so Biber. Unterstehe ihr jedoch in einem Unternehmen mit 20.000 Mitarbeitern die gesamte BI-Truppe sowie 20 eigene Mitarbeiter, könne das Gehalt 130.000 bis 150.000 Euro oder sogar mehr betragen.

Was sich auszahlt: Fachwissen, Branche, Standort

Der eigene Marktwert für SAP-Beraterinnen und -Berater steht in direkter Relation zu ihrem technischen Spezialwissen und Branchen-Know-how, welches sie sich in ihrer Berufslaufbahn angeeignet haben. “Besonders gesucht auf dem Markt sind Fachkräfte mit Expertise in S/4HANA und C/4HANA sowie in Cloud-basierten Technologie- und Entwicklungsthemen”, weiß der Kenner des SAP-Arbeitsmarkts. “Auch das Thema Gehaltsabrechnung auf Basis von SAP HCM, Hybris und SuccessFactors wird sehr gut vergütet, da es wegen der sozialversicherungsrechtlichen Rahmenbedingungen besonders komplex ist.”

Sehr profitabel sind laut Biber zudem Kenntnisse in Finance- oder Logistikkomponenten wie SAP EWM, IS-Retail oder SAP PP-PI (Produktionsplanung Prozessindustrie). Im Entwicklungsbereich ist vor allem Wissen in SAP BTP, FIORI, WeBUI, SAP UI5 oder anderen Themen rund um die Full-Stack-SAP-Softwareentwicklung gefragt.

Besonders hochbezahlte Positionen gibt es laut Biber in der Chemie- und Pharmaindustrie sowie im Anlagenbau und Manufacturing. Ebenfalls gute Verdienstchancen bieten Banken, Versicherungen und die Luxusgüterbranche. Dabei zahlen große Unternehmen üblicherweise besser als kleine. Hinsichtlich des Standorts führen in Bezug auf das Gehalt weiterhin die Ballungsgebiete um München, Stuttgart, Rhein-Main, Rhein-Ruhr sowie Hamburg.

“Standort und Branche wirken sich deutlich auf das Gehalt aus”, so Biber. “Bei einem renommierten Industrieunternehmen im Frankfurter oder Stuttgarter Raum sind zum Beispiel für eine SAP-HCM-PY-Fachkraft mit fünf bis sieben Jahren Projekterfahrung auch ohne Führungsverantwortung bis zu 120.000 Euro und mehr möglich. Im Vergleich hierzu verdiene ein SAP-Payroll-Experte in einem Unternehmen aus dem Gesundheitswesen in den neuen Bundesländern mit etwa 75.000 bis 80.000 Euro deutlich weniger.

Tipps für den Karriereweg

Wichtig für SAP-Fachkräfte ist laut Biber, sich kontinuierlich über die neuesten Technologien auf dem Laufenden zu halten, um den eigenen Marktwert zu erhalten und zu steigern. Dies kann in manchen Fällen auch die Suche nach einer neuen Stelle bedeuten, falls der bisherige Arbeitgeber mit veralteten Technologien arbeitet und es keine interne Möglichkeit der Weiterentwicklung gibt.

“Gleichzeitig gilt es, bei der Stellensuche Gehaltsverhandlungen mit Augenmaß zu betreiben”, so Biber. “Fachkräfte müssen stets selbstkritisch prüfen, ob sie die jeweiligen Anforderungen erfüllen und zugleich ihre vorhandenen Fähigkeiten deutlich hervorstellen. Unternehmen haben kein Interesse daran, in Verhandlungen die Gehälter möglichst tief herunterzuhandeln. Schließlich wünschen sie sich eine langjährige Zusammenarbeit und wollen nicht das Risiko eingehen, dass ihnen die Fachkraft sofort wieder abspringt.”

SAP-Beraterinnen und -Berater ab drei bis fünf Jahren Berufserfahrung können auch in Erwägung ziehen, eine auf ihr Fachgebiet spezialisierte Personalberatung hinzuzuziehen. Ein erfahrender Headhunter, der sich mit den lokalen Gegebenheiten gut auskennt, kann eine realistische Einschätzung geben, was für das entsprechende Bewerberprofil hinsichtlich des Gehalts möglich ist.

Consultants und ihre SprücheGetöse, Getöse …
Foto: New Africa – shutterstock.comManchmal ist es gar nicht so einfach, in der täglichen Wörterflut das Wesentliche auszumachen. Wenn dann noch jemand “Denglisch” redet, wird’s manchmal richtig kompliziert. Wir übersetzen für Sie.Commitment …
Foto: Krakenimages.com – shutterstock.com… hat sich zu einem gängige Begriff im deutschen Sprachgebrauch gemausert, der eine Verpflichtung beziehungsweise ein Bekenntnis ausdrückt. Sich zu einem “objective committen” bedeutet nichts anderes, als ein Ziel zu akzeptieren.On the way
Foto: Dimitrios Karamitros – shutterstock.comDie häufig bemühte “Roadmap” mit ihren “Milestones” ist ein Fahrplan samt Meilensteinen. Vorsicht, VIP!
Foto: Hurst Photo – shutterstock.comWenn alles im “Round-up” des “Board-Meetings” als “High-Level-Approach” eingestuft wird, dann heißt das vermutlich: Alles im Vorstand Besprochene ist sehr wichtig.Auch betroffen?
Foto: Kzenon – shutterstock.comBeschlossen werden auf Vorstandsebene bisweilen Maßnahmen, die sich auf alle “Stakeholder” auswirken. Gemeint sind alle, die mit dem Unternehmen zu tun haben. Die Betroffenen werden dankbar sein, wenn Ergebnisse zügig “reportet” werden. Vielleicht doch besser auf Deutsch?
Foto: fizkes – shutterstock.comOft müssen aber gar nicht Anglizismen herhalten, um Kompetenz zu vermitteln: Zwar gibt es den Ausdruck “Kombinatorik” als Teildisziplin der Mathematik, doch Berater meinen meistens einfach nur die “Kombination”.Unseriös …
Foto: Rawpixel.com – shutterstock.com… ist ohne Zweifel die falsche Verwendung des Begriffs “Ressourcen”. Spricht man über Güter, Materialen, Immobilien etc. ist dagegen nichts einzuwenden. Ressourcen als Synonym für Mitarbeiter oder gar Menschen zu verwenden, ist indes gelinde gesagt geschmacklos. Da aber im englischsprachigen Raum von “Human Resources” die Rede ist, lässt sich dieser Fehler zumindest erklären. No risk, no fun …
Foto: Mauricio Graiki – shutterstock.comGerne werben Berater auch damit, dass sie “ins Risiko gehen”, also etwas riskieren. Die Steigerung davon heißt vermutlich “ins Verderben rennen” – aber im Projektumfeld mag wohl niemand davon reden.Am Ende des Tages
Foto: fizkes – shutterstock.comDer Klassiker im Berater-Slang lautet”Am Ende des Tages“. Kaum ein Berater verzichtet auf diese Phrase, um ein Resümee zu ziehen. Seinen Ursprung hat der Ausdruck in der holprigen Übersetzung der englischen Formulierung “at the end of the day”. Gemeint ist eigentlich “schlussendlich”, “unterm Strich” oder einfach nur “schließlich”. Expertise
Foto: Jacek Dudzinski – shutterstock.comAuch der im Deutschen gerne als Synonym für Erfahrung und Kompetenz verwendete Begriff “Expertise” wurde falsch aus dem Englischen übernommen. Eine Expertise ist ein Gutachten. Es macht Sinn
Foto: Alice Arts Bar – shutterstock.comDas Gleiche gilt für “Es macht Sinn” (it makes sense). Die korrekte deutsche Übersetzung lautet “Etwas ist sinnvoll” oder “Etwas ergibt Sinn”.In 2023
Foto: Ronald WiltscheckEin häufig zu hörender Ausdruck, wenn Berater Zeitpunkte benennen, lautet: “In 2023 erwarten wir eine Erholung.” Richtiger wäre “Im Jahr 2023 erwarten wir eine Erholung” oder einfach “2023 erwarten wir eine Erholung”. Consultants und ihre Sprüche
Foto: GLF Media – shutterstock.comNatürlich müssen die “Surroundings” passen. Welche Umgebung ist denn gemeint? Egal, Hauptsache es klingt wichtig.Business Case
Foto: KeyStock – shutterstock.comHäufige Anglizismen sind charakteristisch für das Consulting: Ein “Business Case” ist nichts anderes als ein Geschäftsmodell. Proof of Concept
Foto: StockLite – shutterstock.comEin “Proof of Concept” ist eine Machbarkeitsstudie. Line of Business
Foto: alphaspirit – Fotolia.comUnd für “Line of Business” gibt es den schönen deutschen Begriff Geschäftsbereich.low hanging fruits
Foto: NAN – Fotolia.comAuch gern genommen: “low hanging fruits” und “quick wins“. Damit sind schnelle, einfache Erfolge gemeint. Sie sind wichtig, um für gute Stimmung im Projekt zu sorgen.asap
Foto: oatawa – shutterstock.comIn den E-Mail-Verkehr haben viele englische Abkürzungen Einzug gehalten: Doch zum Beispiel “asap” (as soon as possible) und “pdq” (pretty damn quick) sollte man tunlichst nur im Bekanntenkreis verwenden. Denn während diese unmissverständlichen Aufforderungen im US-Amerikanischen gang und gäbe sind und niemanden besonders aufregen, klingen sie im Deutschen aufdringlich und unfreundlich. proaktiv
Foto: Kzenon – Fotolia.comWas ist “proaktiv“? Ist es mehr als “aktiv”? Es klingt auf jeden Fall nach mehr. Also benutzen es Berater und Manager. Zielsetzung
Foto: zeljkodan – shutterstock.comEbenso verhält es sich mit “Zielsetzung“. Man könnte auch einfach ein Ziel verfolgen und erreichen.
Foto: travelcaesar – Fotolia.comDas Anhängen einer überflüssigen Endung ist kein Einzelfall. Gern verwendete Erweiterungen sind etwa “-prozess“, “-struktur” und “-bereich“. Herausforderungen
Foto: Sergey Tinyakov – shutterstock.comEs gibt zudem Wörter, die nicht grundsätzlich falsch sind, deren übermäßige Benutzung jedoch aufstößt. Berater kennen beispielsweise keine Probleme und Schwierigkeiten, sondern nur “Herausforderungen” (Challenges). Und sie “fokussieren” sehr häufig.
Foto: alphaspirit – shutterstock.comDer Ursprung mancher sonderbaren Ausdrucksweise ist nicht ganz klar. Ein Berater ist “auf einem Projekt” statt “in einem Projekt“. Anglizismen
Foto: Roman Samborskyi – shutterstock.comDie inflationäre Verwendung von Anglizismen beschäftigt die Kunden in Großbritannien naturgemäß nicht. Doch auch dort haben die Berater eine eigene Sprache entwickelt. Das Online-Magazin consulting-news.com hat vor geraumer Zeit die Hitliste der nervigsten Beraterphrasen veröffentlicht. Erhoben haben sie die Marktforscher von Coleman Parkes Research. Einige Formulierungen erscheinen erstaunlich vertraut. Platz 13
Foto: Khakimullin Aleksandr – shutterstock.com18 Prozent: Going forward (den Blick nach vorne richten). Platz 12
Foto: AMLbox – shutterstock.com22 Prozent: Leverage (Hebel, Hebelwirkung).Platz 11
Foto: Rawpixel.com – shutterstock.com26 Prozent: Core values (Grundwerte).Platz 10
Foto: Jacob Lund – shutterstock.com27 Prozent: We’re in good shape (Wir sind gut im Rennen).Platz 9
Foto: topshots – Fotolia.com27 Prozent: On the same page (auf einer Wellenlänge, einig sein).Platz 8
Foto: Jeff Metzger – Fotolia.com31 Prozent: Paradigm (Paradigma, Denkmuster).Platz 7
Foto: James Thew – Fotolia.com33 Prozent: Synergy (Synergien).Platz 6
Foto: Picture-Factory – Fotolia.com35 Prozent: At the end of the day (am Ende des Tages).Platz 5
Foto: Ground Picture – shutterstock.com38 Prozent: Let’s have a meet about it (Lasst uns zusammensitzen).Platz 4
Foto: Artur Didyk – shutterstock.com42 Prozent: Lock ‘n load (schussbereit).Platz 3
Foto: xactive – shutterstock.com42 Prozent: Think outside the box (querdenken).Platz 2
Foto: Pressmaster – shutterstock.com42 Prozent: Let’s engage the client (Beziehung zum Kunden aufbauen).Platz 1
Foto: Tomo Jesenicnik – Fotolia.com49 Prozent: Singing from the same hymn sheet (in dasselbe Horn blasen).
Foto: patpitchaya – shutterstock.comZum Abschluss noch ein Berater-Witz: “Das Glas ist halb leer”, sagt der Pessimist. “Das Glas ist halb voll “, sagt der Optimist. “Das Glas ist viel zu groß “, sagt der Unternehmensberater.

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​ Weiterlesen »

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?quality=50&strip=all 2732w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mangels positiver Nachrichten scheint Apples PR-Maschinerie auf “Deadcatting” zurückzugreifen. letspicsit – Shutterstock.com Die Dead-Cat-Strategie ist eine uralte PR-Taktik, auch wenn sie seit kurzem dank Donald Trump gerne als „flooding the zone“ bezeichnet wird. Ich glaube, genau das scheint Apple zu tun, nachdem kürzlich Gerüchte die Runde machten, dass das Unternehmen auf der Entwicklerkonferenz WWDC eine Änderung der Benennung seiner Betriebssysteme ankündigen will. Demnach wird es kein iOS 19 geben, stattdessen rückt iOS 26 nach. Das Gleiche soll auch für die anderen Betriebssysteme gelten: iPadOS 26 macOS 26 tvOS 26 visionOS 26 watchOS 26 homeOS 26 Aus meiner Sicht ist die Änderung unproblematisch. Aber für Apple hat sie zu einer Flut von Berichten über die Entscheidung geführt. Auch wenn nicht alle Meldungen positiv ausfallen – die Tatsache, dass das Thema überhaupt aufgegriffen wird, bringt Apple wieder etwas von seiner Kontrolle über die Berichterstattung zurück. Existenzielle Bedrohungen Diese Art von Mediensteuerung braucht Apple dringend. Beinahe jeder andere Artikel, der derzeit über das Unternehmen geschrieben wird, hat mit Zöllen, Regulierung oder Apples Problemen mit seiner KI-Strategie zu tun. Sogar positive Entwicklungen wie der strategisch wichtige Erfolg, die Produktion nach Indien zu verlagern, werden unter dem Blickwinkel nationalistischer US-Politik und Handelszölle betrachtet. Auch europäische Regulierer scheinen Apple zum politischen Faustpfand machen zu wollen – mit dem Ziel, Druck in Handelsverhandlungen mit den USA auszuüben. Was also bleibt Apple anderes übrig? Tatsächlich scheint die Company derzeit jede offene Diskussion über diese Herausforderungen zu meiden. Dafür spricht auch die Entscheidung der Apple-Führungskräfte, dieses Jahr an der traditionellen „WWDC-Talkshow” von John Gruber nicht teilzunehmen. Apple war dort fast seit einem Jahrzehnt regelmäßig vertreten, daher ist diese Änderung bemerkenswert. Warten auf die (Höhen-)Sonne Dass Apple kurz vor der WWDC über seine offiziellen inoffiziellen Kanäle bei Bloomberg gezielt Leaks über die Zukunft seiner Betriebssystemnamen streut, spricht Bände. Erstens lenkt es die Aufmerksamkeit kurzfristig auf etwas anderes. Zweitens senkt Apple damit die Erwartungen für die WWDC bewusst ab. Erwartet wird: Ein überarbeitetes OS-Design namens Solarium, das für ein einheitlicheres Nutzererlebnis auf allen Apple-Geräten sorgen soll. Das iPad erhält Tools, die es Mac-ähnlicher machen, und Apple führt eine neue Namenslogik für seine Betriebssysteme ein. Was ist Solarium? Es handelt sich um ein UI-Update, das das Aussehen von Icons, Menüs, Fenstern und Schaltflächen optisch vereinheitlicht. Die neue Oberfläche soll wie ein lichtdurchfluteter Raum mit Glaswänden wirken – leicht durchsichtig, vermutlich mit runderen Icons, schwebenden Bedienelemente, räumlicher Tiefe und visuellen Anleihen bei visionOS 1.0. Weitere Ablenkungsmanöver erwartet Wird das reichen, um die Kontrolle über die öffentliche Wahrnehmung zurückzugewinnen? Ich glaube nicht. Wenn Solarium das Highlight der WWDC ist, muss Apple vermutlich weiter auf Zeit spielen und noch ein paar weitere „Dead Cats“ ins Spiel bringen. (mb) 

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?quality=50&strip=all 2732w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mangels positiver Nachrichten scheint Apples PR-Maschinerie auf “Deadcatting” zurückzugreifen. letspicsit – Shutterstock.com

Die Dead-Cat-Strategie ist eine uralte PR-Taktik, auch wenn sie seit kurzem dank Donald Trump gerne als „flooding the zone“ bezeichnet wird. Ich glaube, genau das scheint Apple zu tun, nachdem kürzlich Gerüchte die Runde machten, dass das Unternehmen auf der Entwicklerkonferenz WWDC eine Änderung der Benennung seiner Betriebssysteme ankündigen will.

Demnach wird es kein iOS 19 geben, stattdessen rückt iOS 26 nach.

Das Gleiche soll auch für die anderen Betriebssysteme gelten:

iPadOS 26

macOS 26

tvOS 26

visionOS 26

watchOS 26

homeOS 26

Aus meiner Sicht ist die Änderung unproblematisch. Aber für Apple hat sie zu einer Flut von Berichten über die Entscheidung geführt. Auch wenn nicht alle Meldungen positiv ausfallen – die Tatsache, dass das Thema überhaupt aufgegriffen wird, bringt Apple wieder etwas von seiner Kontrolle über die Berichterstattung zurück.

Existenzielle Bedrohungen

Diese Art von Mediensteuerung braucht Apple dringend. Beinahe jeder andere Artikel, der derzeit über das Unternehmen geschrieben wird, hat mit Zöllen, Regulierung oder Apples Problemen mit seiner KI-Strategie zu tun. Sogar positive Entwicklungen wie der strategisch wichtige Erfolg, die Produktion nach Indien zu verlagern, werden unter dem Blickwinkel nationalistischer US-Politik und Handelszölle betrachtet. Auch europäische Regulierer scheinen Apple zum politischen Faustpfand machen zu wollen – mit dem Ziel, Druck in Handelsverhandlungen mit den USA auszuüben.

Was also bleibt Apple anderes übrig? Tatsächlich scheint die Company derzeit jede offene Diskussion über diese Herausforderungen zu meiden. Dafür spricht auch die Entscheidung der Apple-Führungskräfte, dieses Jahr an der traditionellen „WWDC-Talkshow” von John Gruber nicht teilzunehmen. Apple war dort fast seit einem Jahrzehnt regelmäßig vertreten, daher ist diese Änderung bemerkenswert.

Warten auf die (Höhen-)Sonne

Dass Apple kurz vor der WWDC über seine offiziellen inoffiziellen Kanäle bei Bloomberg gezielt Leaks über die Zukunft seiner Betriebssystemnamen streut, spricht Bände. Erstens lenkt es die Aufmerksamkeit kurzfristig auf etwas anderes. Zweitens senkt Apple damit die Erwartungen für die WWDC bewusst ab.

Erwartet wird: Ein überarbeitetes OS-Design namens Solarium, das für ein einheitlicheres Nutzererlebnis auf allen Apple-Geräten sorgen soll. Das iPad erhält Tools, die es Mac-ähnlicher machen, und Apple führt eine neue Namenslogik für seine Betriebssysteme ein.

Was ist Solarium? Es handelt sich um ein UI-Update, das das Aussehen von Icons, Menüs, Fenstern und Schaltflächen optisch vereinheitlicht. Die neue Oberfläche soll wie ein lichtdurchfluteter Raum mit Glaswänden wirken – leicht durchsichtig, vermutlich mit runderen Icons, schwebenden Bedienelemente, räumlicher Tiefe und visuellen Anleihen bei visionOS 1.0.

Weitere Ablenkungsmanöver erwartet

Wird das reichen, um die Kontrolle über die öffentliche Wahrnehmung zurückzugewinnen? Ich glaube nicht. Wenn Solarium das Highlight der WWDC ist, muss Apple vermutlich weiter auf Zeit spielen und noch ein paar weitere „Dead Cats“ ins Spiel bringen. (mb)

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​ Weiterlesen »

DAX-Konzerne – zu wenige Frauen im Top-Management​

Allgemein

loading=”lazy” width=”400px”>Viele Top-Führungszirkel in den Unternehmen werden von Männern dominiert.Everett Collection-Shutterstock Im Zuge der verschärften Berichtspflicht durch die EU-Richtlinie Corporate Sustainability Reporting Directive (CSRD) dringen nun auch mehr Zahlen zum Frauenanteil in Führungspositionen an die Öffentlichkeit. Die Rechnungsprüfungs- und Beratungsgesellschaft EY hat Zahlen von DAX-Konzernen gesammelt und ausgewertet – und kommt zu ernüchternden Ergebnissen.  In den untersuchten DAX-Unternehmen sind insgesamt 51.074 Personen auf der obersten Führungsebene tätig. Davon sind 14.543 Frauen – das entspricht einem Anteil von 28,5 Prozent. Der Frauenanteil an der Gesamtbelegschaft liegt hingegen im Durchschnitt bei 33,1 Prozent. Als oberste Führungsebene definieren die meisten Unternehmen EY zufolge eine oder zwei Ebenen unterhalb der Verwaltungs- und Aufsichtsorgane.  Diversity an der Unternehmensspitze: So kommen Frauen nach oben Für die Studie hat EY-Parthenon, die Strategie- und Transaktionsberatung von EY, die CSRD-Berichte der DAX-Unternehmen ausgewertet. Allerdings legen nicht alle Firmen entsprechende Kennzahlen offen, da einige Themen als unwesentlich im Rahmen der doppelten Wesentlichkeitsanalyse nach CSRD bewertet wurden. Sieben DAX-40-Berichte musste EY aufgrund eines abweichenden Geschäftsjahrs, verspäteter Veröffentlichung oder fehlender Berichterstattung nach CSRD von der Analyse ausschließen. Dabei handelt es sich um Siemens, Siemens Energy, Siemens Healthineers, Infineon, Porsche Automobil Holding, Symrise und Qiagen. Männer dominieren die obersten Führungsebenen In fast zwei Dritteln der Betriebe sind Frauen auf der obersten Führungsebene unterrepräsentiert – das heißt, ihr Anteil liegt um mindestens fünf Prozentpunkte niedriger als in der Gesamtbelegschaft. Besonders hoch ist die Abweichung EY zufolge beim Gesundheitsdienstleister Fresenius, wo der Frauenanteil in der Belegschaft bei 67,4 Prozent liegt, auf der obersten Führungsebene aber nur 28,2 Prozent Frauen sind – hier liegt die Differenz also bei fast 40 Prozentpunkten.  Zu wenig Frauen in IT- und Digitalberufen Auf der anderen Seite sind beim Energiekonzern RWE nur 20,8 Prozent der Belegschaft weiblich, im obersten Management liegt der Frauenanteil hingegen bei 33,3 Prozent – hier sind Frauen in führenden Positionen also stärker repräsentiert als in der Gesamtbelegschaft. Auch bei Heidelberg Materials, BMW und Airbus ist der Frauenanteil in der Chefetage höher als in der Gesamtbelegschaft – was allerdings in erster Linie auf den sehr geringen Frauenanteil in der Gesamtbelegschaft zurückzuführen ist.  „Wir sehen seit vielen Jahren oft sehr intensive Bestrebungen der Unternehmen, den Frauenanteil im Vorstand und im oberen Management zu steigern“, konstatierte Janine Bartsch, Senior Manager bei EY-Parthenon. „Aus vielerlei Gründen sind diese Bemühungen aber oft nur begrenzt erfolgreich.“ Bartsch führt dies unter anderem auf Themen wie Kinderbetreuung, traditionelle Rollenbilder und entsprechende individuelle Karriereentscheidungen zurück. Es fehlen Strukturen, um Frauen den Weg zu erleichtern „Aber wir sehen auch, dass die Strukturen in vielen DAX-Konzernen offenbar nicht ausreichend darauf ausgerichtet sind, Frauen den Weg in eine Führungsposition zu erleichtern“, kritisiert die EY-Managerin. Dazu gehöre oft auch das Fehlen von entsprechenden Netzwerken und starken Vorbildern. Auch Vorurteile gegenüber der Leistungsfähigkeit und Kompetenz von Frauen könnten eine Rolle spielen, ebenso wie eine entsprechende Unternehmenskultur, die Vielfalt nicht fördere.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7Drzl4xVl9acI7AAl5LOyF?utm_source=oembed”> Grundsätzlich sieht Bartsch die Veröffentlichung der CSRD-Berichte als einen wichtigen Schritt hin zu mehr Transparenz. Außerdem seien die Zahlen ein zusätzlicher Anreiz für jedes einzelne Unternehmen, die eigene Position im Branchenvergleich zu analysieren.  Auch an anderen Stellen gibt es in Sachen Geschlechterparität noch viel Luft nach oben. So ist der Frauenanteil an der Gesamtbelegschaft der DAX-Unternehmen laut der EY-Studie in den Jahren von 2021 bis 2024 insgesamt sogar leicht gesunken – von 34,1 auf 33,1 Prozent. „Insgesamt gelingt es den DAX-Konzernen nicht ausreichend, den Frauenanteil in der Belegschaft zu steigern“, moniert Bartsch. Das könne man zwar nicht unbedingt immer den Unternehmen anlasten, aber im Ergebnis sei die Entwicklung enttäuschend. Zu wenig Frauen im Job – es besteht Handlungsbedarf „Man kann nicht darauf hoffen, dass der Frauenanteil auf oberster Führungsebene steigt, wenn gleichzeitig der Anteil der Mitarbeiterinnen sinkt“, erläuterte die EY-Managerin. „Die bisherigen Programme zur Stärkung der Attraktivität für weibliche Beschäftigte haben ihre Wirkung offenbar in vielen Fällen weitgehend verfehlt – da besteht auf jeden Fall Handlungsbedarf.“  Die bisherigen Programme zur Stärkung der Attraktivität für weibliche Beschäftigte haben ihre Wirkung offenbar in vielen Fällen weitgehend verfehlt, kritisiert Janine Bartsch von EY.EY Das gilt auch für den Gender Pay Gap, denn nach wie vor verdienen Männer im gleichen Job mehr als Frauen. Laut den Angaben zum sogenannten unbereinigten Gender Pay Gap, also zum Lohnabstand zwischen männlichen und weiblichen Beschäftigten, verdienen Männer in den DAX-Konzernen im Durchschnitt 13,9 Prozent mehr als Frauen. Zum Vergleich: Insgesamt liegt der Bruttolohn männlicher Arbeitnehmer in Deutschland um 16 Prozent über dem der weiblichen Beschäftigten.  Gender Pay Gap bleibt hoch in Deutschland Allerdings gibt es zwischen den Unternehmen erhebliche Unterschiede: Bei vier der DAX-Unternehmen liegt der durchschnittliche Bruttostundenverdienst der Frauen über dem der Männer: Daimler Truck, BMW, DHL Group und Vonovia. Dagegen bekommen in der Finanzbranche männliche Beschäftigte im Durchschnitt erheblich mehr überwiesen als Frauen: Bei Munich Re und der Deutschen Börse verdienen Männer im Mittel jeweils 29 Prozent mehr als Frauen, bei Hannover Rück liegen die Bruttogehälter der Männer 30 Prozent höher als die der Frauen, bei der Commerzbank sogar 30,5 Prozent. Den höchsten Gender Pay Gap weist die Deutsche Bank mit knapp 38,8 Prozent aus.  Mehr Transparenz ist ein erster Schritt zur Besserung  „Die Transparenz dank der jetzt veröffentlichten CSRD-Berichte hilft enorm, um sozialer Nachhaltigkeit – und dazu zählt ein möglichst geringer Verdienstabstand zwischen Männern und Frauen – mehr Sichtbarkeit zu geben“, sagt Bartsch. „Unternehmen haben bei den ganzen Anforderungen zur Berichterstattung die Möglichkeit, von der erweiterten Transparenz zu profitieren und die Chance, durch Fairness und Gleichstellung nachhaltigen Unternehmenserfolg zu fördern.”   Bartsch verweist auf die Vorteile, wenn Unternehmen in soziale Nachhaltigkeit investieren. „Immer mehr Banken und Investoren koppeln Kreditvergaben und Investitionen an ESG-Kriterien. Außerdem ließen sich Kosten durch reduzierte Fluktuation und höhere Produktivität senken. Soziale Nachhaltigkeit stärke darüber hinaus das Vertrauen von Mitarbeitenden, Kundinnen und Kunden sowie der Gesellschaft in die entsprechenden Unternehmen, was insbesondere in stark umkämpften Märkten von Vorteil sei. Das Fazit der EY-Managerin: „Es lohnt sich also auch für die Unternehmen, wenn sie den Gender Pay Gap weiter reduzieren.“  

DAX-Konzerne – zu wenige Frauen im Top-Management​ loading=”lazy” width=”400px”>Viele Top-Führungszirkel in den Unternehmen werden von Männern dominiert.Everett Collection-Shutterstock

Im Zuge der verschärften Berichtspflicht durch die EU-Richtlinie Corporate Sustainability Reporting Directive (CSRD) dringen nun auch mehr Zahlen zum Frauenanteil in Führungspositionen an die Öffentlichkeit. Die Rechnungsprüfungs- und Beratungsgesellschaft EY hat Zahlen von DAX-Konzernen gesammelt und ausgewertet – und kommt zu ernüchternden Ergebnissen. 

In den untersuchten DAX-Unternehmen sind insgesamt 51.074 Personen auf der obersten Führungsebene tätig. Davon sind 14.543 Frauen – das entspricht einem Anteil von 28,5 Prozent. Der Frauenanteil an der Gesamtbelegschaft liegt hingegen im Durchschnitt bei 33,1 Prozent. Als oberste Führungsebene definieren die meisten Unternehmen EY zufolge eine oder zwei Ebenen unterhalb der Verwaltungs- und Aufsichtsorgane. 

Diversity an der Unternehmensspitze: So kommen Frauen nach oben

Für die Studie hat EY-Parthenon, die Strategie- und Transaktionsberatung von EY, die CSRD-Berichte der DAX-Unternehmen ausgewertet. Allerdings legen nicht alle Firmen entsprechende Kennzahlen offen, da einige Themen als unwesentlich im Rahmen der doppelten Wesentlichkeitsanalyse nach CSRD bewertet wurden. Sieben DAX-40-Berichte musste EY aufgrund eines abweichenden Geschäftsjahrs, verspäteter Veröffentlichung oder fehlender Berichterstattung nach CSRD von der Analyse ausschließen. Dabei handelt es sich um Siemens, Siemens Energy, Siemens Healthineers, Infineon, Porsche Automobil Holding, Symrise und Qiagen.

Männer dominieren die obersten Führungsebenen

In fast zwei Dritteln der Betriebe sind Frauen auf der obersten Führungsebene unterrepräsentiert – das heißt, ihr Anteil liegt um mindestens fünf Prozentpunkte niedriger als in der Gesamtbelegschaft. Besonders hoch ist die Abweichung EY zufolge beim Gesundheitsdienstleister Fresenius, wo der Frauenanteil in der Belegschaft bei 67,4 Prozent liegt, auf der obersten Führungsebene aber nur 28,2 Prozent Frauen sind – hier liegt die Differenz also bei fast 40 Prozentpunkten. 

Zu wenig Frauen in IT- und Digitalberufen

Auf der anderen Seite sind beim Energiekonzern RWE nur 20,8 Prozent der Belegschaft weiblich, im obersten Management liegt der Frauenanteil hingegen bei 33,3 Prozent – hier sind Frauen in führenden Positionen also stärker repräsentiert als in der Gesamtbelegschaft. Auch bei Heidelberg Materials, BMW und Airbus ist der Frauenanteil in der Chefetage höher als in der Gesamtbelegschaft – was allerdings in erster Linie auf den sehr geringen Frauenanteil in der Gesamtbelegschaft zurückzuführen ist. 

„Wir sehen seit vielen Jahren oft sehr intensive Bestrebungen der Unternehmen, den Frauenanteil im Vorstand und im oberen Management zu steigern“, konstatierte Janine Bartsch, Senior Manager bei EY-Parthenon. „Aus vielerlei Gründen sind diese Bemühungen aber oft nur begrenzt erfolgreich.“ Bartsch führt dies unter anderem auf Themen wie Kinderbetreuung, traditionelle Rollenbilder und entsprechende individuelle Karriereentscheidungen zurück.

Es fehlen Strukturen, um Frauen den Weg zu erleichtern

„Aber wir sehen auch, dass die Strukturen in vielen DAX-Konzernen offenbar nicht ausreichend darauf ausgerichtet sind, Frauen den Weg in eine Führungsposition zu erleichtern“, kritisiert die EY-Managerin. Dazu gehöre oft auch das Fehlen von entsprechenden Netzwerken und starken Vorbildern. Auch Vorurteile gegenüber der Leistungsfähigkeit und Kompetenz von Frauen könnten eine Rolle spielen, ebenso wie eine entsprechende Unternehmenskultur, die Vielfalt nicht fördere. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7Drzl4xVl9acI7AAl5LOyF?utm_source=oembed”>

Grundsätzlich sieht Bartsch die Veröffentlichung der CSRD-Berichte als einen wichtigen Schritt hin zu mehr Transparenz. Außerdem seien die Zahlen ein zusätzlicher Anreiz für jedes einzelne Unternehmen, die eigene Position im Branchenvergleich zu analysieren. 

Auch an anderen Stellen gibt es in Sachen Geschlechterparität noch viel Luft nach oben. So ist der Frauenanteil an der Gesamtbelegschaft der DAX-Unternehmen laut der EY-Studie in den Jahren von 2021 bis 2024 insgesamt sogar leicht gesunken – von 34,1 auf 33,1 Prozent. „Insgesamt gelingt es den DAX-Konzernen nicht ausreichend, den Frauenanteil in der Belegschaft zu steigern“, moniert Bartsch. Das könne man zwar nicht unbedingt immer den Unternehmen anlasten, aber im Ergebnis sei die Entwicklung enttäuschend.

Zu wenig Frauen im Job – es besteht Handlungsbedarf

„Man kann nicht darauf hoffen, dass der Frauenanteil auf oberster Führungsebene steigt, wenn gleichzeitig der Anteil der Mitarbeiterinnen sinkt“, erläuterte die EY-Managerin. „Die bisherigen Programme zur Stärkung der Attraktivität für weibliche Beschäftigte haben ihre Wirkung offenbar in vielen Fällen weitgehend verfehlt – da besteht auf jeden Fall Handlungsbedarf.“ 

Die bisherigen Programme zur Stärkung der Attraktivität für weibliche Beschäftigte haben ihre Wirkung offenbar in vielen Fällen weitgehend verfehlt, kritisiert Janine Bartsch von EY.EY

Das gilt auch für den Gender Pay Gap, denn nach wie vor verdienen Männer im gleichen Job mehr als Frauen. Laut den Angaben zum sogenannten unbereinigten Gender Pay Gap, also zum Lohnabstand zwischen männlichen und weiblichen Beschäftigten, verdienen Männer in den DAX-Konzernen im Durchschnitt 13,9 Prozent mehr als Frauen. Zum Vergleich: Insgesamt liegt der Bruttolohn männlicher Arbeitnehmer in Deutschland um 16 Prozent über dem der weiblichen Beschäftigten. 

Gender Pay Gap bleibt hoch in Deutschland

Allerdings gibt es zwischen den Unternehmen erhebliche Unterschiede: Bei vier der DAX-Unternehmen liegt der durchschnittliche Bruttostundenverdienst der Frauen über dem der Männer: Daimler Truck, BMW, DHL Group und Vonovia. Dagegen bekommen in der Finanzbranche männliche Beschäftigte im Durchschnitt erheblich mehr überwiesen als Frauen: Bei Munich Re und der Deutschen Börse verdienen Männer im Mittel jeweils 29 Prozent mehr als Frauen, bei Hannover Rück liegen die Bruttogehälter der Männer 30 Prozent höher als die der Frauen, bei der Commerzbank sogar 30,5 Prozent. Den höchsten Gender Pay Gap weist die Deutsche Bank mit knapp 38,8 Prozent aus. 

Mehr Transparenz ist ein erster Schritt zur Besserung

 „Die Transparenz dank der jetzt veröffentlichten CSRD-Berichte hilft enorm, um sozialer Nachhaltigkeit – und dazu zählt ein möglichst geringer Verdienstabstand zwischen Männern und Frauen – mehr Sichtbarkeit zu geben“, sagt Bartsch. „Unternehmen haben bei den ganzen Anforderungen zur Berichterstattung die Möglichkeit, von der erweiterten Transparenz zu profitieren und die Chance, durch Fairness und Gleichstellung nachhaltigen Unternehmenserfolg zu fördern.”  

Bartsch verweist auf die Vorteile, wenn Unternehmen in soziale Nachhaltigkeit investieren. „Immer mehr Banken und Investoren koppeln Kreditvergaben und Investitionen an ESG-Kriterien. Außerdem ließen sich Kosten durch reduzierte Fluktuation und höhere Produktivität senken. Soziale Nachhaltigkeit stärke darüber hinaus das Vertrauen von Mitarbeitenden, Kundinnen und Kunden sowie der Gesellschaft in die entsprechenden Unternehmen, was insbesondere in stark umkämpften Märkten von Vorteil sei. Das Fazit der EY-Managerin: „Es lohnt sich also auch für die Unternehmen, wenn sie den Gender Pay Gap weiter reduzieren.“ 

DAX-Konzerne – zu wenige Frauen im Top-Management​ Weiterlesen »

Cloud Native erklärt​

Allgemein

Dieser Beitrag kann Cloud-Native-Missverständnissen vorbeugen.SeventyFour | shutterstock.com Cloud-Native-Applikationen entwickeln sich zunehmend zum Standard in Public- und Private-Cloud-Instanzen. In diesem Artikel lesen Sie: wie sich Cloud-Native-Anwendungen definieren, welche Tools erforderlich sind, um sie zu entwickeln, und   welche Best Practices dabei dringend zu empfehlen sind. Cloud-Native-Definition Wie viele andere Technologiebegriffe wird auch Cloud Native oft missverstanden oder fehlinterpretiert. Die Cloud Native Computing Foundation (CNCF) hat eine Definition entwickelt, die regelmäßig gepflegt wird und die Sie auf GitHub einsehen können. Dort wird der Begriff auf Deutsch wie folgt definiert: „Cloud-Native-Technologien ermöglichen es Unternehmen, skalierbare Anwendungen in modernen, dynamischen Umgebungen zu implementieren und zu betreiben. Dies können öffentliche, private und Hybrid-Clouds sein. Best Practices, wie Container, Service-Meshs, Microservices, Immutable Infrastructure und deklarative APIs unterstützen diesen Ansatz.“ Cloud-Native-Anwendungen laufen nicht einfach nur in der Cloud – sie wurden speziell für Cloud-Umgebungen entwickelt und konzipiert. Eine On-Premises-Applikation im Lift-&-Shift-Verfahren in die Cloud zu verfrachten und dort auszuführen, rechtfertigt also nicht das Cloud-Native-Label. Vielmehr stellt Cloud Native eine grundlegende Veränderung der Art und Weise dar, wie Unternehmen Software entwerfen, entwickeln und bereitstellen. Der Cloud-Native-Ansatz nutzt die einzigartigen Fähigkeiten der Cloud durch architektonische Entscheidungen, die Flexibilität, Ausfallsicherheit und Skalierbarkeit in den Vordergrund stellen. Im Gegensatz zu herkömmlichen, monolithischen Anwendungen, die oft eng miteinander verwoben sind, zeichnen sich Cloud-Native-Anwendungen durch einen modularen Aufbau aus. Es handelt sich also nicht um einen Stack, sondern eine entkoppelte Applikationsarchitektur. Die atomare Ebene einer Cloud-Native-Applikation ist der Container. Das kann ein Docker-Container sein – oder jeder andere Typ, der die Spezifikationen der Open Container Initiative (OCI) unterstützt. Über die Container werden kleine, unabhängige Services bereitgestellt, die über APIs kommunizieren – sogenannte Microservices. Eine Microservices-Architektur ermöglicht es, unabhängig zu skalieren, was wiederum auf die Funktionsweise der Cloud einzahlt. Obwohl Container in jeder Art von Host-Umgebung ausgeführt werden können, werden sie (und damit auch Microservices) im Regelfall über eine Orchestrierungsplattform bereitgestellt – etwa die Open-Source-Plattform Kubernetes, die von allen großen Public-Cloud-Anbietern unterstützt wird. Die wesentlichen Merkmale von Cloud-Native-Applikationen im Überblick: Microservices-Architekturen „zerlegen“Anwendungen in kleinere, lose gekoppelte Services, die unabhängig voneinander entwickelt, bereitgestellt und skaliert werden können. Containerisierung bündelt Microservices mit Abhängigkeiten und gewährleistet so umgebungsübergreifende Konsistenz sowie eine effiziente Ressourcennutzung. Orchestrierungsplattformen dienen dazu, Container mit integrierten Scaling-, Availability-, Networking- und Management-Funktionen bereitzustellen. Continuous Integration/Continous Deployment automatisiert Pipelines für schnellere Code-Integration sowie optimierte Testing- und Deployment-Prozesse. DevOps-Kulturansätze fördern die Zusammenarbeit zwischen Entwicklungs- und Betriebsteams sorgt für gemeinsame Verantwortung, schnellere Development-Zyklen und zuverlässige Releases. Skalierbarkeit und Ausfallsicherheit wird durch eine dynamische Skalierung der Ressourcen je nach Bedarf und eine reibungslose Fehlerbehandlung sichergestellt. Verteiltes Systemdesign ermöglicht Services, die über mehrere Server hinweg ausgeführt werden, sowie eine komponentenspezifische Skalierung, Fehlertoleranz und optimierte Ressourcennutzung. Cloud-Native-Werkzeugkasten Cloud-Native-Anwendungen zu entwickeln, erfordert folglich sich mit einer Vielzahl unterschiedlicher Technologien auseinanderzusetzen. Nachfolgend haben wir die gängigsten (respektive populärsten) Cloud-Native-Werkzeuge für Sie zusammengefasst. Cloud-Native-Programmiersprachen Go wurde von Google entwickelt und wird für seine Leistung und Effizienz geschätzt – insbesondere, wenn es um Cloud Services geht. Java ist eine vielseitige Sprache mit umfangreichem Ökosystem, die häufig für Enterprise-Anwendungen eingesetzt wird. JavaScript kommt nicht nur zu Scripting-Zwecken zum Einsatz, sondern auch, um Applikationen und Echtzeit-Services zu entwickeln. Python ist (unter anderem) simpel und einfach lesbar, wodurch es sich für diverse Anwendungen eignet, etwa für Web Services oder um Daten zu verarbeiten. Cloud-Native-Frameworks Um umfassendere Enterprise-Anwendungen zu entwickeln, reichen Programmiersprachen allein allerdings oft nicht aus. Dann kommen Application Development Frameworks ins Spiel. Zu den beliebtesten Cloud-Native-Frameworks zählen: Django ist ein populäres Web-Framework für Python, das in den letzten Jahren zunehmend dafür genutzt wird, Cloud-Native-Anwendungen zu entwickeln. Micronaut ist ein Full-Stack-Framework, um Cloud-Native-Apps mit Java zu erstellen. Quarkus wurde speziell für Java-Entwickler konzipiert, um Cloud-Native-Applikationen zu programmieren. .NET Aspire ist das Open-Source-Framework von Microsoft, um Cloud-Native-Anwendungen mit .NET zu erstellen. Next.js ist ein React-JavaScript-Framework, das sich besonders gut dazu eignet, Cloud-native Webanwendungen zu entwickeln. Node.js ist eine schlanke und performante JavaScript-Laufzeitumgebung, die ein ereignisgesteuertes E/A-Modell enthält. Container- & -Orchestrierungs-Tools Wie bereits erwähnt, werden Cloud-Native-Apps über Container-, beziehungsweise Orchestrierungs-Plattformen bereitgestellt. Zu den wichtigsten Technologien in diesem Bereich zählen: Docker hat Anwendungscontainer in den (IT-)Mainstream getragen dient häufig als Standard-Container-Technologie bei Cloud-Native-Deployments. Podman ist ein von Red Hat entwickelter Container-Ansatz, der weitgehend mit Docker kompatibel ist. Kubernetes ist der De-Facto-Standard, um Container in Cloud-Native-Umgebungen zu orchestrieren. Kubernetes Services sind auf allen wichtigen Cloud-Plattformen verfügbar. CI/CD-Tools Continuous Integration und Continuous Development (CI/CD) sind wesentliche Komponenten, um Cloud-Native-Apps zu entwickeln. CI/CD-Pipelines ermöglichen es, Anwendungen automatisiert zu erstellen, zu testen und bereitzustellen. Moderne CI/CD-Tools sind dabei eng mit Container-Technologien und Cloud-Plattformen integriert und bieten eine durchgängige Automatisierung über den gesamten Anwendungslebenszyklus hinweg. Zu den am häufigsten verwendeten Tools gehören: Argo CD, AWS CodePipeline, Azure DevOps, GitHub Actions, GitLab, und Jenkins. Observability- & Monitoring-Tools Observability-Technologie hilft, Einblicke in das Verhalten der verteilten Systeme zu gewinnen, auf denen Cloud-Native-Applikationen laufen. Zu diesem Zweck können verschiedene Funktionen zum Einsatz kommen. Das Rückgrat für Cloud-Native-Observability bilden dabei alle Tools, die den OpenTelemetry-Standard unterstützen. Darüber hinaus sind an dieser Stelle auch Plattformen zu nennen wie: Prometheus (Metriken) und Jaeger (Tracing). Best Practices, um Cloud-Native-Apps zu entwickeln Die Hyperscaler haben im Lauf der letzten Jahre jeweils eigene Best Practices entwickelt, wenn es darum geht Cloud-Native-Anwendungen zu entwickeln. Diese werden unter der Bezeichnung „Well-Architected Framework“ zusammengefasst: AWS Well-Architected Framework Google Cloud Well-Architected Framework Microsoft Azure Well-Architected Framework Die grundlegenden Prinzipien des „Well-Architected Framework“ sollen dabei dazu beitragen, dass Cloud-Native-Applikationen besonders sicher, zuverlässig und effizient sind. Zu diesen Kernprinzipien zählen: Operative Exzellenz: Systeme überwachen und Prozesse optimieren. Sicherheit: Robustes Identity & Access Management, Datenschutz- und Incident-Response-Maßnahmen implementieren. Zuverlässigkeit: Systeme entwerfen, die sich von Ausfällen erholen und die Nachfrage befriedigen können. Leistungseffizienz: Rechenressourcen effizient nutzen. Kostenoptimierung: Kosten managen, um den erzielten Wert zu maximieren. Indem sie Cloud-Native-Prinzipien verinnerlichen und umsetzen, können Unternehmen das volle Potenzial der Cloud ausschöpfen, statt sie nur als Hosting-Modell zu nutzen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Cloud Native erklärt​ Dieser Beitrag kann Cloud-Native-Missverständnissen vorbeugen.SeventyFour | shutterstock.com

Cloud-Native-Applikationen entwickeln sich zunehmend zum Standard in Public- und Private-Cloud-Instanzen. In diesem Artikel lesen Sie:

wie sich Cloud-Native-Anwendungen definieren,

welche Tools erforderlich sind, um sie zu entwickeln, und  

welche Best Practices dabei dringend zu empfehlen sind.

Cloud-Native-Definition

Wie viele andere Technologiebegriffe wird auch Cloud Native oft missverstanden oder fehlinterpretiert. Die Cloud Native Computing Foundation (CNCF) hat eine Definition entwickelt, die regelmäßig gepflegt wird und die Sie auf GitHub einsehen können. Dort wird der Begriff auf Deutsch wie folgt definiert:

„Cloud-Native-Technologien ermöglichen es Unternehmen, skalierbare Anwendungen in modernen, dynamischen Umgebungen zu implementieren und zu betreiben. Dies können öffentliche, private und Hybrid-Clouds sein. Best Practices, wie Container, Service-Meshs, Microservices, Immutable Infrastructure und deklarative APIs unterstützen diesen Ansatz.“

Cloud-Native-Anwendungen laufen nicht einfach nur in der Cloud – sie wurden speziell für Cloud-Umgebungen entwickelt und konzipiert. Eine On-Premises-Applikation im Lift-&-Shift-Verfahren in die Cloud zu verfrachten und dort auszuführen, rechtfertigt also nicht das Cloud-Native-Label. Vielmehr stellt Cloud Native eine grundlegende Veränderung der Art und Weise dar, wie Unternehmen Software entwerfen, entwickeln und bereitstellen. Der Cloud-Native-Ansatz nutzt die einzigartigen Fähigkeiten der Cloud durch architektonische Entscheidungen, die Flexibilität, Ausfallsicherheit und Skalierbarkeit in den Vordergrund stellen.

Im Gegensatz zu herkömmlichen, monolithischen Anwendungen, die oft eng miteinander verwoben sind, zeichnen sich Cloud-Native-Anwendungen durch einen modularen Aufbau aus. Es handelt sich also nicht um einen Stack, sondern eine entkoppelte Applikationsarchitektur. Die atomare Ebene einer Cloud-Native-Applikation ist der Container. Das kann ein Docker-Container sein – oder jeder andere Typ, der die Spezifikationen der Open Container Initiative (OCI) unterstützt. Über die Container werden kleine, unabhängige Services bereitgestellt, die über APIs kommunizieren – sogenannte Microservices. Eine Microservices-Architektur ermöglicht es, unabhängig zu skalieren, was wiederum auf die Funktionsweise der Cloud einzahlt. Obwohl Container in jeder Art von Host-Umgebung ausgeführt werden können, werden sie (und damit auch Microservices) im Regelfall über eine Orchestrierungsplattform bereitgestellt – etwa die Open-Source-Plattform Kubernetes, die von allen großen Public-Cloud-Anbietern unterstützt wird.

Die wesentlichen Merkmale von Cloud-Native-Applikationen im Überblick:

Microservices-Architekturen „zerlegen“Anwendungen in kleinere, lose gekoppelte Services, die unabhängig voneinander entwickelt, bereitgestellt und skaliert werden können.

Containerisierung bündelt Microservices mit Abhängigkeiten und gewährleistet so umgebungsübergreifende Konsistenz sowie eine effiziente Ressourcennutzung.

Orchestrierungsplattformen dienen dazu, Container mit integrierten Scaling-, Availability-, Networking- und Management-Funktionen bereitzustellen.

Continuous Integration/Continous Deployment automatisiert Pipelines für schnellere Code-Integration sowie optimierte Testing- und Deployment-Prozesse.

DevOps-Kulturansätze fördern die Zusammenarbeit zwischen Entwicklungs- und Betriebsteams sorgt für gemeinsame Verantwortung, schnellere Development-Zyklen und zuverlässige Releases.

Skalierbarkeit und Ausfallsicherheit wird durch eine dynamische Skalierung der Ressourcen je nach Bedarf und eine reibungslose Fehlerbehandlung sichergestellt.

Verteiltes Systemdesign ermöglicht Services, die über mehrere Server hinweg ausgeführt werden, sowie eine komponentenspezifische Skalierung, Fehlertoleranz und optimierte Ressourcennutzung.

Cloud-Native-Werkzeugkasten

Cloud-Native-Anwendungen zu entwickeln, erfordert folglich sich mit einer Vielzahl unterschiedlicher Technologien auseinanderzusetzen. Nachfolgend haben wir die gängigsten (respektive populärsten) Cloud-Native-Werkzeuge für Sie zusammengefasst.

Cloud-Native-Programmiersprachen

Go wurde von Google entwickelt und wird für seine Leistung und Effizienz geschätzt – insbesondere, wenn es um Cloud Services geht.

Java ist eine vielseitige Sprache mit umfangreichem Ökosystem, die häufig für Enterprise-Anwendungen eingesetzt wird.

JavaScript kommt nicht nur zu Scripting-Zwecken zum Einsatz, sondern auch, um Applikationen und Echtzeit-Services zu entwickeln.

Python ist (unter anderem) simpel und einfach lesbar, wodurch es sich für diverse Anwendungen eignet, etwa für Web Services oder um Daten zu verarbeiten.

Cloud-Native-Frameworks

Um umfassendere Enterprise-Anwendungen zu entwickeln, reichen Programmiersprachen allein allerdings oft nicht aus. Dann kommen Application Development Frameworks ins Spiel. Zu den beliebtesten Cloud-Native-Frameworks zählen:

Django ist ein populäres Web-Framework für Python, das in den letzten Jahren zunehmend dafür genutzt wird, Cloud-Native-Anwendungen zu entwickeln.

Micronaut ist ein Full-Stack-Framework, um Cloud-Native-Apps mit Java zu erstellen.

Quarkus wurde speziell für Java-Entwickler konzipiert, um Cloud-Native-Applikationen zu programmieren.

.NET Aspire ist das Open-Source-Framework von Microsoft, um Cloud-Native-Anwendungen mit .NET zu erstellen.

Next.js ist ein React-JavaScript-Framework, das sich besonders gut dazu eignet, Cloud-native Webanwendungen zu entwickeln.

Node.js ist eine schlanke und performante JavaScript-Laufzeitumgebung, die ein ereignisgesteuertes E/A-Modell enthält.

Container- & -Orchestrierungs-Tools

Wie bereits erwähnt, werden Cloud-Native-Apps über Container-, beziehungsweise Orchestrierungs-Plattformen bereitgestellt. Zu den wichtigsten Technologien in diesem Bereich zählen:

Docker hat Anwendungscontainer in den (IT-)Mainstream getragen dient häufig als Standard-Container-Technologie bei Cloud-Native-Deployments.

Podman ist ein von Red Hat entwickelter Container-Ansatz, der weitgehend mit Docker kompatibel ist.

Kubernetes ist der De-Facto-Standard, um Container in Cloud-Native-Umgebungen zu orchestrieren. Kubernetes Services sind auf allen wichtigen Cloud-Plattformen verfügbar.

CI/CD-Tools

Continuous Integration und Continuous Development (CI/CD) sind wesentliche Komponenten, um Cloud-Native-Apps zu entwickeln. CI/CD-Pipelines ermöglichen es, Anwendungen automatisiert zu erstellen, zu testen und bereitzustellen.

Moderne CI/CD-Tools sind dabei eng mit Container-Technologien und Cloud-Plattformen integriert und bieten eine durchgängige Automatisierung über den gesamten Anwendungslebenszyklus hinweg. Zu den am häufigsten verwendeten Tools gehören:

Argo CD,

AWS CodePipeline,

Azure DevOps,

GitHub Actions,

GitLab, und

Jenkins.

Observability- & Monitoring-Tools

Observability-Technologie hilft, Einblicke in das Verhalten der verteilten Systeme zu gewinnen, auf denen Cloud-Native-Applikationen laufen. Zu diesem Zweck können verschiedene Funktionen zum Einsatz kommen.

Das Rückgrat für Cloud-Native-Observability bilden dabei alle Tools, die den OpenTelemetry-Standard unterstützen. Darüber hinaus sind an dieser Stelle auch Plattformen zu nennen wie:

Prometheus (Metriken) und

Jaeger (Tracing).

Best Practices, um Cloud-Native-Apps zu entwickeln

Die Hyperscaler haben im Lauf der letzten Jahre jeweils eigene Best Practices entwickelt, wenn es darum geht Cloud-Native-Anwendungen zu entwickeln. Diese werden unter der Bezeichnung „Well-Architected Framework“ zusammengefasst:

AWS Well-Architected Framework

Google Cloud Well-Architected Framework

Microsoft Azure Well-Architected Framework

Die grundlegenden Prinzipien des „Well-Architected Framework“ sollen dabei dazu beitragen, dass Cloud-Native-Applikationen besonders sicher, zuverlässig und effizient sind. Zu diesen Kernprinzipien zählen:

Operative Exzellenz: Systeme überwachen und Prozesse optimieren.

Sicherheit: Robustes Identity & Access Management, Datenschutz- und Incident-Response-Maßnahmen implementieren.

Zuverlässigkeit: Systeme entwerfen, die sich von Ausfällen erholen und die Nachfrage befriedigen können.

Leistungseffizienz: Rechenressourcen effizient nutzen.

Kostenoptimierung: Kosten managen, um den erzielten Wert zu maximieren.

Indem sie Cloud-Native-Prinzipien verinnerlichen und umsetzen, können Unternehmen das volle Potenzial der Cloud ausschöpfen, statt sie nur als Hosting-Modell zu nutzen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Cloud Native erklärt​ Weiterlesen »

6 Fehler, die sich Rust-Devs sparen sollten​

Allgemein

Manche Fehler im Zusammenhang mit Rust entfalten nachhaltige Wirkung. Foto: ilmarinfoto | shutterstock.com Rust ermöglicht es Entwicklern, Memory-Safe-Software zu entwickeln – ohne Garbage Collection und in maschinennativer Geschwindigkeit. Allerdings ist die bei Mozilla entwickelte Programmiersprache auch relativ komplex und weist – zumindest anfänglich – eine eher steile Lernkurve auf. Die folgenden Programmierfehler sollten Entwickler, die gerade in Rust Fuß fassen – und auch erfahrenere Devs – möglichst nicht begehen. 1. Borrow Checker ausschalten wollen Ownership, Borrowing und Lifetimes sind integraler Bestandteil von Rust und davon, wie die Sprache Memory Safety ohne Garbage Collection sicherstellt. Einige andere Sprachen bieten Code-Checking-Tools, die auf Sicherheits- oder Memory-Probleme hinweisen, aber es dennoch erlauben, dass der Code kompiliert wird. Rust funktioniert nicht auf diese Art und Weise. Der Borrow Checker ist der Part des Rust Compilers, der alle Ownership-Prozesse verifiziert – und keine optionale Komponente, die sich nach Belieben abschalten lässt. Code, der nicht durch den Borrow Checker validiert wurde, wird nicht kompiliert. Zur Vertiefung empfiehlt sich ein Blick in die Rust-Dokumentation – genauer gesagt auf die Scoping Rules. Denken Sie daran, dass Sie Ownership-Probleme umgehen können, indem Sie über .clone() Kopien anlegen. Auf nicht Performance-intensive Programmkomponenten wird sich das in den seltensten Fällen spürbar auswirken. Das ermöglicht es Ihnen, sich auf die Teile zu konzentrieren, die maximale Zero-Copy-Performance erfordern und herauszufinden, wie sich dort Borrowing und Lifetimes effizienter gestalten lassen. 2. ‘_’ falsch verwenden Der Variablenname _ (ein einzelner Unterstrich) ist in Rust an ein besonderes Verhalten geknüpft: Der Wert, der in die Variable aufgenommen wird, ist nicht an sie gebunden. Das wird typischerweise für Values genutzt, die direkt verworfen werden. Eine must_use-Warnung kann beispielsweise typischerweise zum Schweigen gebracht werden, indem ihr ein _ zugewiesen wird. Deshalb sollten Sie _ nicht für Werte verwenden, die über das Statement in dem sie verwendet werden, hinaus bestehen bleiben. Die Szenarien, auf die Sie achten müssen, sind dabei diejenigen, in denen etwas beibehalten wird, bis es aus dem Scope fällt. Nehmen wir an, es geht um folgenden Code-Block: let _ = String::from(” Hello World “).trim(); In diesem Beispiel wird der erstellte String sofort nach dem Statement aus dem Scope fallen – also nicht bis zum Ende des Blocks gehalten (der Method-Call soll sicherstellen, dass die Ergebnisse bei der Kompilierung nicht ausgelassen werden). Der einfachste Weg, diesen Fehler zu vermeiden: Nutzen Sie Konstrukte wie _user oder _item möglichst nur für Zuweisungen, die bis zum Ende des Scopes persistent bleiben sollen. 3. Closures wie Funktionen behandeln Gegeben ist folgende Funktion: fn function(x: &i32) -> &i32 { x } Sie könnten nun versuchen, diese für einen Rückgabewert der Funktion als Closure auszudrücken: fn main() { let closure = |x: &i32| x; } Das Problem daran ist, dass es nicht funktioniert. Stattdessen folgt eine Fehlermeldung des Compilers (lifetime may not live long enough). Ein Weg, das zu umgehen, führt über eine Static Reference: fn main() { let _closure: &dyn Fn(&i32) -> &i32 = &|x: &i32| x; } 4. Destructors nicht verstehen Wie C++ erlaubt auch Rust, Destructors für Types zu erstellen, die ausgeführt werden, wenn ein Objekt aus dem Scope fällt. Dass das so passiert, ist allerdings nicht garantiert. Insbesondere nicht, wenn ein Borrow für ein bestimmtes Objekt ausläuft. Letzteres bedeutet aber nicht, dass bereits sein Destructor ausgeführt wurde. Dieser soll nicht immer ausgeführt werden, weil ein Borrow ausgelaufen ist – etwa, wenn ein Pointer ins Spiel kommt. Die Rust-Dokumentation hält auch zu diesem Themenbereich ausführliche Guidelines bereit. 5. unsafe unterschätzen Das Keyword unsafe existiert, um Rust-Code zu taggen, der beispielsweise Raw Pointer dereferenziert. Das ist eine Angelegenheit, mit der Sie bei Ihrer Rust-Programmierarbeit (hoffentlich) nicht oft konfrontiert werden. Falls doch, eröffnen sich dadurch nämlich viele neue Problemwelten. Ein Raw Pointer Dereferencing – um bei diesem Beispiel zu bleiben – das durch einen unsafe-Prozess hervorgerufen wurde, resultiert in einer Unbounded Lifetime. Letztere kann unerwartet schnell über das hinauswachsen, was Sie ursprünglich beabsichtigt haben. Vorausgesetzt, Sie gehen gewissenhaft mit einer Unbounded Reference um, sollten Ihnen solche Probleme erspart bleiben. Aus Sicherheitsgründen empfiehlt es sich jedoch, dereferenzierte Pointer in einer Funktion zu platzieren und Lifetimes an der Funktionsgrenze zu verwenden – statt sie innerhalb des Funktionsbereichs “loszulassen”. 6. .unwrap() für makellos halten Wenn eine Operation ein Result liefert, gibt es zwei grundlegende Möglichkeiten, damit umzugehen: Entweder Sie nutzen .unwrap() oder einen seiner Verwandten (beispielsweise .unwrap_or()) oder Sie setzen auf ein vollständiges match-Statement um ein Err-Ergebnis zu behandeln. Der wesentliche Vorteil von .unwrap() ist dabei, dass es praktisch ist: Falls Sie sich in einem Code-Pfad befinden, in dem ein unerwarteter Fehler auftritt, erhalten Sie mit .unwrap() den Wert, den Sie brauchen, um Ihre Arbeit fortzusetzen. Das hat jedoch auch seinen Preis: Jede einzelne Error Condition verursacht eine Panic und unterbricht das Programm. Panics in Rust sind auch aus gutem Grund nicht behebbar: Sie weisen darauf hin, dass Bugs vorhanden sind. Wenn Sie .unwrap() oder eine seiner Varianten verwenden, sollten Sie sich der limitierten Error-Handling-Fähigkeiten bewusst sein. Sie müssen einen Wert übergeben, der mit dem Typ übereinstimmt, den ein OK-Wert erzeugen würde. Mit match erlangen Sie eine weitaus größere Behavior-Flexibilität. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Fehler, die sich Rust-Devs sparen sollten​ Manche Fehler im Zusammenhang mit Rust entfalten nachhaltige Wirkung.
Foto: ilmarinfoto | shutterstock.com

Rust ermöglicht es Entwicklern, Memory-Safe-Software zu entwickeln – ohne Garbage Collection und in maschinennativer Geschwindigkeit. Allerdings ist die bei Mozilla entwickelte Programmiersprache auch relativ komplex und weist – zumindest anfänglich – eine eher steile Lernkurve auf.

Die folgenden Programmierfehler sollten Entwickler, die gerade in Rust Fuß fassen – und auch erfahrenere Devs – möglichst nicht begehen.

1. Borrow Checker ausschalten wollen

Ownership, Borrowing und Lifetimes sind integraler Bestandteil von Rust und davon, wie die Sprache Memory Safety ohne Garbage Collection sicherstellt. Einige andere Sprachen bieten Code-Checking-Tools, die auf Sicherheits- oder Memory-Probleme hinweisen, aber es dennoch erlauben, dass der Code kompiliert wird. Rust funktioniert nicht auf diese Art und Weise.

Der Borrow Checker ist der Part des Rust Compilers, der alle Ownership-Prozesse verifiziert – und keine optionale Komponente, die sich nach Belieben abschalten lässt. Code, der nicht durch den Borrow Checker validiert wurde, wird nicht kompiliert. Zur Vertiefung empfiehlt sich ein Blick in die Rust-Dokumentation – genauer gesagt auf die Scoping Rules.

Denken Sie daran, dass Sie Ownership-Probleme umgehen können, indem Sie über .clone() Kopien anlegen. Auf nicht Performance-intensive Programmkomponenten wird sich das in den seltensten Fällen spürbar auswirken. Das ermöglicht es Ihnen, sich auf die Teile zu konzentrieren, die maximale Zero-Copy-Performance erfordern und herauszufinden, wie sich dort Borrowing und Lifetimes effizienter gestalten lassen.

2. ‘_’ falsch verwenden

Der Variablenname _ (ein einzelner Unterstrich) ist in Rust an ein besonderes Verhalten geknüpft: Der Wert, der in die Variable aufgenommen wird, ist nicht an sie gebunden. Das wird typischerweise für Values genutzt, die direkt verworfen werden. Eine must_use-Warnung kann beispielsweise typischerweise zum Schweigen gebracht werden, indem ihr ein _ zugewiesen wird. Deshalb sollten Sie _ nicht für Werte verwenden, die über das Statement in dem sie verwendet werden, hinaus bestehen bleiben.

Die Szenarien, auf die Sie achten müssen, sind dabei diejenigen, in denen etwas beibehalten wird, bis es aus dem Scope fällt. Nehmen wir an, es geht um folgenden Code-Block:

let _ = String::from(” Hello World “).trim();

In diesem Beispiel wird der erstellte String sofort nach dem Statement aus dem Scope fallen – also nicht bis zum Ende des Blocks gehalten (der Method-Call soll sicherstellen, dass die Ergebnisse bei der Kompilierung nicht ausgelassen werden).

Der einfachste Weg, diesen Fehler zu vermeiden: Nutzen Sie Konstrukte wie _user oder _item möglichst nur für Zuweisungen, die bis zum Ende des Scopes persistent bleiben sollen.

3. Closures wie Funktionen behandeln

Gegeben ist folgende Funktion:

fn function(x: &i32) -> &i32 {

x

}

Sie könnten nun versuchen, diese für einen Rückgabewert der Funktion als Closure auszudrücken:

fn main() {

let closure = |x: &i32| x;

}

Das Problem daran ist, dass es nicht funktioniert. Stattdessen folgt eine Fehlermeldung des Compilers (lifetime may not live long enough). Ein Weg, das zu umgehen, führt über eine Static Reference:

fn main() {

let _closure: &dyn Fn(&i32) -> &i32 = &|x: &i32| x;

}

4. Destructors nicht verstehen

Wie C++ erlaubt auch Rust, Destructors für Types zu erstellen, die ausgeführt werden, wenn ein Objekt aus dem Scope fällt. Dass das so passiert, ist allerdings nicht garantiert.

Insbesondere nicht, wenn ein Borrow für ein bestimmtes Objekt ausläuft. Letzteres bedeutet aber nicht, dass bereits sein Destructor ausgeführt wurde. Dieser soll nicht immer ausgeführt werden, weil ein Borrow ausgelaufen ist – etwa, wenn ein Pointer ins Spiel kommt.

Die Rust-Dokumentation hält auch zu diesem Themenbereich ausführliche Guidelines bereit.

5. unsafe unterschätzen

Das Keyword unsafe existiert, um Rust-Code zu taggen, der beispielsweise Raw Pointer dereferenziert. Das ist eine Angelegenheit, mit der Sie bei Ihrer Rust-Programmierarbeit (hoffentlich) nicht oft konfrontiert werden. Falls doch, eröffnen sich dadurch nämlich viele neue Problemwelten.

Ein Raw Pointer Dereferencing – um bei diesem Beispiel zu bleiben – das durch einen unsafe-Prozess hervorgerufen wurde, resultiert in einer Unbounded Lifetime. Letztere kann unerwartet schnell über das hinauswachsen, was Sie ursprünglich beabsichtigt haben.

Vorausgesetzt, Sie gehen gewissenhaft mit einer Unbounded Reference um, sollten Ihnen solche Probleme erspart bleiben. Aus Sicherheitsgründen empfiehlt es sich jedoch, dereferenzierte Pointer in einer Funktion zu platzieren und Lifetimes an der Funktionsgrenze zu verwenden – statt sie innerhalb des Funktionsbereichs “loszulassen”.

6. .unwrap() für makellos halten

Wenn eine Operation ein Result liefert, gibt es zwei grundlegende Möglichkeiten, damit umzugehen:

Entweder Sie nutzen .unwrap() oder einen seiner Verwandten (beispielsweise .unwrap_or()) oder

Sie setzen auf ein vollständiges match-Statement um ein Err-Ergebnis zu behandeln.

Der wesentliche Vorteil von .unwrap() ist dabei, dass es praktisch ist: Falls Sie sich in einem Code-Pfad befinden, in dem ein unerwarteter Fehler auftritt, erhalten Sie mit .unwrap() den Wert, den Sie brauchen, um Ihre Arbeit fortzusetzen. Das hat jedoch auch seinen Preis: Jede einzelne Error Condition verursacht eine Panic und unterbricht das Programm. Panics in Rust sind auch aus gutem Grund nicht behebbar: Sie weisen darauf hin, dass Bugs vorhanden sind.

Wenn Sie .unwrap() oder eine seiner Varianten verwenden, sollten Sie sich der limitierten Error-Handling-Fähigkeiten bewusst sein. Sie müssen einen Wert übergeben, der mit dem Typ übereinstimmt, den ein OK-Wert erzeugen würde. Mit match erlangen Sie eine weitaus größere Behavior-Flexibilität. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Fehler, die sich Rust-Devs sparen sollten​ Weiterlesen »

Schwierige Mitarbeiter: Hilfe, ein Nörgler lähmt mein Team!​

Allgemein

Wenn toxische Kollegen den Teamgeist in seinen Grundfesten erschüttern, sollten Führungskräfte einschreiten. Foto: Andrey Popov – shutterstock.comMit Kolleginnen und Kollegen zusammenzuarbeiten, die ständig schlechte Laune haben und sich über alles beschweren, ist lästig und nervenaufreibend. Den Nörglern ist nichts gut genug: Führungskräfte sind unfähig, Kollegen faul oder überfordert und auch an den Kunden gibt es ständig etwas auszusetzen. Sie sind unverschämt und erwarten zu viel. Für Unternehmen sind solche Meckerer gefährlich. Die negative Energie, die sie ausstrahlen, kann die Teamarbeit lähmen, Kunden und Partner vergraulen und auf lange Sicht die Unternehmenskultur angreifen.Der natürliche Reflex im Umgang mit solchen Misanthropen besteht in den meisten Unternehmen und Abteilungen darin, derartige Nebengeräusche erst einmal zu überhören, darüber zu schmunzeln oder sie als Lappalien abzutun. Manche Abteilungsleiter versuchen auch, die Querulanten auf ihre Seite zu ziehen, indem sie ihnen Informationen vorab geben, damit besagte Kollegen sich involviert fühlen und nicht querschießen.Wie Nörgler verstummenBeide Ansätze sind suboptimal: Anstatt sich mit dem Störenfried zu arrangieren oder ihn aus taktischen Gründen zu bevorzugen, sollten Vorgesetzte sich darauf konzentrieren, dieses offenkundige Fehlverhalten abzustellen. Immerhin geht es nicht nur um den Frieden im Team, sondern auch darum, als Führungskraft glaubwürdig zu bleiben.Wie also kann man chronischen Nörglern und Jammerern das Handwerk legen? Zunächst einmal ist es wichtig einen Konsens im Team darüber zu haben, welches Verhalten am Arbeitsplatz alle für begrüßenswert halten und was jede(r) Einzelne dazu beitragen sollte. Klar formulierte Werte sind die Basis für jede Abteilungskultur. Gibt es im Team hier keinen Konsens, scheint alles erlaubt. Manche Mitarbeiter werden dann versuchen, nach ihren eigenen Werten zu leben und diese auch für andere durchzusetzen.Wer Beschwerden hinter vorgehaltener Hand verhindern will, sollte zudem auf Transparenz setzen. Teammitglieder müssen Gelegenheit haben, ihre Bedenken über Regeln, Programme oder Aktivitäten in der Gruppe zu äußern. Halten sie im großen Kreis mit ihrer Meinung hinterm Berg, haben sie kaum die Legitimation, sich in kleiner Runde oder unter vier Augen zu beklagen. Zu groß ist ihr Risiko gefragt zu werden: Warum hast Du denn nichts gesagt? Es ist also unbedingt sinnvoll, Missstände offen anzusprechen und alle Beteiligten aufzufordern, Maßnahmen zu ihrer Behebung vorzuschlagen. Zudem sollte jeder wissen, dass es einer Teamkultur nicht zuträglich ist, wenn sich Einzelne hinter den Kulissen beschweren.Führungskräfte sollten ihr Team kennen und wissen, wer die Quengler sind, die meistens außerhalb ihrer Hörweite agieren und möglichst unsichtbar bleiben wollen. Direkte Gespräche mit allen, auch formelle Umfragen sowie 360-Grad-Reviews können hier Klarheit bringen. Diese Nähe zum Team ist für Führungskräfte auch eine wichtige Präventivmaßnahme. Immer dann, wenn Vorgesetzte zu stark auf Distanz zu den Mitarbeitenden gehen, nutzen die Beschwerdeführer das Vakuum für sich. Also gilt es, Kontakt zu jedem Teammitglied zu halten, konstruktives Feedback zu geben und auch die Stimmung in der Arbeitsgruppe immer mal wieder für sich zu analysieren und bewerten. Kommunikation frisst NegativitätLassen sich Muster erkennen, worüber sich Mitarbeiter immer wieder beschweren, ist klares Feedback angesagt. Die schnelle, konstruktive Auseinandersetzung auf der Fachebene ist die Basis, genauso wichtig ist es aber, dem Betreffenden klar zu machen, was er mit seinem launischen Verhalten bewirkt. Dazu gilt es zu verdeutlichen, wie andauernde Mäkeleien dem Arbeitsumfeld schaden, wie sich Leistung und Moral negativ verändern und auch, wie es den Quenglern selbst in ihrem Arbeitsumfeld und auch in ihrem beruflichen Fortkommen schadet, wenn sie immer nur Misstöne erzeugen. Dabei sollten Vorgesetzte klar machen, dass kritischer Input zu Programmen, Richtlinien oder Aktivitäten am Arbeitsplatz immer gewünscht ist. Allerdings kommt es dabei auf den Kreis der Adressaten und den Ton an, in dem kommuniziert wird.Wenn alle gut gemeinten Führungs- und Motivationsmaßnahmen nicht fruchten, müssen Vorgesetzte auch mal Klartext reden und – am besten unterstützt von der Personalabteilung – ein ernsthaftes Krisengespräch führen. Wichtig dabei ist zu dokumentieren, dass man es vorher schon im Guten versucht hat: Feedback-Gespräche und Coachings haben stattgefunden, aber nicht gefruchtet. Ziel eines Krisengesprächs sollte ein klares Programm zur Leistungs- und Verhaltensverbesserung sein, das Ziele benennt und Fortschritte dokumentiert.Haben all diese Maßnahmen keinen Erfolg, sollten sich Vorgesetzte nicht scheuen, die Reißleine zu ziehen und die betreffende Person zu entlassen. Chronische Nörgler sind nur auf den ersten Blick harmlos, auf lange Sicht zerstören sie die Arbeitsatmosphäre und -kultur. Als Verantwortliche können Sie sich immer damit trösten, dass die betreffende Person im Unternehmen ohnehin nicht glücklich war.Die 5 schlimmsten KollegenDer Über-Versprecher Foto: PointImages – shutterstock.comSpeziell in Situationen, in denen immenser Druck herrscht, neigen manche Mitarbeiter dazu, alle möglichen, absurden Versprechungen zu machen. Entweder um Aufmerksamkeit zu erringen oder um dem Vorgesetzten beziehungsweise dem Management zu gefallen. Versprechungen machen ist immer einfach, aber wenn das Mega-Projekt dann eben nicht in den versprochenen zweieinhalb Wochen abgeschlossen ist, ist das ungünstig. Alexander Maasik empfiehlt: “Wenn es ein Teammitglied gibt, das am laufenden Band falsche Versprechungen gibt, von denen bereits vorher klar ist, dass sie unmöglich einzuhalten sind, sollten Sie seine Worte nicht mehr für bare Münze nehmen. Wenn Sie können, verlängern Sie den Zeitrahmen und/oder erhöhen Sie Budget oder Ressourceneinsatz, um Engpässe in anderen Bereichen kompensieren zu können.” Der Verantwortungsschieber Foto: Africa Studio – shutterstock.comDann gibt es diese Kollegen, die das Collaboration-Prinzip der geteilten Verantwortung auf ihre ganz eigene Weise interpretieren. Getreu dem Motto: “Die anderen werden es schon richten.” Experte Maasik rät in einem solchen Fall dazu, dem betreffenden Mitarbeiter eine definierte Rolle und spezifizierte Verantwortlichkeiten im Team zuzuweisen. Alternativ könnten Sie den Verantwortungsschieber auch fragen, ob es Bereiche gibt, die ihn besonders interessieren. Eventuell könnten Sie so seine Leistungs-Leidenschaft neu entflammen. “Manchmal können Sie solche Leute motivieren, indem Sie ihnen Führungsverantwortung übertragen oder ihnen die Verantwortung für ein bestimmtes Gebiet/Thema übertragen, das ihnen am Herzen liegt. Sollte betreffender Kollege allerdings für ausschweifende Arbeitsunlust bekannt sein, hilft unglücklicherweise nur, ihn (oder sie) im Auge zu behalten und sich wenn nötig an höhere Instanzen zu wenden.”Der Fremdfeder-Connoisseur Foto: pathdoc – shutterstock.comEs ist nur menschlich, nach Wertschätzung und Anerkennung zu streben. Aber einige Menschen übertreiben das in einem Ausmaß, dass sie fast schon selbst daran glauben, wenn sie sich fälschlicherweise die Erfolge anderer zuschreiben. Maasik: “Leider nimmt der Enthusiasmus dieser Leute rasant ab, wenn es darum geht, die Verantwortung für Misserfolge zu übernehmen. Um solchen Entwicklungen entgegenzuwirken, empfiehlt es sich, genau festzuhalten, wer für welchen Part der Projektarbeit zuständig ist. So können auch alle Beteiligten sehen, wer welchen Beitrag leistet. Sollte jemand auf das Einheimsen von Lorbeeren bestehen, stellen Sie sicher, dass derjenige auch im Fall des Misserfolgs sein Fett abbekommt.”Der Makel-Magnat Foto: Photographee.eu – shutterstock.comNicht führt die Team-Moral schneller und geradliniger in den Abgrund, als einer, der ständig nur kritisiert, auf Fehler “hinweist” oder sich über jeden Aspekt eines Projekts nur beschwert. Egal, ob es um Zuständigkeiten, Workloads oder die Strategie geht, der Makel-Magnat hat einfach immer was zu meckern. “Dieses Verhalten ist absolutes Gift für das Teamwork. Diese Leute verbringen mehr Zeit damit, sich zu beschweren, als mit der Erfüllung ihrer Aufgaben. Der beste Weg solche Menschen zu handlen: 1. Ignorieren Sie das Gemecker, 2. Geben Sie ihm so viel Verantwortung, dass er (oder sie) keine Zeit mehr hat rumzujammern.”Der Aussteiger Foto: YuriyZhuravov – shutterstock.comManche Leute arbeiten besser alleine. Ist auch gar kein Problem. Außer es handelt sich um Personen, die in Team-Projekte eingebunden sind. Dann könnte jemand, der Anweisungen aus Prinzip ignoriert und affin für Alleingänge ist, das ganze Projekt auf’s Spiel setzen. Deswegen empfiehlt auch Alexander Maasik, solche Leute lieber aufs “Abstellgleis” zu befördern: “Finden Sie einen Bereich im Projekt, an dem ein solcher Mitarbeiter alleine arbeiten oder sich selbst verwirklichen kann. So holen Sie das Maximum an Produktivität aus diesem Kollegen heraus und stellen gleichzeitig sicher, dass der Rest des Teams intakt bleibt.” 

Schwierige Mitarbeiter: Hilfe, ein Nörgler lähmt mein Team!​ Wenn toxische Kollegen den Teamgeist in seinen Grundfesten erschüttern, sollten Führungskräfte einschreiten.
Foto: Andrey Popov – shutterstock.comMit Kolleginnen und Kollegen zusammenzuarbeiten, die ständig schlechte Laune haben und sich über alles beschweren, ist lästig und nervenaufreibend. Den Nörglern ist nichts gut genug: Führungskräfte sind unfähig, Kollegen faul oder überfordert und auch an den Kunden gibt es ständig etwas auszusetzen. Sie sind unverschämt und erwarten zu viel. Für Unternehmen sind solche Meckerer gefährlich. Die negative Energie, die sie ausstrahlen, kann die Teamarbeit lähmen, Kunden und Partner vergraulen und auf lange Sicht die Unternehmenskultur angreifen.Der natürliche Reflex im Umgang mit solchen Misanthropen besteht in den meisten Unternehmen und Abteilungen darin, derartige Nebengeräusche erst einmal zu überhören, darüber zu schmunzeln oder sie als Lappalien abzutun. Manche Abteilungsleiter versuchen auch, die Querulanten auf ihre Seite zu ziehen, indem sie ihnen Informationen vorab geben, damit besagte Kollegen sich involviert fühlen und nicht querschießen.Wie Nörgler verstummenBeide Ansätze sind suboptimal: Anstatt sich mit dem Störenfried zu arrangieren oder ihn aus taktischen Gründen zu bevorzugen, sollten Vorgesetzte sich darauf konzentrieren, dieses offenkundige Fehlverhalten abzustellen. Immerhin geht es nicht nur um den Frieden im Team, sondern auch darum, als Führungskraft glaubwürdig zu bleiben.Wie also kann man chronischen Nörglern und Jammerern das Handwerk legen? Zunächst einmal ist es wichtig einen Konsens im Team darüber zu haben, welches Verhalten am Arbeitsplatz alle für begrüßenswert halten und was jede(r) Einzelne dazu beitragen sollte. Klar formulierte Werte sind die Basis für jede Abteilungskultur. Gibt es im Team hier keinen Konsens, scheint alles erlaubt. Manche Mitarbeiter werden dann versuchen, nach ihren eigenen Werten zu leben und diese auch für andere durchzusetzen.Wer Beschwerden hinter vorgehaltener Hand verhindern will, sollte zudem auf Transparenz setzen. Teammitglieder müssen Gelegenheit haben, ihre Bedenken über Regeln, Programme oder Aktivitäten in der Gruppe zu äußern. Halten sie im großen Kreis mit ihrer Meinung hinterm Berg, haben sie kaum die Legitimation, sich in kleiner Runde oder unter vier Augen zu beklagen. Zu groß ist ihr Risiko gefragt zu werden: Warum hast Du denn nichts gesagt? Es ist also unbedingt sinnvoll, Missstände offen anzusprechen und alle Beteiligten aufzufordern, Maßnahmen zu ihrer Behebung vorzuschlagen. Zudem sollte jeder wissen, dass es einer Teamkultur nicht zuträglich ist, wenn sich Einzelne hinter den Kulissen beschweren.Führungskräfte sollten ihr Team kennen und wissen, wer die Quengler sind, die meistens außerhalb ihrer Hörweite agieren und möglichst unsichtbar bleiben wollen. Direkte Gespräche mit allen, auch formelle Umfragen sowie 360-Grad-Reviews können hier Klarheit bringen. Diese Nähe zum Team ist für Führungskräfte auch eine wichtige Präventivmaßnahme. Immer dann, wenn Vorgesetzte zu stark auf Distanz zu den Mitarbeitenden gehen, nutzen die Beschwerdeführer das Vakuum für sich. Also gilt es, Kontakt zu jedem Teammitglied zu halten, konstruktives Feedback zu geben und auch die Stimmung in der Arbeitsgruppe immer mal wieder für sich zu analysieren und bewerten.

Kommunikation frisst NegativitätLassen sich Muster erkennen, worüber sich Mitarbeiter immer wieder beschweren, ist klares Feedback angesagt. Die schnelle, konstruktive Auseinandersetzung auf der Fachebene ist die Basis, genauso wichtig ist es aber, dem Betreffenden klar zu machen, was er mit seinem launischen Verhalten bewirkt. Dazu gilt es zu verdeutlichen, wie andauernde Mäkeleien dem Arbeitsumfeld schaden, wie sich Leistung und Moral negativ verändern und auch, wie es den Quenglern selbst in ihrem Arbeitsumfeld und auch in ihrem beruflichen Fortkommen schadet, wenn sie immer nur Misstöne erzeugen. Dabei sollten Vorgesetzte klar machen, dass kritischer Input zu Programmen, Richtlinien oder Aktivitäten am Arbeitsplatz immer gewünscht ist. Allerdings kommt es dabei auf den Kreis der Adressaten und den Ton an, in dem kommuniziert wird.Wenn alle gut gemeinten Führungs- und Motivationsmaßnahmen nicht fruchten, müssen Vorgesetzte auch mal Klartext reden und – am besten unterstützt von der Personalabteilung – ein ernsthaftes Krisengespräch führen. Wichtig dabei ist zu dokumentieren, dass man es vorher schon im Guten versucht hat: Feedback-Gespräche und Coachings haben stattgefunden, aber nicht gefruchtet. Ziel eines Krisengesprächs sollte ein klares Programm zur Leistungs- und Verhaltensverbesserung sein, das Ziele benennt und Fortschritte dokumentiert.Haben all diese Maßnahmen keinen Erfolg, sollten sich Vorgesetzte nicht scheuen, die Reißleine zu ziehen und die betreffende Person zu entlassen. Chronische Nörgler sind nur auf den ersten Blick harmlos, auf lange Sicht zerstören sie die Arbeitsatmosphäre und -kultur. Als Verantwortliche können Sie sich immer damit trösten, dass die betreffende Person im Unternehmen ohnehin nicht glücklich war.Die 5 schlimmsten KollegenDer Über-Versprecher
Foto: PointImages – shutterstock.comSpeziell in Situationen, in denen immenser Druck herrscht, neigen manche Mitarbeiter dazu, alle möglichen, absurden Versprechungen zu machen. Entweder um Aufmerksamkeit zu erringen oder um dem Vorgesetzten beziehungsweise dem Management zu gefallen. Versprechungen machen ist immer einfach, aber wenn das Mega-Projekt dann eben nicht in den versprochenen zweieinhalb Wochen abgeschlossen ist, ist das ungünstig. Alexander Maasik empfiehlt: “Wenn es ein Teammitglied gibt, das am laufenden Band falsche Versprechungen gibt, von denen bereits vorher klar ist, dass sie unmöglich einzuhalten sind, sollten Sie seine Worte nicht mehr für bare Münze nehmen. Wenn Sie können, verlängern Sie den Zeitrahmen und/oder erhöhen Sie Budget oder Ressourceneinsatz, um Engpässe in anderen Bereichen kompensieren zu können.” Der Verantwortungsschieber
Foto: Africa Studio – shutterstock.comDann gibt es diese Kollegen, die das Collaboration-Prinzip der geteilten Verantwortung auf ihre ganz eigene Weise interpretieren. Getreu dem Motto: “Die anderen werden es schon richten.” Experte Maasik rät in einem solchen Fall dazu, dem betreffenden Mitarbeiter eine definierte Rolle und spezifizierte Verantwortlichkeiten im Team zuzuweisen. Alternativ könnten Sie den Verantwortungsschieber auch fragen, ob es Bereiche gibt, die ihn besonders interessieren. Eventuell könnten Sie so seine Leistungs-Leidenschaft neu entflammen. “Manchmal können Sie solche Leute motivieren, indem Sie ihnen Führungsverantwortung übertragen oder ihnen die Verantwortung für ein bestimmtes Gebiet/Thema übertragen, das ihnen am Herzen liegt. Sollte betreffender Kollege allerdings für ausschweifende Arbeitsunlust bekannt sein, hilft unglücklicherweise nur, ihn (oder sie) im Auge zu behalten und sich wenn nötig an höhere Instanzen zu wenden.”Der Fremdfeder-Connoisseur
Foto: pathdoc – shutterstock.comEs ist nur menschlich, nach Wertschätzung und Anerkennung zu streben. Aber einige Menschen übertreiben das in einem Ausmaß, dass sie fast schon selbst daran glauben, wenn sie sich fälschlicherweise die Erfolge anderer zuschreiben. Maasik: “Leider nimmt der Enthusiasmus dieser Leute rasant ab, wenn es darum geht, die Verantwortung für Misserfolge zu übernehmen. Um solchen Entwicklungen entgegenzuwirken, empfiehlt es sich, genau festzuhalten, wer für welchen Part der Projektarbeit zuständig ist. So können auch alle Beteiligten sehen, wer welchen Beitrag leistet. Sollte jemand auf das Einheimsen von Lorbeeren bestehen, stellen Sie sicher, dass derjenige auch im Fall des Misserfolgs sein Fett abbekommt.”Der Makel-Magnat
Foto: Photographee.eu – shutterstock.comNicht führt die Team-Moral schneller und geradliniger in den Abgrund, als einer, der ständig nur kritisiert, auf Fehler “hinweist” oder sich über jeden Aspekt eines Projekts nur beschwert. Egal, ob es um Zuständigkeiten, Workloads oder die Strategie geht, der Makel-Magnat hat einfach immer was zu meckern. “Dieses Verhalten ist absolutes Gift für das Teamwork. Diese Leute verbringen mehr Zeit damit, sich zu beschweren, als mit der Erfüllung ihrer Aufgaben. Der beste Weg solche Menschen zu handlen: 1. Ignorieren Sie das Gemecker, 2. Geben Sie ihm so viel Verantwortung, dass er (oder sie) keine Zeit mehr hat rumzujammern.”Der Aussteiger
Foto: YuriyZhuravov – shutterstock.comManche Leute arbeiten besser alleine. Ist auch gar kein Problem. Außer es handelt sich um Personen, die in Team-Projekte eingebunden sind. Dann könnte jemand, der Anweisungen aus Prinzip ignoriert und affin für Alleingänge ist, das ganze Projekt auf’s Spiel setzen. Deswegen empfiehlt auch Alexander Maasik, solche Leute lieber aufs “Abstellgleis” zu befördern: “Finden Sie einen Bereich im Projekt, an dem ein solcher Mitarbeiter alleine arbeiten oder sich selbst verwirklichen kann. So holen Sie das Maximum an Produktivität aus diesem Kollegen heraus und stellen gleichzeitig sicher, dass der Rest des Teams intakt bleibt.”

Schwierige Mitarbeiter: Hilfe, ein Nörgler lähmt mein Team!​ Weiterlesen »

Ratgeber Diensthandy: Was Sie über Firmenhandys wissen sollten​

Allgemein

Die modernen Rahmenbedingungen der Arbeitswelt – Stichworte Home-Office und New Work – bringen es mit sich, dass immer mehr Mitarbeiter mit Diensthandys ausgestattet werden. Foto: SFIO CRACHO – shutterstock.com Vor einigen Jahren war ein Diensthandy häufig noch ein Statussymbol. Mitarbeiter in Führungsposition oder andere Beschäftigte, die eine herausragende Stellung im Unternehmen innehatten, bekamen von ihrem Arbeitgeber ein dienstliches Mobiltelefon überreicht. So waren sie auch auf Geschäftsreise oder bei einem Kundentermin für Anfragen aus der Firma erreichbar. Heute ist ein Firmenhandy hingegen keine Seltenheit mehr. Immer mehr Arbeitgeber überlassen ihren Beschäftigten sogar ein Smartphone, das sie auch privat nutzen dürfen. Sehr zur Freude vieler Mitarbeiter, weil sich damit häufig ein privates Handy sparen können. Auf der anderen Seite macht es New Work, also die geänderten Rahmenbedingungen der Arbeitswelt, auch notwendig, dass immer mehr Mitarbeiter ein Business-Smartphone haben. Denn wer im Home-Office oder beispielsweise auf Workation im Ausland arbeitet, der muss schnell erreichbar sein. Und das geht nun einmal am besten mobil via Smartphone. Zusätzlich erkennen viele Arbeitnehmer – Stichwort Groupware-Apps – die Vorteile, die sich ergeben, wenn ihre Mitarbeiter dienstlich ein Smartphone nutzen: Anwendungen wie Teams oder Slack können die Zusammenarbeit zwischen Mitarbeitern oder die Kommunikation zwischen der Stammbelegschaft und Freelancern erheblich vereinfachen. Diensthandy: Darauf sollten Sie achten Falls Sie bei der Auswahl des Firmenhandys mitentscheiden können, stellt sich die Frage: Was ist bei der Anschaffung möglichst zu beachten? So viel sei vorab schon verraten: Die Optik spielt natürlich auch eine Rolle, ist jedoch im Hinblick auf die Funktionen, die ein Diensthandy beinhalten sollte, von untergeordneter Wichtigkeit. Akkulaufzeit: Wenn Sie viel unterwegs sind und das Geschäftshandy nicht nur am Schreibtisch nutzen, sollten Sie auf einen leistungsfähigen Akku achten. Sinnvoll wäre ferner, wenn der Akku ausgetauscht werden könnte, sobald er an Leistung verliert. Das ist bei den meisten Handys nicht der Fall, deshalb empfiehlt sich die Anschaffung einer Powerbank oder gar noch modernerer kabelloser Ladegeräte, wie beispielsweise MagSafe Zubehör. Damit hat man unterwegs immer mehrere Akkuladungen parat, falls die Batterie schlapp macht. Bildschirmgröße: Wer plant, viel mit dem Smartphone zu arbeiten, ist mit einem großen Display gut beraten. Auch Videotelefonie oder Konferenzen über Zoom oder Teams sind mit einer großen Bildschirmdiagonale angenehmer. Sechs Zoll dürfen es schon sein. Auflösung: Damit das Gegenüber in bester Qualität zu sehen ist, ebenso wie Aufzeichnungen von Präsentationen oder störungsfrei das neueste TikTok-Video seines Arbeitgebers, sollte das Geschäftshandy über eine Full-HD-Auflösung verfügen. Ausstattung: Wer sein Business-Smartphone statt eines Tablets oder gar Laptops nutzt, sollte über die Anschaffung zusätzlicher Ausstattung nachdenken. Die allermeisten Modelle lassen sich heute mit einer externen Tastatur für das Handy, einige auch mit einem Touchpen, also einem speziellen Stift für das Smartphone kombinieren. Das erleichtert das Arbeiten und Reisen. So kann man auf zusätzliche Geräte wie Tablet oder Laptop verzichten. Speicherplatz: Damit wichtige Dokumente auf dem Smartphone gespeichert werden können, ohne dass andere Anwendungen gelöscht werden müssen, um Speicherplatz freizuräumen, sollte dieser in ausreichender Menge vorhanden sein. Zusätzlich sollte das Geschäftshandy mit nicht weniger als 8 GB RAM (beim iPhone 4 RAM) ausgestattet sein, um bestmögliche Performance zu erzielen. Firmenhandy: Q&A Neben den technischen Daten und der Ausstattung sind für viele Beschäftigte die gesetzlichen Vorschriften und die Regelungen relevant, die der Arbeitgeber aufstellen darf – doch welche sind das? Ist das Geschäftshandy ein geldwerter Vorteil? Mitarbeiter, die von ihrem Arbeitgeber ein Diensthandy bekommen, für das der Chef alle Kosten übernimmt, müssen bei der Steuer nichts weiter beachten. Es zählt nicht als geldwerter Vorteil. Auch dann nicht, wenn sie das Handy privat nutzen dürfen. Wie lange muss ich erreichbar sein? Sofern Sie nicht in Rufbereitschaft sind oder mit dem Chef vereinbart haben, auch nach Dienstschluss auf dem Diensthandy erreichbar zu sein, müssen Sie außerhalb Ihrer Arbeitszeit nicht ans Telefon gehen, wenn der Chef anruft. Das gilt ganz besonders im Urlaub und an arbeitsfreien Sonn- und Feiertagen. Darf ich mit dem Diensthandy privat telefonieren? Ob Sie mit Ihrem Diensthandy privat telefonieren dürfen, hängt davon ab, was mit dem Arbeitgeber vereinbart wurde. In der Regel sind Sie auf der sicheren Seite, wenn Sie das Firmengerät nur geschäftlich nutzen, sofern Sie keine gesonderte Erlaubnis für die Privatnutzung haben. Was passiert, wenn ich das Firmenhandy beschädige? Ein gut ausgestattetes Smartphone, das noch dazu technisch auf dem neuesten Stand ist, ist in der Regel nicht gerade billig. Daher kommt es immer wieder zu Auseinandersetzungen bei der Frage, wer für ein beschädigtes Diensthandy aufkommen muss. Dabei gilt die Regel, dass Arbeitnehmer bei leichter Fahrlässigkeit nicht für den Schaden aufkommen müssen. Ein solcher Fall kann vorliegen, wenn Sie aus dem Auto aussteigen, das Smartphone dabei auf den Boden fällt und das Display beschädigt wird. Bei grober Fahrlässigkeit haftet hingegen der Arbeitnehmer. Das Problem: Die Grenze zwischen leichter und grober Fahrlässigkeit ist eine Einzelfallentscheidung und lässt sich daher nicht pauschal festlegen. Sie sind daher immer gut beraten, mit dem Geschäftshandy sorgsam umzugehen. Wenn Sie befürchten, Ihr Diensthandy zu beschädigen, können Sie es im Zweifelsfall sogar versichern und sich so für den Worst Case wappnen. (pg) Wie Unternehmen ein gutes Arbeitsklima für Teamwork schaffenTipps zur Arbeitsplatzgestaltung und Kollaboration Foto: 4 PM production – shutterstock.comArbeitnehmer sind besonders produktiv und innovativ, wenn das Arbeitsklima stimmt. Unternehmen sollten deshalb für ein angenehmes Arbeitsumfeld sowie perfekte Bedingungen in Sachen Kommunikation und Teamwork sorgen. Acht Tipps worauf Sie achten sollten. Mitarbeiterbedürfnisse sichern Foto: Dmitry Demidovich – shutterstock.comFragen Sie, was Ihre Mitarbeitenden wollen und brauchen, um gut arbeiten zu können.Wünsche erfüllen Foto: Black Salmon – shutterstock.comSetzen Sie erkennbar möglichst viele der Mitarbeiterwünsche um.Infrastruktur bereitstellen Foto: Phonlamai Photo – shutterstock.comSorgen Sie für eine gute Infrastruktur im und um Ihr Firmengebäude (Kita, Eltern-Kind-Raum, Parkplätze, E-Ladestationen, Arbeitsplatz-Ausstattung…)Flexibles Arbeiten unterstützen Foto: Quality Stock Arts – shutterstock.comSeien Sie möglichst flexibel in Sachen Arbeitszeiten und Home-Office-Möglichkeiten.Hybrides Arbeiten ermöglichen Foto: Celia Ong – shutterstock.comAchten Sie darauf, dass Ihre Räumlichkeiten und Arbeitsplätze hybrides Arbeiten möglich machen.Begegnungszonen einrichten Foto: Shutterstock – Matej KastelicSchaffen Sie ausreichend Begegnungsflächen für Gespräche unter den Beschäftigten. Das fördert den Ideenaustausch und fördert Innovationen. Freizeitangebote machen Foto: Robert Kneschke – shutterstock.comSorgen Sie für Möglichkeiten zur gemeinsamen Freizeitgestaltung. Das stärkt die Motivation, schafft Teamspirit und macht den Kopf wieder frei.Perfekte Arbeitsatmosphäre bieten Foto: SeaRick1 – shutterstock.comFördern Sie alles, was Ihren Mitarbeitenden den Job und Arbeitsplatz angenehm macht (viele Pflanzen, höhenverstellbare Schreibtische, flexible Gestaltungsmöglichkeiten…). 

Ratgeber Diensthandy: Was Sie über Firmenhandys wissen sollten​ Die modernen Rahmenbedingungen der Arbeitswelt – Stichworte Home-Office und New Work – bringen es mit sich, dass immer mehr Mitarbeiter mit Diensthandys ausgestattet werden.
Foto: SFIO CRACHO – shutterstock.com

Vor einigen Jahren war ein Diensthandy häufig noch ein Statussymbol. Mitarbeiter in Führungsposition oder andere Beschäftigte, die eine herausragende Stellung im Unternehmen innehatten, bekamen von ihrem Arbeitgeber ein dienstliches Mobiltelefon überreicht. So waren sie auch auf Geschäftsreise oder bei einem Kundentermin für Anfragen aus der Firma erreichbar. Heute ist ein Firmenhandy hingegen keine Seltenheit mehr. Immer mehr Arbeitgeber überlassen ihren Beschäftigten sogar ein Smartphone, das sie auch privat nutzen dürfen. Sehr zur Freude vieler Mitarbeiter, weil sich damit häufig ein privates Handy sparen können.

Auf der anderen Seite macht es New Work, also die geänderten Rahmenbedingungen der Arbeitswelt, auch notwendig, dass immer mehr Mitarbeiter ein Business-Smartphone haben. Denn wer im Home-Office oder beispielsweise auf Workation im Ausland arbeitet, der muss schnell erreichbar sein. Und das geht nun einmal am besten mobil via Smartphone.

Zusätzlich erkennen viele Arbeitnehmer – Stichwort Groupware-Apps – die Vorteile, die sich ergeben, wenn ihre Mitarbeiter dienstlich ein Smartphone nutzen: Anwendungen wie Teams oder Slack können die Zusammenarbeit zwischen Mitarbeitern oder die Kommunikation zwischen der Stammbelegschaft und Freelancern erheblich vereinfachen.

Diensthandy: Darauf sollten Sie achten

Falls Sie bei der Auswahl des Firmenhandys mitentscheiden können, stellt sich die Frage: Was ist bei der Anschaffung möglichst zu beachten? So viel sei vorab schon verraten: Die Optik spielt natürlich auch eine Rolle, ist jedoch im Hinblick auf die Funktionen, die ein Diensthandy beinhalten sollte, von untergeordneter Wichtigkeit.

Akkulaufzeit: Wenn Sie viel unterwegs sind und das Geschäftshandy nicht nur am Schreibtisch nutzen, sollten Sie auf einen leistungsfähigen Akku achten. Sinnvoll wäre ferner, wenn der Akku ausgetauscht werden könnte, sobald er an Leistung verliert. Das ist bei den meisten Handys nicht der Fall, deshalb empfiehlt sich die Anschaffung einer Powerbank oder gar noch modernerer kabelloser Ladegeräte, wie beispielsweise MagSafe Zubehör. Damit hat man unterwegs immer mehrere Akkuladungen parat, falls die Batterie schlapp macht.

Bildschirmgröße: Wer plant, viel mit dem Smartphone zu arbeiten, ist mit einem großen Display gut beraten. Auch Videotelefonie oder Konferenzen über Zoom oder Teams sind mit einer großen Bildschirmdiagonale angenehmer. Sechs Zoll dürfen es schon sein.

Auflösung: Damit das Gegenüber in bester Qualität zu sehen ist, ebenso wie Aufzeichnungen von Präsentationen oder störungsfrei das neueste TikTok-Video seines Arbeitgebers, sollte das Geschäftshandy über eine Full-HD-Auflösung verfügen.

Ausstattung: Wer sein Business-Smartphone statt eines Tablets oder gar Laptops nutzt, sollte über die Anschaffung zusätzlicher Ausstattung nachdenken. Die allermeisten Modelle lassen sich heute mit einer externen Tastatur für das Handy, einige auch mit einem Touchpen, also einem speziellen Stift für das Smartphone kombinieren. Das erleichtert das Arbeiten und Reisen. So kann man auf zusätzliche Geräte wie Tablet oder Laptop verzichten.

Speicherplatz: Damit wichtige Dokumente auf dem Smartphone gespeichert werden können, ohne dass andere Anwendungen gelöscht werden müssen, um Speicherplatz freizuräumen, sollte dieser in ausreichender Menge vorhanden sein. Zusätzlich sollte das Geschäftshandy mit nicht weniger als 8 GB RAM (beim iPhone 4 RAM) ausgestattet sein, um bestmögliche Performance zu erzielen.

Firmenhandy: Q&A

Neben den technischen Daten und der Ausstattung sind für viele Beschäftigte die gesetzlichen Vorschriften und die Regelungen relevant, die der Arbeitgeber aufstellen darf – doch welche sind das?

Ist das Geschäftshandy ein geldwerter Vorteil?

Mitarbeiter, die von ihrem Arbeitgeber ein Diensthandy bekommen, für das der Chef alle Kosten übernimmt, müssen bei der Steuer nichts weiter beachten. Es zählt nicht als geldwerter Vorteil. Auch dann nicht, wenn sie das Handy privat nutzen dürfen.

Wie lange muss ich erreichbar sein?

Sofern Sie nicht in Rufbereitschaft sind oder mit dem Chef vereinbart haben, auch nach Dienstschluss auf dem Diensthandy erreichbar zu sein, müssen Sie außerhalb Ihrer Arbeitszeit nicht ans Telefon gehen, wenn der Chef anruft. Das gilt ganz besonders im Urlaub und an arbeitsfreien Sonn- und Feiertagen.

Darf ich mit dem Diensthandy privat telefonieren?

Ob Sie mit Ihrem Diensthandy privat telefonieren dürfen, hängt davon ab, was mit dem Arbeitgeber vereinbart wurde. In der Regel sind Sie auf der sicheren Seite, wenn Sie das Firmengerät nur geschäftlich nutzen, sofern Sie keine gesonderte Erlaubnis für die Privatnutzung haben.

Was passiert, wenn ich das Firmenhandy beschädige?

Ein gut ausgestattetes Smartphone, das noch dazu technisch auf dem neuesten Stand ist, ist in der Regel nicht gerade billig. Daher kommt es immer wieder zu Auseinandersetzungen bei der Frage, wer für ein beschädigtes Diensthandy aufkommen muss. Dabei gilt die Regel, dass Arbeitnehmer bei leichter Fahrlässigkeit nicht für den Schaden aufkommen müssen. Ein solcher Fall kann vorliegen, wenn Sie aus dem Auto aussteigen, das Smartphone dabei auf den Boden fällt und das Display beschädigt wird.

Bei grober Fahrlässigkeit haftet hingegen der Arbeitnehmer. Das Problem: Die Grenze zwischen leichter und grober Fahrlässigkeit ist eine Einzelfallentscheidung und lässt sich daher nicht pauschal festlegen. Sie sind daher immer gut beraten, mit dem Geschäftshandy sorgsam umzugehen. Wenn Sie befürchten, Ihr Diensthandy zu beschädigen, können Sie es im Zweifelsfall sogar versichern und sich so für den Worst Case wappnen. (pg)

Wie Unternehmen ein gutes Arbeitsklima für Teamwork schaffenTipps zur Arbeitsplatzgestaltung und Kollaboration
Foto: 4 PM production – shutterstock.comArbeitnehmer sind besonders produktiv und innovativ, wenn das Arbeitsklima stimmt. Unternehmen sollten deshalb für ein angenehmes Arbeitsumfeld sowie perfekte Bedingungen in Sachen Kommunikation und Teamwork sorgen. Acht Tipps worauf Sie achten sollten. Mitarbeiterbedürfnisse sichern
Foto: Dmitry Demidovich – shutterstock.comFragen Sie, was Ihre Mitarbeitenden wollen und brauchen, um gut arbeiten zu können.Wünsche erfüllen
Foto: Black Salmon – shutterstock.comSetzen Sie erkennbar möglichst viele der Mitarbeiterwünsche um.Infrastruktur bereitstellen
Foto: Phonlamai Photo – shutterstock.comSorgen Sie für eine gute Infrastruktur im und um Ihr Firmengebäude (Kita, Eltern-Kind-Raum, Parkplätze, E-Ladestationen, Arbeitsplatz-Ausstattung…)Flexibles Arbeiten unterstützen
Foto: Quality Stock Arts – shutterstock.comSeien Sie möglichst flexibel in Sachen Arbeitszeiten und Home-Office-Möglichkeiten.Hybrides Arbeiten ermöglichen
Foto: Celia Ong – shutterstock.comAchten Sie darauf, dass Ihre Räumlichkeiten und Arbeitsplätze hybrides Arbeiten möglich machen.Begegnungszonen einrichten
Foto: Shutterstock – Matej KastelicSchaffen Sie ausreichend Begegnungsflächen für Gespräche unter den Beschäftigten. Das fördert den Ideenaustausch und fördert Innovationen. Freizeitangebote machen
Foto: Robert Kneschke – shutterstock.comSorgen Sie für Möglichkeiten zur gemeinsamen Freizeitgestaltung. Das stärkt die Motivation, schafft Teamspirit und macht den Kopf wieder frei.Perfekte Arbeitsatmosphäre bieten
Foto: SeaRick1 – shutterstock.comFördern Sie alles, was Ihren Mitarbeitenden den Job und Arbeitsplatz angenehm macht (viele Pflanzen, höhenverstellbare Schreibtische, flexible Gestaltungsmöglichkeiten…).

Ratgeber Diensthandy: Was Sie über Firmenhandys wissen sollten​ Weiterlesen »

Stellenanzeige schreiben: So sprechen Sie Jobkandidaten optimal an​

Allgemein

Geht es darum, die richtigen Jobkandidaten anzulocken, spielen Stellenanzeigen für Unternehmen eine entscheidende Rolle. Foto: M-Production – shutterstock.com Der Fachkräftemangel hat für den Wandel des Arbeitgeber- zum Arbeitnehmermarkt gesorgt. Das zeigt deutliche Auswirkungen auf das Recruiting: Wo früher Unternehmen umworben wurden, muss heute um die raren Talente gebuhlt werden. Wie so oft entscheidet auch hier der erste Eindruck. Dieser wird häufig durch die Stellenausschreibung geprägt. Deshalb sollte die Stellenanzeige wohl durchdacht und bestmöglich aufgebaut, geschrieben und gestaltet werden. Stellenanzeige schreiben: Zum eigenen Muster mit AIDA Eine Stellenausschreibung sollte alle wesentlichen Informationen enthalten, die eine Kandidatin oder ein Kandidat benötigt, um entscheiden zu können, ob eine Position für sie oder ihn interessant ist – oder eben nicht. Die wichtigsten Informationen werden dabei weniger wichtigen vorangestellt. Aber Achtung: Zu ausführliche Stellenanzeigen sind nicht vorteilhaft, denn dadurch verlieren potentielle Kandidat:innen schnell das Interesse. Bei der Strukturierung einer Stellenanzeige kann die AIDA-Formel helfen: Diese kommt ursprünglich aus der Werbeindustrie und steht als Abkürzung für: Attention (Aufmerksamkeit), Interest (Interesse), Desire (Verlangen) und Action (Aktion). Sie beschreibt die Stadien, durch die Jobsuchende beim Lesen der Anzeige gehen sollten. Schritt 1: Aufmerksamkeit Wie bereits erwähnt, geht es zu Beginn darum, die Aufmerksamkeit potentieller Bewerber:innen auf die Ausschreibung zu lenken. Dafür kann ein prägnanter Jobtitel sorgen, der eine möglichst breite Zielgruppe anspricht. Dabei sollte man nach Möglichkeit auf ausgefallene, unternehmensinterne Bezeichnungen verzichten, denn zum einen sollten potentielle Kandidat:innen verstehen, um welche Position es sich handelt, zum anderen sollte die Stellenanzeige auch über eine Schlagwortsuche zu finden sein. Insgesamt sollte der Jobtitel eine Länge von 60 Zeichen nicht überschreiten. Es ist ferner ratsam, im Kopf der Stellenanzeige die wichtigsten Eckdaten der vakanten Stelle festzuhalten. Dazu zählt beispielsweise: der Einsatzort, ob eine Teil- oder Vollzeitkraft gesucht wird, ab wann die Stelle besetzt werden soll und ob es sich um einen befristeten oder unbefristeten Arbeitsplatz handelt. Für die Erhaltung der eben gewonnenen Aufmerksamkeit sorgt die darauffolgende Unternehmensbeschreibung. Sie sollte beispielsweise Angaben zur Branche, Dienstleistung oder Produkten der Firma, die Anzahl der Mitarbeitenden und Standorte enthalten. Da Faktoren wie die Arbeitsatmosphäre, die Corporate Social Responsibility und die Unternehmensvision für Arbeitnehmende immer mehr an Bedeutung gewinnen, empfiehlt es sich, auch diese aufzugreifen und sich damit von der Masse abzuheben. In jedem Fall ist es wichtig, die aus Bewerbersicht interessantesten Punkte aufzugreifen. Um speziell für IT-Fachkräfte interessant zu werden, kann ein kurzer Abriss zur Größe und Aufbau der IT-Abteilung sowie der verwendeten Technologien helfen – denn diese Informationen können über eine Zu- oder Absage entscheiden. Schritt 2: Interesse Im nächsten Schritt gilt es, das Interesse der Jobsuchenden mit einer überzeugenden Stellenbeschreibung zu wecken. Die vakante Position wird in der Stellenanzeige mit ihren wichtigsten Tätigkeitsfeldern möglichst konkret und ohne gängige Floskeln beschrieben. Um besonders positiv aufzufallen, kann man die genannten Aufgaben direkt in den ganzheitlichen Unternehmenskontext einbetten, denn damit gewinnt die ausgeschriebene Stelle an Wichtigkeit und Sinnhaftigkeit. Auf die Stellenbeschreibung folgt das Anforderungsprofil. Dabei sollte immer die Balance zwischen Wunschkandidat:in und reellen Bewerbenden gehalten werden und der Zusammenhang von Anforderungen und Aufgaben erkennbar sein. Besonders bei der Suche nach IT-Expert:innen ist es dabei entscheidend, herauszudifferenzieren, welche Voraussetzungen tatsächlich notwendig sind. Ist ein abgeschlossenes Informatikstudium wirklich essentiell für die Besetzung der vakanten Stelle? Oder reichen eventuell anderweitig erlernte Kenntnisse aus? Schritt 3: Verlangen Jetzt ist das Unternehmen an der Reihe: Welchen Mehrwert bietet es seinen Angestellten? Es wird Zeit, die wichtigsten Benefits aufzählen. Dazu gehört beispielsweise: eine flexible Zeiteinteilung, die freie Wahl des Arbeitsortes, eine besondere Unternehmenskultur sowie klassische Angebote wie ein Dienstwagen beziehungsweise Firmenfahrrad oder ein Essenszuschuss. Auch besondere Maßnahmen in puncto betriebliches Gesundheitsmanagement oder betriebliche Altersvorsorge sollten hier erwähnt werden. Dabei sollte man nicht tiefstapeln, genannte Versprechungen aber auch einhalten können. Schritt 4: Aktion Ist das Verlangen der Kandidat:innen geweckt, fehlt der Stellenanzeige nur noch eins: die klare und leicht verständliche Aufforderung und Anleitung zur Bewerbung – der sogenannte Call-to-Action. Um die Bewerbung zu erleichtern, ist es sinnvoll, direkt zu Mail-Adressen oder Bewerbungsformularen zu verlinken. Auch One-Click-Bewerbungen, bei denen Bewerbende ihre Daten den Profilen in Karrierenetzwerke importieren und abschicken können, bieten sich an. Außerdem sollte eine direkte Ansprechperson mit ihren Kontaktdaten aufgeführt werden, an die sich Bewerbende bei Unklarheiten wenden können. Wenn man auch hier besonders positiv auffallen möchte, empfiehlt es sich, den weiteren Bewerbungsprozess kurz zu skizzieren. So wissen Bewerbende schon vorab, was auf sie zukommen wird. (pg/fm) So optimieren Sie StellenanzeigenTipps für das ideale Jobangebot Foto: Brian A Jackson – shutterstock.comDer Stellenanzeige kommt in Zeiten des Fachkräftemangels besondere Bedeutung zu. Wollen Unternehmen die Aufmerksamkeit von Jobsuchenden erregen, muss nicht nur der Aufbau einer Stellenausschreibung perfekt sein, sondern auch noch auf weitere Details geachtet werden. Welche sehen Sie hier.Auf das Design achten Foto: PureSolution – shutterstock.comDas Design der Stellenanzeige kann maßgeblichen Einfluss darauf nehmen, ob sie auf Bewerbende attraktiv oder uninteressant wirkt. Um optisch anzusprechen und die Anzeige aufzulockern, sollten aussagekräftige und thematisch passende Bilder eingebettet werden, ohne die Anzeige jedoch zu überladen. Vorzugsweise sollten sie Menschen zeigen – die der gewünschten Zielgruppe am nächsten kommen. Auch das Firmenlogo darf nicht fehlen: Dieses sollte links oder mittig im Kopf der Ausschreibung integriert werden. Der Text kann durch eine Abwechslung von Stichpunkten und Fließtext sowie ein Layout mit zwei Spalten optisch aufgelockert werden. Hierbei gilt: die wichtigsten Informationen sollten in der linken Spalte genannt werden.Die Zielgruppe kennen Foto: Rawpixel.com – shutterstock.comBevor eine Stellenausschreibung mit den passenden Texten oder dem passenden Layout versehen werden kann, muss klar sein, welche Zielgruppe sich von ihr angesprochen fühlen soll. Dabei kann die Erstellung einer Candidate Persona helfen, die typischerweise an der vakanten Stelle interessiert wäre. Wie alt ist diese Person? Was erwartet sie von einer freien Stelle oder einem potentiellen Arbeitgeber? Welche Kommunikation erwartet sie und worauf sie legt sie Wert? Sind Antworten auf all diese Fragen gefunden, kann man diese als Leitfaden zur Erstellung der Stellenausschreibung nutzen.Allgemeines Gleichbehandlungsgesetz (AGG) berücksichtigen Foto: Pusteflower9024 – shutterstock.comHierbei geht es weniger um eine Empfehlung als vielmehr um eine Pflicht: Bei der Formulierung einer Stellenanzeige muss das AGG, auch Antidiskriminierungsgesetz, eingehalten werden! Personenbezogene Merkmale wie beispielsweise Alter, Geschlecht und Herkunft dürfen bei der Profilbeschreibung keine Rolle spielen. Das erfordert möglichst neutrale Formulierungen – und auch den Verzicht auf indirekte Einschränkungen wie beispielsweise den Wunsch nach einer spezifischen Muttersprache.Stellenanzeigen breit streuen Foto: PopTika – shutterstock.com Um die Wahrscheinlichkeit ein passendes Talent zu finden, zu erhöhen, sollte die Stellenanzeigen möglichst breit gestreut werden und nicht nur auf der eigenen Karriereseite und in den gängigen Online-Jobbörsen veröffentlicht werden. Auch über Karrierenetzwerke und (je nach Zielgruppe) Social Media lässt sich Reichweite generieren, die das Recruiting vorantreiben kann. IT-Fachkräfte sind rar gesät. Neben dem passiven Schalten einer Stellenausschreibung ist auch das aktive Ansprechen potentieller Kandidat:innen – das sogenannte Active Sourcing – empfehlenswert. 

Stellenanzeige schreiben: So sprechen Sie Jobkandidaten optimal an​ Geht es darum, die richtigen Jobkandidaten anzulocken, spielen Stellenanzeigen für Unternehmen eine entscheidende Rolle.
Foto: M-Production – shutterstock.com

Der Fachkräftemangel hat für den Wandel des Arbeitgeber- zum Arbeitnehmermarkt gesorgt. Das zeigt deutliche Auswirkungen auf das Recruiting: Wo früher Unternehmen umworben wurden, muss heute um die raren Talente gebuhlt werden. Wie so oft entscheidet auch hier der erste Eindruck. Dieser wird häufig durch die Stellenausschreibung geprägt. Deshalb sollte die Stellenanzeige wohl durchdacht und bestmöglich aufgebaut, geschrieben und gestaltet werden.

Stellenanzeige schreiben: Zum eigenen Muster mit AIDA

Eine Stellenausschreibung sollte alle wesentlichen Informationen enthalten, die eine Kandidatin oder ein Kandidat benötigt, um entscheiden zu können, ob eine Position für sie oder ihn interessant ist – oder eben nicht. Die wichtigsten Informationen werden dabei weniger wichtigen vorangestellt. Aber Achtung: Zu ausführliche Stellenanzeigen sind nicht vorteilhaft, denn dadurch verlieren potentielle Kandidat:innen schnell das Interesse. Bei der Strukturierung einer Stellenanzeige kann die AIDA-Formel helfen: Diese kommt ursprünglich aus der Werbeindustrie und steht als Abkürzung für:

Attention (Aufmerksamkeit),

Interest (Interesse),

Desire (Verlangen) und

Action (Aktion).

Sie beschreibt die Stadien, durch die Jobsuchende beim Lesen der Anzeige gehen sollten.

Schritt 1: Aufmerksamkeit

Wie bereits erwähnt, geht es zu Beginn darum, die Aufmerksamkeit potentieller Bewerber:innen auf die Ausschreibung zu lenken. Dafür kann ein prägnanter Jobtitel sorgen, der eine möglichst breite Zielgruppe anspricht. Dabei sollte man nach Möglichkeit auf ausgefallene, unternehmensinterne Bezeichnungen verzichten, denn zum einen sollten potentielle Kandidat:innen verstehen, um welche Position es sich handelt, zum anderen sollte die Stellenanzeige auch über eine Schlagwortsuche zu finden sein. Insgesamt sollte der Jobtitel eine Länge von 60 Zeichen nicht überschreiten.

Es ist ferner ratsam, im Kopf der Stellenanzeige die wichtigsten Eckdaten der vakanten Stelle festzuhalten. Dazu zählt beispielsweise:

der Einsatzort,

ob eine Teil- oder Vollzeitkraft gesucht wird,

ab wann die Stelle besetzt werden soll und

ob es sich um einen befristeten oder unbefristeten Arbeitsplatz handelt.

Für die Erhaltung der eben gewonnenen Aufmerksamkeit sorgt die darauffolgende Unternehmensbeschreibung. Sie sollte beispielsweise Angaben zur Branche, Dienstleistung oder Produkten der Firma, die Anzahl der Mitarbeitenden und Standorte enthalten. Da Faktoren wie die Arbeitsatmosphäre, die Corporate Social Responsibility und die Unternehmensvision für Arbeitnehmende immer mehr an Bedeutung gewinnen, empfiehlt es sich, auch diese aufzugreifen und sich damit von der Masse abzuheben.

In jedem Fall ist es wichtig, die aus Bewerbersicht interessantesten Punkte aufzugreifen. Um speziell für IT-Fachkräfte interessant zu werden, kann ein kurzer Abriss zur Größe und Aufbau der IT-Abteilung sowie der verwendeten Technologien helfen – denn diese Informationen können über eine Zu- oder Absage entscheiden.

Schritt 2: Interesse

Im nächsten Schritt gilt es, das Interesse der Jobsuchenden mit einer überzeugenden Stellenbeschreibung zu wecken. Die vakante Position wird in der Stellenanzeige mit ihren wichtigsten Tätigkeitsfeldern möglichst konkret und ohne gängige Floskeln beschrieben. Um besonders positiv aufzufallen, kann man die genannten Aufgaben direkt in den ganzheitlichen Unternehmenskontext einbetten, denn damit gewinnt die ausgeschriebene Stelle an Wichtigkeit und Sinnhaftigkeit.

Auf die Stellenbeschreibung folgt das Anforderungsprofil. Dabei sollte immer die Balance zwischen Wunschkandidat:in und reellen Bewerbenden gehalten werden und der Zusammenhang von Anforderungen und Aufgaben erkennbar sein. Besonders bei der Suche nach IT-Expert:innen ist es dabei entscheidend, herauszudifferenzieren, welche Voraussetzungen tatsächlich notwendig sind. Ist ein abgeschlossenes Informatikstudium wirklich essentiell für die Besetzung der vakanten Stelle? Oder reichen eventuell anderweitig erlernte Kenntnisse aus?

Schritt 3: Verlangen

Jetzt ist das Unternehmen an der Reihe: Welchen Mehrwert bietet es seinen Angestellten? Es wird Zeit, die wichtigsten Benefits aufzählen. Dazu gehört beispielsweise:

eine flexible Zeiteinteilung,

die freie Wahl des Arbeitsortes,

eine besondere Unternehmenskultur sowie

klassische Angebote wie ein Dienstwagen beziehungsweise Firmenfahrrad oder

ein Essenszuschuss.

Auch besondere Maßnahmen in puncto betriebliches Gesundheitsmanagement oder betriebliche Altersvorsorge sollten hier erwähnt werden. Dabei sollte man nicht tiefstapeln, genannte Versprechungen aber auch einhalten können.

Schritt 4: Aktion

Ist das Verlangen der Kandidat:innen geweckt, fehlt der Stellenanzeige nur noch eins: die klare und leicht verständliche Aufforderung und Anleitung zur Bewerbung – der sogenannte Call-to-Action. Um die Bewerbung zu erleichtern, ist es sinnvoll, direkt zu Mail-Adressen oder Bewerbungsformularen zu verlinken. Auch One-Click-Bewerbungen, bei denen Bewerbende ihre Daten den Profilen in Karrierenetzwerke importieren und abschicken können, bieten sich an.

Außerdem sollte eine direkte Ansprechperson mit ihren Kontaktdaten aufgeführt werden, an die sich Bewerbende bei Unklarheiten wenden können. Wenn man auch hier besonders positiv auffallen möchte, empfiehlt es sich, den weiteren Bewerbungsprozess kurz zu skizzieren. So wissen Bewerbende schon vorab, was auf sie zukommen wird. (pg/fm)

So optimieren Sie StellenanzeigenTipps für das ideale Jobangebot
Foto: Brian A Jackson – shutterstock.comDer Stellenanzeige kommt in Zeiten des Fachkräftemangels besondere Bedeutung zu. Wollen Unternehmen die Aufmerksamkeit von Jobsuchenden erregen, muss nicht nur der Aufbau einer Stellenausschreibung perfekt sein, sondern auch noch auf weitere Details geachtet werden. Welche sehen Sie hier.Auf das Design achten
Foto: PureSolution – shutterstock.comDas Design der Stellenanzeige kann maßgeblichen Einfluss darauf nehmen, ob sie auf Bewerbende attraktiv oder uninteressant wirkt. Um optisch anzusprechen und die Anzeige aufzulockern, sollten aussagekräftige und thematisch passende Bilder eingebettet werden, ohne die Anzeige jedoch zu überladen. Vorzugsweise sollten sie Menschen zeigen – die der gewünschten Zielgruppe am nächsten kommen. Auch das Firmenlogo darf nicht fehlen: Dieses sollte links oder mittig im Kopf der Ausschreibung integriert werden. Der Text kann durch eine Abwechslung von Stichpunkten und Fließtext sowie ein Layout mit zwei Spalten optisch aufgelockert werden. Hierbei gilt: die wichtigsten Informationen sollten in der linken Spalte genannt werden.Die Zielgruppe kennen
Foto: Rawpixel.com – shutterstock.comBevor eine Stellenausschreibung mit den passenden Texten oder dem passenden Layout versehen werden kann, muss klar sein, welche Zielgruppe sich von ihr angesprochen fühlen soll. Dabei kann die Erstellung einer Candidate Persona helfen, die typischerweise an der vakanten Stelle interessiert wäre. Wie alt ist diese Person? Was erwartet sie von einer freien Stelle oder einem potentiellen Arbeitgeber? Welche Kommunikation erwartet sie und worauf sie legt sie Wert? Sind Antworten auf all diese Fragen gefunden, kann man diese als Leitfaden zur Erstellung der Stellenausschreibung nutzen.Allgemeines Gleichbehandlungsgesetz (AGG) berücksichtigen
Foto: Pusteflower9024 – shutterstock.comHierbei geht es weniger um eine Empfehlung als vielmehr um eine Pflicht: Bei der Formulierung einer Stellenanzeige muss das AGG, auch Antidiskriminierungsgesetz, eingehalten werden! Personenbezogene Merkmale wie beispielsweise Alter, Geschlecht und Herkunft dürfen bei der Profilbeschreibung keine Rolle spielen. Das erfordert möglichst neutrale Formulierungen – und auch den Verzicht auf indirekte Einschränkungen wie beispielsweise den Wunsch nach einer spezifischen Muttersprache.Stellenanzeigen breit streuen
Foto: PopTika – shutterstock.com Um die Wahrscheinlichkeit ein passendes Talent zu finden, zu erhöhen, sollte die Stellenanzeigen möglichst breit gestreut werden und nicht nur auf der eigenen Karriereseite und in den gängigen Online-Jobbörsen veröffentlicht werden. Auch über Karrierenetzwerke und (je nach Zielgruppe) Social Media lässt sich Reichweite generieren, die das Recruiting vorantreiben kann. IT-Fachkräfte sind rar gesät. Neben dem passiven Schalten einer Stellenausschreibung ist auch das aktive Ansprechen potentieller Kandidat:innen – das sogenannte Active Sourcing – empfehlenswert.

Stellenanzeige schreiben: So sprechen Sie Jobkandidaten optimal an​ Weiterlesen »

Asus Chromebook Plus CX34 im Test: Besserer Laptop dank CPU-Upgrade und Touchscreen​

Allgemein

IDG / Ashley Biancuzzo Auf einen Blick Pro Schickes Design Gute Prozessor-Leistung Ansprechende Tastatur Zahlreiche Anschlussmöglichkeiten Kontra Die Akkulaufzeit ist nicht konkurrenzfähig Das 16:9-Seitenverhältnis des Displays wirkt etwas beengt Fazit Das Asus Chromebook Plus CX34 ist ein guter Kauf, ohne Wenn und Aber. Ausgestattet mit einem aktualisierten Prozessor und einem Display mit Touch-Funktion bietet es eine deutliche Verbesserung gegenüber dem Vorgängermodell. Die wenigen Nachteile können das gute Gesamterlebnis nicht schmälern. Chromebooks haben sich als beliebte Option zu Windows-Notebooks etabliert und bieten eine Reihe von Vorteilen, die sie für viele Nutzer attraktiv machen. Ein entscheidender Faktor ist der Preis. Chromebooks sind in der Regel deutlich günstiger als Windows-Geräte. Das Chromebook Plus CX34 der ersten Generation war bei einem Listenpreis von 449 Euro zuletzt schon für unter 250 Euro zu haben. Das neue Chromebook Plus CX34 präsentiert sich als aktualisierte Version des 2023er-Modells. Neu ist der leistungsstarke Intel Core i5-1335U, der den bisherigen Core i3-1215U ablöst und deutliche Performance-Steigerungen verspricht. Neben der stärkeren CPU und einem Touch-Display bleibt das Design unverändert – Asus optimiert das Innenleben, ohne das bewährte Äußere zu verändern. Design & Verarbeitung Das Asus Chromebook Plus CX34 ist eine exakte Kopie des Vorgängermodells . Das schneeweiße Gehäuse ist ein echter Hingucker, und das Kunststoffgehäuse glänzt einfach nur. Die Ästhetik ist attraktiv und modern. Ich habe es schon beim Vorgängermodell gesagt: Es ist anspruchsvoll genug für eine Büroumgebung, ohne zu viel Aufmerksamkeit zu erregen. Die Verarbeitungsqualität ist für ein Notebook dieser Preisklasse akzeptabel, aber ich bin sicher, dass es mit der Zeit Abnutzungserscheinungen zeigen wird. IDG / Ashley Biancuzzo Beim genaueren Betrachten des Notebooks fiel auf, dass der Displaydeckel unter Druck leicht nachgibt. Ein einfacher Test – das Gerät flach auf den Tisch gelegt und mit einem Finger auf die Blende gedrückt – offenbarte diese Schwäche. Doch es gibt auch Positives zu vermelden: Das Tastaturdeck überzeugt durch eine stabilere Bauweise. Selbst bei gezieltem Druck bleibt es solide und zeigt keinerlei Knarren. Ebenso punktet das 180-Grad-Scharnier, das sich fest und robust anfühlt, ohne jedoch steif oder zu begrenzt zu wirken. Insgesamt ist die Verarbeitungsqualität respektabel, wenn auch nicht vollkommen. Der Umgang mit dem Notebook erfordert daher eine gewisse Vorsicht und eine sanfte Hand. Der aufgerüstete Prozessor und das Touch-Display machen einen großen Unterschied und bieten einen Mehrwert gegenüber dem Vorgängermodell aus dem Jahr 2023. Tastatur & Touchpad Die Tastatur erweist sich auch bei längerer Nutzung als äußerst komfortabel, doch das Fehlen einer Hintergrundbeleuchtung wirft Fragen auf – vor allem, da diese Funktion im Vorgängermodell noch vorhanden war. Besonders für Nutzer, die in einer schwach beleuchteten Umgebung arbeiten, stellt dies einen Nachteil dar. Für mich persönlich ist die Hintergrundbeleuchtung ein wichtiges Feature, da ich eine gedämpfte Lichtstimmung bevorzuge, die nicht nur für ein angenehmes Ambiente. Helles Licht kann bei mir Kopfschmerzen auslösen, weswegen ich dunklere Arbeitsumgebungen vorziehe. Was die Leistung der Tastatur betrifft, überzeugt sie dennoch: Auf der Plattform Monkeytype erreichte ich eine Tippgeschwindigkeit von 98 Wörtern pro Minute – ein Beleg dafür, wie effizient sie selbst bei intensivem Einsatz genutzt werden kann. IDG / Ashley Biancuzzo Das Touchpad überzeugt durch angenehme Bedienbarkeit. Mit einer Breite von etwa 12 Zentimetern bietet es ausreichend Platz, insbesondere für Nutzer mit kleineren Händen. Die Oberfläche ist glatt und reaktionsschnell, was Multitouch-Gesten wie das Scrollen mit zwei Fingern oder das Auf- und Zuziehen mühelos ermöglicht – ganz ohne unpräzise Cursorbewegungen. Display & Audio Das 1080p-Display erfüllt seinen Zweck im Alltag, sticht aber nicht besonders hervor. Alle Chromebook-Plus-Modelle verfügen nun über diesen neuen Standard. Zwar bietet der Bildschirm keine außergewöhnliche Helligkeit oder Farbintensität, doch die hinzugefügte Touch-Funktion ist ein klarer Mehrwert. Besonders praktisch: Die matte Oberfläche minimiert störende Reflexionen bei direktem Sonnenlicht. IDG / Ashley Biancuzzo Mein einziger Kritikpunkt betrifft das 16:9-Seitenverhältnis des Bildschirms. Ein 16:10-Format wäre für mich ideal, da der zusätzliche Zentimeter besonders beim Bearbeiten von Berichten oder Tabelleneinträgen eine spürbare Verbesserung bietet. Zwar ist das weit verbreitete 16:9-Format kein großes Hindernis, dennoch hätte ich gerne mehr sichtbare Arbeitsfläche. Positiv hervorzuheben ist, dass das Display flach umgeklappt werden kann, um flexible Betrachtungswinkel zu ermöglichen – eine Funktion, die ich jedoch persönlich als wenig praktikabel empfinde. Laptop-Lautsprecher überzeugen mich selten – besonders als Audiophile sind Kopfhörer oder Ohrstöpsel stets die bessere Wahl. Die Lautsprecher des Chromebook Plus CX34 sind solide, jedoch nach unten gerichtet, was die Klangqualität von der Unterlage abhängig macht. Für eine klare Wiedergabe musste ich die Lautstärke erhöhen und das Gerät näher heranziehen. Webcam, Mikrofon & Biometrie Die integrierte 1080p-Webcam eignet sich für Videocalls, erfordert jedoch gute Beleuchtung, um ansprechende Ergebnisse zu erzielen. Das Mikrofon liefert solide Tonqualität und reduziert Hintergrundgeräusche. ChromeOS-Tools wie Hintergrundunschärfe und Rauschunterdrückung verbessern die Funktionalität. Für professionelle Bildqualität empfiehlt sich allerdings der Kauf einer externen Webcam. Biometrische Möglichkeiten zur Anmeldung besitzt das Chromebook nicht. Konnektivität Das Asus Chromebook Plus CX34 überzeugt mit einer beeindruckenden Anschlussvielfalt, die in dieser Preisklasse selten ist. Es bietet je zwei USB-A und -C-Ports, einen HDMI-Ausgang und einen 3,5-mm-Kombi-Audioanschluss. Dank DisplayPort-Unterstützung der USB-C-Anschlüsse lässt sich problemlos ein externer Monitor anschließen. Wie bei vielen anderen Chromebooks in diesem Segment gibt es kein Ethernet oder einen Einschub für Micro-SD-Karten. IDG / Ashley Biancuzzo Rechenleistung Ich war beeindruckt von der Alltagstauglichkeit des Asus Chromebook Plus CX34. Im Vergleich zum Vorgängermodell mit Intel Core i3-1215U zeigt das Testgerät mit Intel Core i5-1335U dank 10 Kernen und bis zu 4,6 GHz Taktrate deutlich mehr Leistung. Sowohl bei Single- als auch Multi-Thread-Aufgaben übertrifft der Core i5 klar die Performance seines Vorgängers. Dies spiegelt sich auch in der Jetstream-2-Bewertung des Plus CX34 wider. Jetstream 2 misst die Single-Thread- und Multi-Thread-Leistung anhand der JavaScript-Ausführungsgeschwindigkeit und der parallelen Verarbeitung im Browser. Im Vergleich zum 2023er Modell mit einer Punktzahl von 250.141 ist die aktuelle Version rund 26 Prozent schneller. Das Plus CX34 übertrifft das jüngst in den USA erschienene Acer Chromebook Spin 312 mit einer höheren CrXPRT 2-Bewertung von 170 gegenüber 140. Dieser Benchmark simuliert reale Aufgaben wie Webseitenladen, Bildbearbeitung und HD-Videowiedergabe, wobei ein höherer Wert für eine flüssigere Leistung steht. Zudem glänzt das CX34 mit einem beeindruckenden Kraken-Score. Der Kraken-Benchmark von Mozilla bewertet die JavaScript-Leistung eines Browsers, indem er unterschiedliche Aufgaben wie die Analyse von Audiodaten oder Entschlüsselungsprozesse prüft. Im Gegensatz zu CrXPRT 2 sind hier geringere Werte besser, da die Punktzahl die benötigte Zeit in Millisekunden angibt. Das Plus CX34 deklassierte das Acer Chromebook Spin 312 mit einem deutlich besseren Kraken-Wert von 397,4 Millisekunden. Im Vergleich dazu erreichte das Spin 312 lediglich 710,9 Millisekunden – das CX34 war damit rund 44 Prozent schneller. Ein beeindruckendes Ergebnis! CrXPRT 2: 170 Speedometer: 344 Basemark Web 3.0: 1.320 Kraken: 397.4ms Jetstream 2: 316.606 Akkulaufzeit Das Asus Chromebook Plus CX34 erreichte im Akkutest eine Laufzeit von über 13 Stunden bei reduzierter Display-Helligkeit. Bei maximaler Helligkeit sinkt die Nutzungsdauer jedoch auf rund sieben bis acht Stunden – solide, aber nicht herausragend. Wer besonderen Wert auf Akkulaufzeit legt, könnte mit dem Acer Chromebook Plus Spin 714 besser bedient sein, das mit über 15 Stunden überzeugte. Fazit Würde ich das Asus Chromebook Plus CX34 empfehlen? Definitiv ja. Der verbesserte Prozessor und das Touch-Display heben sich deutlich vom Vorgängermodell ab und bieten echten Mehrwert. Auch die Tastatur überzeugt mit angenehmem Schreibgefühl, das Touchpad reagiert präzise, und die Anschlussoptionen sind vielseitig. Zwar fehlen der Tastatur eine Hintergrundbeleuchtung, und das 16:9-Seitenverhältnis ist Geschmackssache, doch insgesamt präsentiert sich das Chromebook als eine verlässliche Wahl. Technische Daten Modell-Nummer: CX3402CVA-MW0347 Prozessor: Intel Core i5-1335U GPU: Intel Iris Xe Arbeitsspeicher: 8 GB Interner Speicher: 256 GB (universeller Flash-Speicher) Bildschirm: 14 Zoll (berührungsempfindlich), Auflösung 1.920 × 1.080 Pixel, Bildwiederholfrequenz 60 Hz, Seitenverhältnis 16:9 Konnektivität: Bluetooth 5.3, Wi-Fi 6E, 1× HDMI 1.4, 2× USB-C, 2× USB-A, Audio-Combo-Port Akku-Kapazität: 50 Wh Abmessungen: 326,4 × 214,3 × 18,7 mm (B × T × H) Gewicht: 1,46 Kg Betriebssystem: ChromeOS (PC-Welt) 

Asus Chromebook Plus CX34 im Test: Besserer Laptop dank CPU-Upgrade und Touchscreen​ IDG / Ashley Biancuzzo

Auf einen Blick

Pro

Schickes Design

Gute Prozessor-Leistung

Ansprechende Tastatur

Zahlreiche Anschlussmöglichkeiten

Kontra

Die Akkulaufzeit ist nicht konkurrenzfähig

Das 16:9-Seitenverhältnis des Displays wirkt etwas beengt

Fazit

Das Asus Chromebook Plus CX34 ist ein guter Kauf, ohne Wenn und Aber. Ausgestattet mit einem aktualisierten Prozessor und einem Display mit Touch-Funktion bietet es eine deutliche Verbesserung gegenüber dem Vorgängermodell. Die wenigen Nachteile können das gute Gesamterlebnis nicht schmälern.

Chromebooks haben sich als beliebte Option zu Windows-Notebooks etabliert und bieten eine Reihe von Vorteilen, die sie für viele Nutzer attraktiv machen. Ein entscheidender Faktor ist der Preis. Chromebooks sind in der Regel deutlich günstiger als Windows-Geräte. Das Chromebook Plus CX34 der ersten Generation war bei einem Listenpreis von 449 Euro zuletzt schon für unter 250 Euro zu haben.

Das neue Chromebook Plus CX34 präsentiert sich als aktualisierte Version des 2023er-Modells. Neu ist der leistungsstarke Intel Core i5-1335U, der den bisherigen Core i3-1215U ablöst und deutliche Performance-Steigerungen verspricht. Neben der stärkeren CPU und einem Touch-Display bleibt das Design unverändert – Asus optimiert das Innenleben, ohne das bewährte Äußere zu verändern.

Design & Verarbeitung

Das Asus Chromebook Plus CX34 ist eine exakte Kopie des Vorgängermodells . Das schneeweiße Gehäuse ist ein echter Hingucker, und das Kunststoffgehäuse glänzt einfach nur. Die Ästhetik ist attraktiv und modern. Ich habe es schon beim Vorgängermodell gesagt: Es ist anspruchsvoll genug für eine Büroumgebung, ohne zu viel Aufmerksamkeit zu erregen. Die Verarbeitungsqualität ist für ein Notebook dieser Preisklasse akzeptabel, aber ich bin sicher, dass es mit der Zeit Abnutzungserscheinungen zeigen wird.

IDG / Ashley Biancuzzo

Beim genaueren Betrachten des Notebooks fiel auf, dass der Displaydeckel unter Druck leicht nachgibt. Ein einfacher Test – das Gerät flach auf den Tisch gelegt und mit einem Finger auf die Blende gedrückt – offenbarte diese Schwäche. Doch es gibt auch Positives zu vermelden:

Das Tastaturdeck überzeugt durch eine stabilere Bauweise. Selbst bei gezieltem Druck bleibt es solide und zeigt keinerlei Knarren. Ebenso punktet das 180-Grad-Scharnier, das sich fest und robust anfühlt, ohne jedoch steif oder zu begrenzt zu wirken. Insgesamt ist die Verarbeitungsqualität respektabel, wenn auch nicht vollkommen. Der Umgang mit dem Notebook erfordert daher eine gewisse Vorsicht und eine sanfte Hand.

Der aufgerüstete Prozessor und das Touch-Display machen einen großen Unterschied und bieten einen Mehrwert gegenüber dem Vorgängermodell aus dem Jahr 2023.

Tastatur & Touchpad

Die Tastatur erweist sich auch bei längerer Nutzung als äußerst komfortabel, doch das Fehlen einer Hintergrundbeleuchtung wirft Fragen auf – vor allem, da diese Funktion im Vorgängermodell noch vorhanden war. Besonders für Nutzer, die in einer schwach beleuchteten Umgebung arbeiten, stellt dies einen Nachteil dar.

Für mich persönlich ist die Hintergrundbeleuchtung ein wichtiges Feature, da ich eine gedämpfte Lichtstimmung bevorzuge, die nicht nur für ein angenehmes Ambiente. Helles Licht kann bei mir Kopfschmerzen auslösen, weswegen ich dunklere Arbeitsumgebungen vorziehe.

Was die Leistung der Tastatur betrifft, überzeugt sie dennoch: Auf der Plattform Monkeytype erreichte ich eine Tippgeschwindigkeit von 98 Wörtern pro Minute – ein Beleg dafür, wie effizient sie selbst bei intensivem Einsatz genutzt werden kann.

IDG / Ashley Biancuzzo

Das Touchpad überzeugt durch angenehme Bedienbarkeit. Mit einer Breite von etwa 12 Zentimetern bietet es ausreichend Platz, insbesondere für Nutzer mit kleineren Händen. Die Oberfläche ist glatt und reaktionsschnell, was Multitouch-Gesten wie das Scrollen mit zwei Fingern oder das Auf- und Zuziehen mühelos ermöglicht – ganz ohne unpräzise Cursorbewegungen.

Display & Audio

Das 1080p-Display erfüllt seinen Zweck im Alltag, sticht aber nicht besonders hervor. Alle Chromebook-Plus-Modelle verfügen nun über diesen neuen Standard. Zwar bietet der Bildschirm keine außergewöhnliche Helligkeit oder Farbintensität, doch die hinzugefügte Touch-Funktion ist ein klarer Mehrwert. Besonders praktisch: Die matte Oberfläche minimiert störende Reflexionen bei direktem Sonnenlicht.

IDG / Ashley Biancuzzo

Mein einziger Kritikpunkt betrifft das 16:9-Seitenverhältnis des Bildschirms. Ein 16:10-Format wäre für mich ideal, da der zusätzliche Zentimeter besonders beim Bearbeiten von Berichten oder Tabelleneinträgen eine spürbare Verbesserung bietet. Zwar ist das weit verbreitete 16:9-Format kein großes Hindernis, dennoch hätte ich gerne mehr sichtbare Arbeitsfläche. Positiv hervorzuheben ist, dass das Display flach umgeklappt werden kann, um flexible Betrachtungswinkel zu ermöglichen – eine Funktion, die ich jedoch persönlich als wenig praktikabel empfinde.

Laptop-Lautsprecher überzeugen mich selten – besonders als Audiophile sind Kopfhörer oder Ohrstöpsel stets die bessere Wahl. Die Lautsprecher des Chromebook Plus CX34 sind solide, jedoch nach unten gerichtet, was die Klangqualität von der Unterlage abhängig macht. Für eine klare Wiedergabe musste ich die Lautstärke erhöhen und das Gerät näher heranziehen.

Webcam, Mikrofon & Biometrie

Die integrierte 1080p-Webcam eignet sich für Videocalls, erfordert jedoch gute Beleuchtung, um ansprechende Ergebnisse zu erzielen. Das Mikrofon liefert solide Tonqualität und reduziert Hintergrundgeräusche.

ChromeOS-Tools wie Hintergrundunschärfe und Rauschunterdrückung verbessern die Funktionalität. Für professionelle Bildqualität empfiehlt sich allerdings der Kauf einer externen Webcam. Biometrische Möglichkeiten zur Anmeldung besitzt das Chromebook nicht.

Konnektivität

Das Asus Chromebook Plus CX34 überzeugt mit einer beeindruckenden Anschlussvielfalt, die in dieser Preisklasse selten ist. Es bietet je zwei USB-A und -C-Ports, einen HDMI-Ausgang und einen 3,5-mm-Kombi-Audioanschluss. Dank DisplayPort-Unterstützung der USB-C-Anschlüsse lässt sich problemlos ein externer Monitor anschließen. Wie bei vielen anderen Chromebooks in diesem Segment gibt es kein Ethernet oder einen Einschub für Micro-SD-Karten.

IDG / Ashley Biancuzzo

Rechenleistung

Ich war beeindruckt von der Alltagstauglichkeit des Asus Chromebook Plus CX34. Im Vergleich zum Vorgängermodell mit Intel Core i3-1215U zeigt das Testgerät mit Intel Core i5-1335U dank 10 Kernen und bis zu 4,6 GHz Taktrate deutlich mehr Leistung. Sowohl bei Single- als auch Multi-Thread-Aufgaben übertrifft der Core i5 klar die Performance seines Vorgängers.

Dies spiegelt sich auch in der Jetstream-2-Bewertung des Plus CX34 wider. Jetstream 2 misst die Single-Thread- und Multi-Thread-Leistung anhand der JavaScript-Ausführungsgeschwindigkeit und der parallelen Verarbeitung im Browser. Im Vergleich zum 2023er Modell mit einer Punktzahl von 250.141 ist die aktuelle Version rund 26 Prozent schneller.

Das Plus CX34 übertrifft das jüngst in den USA erschienene Acer Chromebook Spin 312 mit einer höheren CrXPRT 2-Bewertung von 170 gegenüber 140. Dieser Benchmark simuliert reale Aufgaben wie Webseitenladen, Bildbearbeitung und HD-Videowiedergabe, wobei ein höherer Wert für eine flüssigere Leistung steht. Zudem glänzt das CX34 mit einem beeindruckenden Kraken-Score.

Der Kraken-Benchmark von Mozilla bewertet die JavaScript-Leistung eines Browsers, indem er unterschiedliche Aufgaben wie die Analyse von Audiodaten oder Entschlüsselungsprozesse prüft. Im Gegensatz zu CrXPRT 2 sind hier geringere Werte besser, da die Punktzahl die benötigte Zeit in Millisekunden angibt.

Das Plus CX34 deklassierte das Acer Chromebook Spin 312 mit einem deutlich besseren Kraken-Wert von 397,4 Millisekunden. Im Vergleich dazu erreichte das Spin 312 lediglich 710,9 Millisekunden – das CX34 war damit rund 44 Prozent schneller. Ein beeindruckendes Ergebnis!

CrXPRT 2: 170

Speedometer: 344

Basemark Web 3.0: 1.320

Kraken: 397.4ms

Jetstream 2: 316.606

Akkulaufzeit

Das Asus Chromebook Plus CX34 erreichte im Akkutest eine Laufzeit von über 13 Stunden bei reduzierter Display-Helligkeit. Bei maximaler Helligkeit sinkt die Nutzungsdauer jedoch auf rund sieben bis acht Stunden – solide, aber nicht herausragend. Wer besonderen Wert auf Akkulaufzeit legt, könnte mit dem Acer Chromebook Plus Spin 714 besser bedient sein, das mit über 15 Stunden überzeugte.

Fazit

Würde ich das Asus Chromebook Plus CX34 empfehlen? Definitiv ja. Der verbesserte Prozessor und das Touch-Display heben sich deutlich vom Vorgängermodell ab und bieten echten Mehrwert. Auch die Tastatur überzeugt mit angenehmem Schreibgefühl, das Touchpad reagiert präzise, und die Anschlussoptionen sind vielseitig. Zwar fehlen der Tastatur eine Hintergrundbeleuchtung, und das 16:9-Seitenverhältnis ist Geschmackssache, doch insgesamt präsentiert sich das Chromebook als eine verlässliche Wahl.

Technische Daten

Modell-Nummer: CX3402CVA-MW0347

Prozessor: Intel Core i5-1335U

GPU: Intel Iris Xe

Arbeitsspeicher: 8 GB

Interner Speicher: 256 GB (universeller Flash-Speicher)

Bildschirm: 14 Zoll (berührungsempfindlich), Auflösung 1.920 × 1.080 Pixel, Bildwiederholfrequenz 60 Hz, Seitenverhältnis 16:9

Konnektivität: Bluetooth 5.3, Wi-Fi 6E, 1× HDMI 1.4, 2× USB-C, 2× USB-A, Audio-Combo-Port

Akku-Kapazität: 50 Wh

Abmessungen: 326,4 × 214,3 × 18,7 mm (B × T × H)

Gewicht: 1,46 Kg

Betriebssystem: ChromeOS

(PC-Welt)

Asus Chromebook Plus CX34 im Test: Besserer Laptop dank CPU-Upgrade und Touchscreen​ Weiterlesen »

KI-Extensions für Google Chrome​

Allgemein

Mit Hilfe dieser KI-Extensions peppen Sie Ihr Chrome-Erlebnis auf. Foto: Anton27 – IJ-studio – shutterstock.com Google Chrome ist nicht ohne Grund führend in seinem Bereich. Insbesondere in Verbindung mit den im Übermaß zur Verfügung stehenden Extensions kann der Browser enormes Potenzial entfalten. Mit Hilfe von ChatGPT beziehungsweise Generative AI lässt sich Chrome dabei längst auch um entsprechende Funktionalitäten ergänzen. Das kann nicht nur dem Nutzererlebnis, sondern auch der Accessibility und der Produktivität enorm zuträglich sein. In diesem Artikel stellen wir Ihnen sechs KI-Extensions für Google Chrome vor, die es Wert sind, ausgetestet zu werden. ChatGPT for Google Obwohl ChatGPT ziemlich leistungsfähig ist, leidet der KI-Chatbot unter einer eher simplen Einschränkung: Er arbeitet nur in einem Browser-Tab. ChatGPT for Google befreit den Chatbot von den Fesseln der Einzelregisterkarte und ermöglicht, ChatGPT in sämtlichen Chrome-Tabs zu nutzen. Dabei aktiviert die Extension ChatGPT automatisch, sobald Sie eine Suchanfrage starten und liefert – parallel zu den Suchmaschinenergebnissen – entsprechenden Output. Der wesentliche Vorteil des Addons besteht dabei darin, dass Sie keine Prompts verwenden müssen. Pro: aktiviert ChatGPT auf allen Suchergebnisseiten; steht parallele KI- Suchergebnisse zur Verfügung; Kontra: erfordert ein OpenAI-Konto; ChatGPT Writer Es gibt nur wenige Chrome-Erweiterungen, die so viele ChatGPT-Funktionen auf Google Services ermöglichen, wie ChatGPT Writer. Dazu schafft sie einfach eine Verbindung von ChatGPT zu Gmail. Das ermöglicht den Benutzern der Chrome-Extension (die dank Chromium-Basis übrigens mit sämtlichen Browsern funktioniert, die das Framework nutzen) zum Beispiel, Ihre Google-Mails automatisiert per KI schreiben, beziehungsweise beantworten zu lassen. Zudem bietet ChatGPT Writer universelle Sprachunterstützung. Pro: Gmail mit KI nutzen; Multi-Language-Support; Kontra: keine zusätzlichen Funktionen; Compose AI Google Chrome lässt Drittanbieter-Apps ganz generell einige Freiheiten – da bildet auch ChatGPT keine Ausnahme. Diesen Umstand macht sich auch Compose AI zunutze. Diese Extension verspricht automatisierte KI-Textgenerierung in jeder Lebenslage sowie zu jedem Zweck, von der E-Mail bis hin zum Social-Media-Post. Darüber hinaus ist die Browser-Erweiterung auch in der Lage, Vorschläge für Verbesserungen zu machen oder Stichpunkte in Texte zu verwandeln. Der Output, den die Extension liefert, kann sich dabei durchaus sehen lassen. Der Haken an der Sache: Die kostenlose Version weist ein Limit von 1.000 Worten auf. Pro: kann vollständige E-Mails schreiben; Output direkt nutzbar; Kontra: kostenlose Version stark eingeschränkt; HIX.AI Die Chrome-Erweiterung HIX.AI präsentiert sich vielseitig und kann ihre Nutzer insbesondere weiterbringen, wenn es um automatisierte Texterstellung geht. Die Extension kann beispielsweise Inhalte in Google Docs erstellen, Posts auf Facebook, X und anderen sozialen Kanälen absetzen oder auch E-Mails beantworten. Darüber hinaus durchforstet HIX.AI aber auch die Suchergebnisseiten von Google und findet so zielstrebig relevante Antworten auf praktisch jede Frage. Diese Extension bietet auch eine Alternative zur KI-basierten Bing-Seitenleiste. Insofern ist HIX.AI eine Art vollständige KI-Suite für Chrome. Pro: Texte, E-Mails und Social Postings verfassen, bearbeiten, übersetzen etc.; einfache Aktivierung; auch mit Edge kompatibel; Kontra: kein Offline-Modus; Merlin Auch Merlin bringt eine ganze Fülle von KI-Funktionalitäten in Ihren Browser und unterstützt neben GPT-3.5 und 4 auch weitere LLMs wie Claude 2 und Llama 2. Mit Hilfe der Extension können Sie chatten, E-Mails schreiben, das Internet durchsuchen, Social-Media-Posts genereren, Videos und PDFs zusammenfassen und sogar Text-to-Image-Funktionen nutzen. Diese Chrome-Erweiterung verspricht, Ihren Browser in ein universelles KI-Tool zu verwandeln. Dabei erfordert die Nutzung weder ein OpenAI-Konto, noch ein kostenpflichtiges Abo. Die Gratis-Version weist mit 51 Abfragen pro Tag zudem ein relativ großzügiges Limit auf. Pro: umfangreiche KI- beziehungsweise ChatGPT-Funktionen; kein OpenAI-Account notwendig; kostenlos nutzbar; Kontra: kann Slowdowns verursachen; Wiseone Während sich das Gros der in diesem Artikel vorgestellten Chrome-Erweiterungen auf Textgenerierungs-Tasks fokussiert, geht Wiseone in eine andere Richtung und positioniert sich als “KI-Lesetool fürs Web” Dabei nutzt die Extension KI-Fähigkeiten, um komplexe Abschnitte eines Textes automatisch zu erkennen und vorzulesen. Darüber hinaus kann Wiseone auch besonders komplexe Zusammenhänge erklären, weiterführende Informationen zu bestimmten Themen liefern und beim Faktencheck unterstützen. Wiseone befindet sich derzeit in der Beta-Phase und ist kostenlos nutzbar. Ein Account bei OpenAI ist nicht notwendig. Pro: fortgeschrittene Text-to-Speech-Funktionen; Text-Zusammenfassungen; “Faktencheck”-Funktion; Kontra: auf Text-to-Speech-Funktionalität beschränkt; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Extensions für Google Chrome​ Mit Hilfe dieser KI-Extensions peppen Sie Ihr Chrome-Erlebnis auf.
Foto: Anton27 – IJ-studio – shutterstock.com

Google Chrome ist nicht ohne Grund führend in seinem Bereich. Insbesondere in Verbindung mit den im Übermaß zur Verfügung stehenden Extensions kann der Browser enormes Potenzial entfalten. Mit Hilfe von ChatGPT beziehungsweise Generative AI lässt sich Chrome dabei längst auch um entsprechende Funktionalitäten ergänzen. Das kann nicht nur dem Nutzererlebnis, sondern auch der Accessibility und der Produktivität enorm zuträglich sein.

In diesem Artikel stellen wir Ihnen sechs KI-Extensions für Google Chrome vor, die es Wert sind, ausgetestet zu werden.

ChatGPT for Google

Obwohl ChatGPT ziemlich leistungsfähig ist, leidet der KI-Chatbot unter einer eher simplen Einschränkung: Er arbeitet nur in einem Browser-Tab. ChatGPT for Google befreit den Chatbot von den Fesseln der Einzelregisterkarte und ermöglicht, ChatGPT in sämtlichen Chrome-Tabs zu nutzen.

Dabei aktiviert die Extension ChatGPT automatisch, sobald Sie eine Suchanfrage starten und liefert – parallel zu den Suchmaschinenergebnissen – entsprechenden Output. Der wesentliche Vorteil des Addons besteht dabei darin, dass Sie keine Prompts verwenden müssen.

Pro:

aktiviert ChatGPT auf allen Suchergebnisseiten;

steht parallele KI- Suchergebnisse zur Verfügung;

Kontra:

erfordert ein OpenAI-Konto;

ChatGPT Writer

Es gibt nur wenige Chrome-Erweiterungen, die so viele ChatGPT-Funktionen auf Google Services ermöglichen, wie ChatGPT Writer. Dazu schafft sie einfach eine Verbindung von ChatGPT zu Gmail.

Das ermöglicht den Benutzern der Chrome-Extension (die dank Chromium-Basis übrigens mit sämtlichen Browsern funktioniert, die das Framework nutzen) zum Beispiel, Ihre Google-Mails automatisiert per KI schreiben, beziehungsweise beantworten zu lassen. Zudem bietet ChatGPT Writer universelle Sprachunterstützung.

Pro:

Gmail mit KI nutzen;

Multi-Language-Support;

Kontra:

keine zusätzlichen Funktionen;

Compose AI

Google Chrome lässt Drittanbieter-Apps ganz generell einige Freiheiten – da bildet auch ChatGPT keine Ausnahme. Diesen Umstand macht sich auch Compose AI zunutze. Diese Extension verspricht automatisierte KI-Textgenerierung in jeder Lebenslage sowie zu jedem Zweck, von der E-Mail bis hin zum Social-Media-Post.

Darüber hinaus ist die Browser-Erweiterung auch in der Lage, Vorschläge für Verbesserungen zu machen oder Stichpunkte in Texte zu verwandeln. Der Output, den die Extension liefert, kann sich dabei durchaus sehen lassen. Der Haken an der Sache: Die kostenlose Version weist ein Limit von 1.000 Worten auf.

Pro:

kann vollständige E-Mails schreiben;

Output direkt nutzbar;

Kontra:

kostenlose Version stark eingeschränkt;

HIX.AI

Die Chrome-Erweiterung HIX.AI präsentiert sich vielseitig und kann ihre Nutzer insbesondere weiterbringen, wenn es um automatisierte Texterstellung geht. Die Extension kann beispielsweise Inhalte in Google Docs erstellen, Posts auf Facebook, X und anderen sozialen Kanälen absetzen oder auch E-Mails beantworten. Darüber hinaus durchforstet HIX.AI aber auch die Suchergebnisseiten von Google und findet so zielstrebig relevante Antworten auf praktisch jede Frage. Diese Extension bietet auch eine Alternative zur KI-basierten Bing-Seitenleiste. Insofern ist HIX.AI eine Art vollständige KI-Suite für Chrome.

Pro:

Texte, E-Mails und Social Postings verfassen, bearbeiten, übersetzen etc.;

einfache Aktivierung;

auch mit Edge kompatibel;

Kontra:

kein Offline-Modus;

Merlin

Auch Merlin bringt eine ganze Fülle von KI-Funktionalitäten in Ihren Browser und unterstützt neben GPT-3.5 und 4 auch weitere LLMs wie Claude 2 und Llama 2. Mit Hilfe der Extension können Sie chatten, E-Mails schreiben, das Internet durchsuchen, Social-Media-Posts genereren, Videos und PDFs zusammenfassen und sogar Text-to-Image-Funktionen nutzen.

Diese Chrome-Erweiterung verspricht, Ihren Browser in ein universelles KI-Tool zu verwandeln. Dabei erfordert die Nutzung weder ein OpenAI-Konto, noch ein kostenpflichtiges Abo. Die Gratis-Version weist mit 51 Abfragen pro Tag zudem ein relativ großzügiges Limit auf.

Pro:

umfangreiche KI- beziehungsweise ChatGPT-Funktionen;

kein OpenAI-Account notwendig;

kostenlos nutzbar;

Kontra:

kann Slowdowns verursachen;

Wiseone

Während sich das Gros der in diesem Artikel vorgestellten Chrome-Erweiterungen auf Textgenerierungs-Tasks fokussiert, geht Wiseone in eine andere Richtung und positioniert sich als “KI-Lesetool fürs Web”

Dabei nutzt die Extension KI-Fähigkeiten, um komplexe Abschnitte eines Textes automatisch zu erkennen und vorzulesen. Darüber hinaus kann Wiseone auch besonders komplexe Zusammenhänge erklären, weiterführende Informationen zu bestimmten Themen liefern und beim Faktencheck unterstützen. Wiseone befindet sich derzeit in der Beta-Phase und ist kostenlos nutzbar. Ein Account bei OpenAI ist nicht notwendig.

Pro:

fortgeschrittene Text-to-Speech-Funktionen;

Text-Zusammenfassungen;

“Faktencheck”-Funktion;

Kontra:

auf Text-to-Speech-Funktionalität beschränkt;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Extensions für Google Chrome​ Weiterlesen »

Samsung Galaxy Tab S10 FE im Test: Mittelklasse-Tablet mit Stylus​

Allgemein

Jon Mundy / Foundry Auf einen Blick Pro Ausgezeichnetes IP-zertifiziertes Design Hervorragende Implementierung des S Pen Stylus Sechs Jahre Software-Updates Kontra Geringfügige Verbesserungen seit 2023 Der Preis wurde angehoben Konkurrenten bieten bessere Leistung und Ausstattung Fazit Das Samsung Galaxy Tab S10 FE ist ein weiteres gut ausgestattetes Tablet der Mittelklasse. Doch der Mangel an echten Neuerungen wird langsam zum Problem. Wenn Sie nicht gerade den mitgelieferten S Pen Eingabestift benötigen, bieten die Konkurrenten mittlerweile mehr für weniger Geld. Sie werden kaum ein besser ausgestattetes Premium-Android-Tablet als das Samsung Galaxy Tab S10 Ultra finden. Doch für die meisten Menschen ist das 1.339 Euro teure Gerät viel zu kostspielig. Das deutlich günstigere Samsung Galaxy Tab S10 FE könnte jedoch genau das perfekte Angebot für Sie sein. Es verfügt über ein ordentliches 10,9-Zoll-Display, ein hochwertiges, flaches Metalldesign und genügend Leistung, um die alltäglichen Aufgaben gut erledigen zu können. Samsung legt jedem Gerät sogar einen S Pen Eingabestift bei, was es zu einer guten Wahl für kreative Aufgaben macht. Diesen Absatz hätte ich aber auch schon über das Samsung Galaxy Tab S9 FE aus dem vergangenen Jahr schreiben können. Was hat das aktuelle Tablet von Samsung also Neues zu bieten? Angesichts des Preisanstiegs um 50 Euro auf 579 Euro für die neueste Fan Edition kann man ja durchaus davon ausgehen, dass es einen gewissen Fortschritt gibt. Das Samsung Galaxy Tab S10 FE ist zwar ein weiteres gutes Mittelklasse-Tablet, aber Sie sollten sich auf jeden Fall umsehen, bevor Sie sich entscheiden. Design & Verarbeitung Gewohnt flaches Metalldesign IP68-Zertifizierung Mitgelieferter S Pen Wie sieht das Samsung Galaxy Tab S10 FE aus und wie fühlt es sich an? Das ist ganz einfach: Es sieht genauso aus und fühlt sich genauso an wie das Samsung Galaxy Tab S9 FE. Vergleichen Sie dazu einfach die Bilder der beiden Tablet-Generationen. Ich habe nämlich darauf geachtet, die gleichen Blickwinkel für einen einfachen Vergleich zu verwenden. Samsung ist beim Design schon einmal kein Risiko eingegangen. Es wurden Verbesserungen vorgenommen, aber sie sind fast unsichtbar Jon Mundy / Foundry Es wurden Verbesserungen vorgenommen, aber sie sind fast unsichtbar. Das Samsung Galaxy Tab S10 FE hat genau die gleichen Abmessungen von 254,3 × 165,8 Millimetern, ist aber mit 6 Millimetern einen halben Millimeter dünner. Mit einem Gewicht von 497 Gramm ist es ganze 26 Gramm leichter. Es fühlt sich aber immer noch wie ein Premium-Gerät an. Die knarzfreie Ganzmetallkonstruktion trägt wesentlich dazu bei, dass es sich teurer anfühlt, als es ist. Das gilt auch für die IP68-Zertifizierung. Selbst das 1.499 Euro teure iPad Pro M4 ist nicht so wasserfest. Damit eignet sich das Samsung Galaxy Tab S10 FE viel besser für die Nutzung in der Badewanne oder am Pool. Jon Mundy / Foundry Und noch etwas bietet das hochgelobte iPad Pro nicht: einen mitgelieferten Stylus. Jedes Galaxy Tab S10 FE wird hingegen mit einem S Pen ausgeliefert. Wenn Sie ihn nicht benutzen, wird er mithilfe von starken Magneten an der Rückseite des Tablets befestigt. Die Stylus-Implementierung von Samsung ist die beste in der Branche. Sie können den S Pen so lange ignorieren, bis Sie ihn nutzen möchten. Dann müssen Sie nur noch eine Taste gedrückt halten und doppelt auf den Bildschirm tippen, um eine schnelle Notiz zu schreiben. Drücken und ziehen Sie, um Text zu markieren, oder öffnen Sie Samsungs leistungsstarke Notizen-App und kritzeln Sie mit einer Reihe von Stifttypen los. Das Schreiben geht flüssig und sicher von der Hand, und Samsungs Handschrifterkennung und automatische Ausrichtung sind einfach fantastisch. Jon Mundy / Foundry Hinter der Einschalttaste an der oberen Kante befindet sich wieder ein Fingerabdrucksensor. Der funktioniert zuverlässig, wenn Sie ihn finden. Aber mir fällt es oft schwer, diese Tasten punktgenau zu treffen. Apples sicheres Face ID-System sollte im Bereich der Tablets meiner Meinung nach deutlich häufiger eingesetzt werden. Die Farboptionen des Galaxy Tab S10 FE sind eher eintönig. Samsung bietet Ihnen nur die Farben Silber, Grau und Blau an – wobei die letztgenannte Farbe hauptsächlich für die Antenne und die Logo-Akzente gilt und das Gehäuse nur einen leichten Blaustich aufweist. Würden Sie erraten, dass es sich bei dem hier getesteten Gerät um das blaue Modell handelt, wenn ich es Ihnen nicht sagen würde? Ich glaube eher nicht. Ich verstehe, dass der Tablet-Formfaktor jetzt ausgereift ist und man mit einer großen Platte aus Metall und Glas nicht mehr viel machen kann. Aber eine Möglichkeit gibt es immer: auffällige und ansprechende Farben. Naja, vielleicht beim nächsten Mal. Bildschirm & Lautsprecher 10,9-Zoll IPS-LCD 90 Hertz Bildwiederholfrequenz Stereo-Lautsprecher Liegt in einigen Punkten hinter der Konkurrenz Ich bin ein wenig überrascht, dass Samsung mir dieses spezielle Modell des Galaxy Tab S10 FE zum Test geschickt hat. Denn die bei weitem interessanteste Neuerung der FE-Reihe ist die Option eines größeren 13,9-Zoll-Plus-Modells. Zum jetzigen Zeitpunkt gibt es wenig über den Bildschirm dieses kleineren Modells zu sagen. Es handelt sich um ein weiteres 10,9-Zoll-IPS-LCD mit einer Auflösung von 1.440 × 2.304 Pixeln und einer Bildwiederholfrequenz von 90 Hertz. Aber kann man für knapp 600 Euro wirklich mehr erwarten? Die Qualität des Bildschirms gibt keinen Grund zur Klage Jon Mundy / Foundry Ja, ich denke, das können Sie. Das OnePlus Pad 2 bietet Ihnen ebenfalls ein LCD-Panel anstelle eines AMOLED-Displays. Aber es ist eine größere 12,1-Zoll-Variante, mit einer deutlich flüssigeren Bildwiederholfrequenz von 144 Hertz und einer schärferen Auflösung von 2.120 × 3.000 Pixeln. Das Honor Pad V9 bietet ein 11,5-Zoll-Panel mit 2,8K-Auflösung und 144 Hertz für nur 499 Euro. Abgesehen davon kann ich mich über die Qualität des Bildschirms des Galaxy Tab S10 FE nicht beklagen. Es ist hell genug, scharf genug und gibt schöne natürliche Farben wieder, wenn Sie den Standard-Bildschirmmodus “Lebendig” im Einstellungsmenü aktivieren. Aber auch hier ist die fehlende Unterstützung von Dolby Vision und HDR10 ein Mangel, gerade weil diese Features schon beim OnePlus Pad 2 aus dem vergangenen Jahr vorhanden sind. Jon Mundy / Foundry Samsungs Tablets sind (wie die meisten Android-Tablets) mit einem Seitenverhältnis von 16:10 viel breiter als alle iPads. Das bringt auch Nachteile mit sich, denn das Galaxy Tab S10 FE fühlt sich beim Anschauen von Inhalten im Querformat wesentlich angenehmer an als im Hochformat. Auch die Soundausgabe ist nicht ganz so beeindruckend wie bei einigen seiner Konkurrenten. Sie erhalten immer noch ein Paar solide Stereolautsprecher mit guter Trennung, aber das OnePlus Pad 2 bietet Ihnen ein beeindruckenderes Set-up mit sechs Lautsprechern, während das Honor Pad V9 sogar acht Lautsprecher bietet. Spezifikationen & Leistung Exynos 1580 8 oder 12 Gigabyte RAM 5G als Option Die vielleicht bedeutendste Verbesserung beim Samsung Galaxy Tab S10 FE (nach der Plus-Option) bezieht sich auf die Leistung. Durch den verbauten Exynos 1580-Chip ist es eigentlich ein Sprung von zwei Generationen gegenüber dem Galaxy Tab S9 FE. Es handelt sich zwar nicht um einen besonders beeindruckenden Prozessor – es ist derselbe Chip, der auch im Samsung Galaxy A56 zum Einsatz kommt – aber er ist schnell genug, um eine flüssige Navigation fast ohne Ruckler zu ermöglichen. Jon Mundy / Foundry Zweifellos ist es hilfreich, dass Samsung die Speicherausstattung mit 8 oder 12 Gigabyte RAM ein wenig aufgestockt hat. Ich habe immer das Gefühl, dass Android besonders gut läuft, wenn mindestens 8 Gigabyte Arbeitsspeicher verbaut werden. Trotz aller Fortschritte muss sich das Galaxy Tab S10 FE dem OnePlus Pad 2 mit seinem Snapdragon 8 Gen 3-Chip geschlagen geben. Dabei handelt es sich zwar um ein in die Jahre gekommenes Flaggschiff, aber der verbaute Chip schlägt das Galaxy Tab S10 FE bei den üblichen Benchmark-Tests mit Leichtigkeit. Wir haben das Honor Magic V9 bislang nicht auf Herz und Nieren geprüft, aber sein MediaTek Dimensity 8350 scheint auf dem Papier ebenfalls ein viel leistungsfähigerer Chip zu sein. Und das Xiaomi Pad 7 hat immerhin den leistungsstarken Qualcomm Snapdragon 7 Gen 3 als Herzstück. Es ist ein weiterer Aspekt, in dem das Samsung Galaxy Tab S10 FE für sich genommen gut ist, aber hinter dem Standard seiner ambitionierteren Konkurrenten im mittleren Preissegment zurückfällt. An dieser Stelle sollte ich allerdings auch erwähnen, dass Sie Ihr Galaxy Tab S10 FE mit oder ohne 5G-Konnektivität kaufen können. Das ist eine Option, die keiner der oben genannten Konkurrenten bieten kann. Samsung Galaxy Tab S10 FE Benchmarks Kameras die 13-Megapixel-Rückkamera macht kaum brauchbare Aufnahmen Das Gleiche gilt für die 12-Megapixel-Selfie-Kamera mit Ultraweitwinkel Unterstützt werden immerhin 4K-Videos mit 30 Bildern pro Sekunde Samsung hat die einsame 8-Megapixel-Hauptkamera des Galaxy Tab S9 FE gegen eine 13-Megapixel-Linse ausgetauscht. Das ist ein auf dem Papier recht großes Upgrade. Aber wir reden immer noch über eine extrem eingeschränkte Kamera, mit der Sie nur selten Bilder aufnehmen möchten. So ziemlich jede halbwegs anständige Smartphone-Kamera leistet da bessere Arbeit. Jon Mundy / Foundry Die fachkundige Bildverarbeitung von Samsung und die zusätzlichen Pixel der Sensoren sorgen dafür, dass Sie bei idealen Lichtverhältnissen ein gewisses Grundniveau an Bildqualität erreichen. Doch beim Fotografieren sollten Sie sich nicht auf Ihr Tablet verlassen. Das gilt umso mehr für die 12-Megapixel-Frontkamera, die eigentlich nur für Videotelefonate verwendet werden sollte. Sie nimmt zwar auch Selfies auf, aber diesen Aufnahmen fehlt es generell an Klarheit und Tiefe. Bei den Videoaufnahmen ist die Unterstützung von 4K/30fps zwar willkommen, aber auch hier sollten Sie das Galaxy Tab S10 FE nur als letzte Option nutzen. Das Fehlen von OIS (optischer Bildstabilisierung) verhindert ruhige Aufnahmen, und es gibt keine 60 fps-Unterstützung bei 1080p. Akkulaufzeit & Aufladen 8.000-Milliamperestunden-Akku 45 Watt Ladeunterstützung Kein Ladegerät in der Verpackung Auf den ersten Blick bietet Samsung bei der Ausdauer nichts Neues. Die Verbesserungen durch den viel neueren und effizienteren Exynos 1580 sind jedoch durchaus bemerkenswert. Während der 8.000-Milliamperestunden-Akku des Galaxy Tab S9 FE zusammen mit dem gleichen 10,9-Zoll-Display erneut verwendet wird, hält das Galaxy Tab S10 FE deutlich länger durch. In unserem üblichen PC Mark Work 3.0 Akkutest, der eine gemischte Arbeitsbelastung simuliert, erreichte das neue Samsung Tablet 13 Stunden und 28 Minuten. Das sind verblüffende drei Stunden länger als bei seinem Vorgänger und etwa genauso lang wie beim OnePlus Pad 2 mit seinem deutlich größeren Akku. Sie können davon ausgehen, dass es mit einer einzigen Ladung mehrere Tage durchhält Jon Mundy / Foundry Wenn Sie das Galaxy Tab S10 FE wie vorgesehen für leichtes Surfen im Internet, Notizen und Medienkonsum verwenden, können Sie davon ausgehen, dass es mit einer einzigen Ladung mehrere Tage durchhält. Es sollte auch für einen ganzen Arbeitstag mit leichten Produktivitätsaufgaben reichen. Die Ladefunktion ist dieselbe wie zuvor, mit Unterstützung für Samsungs 45-Watt-Ladefunktion (ähnlich wie beim Samsung Galaxy S25 Ultra). Dieses Ladegerät ist zwar nicht im Lieferumfang enthalten, aber ich hatte zum Glück eines zur Hand. Zum Thema: Schneller laden mit USB-C – Das richtige Kabel und Netzteil finden Mit diesem Ladegerät konnte ich das S10 FE in 15 Minuten von leer auf 27 Prozent und in 30 Minuten auf 49 Prozent aufladen. Eine volle Ladung dauerte genau 1 Stunde, 30 Minuten. Software & Apps Android 15 One UI 7 Sieben Jahre Software-Updates Das Samsung Galaxy Tab S10 FE nutzt die aktuelle One UI 7-Oberfläche des Unternehmens, unter der Android 15 als Basis läuft. Samsungs Software im Jahr 2025 ist relativ einfach zu bedienen, extrem leistungsfähig und anpassbar, aber auch ein wenig überladen. Die positiven Aspekte sind jedoch ziemlich überwältigend. Die Symbole, Widgets und Menüs von Samsung haben noch nie so klar und ansprechend ausgesehen wie in One UI 7.0. Es ist keine große Abweichung von früheren Versionen, aber es ist eine schöne Weiterentwicklung des vertrauten Stils des Unternehmens. One UI ist außerdem extrem flexibel und bietet einen großen Funktionsumfang. Samsung DeX optimiert die Benutzeroberfläche für die Verwendung von Tastatur und Maus und verwandelt das Galaxy Tab S10 FE in eine Art Laptop. Das Menü zum Wechseln zwischen Multitasking und Apps nutzt den zusätzlichen Platz auf dem Bildschirm gut aus, und die Nutzung von Apps im geteilten Bildschirm ist hier ein Kinderspiel. Jon Mundy / Foundry Ich habe bereits über die S Pen-Implementierung gesprochen, sie ist wirklich die beste in der Branche. Die Navigation mit Samsungs Stylus ist immer ein Vergnügen. Eine entsprechende Benutzeroberfläche hilft Ihnen dabei, aber Sie werden nie genötigt, sie auch zu benutzen. Das Air Command Menü ermöglicht Ihnen, schnell auf dem Bildschirm zu schreiben, eine Notiz zu erstellen oder AI Select zu verwenden. Mit letzterem können Sie Videos in GIFs verwandeln oder mit einem einfachen Kreis Text aus dem Bildschirm extrahieren. Ich habe bereits die leistungsstarke Samsung Notizen-App erwähnt, aber Sie erhalten auch PenUP, mit dem Sie Ihre künstlerische Ader ausleben können, indem Sie Projekte ausmalen oder von anderen Nutzern geteilte Werke betrachten. Samsung hat sechs Jahre lang Betriebssystem- und Sicherheitsupdates versprochen – eine der besten Garantien, die Sie derzeit bei einem Tablet finden können Jon Mundy / Foundry Ein klarer Mangel ist jedoch, dass Sie etwas herumfummeln müssen, um den Google Password Manager zum Laufen zu bringen. Auf allen anderen Android-Geräten läuft die App hingegen sofort nach dem Auspacken. Es gibt zudem ein allgemeines Gefühl der Unordnung, mit einer Reihe von Samsung-eigenen Apps und einem Einstellungsmenü, das mich ständig zur Suchfunktion leitet. Ich bin kein großer Fan von Samsungs Entscheidung, sich dem Trend anzuschließen, die Menüs für Benachrichtigungen und Schnelleinstellungen aufzuteilen. Aber hier auf dem großen Bildschirm scheint es mehr Sinn zu machen als auf Smartphones wie dem Samsung Galaxy S25. Samsung hat sechs Jahre lang Betriebssystem- und Sicherheitsupdates versprochen. Das ist eines der besten Angebote, die Sie bei einem Tablet finden können, unabhängig vom Preis. Preis & Verfügbarkeit Das Samsung Galaxy S10 FE ist ab sofort erhältlich. Sie können es direkt auf der Samsung Website kaufen. Dort kostet die Version mit 8 Gigabyte RAM und 128 Gigabyte Speicherplatz 579 Euro. Das Modell mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz kostet hingegen 679 Euro. Bei Amazon werden für die kleinere Version ebenfalls 579 Euro aufgerufen, das besser ausgestattete Tablet kostet dort aktuell 649 Euro. Die 5G-Konnektivität sorgt bei beiden Modellen für einen Preisanstieg von 100 Euro. Weitere Optionen finden Sie in unserer Liste der besten Tablets. Sollten Sie das Samsung Galaxy Tab S10 FE kaufen? Das Samsung Galaxy Tab S10 FE ist ein weiteres gelungenes Mittelklasse-Tablet des Unternehmens mit einem ausgezeichneten Design und dem besten mitgelieferten Stylus der Branche. Die Leistung hat sich spürbar verbessert, und der neue Exynos 1580 Chip scheint auch die Akkulaufzeit deutlich zu verlängern. All diese Verbesserungen und Änderungen fühlen sich jedoch eher unbedeutend an. Im Grunde handelt es sich immer noch um das gleiche Gerät wie das Galaxy Tab S9 FE aus dem Jahr 2023. Geringfügige Neuerungen gehören auf dem Tablet-Markt zwar zur Realität. Doch mit der damit einhergehenden Preiserhöhung und der starken Konkurrenz rutscht Samsungs Tab FE-Reihe in der Rangfolge der Geräte etwas nach unten. Spezifikationen Android 15 10,9 Zoll, 1.440 × 2.304 Pixel, IPS-LCD, 90 Hertz Seitlich angebrachter Fingerabdrucksensor Qualcomm Exynos 1580 8/12 Gigabyte LPDDR5 RAM 128/256 Gigabyte Speicherplatz 13-Megapixel-Hauptkamera mit f/2.0 Bis zu 4K@30fps Video auf der Rückseite 12-Megapixel-Front-Kamera Stereo-Lautsprecher Wi-Fi 802.11 a/b/g/n/ac/6e Bluetooth 5.3 8.000-Milliamperestunden-Akku 45 Watt Aufladung 254,3 × 165,8 × 6 Millimeter 497 Gramm Farboptionen: Silber, Grau, Blau (PC-Welt) 

Samsung Galaxy Tab S10 FE im Test: Mittelklasse-Tablet mit Stylus​ Jon Mundy / Foundry

Auf einen Blick

Pro

Ausgezeichnetes IP-zertifiziertes Design

Hervorragende Implementierung des S Pen Stylus

Sechs Jahre Software-Updates

Kontra

Geringfügige Verbesserungen seit 2023

Der Preis wurde angehoben

Konkurrenten bieten bessere Leistung und Ausstattung

Fazit

Das Samsung Galaxy Tab S10 FE ist ein weiteres gut ausgestattetes Tablet der Mittelklasse. Doch der Mangel an echten Neuerungen wird langsam zum Problem. Wenn Sie nicht gerade den mitgelieferten S Pen Eingabestift benötigen, bieten die Konkurrenten mittlerweile mehr für weniger Geld.

Sie werden kaum ein besser ausgestattetes Premium-Android-Tablet als das Samsung Galaxy Tab S10 Ultra finden. Doch für die meisten Menschen ist das 1.339 Euro teure Gerät viel zu kostspielig. Das deutlich günstigere Samsung Galaxy Tab S10 FE könnte jedoch genau das perfekte Angebot für Sie sein.

Es verfügt über ein ordentliches 10,9-Zoll-Display, ein hochwertiges, flaches Metalldesign und genügend Leistung, um die alltäglichen Aufgaben gut erledigen zu können. Samsung legt jedem Gerät sogar einen S Pen Eingabestift bei, was es zu einer guten Wahl für kreative Aufgaben macht.

Diesen Absatz hätte ich aber auch schon über das Samsung Galaxy Tab S9 FE aus dem vergangenen Jahr schreiben können.

Was hat das aktuelle Tablet von Samsung also Neues zu bieten? Angesichts des Preisanstiegs um 50 Euro auf 579 Euro für die neueste Fan Edition kann man ja durchaus davon ausgehen, dass es einen gewissen Fortschritt gibt.

Das Samsung Galaxy Tab S10 FE ist zwar ein weiteres gutes Mittelklasse-Tablet, aber Sie sollten sich auf jeden Fall umsehen, bevor Sie sich entscheiden.

Design & Verarbeitung

Gewohnt flaches Metalldesign

IP68-Zertifizierung

Mitgelieferter S Pen

Wie sieht das Samsung Galaxy Tab S10 FE aus und wie fühlt es sich an? Das ist ganz einfach: Es sieht genauso aus und fühlt sich genauso an wie das Samsung Galaxy Tab S9 FE.

Vergleichen Sie dazu einfach die Bilder der beiden Tablet-Generationen. Ich habe nämlich darauf geachtet, die gleichen Blickwinkel für einen einfachen Vergleich zu verwenden. Samsung ist beim Design schon einmal kein Risiko eingegangen.

Es wurden Verbesserungen vorgenommen, aber sie sind fast unsichtbar

Jon Mundy / Foundry

Es wurden Verbesserungen vorgenommen, aber sie sind fast unsichtbar. Das Samsung Galaxy Tab S10 FE hat genau die gleichen Abmessungen von 254,3 × 165,8 Millimetern, ist aber mit 6 Millimetern einen halben Millimeter dünner.

Mit einem Gewicht von 497 Gramm ist es ganze 26 Gramm leichter. Es fühlt sich aber immer noch wie ein Premium-Gerät an. Die knarzfreie Ganzmetallkonstruktion trägt wesentlich dazu bei, dass es sich teurer anfühlt, als es ist.

Das gilt auch für die IP68-Zertifizierung. Selbst das 1.499 Euro teure iPad Pro M4 ist nicht so wasserfest. Damit eignet sich das Samsung Galaxy Tab S10 FE viel besser für die Nutzung in der Badewanne oder am Pool.

Jon Mundy / Foundry

Und noch etwas bietet das hochgelobte iPad Pro nicht: einen mitgelieferten Stylus. Jedes Galaxy Tab S10 FE wird hingegen mit einem S Pen ausgeliefert. Wenn Sie ihn nicht benutzen, wird er mithilfe von starken Magneten an der Rückseite des Tablets befestigt.

Die Stylus-Implementierung von Samsung ist die beste in der Branche. Sie können den S Pen so lange ignorieren, bis Sie ihn nutzen möchten. Dann müssen Sie nur noch eine Taste gedrückt halten und doppelt auf den Bildschirm tippen, um eine schnelle Notiz zu schreiben.

Drücken und ziehen Sie, um Text zu markieren, oder öffnen Sie Samsungs leistungsstarke Notizen-App und kritzeln Sie mit einer Reihe von Stifttypen los. Das Schreiben geht flüssig und sicher von der Hand, und Samsungs Handschrifterkennung und automatische Ausrichtung sind einfach fantastisch.

Jon Mundy / Foundry

Hinter der Einschalttaste an der oberen Kante befindet sich wieder ein Fingerabdrucksensor. Der funktioniert zuverlässig, wenn Sie ihn finden. Aber mir fällt es oft schwer, diese Tasten punktgenau zu treffen. Apples sicheres Face ID-System sollte im Bereich der Tablets meiner Meinung nach deutlich häufiger eingesetzt werden.

Die Farboptionen des Galaxy Tab S10 FE sind eher eintönig. Samsung bietet Ihnen nur die Farben Silber, Grau und Blau an – wobei die letztgenannte Farbe hauptsächlich für die Antenne und die Logo-Akzente gilt und das Gehäuse nur einen leichten Blaustich aufweist. Würden Sie erraten, dass es sich bei dem hier getesteten Gerät um das blaue Modell handelt, wenn ich es Ihnen nicht sagen würde? Ich glaube eher nicht.

Ich verstehe, dass der Tablet-Formfaktor jetzt ausgereift ist und man mit einer großen Platte aus Metall und Glas nicht mehr viel machen kann. Aber eine Möglichkeit gibt es immer: auffällige und ansprechende Farben. Naja, vielleicht beim nächsten Mal.

Bildschirm & Lautsprecher

10,9-Zoll IPS-LCD

90 Hertz Bildwiederholfrequenz

Stereo-Lautsprecher

Liegt in einigen Punkten hinter der Konkurrenz

Ich bin ein wenig überrascht, dass Samsung mir dieses spezielle Modell des Galaxy Tab S10 FE zum Test geschickt hat. Denn die bei weitem interessanteste Neuerung der FE-Reihe ist die Option eines größeren 13,9-Zoll-Plus-Modells.

Zum jetzigen Zeitpunkt gibt es wenig über den Bildschirm dieses kleineren Modells zu sagen. Es handelt sich um ein weiteres 10,9-Zoll-IPS-LCD mit einer Auflösung von 1.440 × 2.304 Pixeln und einer Bildwiederholfrequenz von 90 Hertz. Aber kann man für knapp 600 Euro wirklich mehr erwarten?

Die Qualität des Bildschirms gibt keinen Grund zur Klage

Jon Mundy / Foundry

Ja, ich denke, das können Sie. Das OnePlus Pad 2 bietet Ihnen ebenfalls ein LCD-Panel anstelle eines AMOLED-Displays. Aber es ist eine größere 12,1-Zoll-Variante, mit einer deutlich flüssigeren Bildwiederholfrequenz von 144 Hertz und einer schärferen Auflösung von 2.120 × 3.000 Pixeln. Das Honor Pad V9 bietet ein 11,5-Zoll-Panel mit 2,8K-Auflösung und 144 Hertz für nur 499 Euro.

Abgesehen davon kann ich mich über die Qualität des Bildschirms des Galaxy Tab S10 FE nicht beklagen. Es ist hell genug, scharf genug und gibt schöne natürliche Farben wieder, wenn Sie den Standard-Bildschirmmodus “Lebendig” im Einstellungsmenü aktivieren.

Aber auch hier ist die fehlende Unterstützung von Dolby Vision und HDR10 ein Mangel, gerade weil diese Features schon beim OnePlus Pad 2 aus dem vergangenen Jahr vorhanden sind.

Jon Mundy / Foundry

Samsungs Tablets sind (wie die meisten Android-Tablets) mit einem Seitenverhältnis von 16:10 viel breiter als alle iPads. Das bringt auch Nachteile mit sich, denn das Galaxy Tab S10 FE fühlt sich beim Anschauen von Inhalten im Querformat wesentlich angenehmer an als im Hochformat.

Auch die Soundausgabe ist nicht ganz so beeindruckend wie bei einigen seiner Konkurrenten. Sie erhalten immer noch ein Paar solide Stereolautsprecher mit guter Trennung, aber das OnePlus Pad 2 bietet Ihnen ein beeindruckenderes Set-up mit sechs Lautsprechern, während das Honor Pad V9 sogar acht Lautsprecher bietet.

Spezifikationen & Leistung

Exynos 1580

8 oder 12 Gigabyte RAM

5G als Option

Die vielleicht bedeutendste Verbesserung beim Samsung Galaxy Tab S10 FE (nach der Plus-Option) bezieht sich auf die Leistung.

Durch den verbauten Exynos 1580-Chip ist es eigentlich ein Sprung von zwei Generationen gegenüber dem Galaxy Tab S9 FE.

Es handelt sich zwar nicht um einen besonders beeindruckenden Prozessor – es ist derselbe Chip, der auch im Samsung Galaxy A56 zum Einsatz kommt – aber er ist schnell genug, um eine flüssige Navigation fast ohne Ruckler zu ermöglichen.

Jon Mundy / Foundry

Zweifellos ist es hilfreich, dass Samsung die Speicherausstattung mit 8 oder 12 Gigabyte RAM ein wenig aufgestockt hat. Ich habe immer das Gefühl, dass Android besonders gut läuft, wenn mindestens 8 Gigabyte Arbeitsspeicher verbaut werden.

Trotz aller Fortschritte muss sich das Galaxy Tab S10 FE dem OnePlus Pad 2 mit seinem Snapdragon 8 Gen 3-Chip geschlagen geben. Dabei handelt es sich zwar um ein in die Jahre gekommenes Flaggschiff, aber der verbaute Chip schlägt das Galaxy Tab S10 FE bei den üblichen Benchmark-Tests mit Leichtigkeit.

Wir haben das Honor Magic V9 bislang nicht auf Herz und Nieren geprüft, aber sein MediaTek Dimensity 8350 scheint auf dem Papier ebenfalls ein viel leistungsfähigerer Chip zu sein. Und das Xiaomi Pad 7 hat immerhin den leistungsstarken Qualcomm Snapdragon 7 Gen 3 als Herzstück.

Es ist ein weiterer Aspekt, in dem das Samsung Galaxy Tab S10 FE für sich genommen gut ist, aber hinter dem Standard seiner ambitionierteren Konkurrenten im mittleren Preissegment zurückfällt.

An dieser Stelle sollte ich allerdings auch erwähnen, dass Sie Ihr Galaxy Tab S10 FE mit oder ohne 5G-Konnektivität kaufen können. Das ist eine Option, die keiner der oben genannten Konkurrenten bieten kann.

Samsung Galaxy Tab S10 FE Benchmarks

Kameras

die 13-Megapixel-Rückkamera macht kaum brauchbare Aufnahmen

Das Gleiche gilt für die 12-Megapixel-Selfie-Kamera mit Ultraweitwinkel

Unterstützt werden immerhin 4K-Videos mit 30 Bildern pro Sekunde

Samsung hat die einsame 8-Megapixel-Hauptkamera des Galaxy Tab S9 FE gegen eine 13-Megapixel-Linse ausgetauscht.

Das ist ein auf dem Papier recht großes Upgrade. Aber wir reden immer noch über eine extrem eingeschränkte Kamera, mit der Sie nur selten Bilder aufnehmen möchten. So ziemlich jede halbwegs anständige Smartphone-Kamera leistet da bessere Arbeit.

Jon Mundy / Foundry

Die fachkundige Bildverarbeitung von Samsung und die zusätzlichen Pixel der Sensoren sorgen dafür, dass Sie bei idealen Lichtverhältnissen ein gewisses Grundniveau an Bildqualität erreichen. Doch beim Fotografieren sollten Sie sich nicht auf Ihr Tablet verlassen.

Das gilt umso mehr für die 12-Megapixel-Frontkamera, die eigentlich nur für Videotelefonate verwendet werden sollte. Sie nimmt zwar auch Selfies auf, aber diesen Aufnahmen fehlt es generell an Klarheit und Tiefe.

Bei den Videoaufnahmen ist die Unterstützung von 4K/30fps zwar willkommen, aber auch hier sollten Sie das Galaxy Tab S10 FE nur als letzte Option nutzen. Das Fehlen von OIS (optischer Bildstabilisierung) verhindert ruhige Aufnahmen, und es gibt keine 60 fps-Unterstützung bei 1080p.

Akkulaufzeit & Aufladen

8.000-Milliamperestunden-Akku

45 Watt Ladeunterstützung

Kein Ladegerät in der Verpackung

Auf den ersten Blick bietet Samsung bei der Ausdauer nichts Neues. Die Verbesserungen durch den viel neueren und effizienteren Exynos 1580 sind jedoch durchaus bemerkenswert.

Während der 8.000-Milliamperestunden-Akku des Galaxy Tab S9 FE zusammen mit dem gleichen 10,9-Zoll-Display erneut verwendet wird, hält das Galaxy Tab S10 FE deutlich länger durch.

In unserem üblichen PC Mark Work 3.0 Akkutest, der eine gemischte Arbeitsbelastung simuliert, erreichte das neue Samsung Tablet 13 Stunden und 28 Minuten. Das sind verblüffende drei Stunden länger als bei seinem Vorgänger und etwa genauso lang wie beim OnePlus Pad 2 mit seinem deutlich größeren Akku.

Sie können davon ausgehen, dass es mit einer einzigen Ladung mehrere Tage durchhält

Jon Mundy / Foundry

Wenn Sie das Galaxy Tab S10 FE wie vorgesehen für leichtes Surfen im Internet, Notizen und Medienkonsum verwenden, können Sie davon ausgehen, dass es mit einer einzigen Ladung mehrere Tage durchhält. Es sollte auch für einen ganzen Arbeitstag mit leichten Produktivitätsaufgaben reichen.

Die Ladefunktion ist dieselbe wie zuvor, mit Unterstützung für Samsungs 45-Watt-Ladefunktion (ähnlich wie beim Samsung Galaxy S25 Ultra). Dieses Ladegerät ist zwar nicht im Lieferumfang enthalten, aber ich hatte zum Glück eines zur Hand.

Zum Thema: Schneller laden mit USB-C – Das richtige Kabel und Netzteil finden

Mit diesem Ladegerät konnte ich das S10 FE in 15 Minuten von leer auf 27 Prozent und in 30 Minuten auf 49 Prozent aufladen. Eine volle Ladung dauerte genau 1 Stunde, 30 Minuten.

Software & Apps

Android 15

One UI 7

Sieben Jahre Software-Updates

Das Samsung Galaxy Tab S10 FE nutzt die aktuelle One UI 7-Oberfläche des Unternehmens, unter der Android 15 als Basis läuft. Samsungs Software im Jahr 2025 ist relativ einfach zu bedienen, extrem leistungsfähig und anpassbar, aber auch ein wenig überladen.

Die positiven Aspekte sind jedoch ziemlich überwältigend. Die Symbole, Widgets und Menüs von Samsung haben noch nie so klar und ansprechend ausgesehen wie in One UI 7.0. Es ist keine große Abweichung von früheren Versionen, aber es ist eine schöne Weiterentwicklung des vertrauten Stils des Unternehmens.

One UI ist außerdem extrem flexibel und bietet einen großen Funktionsumfang. Samsung DeX optimiert die Benutzeroberfläche für die Verwendung von Tastatur und Maus und verwandelt das Galaxy Tab S10 FE in eine Art Laptop. Das Menü zum Wechseln zwischen Multitasking und Apps nutzt den zusätzlichen Platz auf dem Bildschirm gut aus, und die Nutzung von Apps im geteilten Bildschirm ist hier ein Kinderspiel.

Jon Mundy / Foundry

Ich habe bereits über die S Pen-Implementierung gesprochen, sie ist wirklich die beste in der Branche. Die Navigation mit Samsungs Stylus ist immer ein Vergnügen. Eine entsprechende Benutzeroberfläche hilft Ihnen dabei, aber Sie werden nie genötigt, sie auch zu benutzen.

Das Air Command Menü ermöglicht Ihnen, schnell auf dem Bildschirm zu schreiben, eine Notiz zu erstellen oder AI Select zu verwenden. Mit letzterem können Sie Videos in GIFs verwandeln oder mit einem einfachen Kreis Text aus dem Bildschirm extrahieren.

Ich habe bereits die leistungsstarke Samsung Notizen-App erwähnt, aber Sie erhalten auch PenUP, mit dem Sie Ihre künstlerische Ader ausleben können, indem Sie Projekte ausmalen oder von anderen Nutzern geteilte Werke betrachten.

Samsung hat sechs Jahre lang Betriebssystem- und Sicherheitsupdates versprochen – eine der besten Garantien, die Sie derzeit bei einem Tablet finden können

Jon Mundy / Foundry

Ein klarer Mangel ist jedoch, dass Sie etwas herumfummeln müssen, um den Google Password Manager zum Laufen zu bringen. Auf allen anderen Android-Geräten läuft die App hingegen sofort nach dem Auspacken. Es gibt zudem ein allgemeines Gefühl der Unordnung, mit einer Reihe von Samsung-eigenen Apps und einem Einstellungsmenü, das mich ständig zur Suchfunktion leitet.

Ich bin kein großer Fan von Samsungs Entscheidung, sich dem Trend anzuschließen, die Menüs für Benachrichtigungen und Schnelleinstellungen aufzuteilen. Aber hier auf dem großen Bildschirm scheint es mehr Sinn zu machen als auf Smartphones wie dem Samsung Galaxy S25.

Samsung hat sechs Jahre lang Betriebssystem- und Sicherheitsupdates versprochen. Das ist eines der besten Angebote, die Sie bei einem Tablet finden können, unabhängig vom Preis.

Preis & Verfügbarkeit

Das Samsung Galaxy S10 FE ist ab sofort erhältlich. Sie können es direkt auf der Samsung Website kaufen. Dort kostet die Version mit 8 Gigabyte RAM und 128 Gigabyte Speicherplatz 579 Euro. Das Modell mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz kostet hingegen 679 Euro. Bei Amazon werden für die kleinere Version ebenfalls 579 Euro aufgerufen, das besser ausgestattete Tablet kostet dort aktuell 649 Euro.

Die 5G-Konnektivität sorgt bei beiden Modellen für einen Preisanstieg von 100 Euro.

Weitere Optionen finden Sie in unserer Liste der besten Tablets.

Sollten Sie das Samsung Galaxy Tab S10 FE kaufen?

Das Samsung Galaxy Tab S10 FE ist ein weiteres gelungenes Mittelklasse-Tablet des Unternehmens mit einem ausgezeichneten Design und dem besten mitgelieferten Stylus der Branche.

Die Leistung hat sich spürbar verbessert, und der neue Exynos 1580 Chip scheint auch die Akkulaufzeit deutlich zu verlängern.

All diese Verbesserungen und Änderungen fühlen sich jedoch eher unbedeutend an. Im Grunde handelt es sich immer noch um das gleiche Gerät wie das Galaxy Tab S9 FE aus dem Jahr 2023.

Geringfügige Neuerungen gehören auf dem Tablet-Markt zwar zur Realität. Doch mit der damit einhergehenden Preiserhöhung und der starken Konkurrenz rutscht Samsungs Tab FE-Reihe in der Rangfolge der Geräte etwas nach unten.

Spezifikationen

Android 15

10,9 Zoll, 1.440 × 2.304 Pixel, IPS-LCD, 90 Hertz

Seitlich angebrachter Fingerabdrucksensor

Qualcomm Exynos 1580

8/12 Gigabyte LPDDR5 RAM

128/256 Gigabyte Speicherplatz

13-Megapixel-Hauptkamera mit f/2.0

Bis zu 4K@30fps Video auf der Rückseite

12-Megapixel-Front-Kamera

Stereo-Lautsprecher

Wi-Fi 802.11 a/b/g/n/ac/6e

Bluetooth 5.3

8.000-Milliamperestunden-Akku

45 Watt Aufladung

254,3 × 165,8 × 6 Millimeter

497 Gramm

Farboptionen: Silber, Grau, Blau

(PC-Welt)

Samsung Galaxy Tab S10 FE im Test: Mittelklasse-Tablet mit Stylus​ Weiterlesen »

CMF Phone 2 Pro: Bestes Budget-Smartphone im Test​

Allgemein

Luke Baker Auf einen Blick Pro Mehr und bessere Kameras Helleres und genaueres Display Kleiner Leistungssprung Unterstützung für NFC-Zahlungen Immer noch ein absolutes Schnäppchen Kontra Nur IP54-zertifiziert Essential Space könnte in Zukunft kostenpflichtig werden Längerer Software-Support Fazit Das CMF Phone 1 war bereits meine Top-Empfehlung unter den Budget-Smartphones 2024. Das CMF Phone 2 Pro bietet noch viel mehr für einen geringfügig höheren Preis. Mit massiven Verbesserungen des Kamerasystems, einem schöneren Display und einem etwas schnelleren Chip ist dieses Schnäppchen kaum zu schlagen. Das CMF Phone 1 war mein Lieblings-Budget-Smartphone des letzten Jahres und wohl auch mein Lieblings-Budget-Handy aller Zeiten. Es ist ein unglaublich schickes Smartphone mit einem witzigen modularen Design, das normalerweise teuren Flaggschiff-Geräten vorbehalten ist und keinem Budget-Gerät für rund 250 Euro. Weniger als ein Jahr später ist sein Nachfolger erhältlich. Das CMF Phone 2 Pro bietet alles, was das Original zu einem Hit gemacht hat, und es bringt sogar noch mehr mit. An Bord sind eine bessere Hauptkamera, zwei neue Zusatzlinsen, ein schnellerer Chip, NFC und vieles mehr. Die Bezeichnung “Pro” deutet darauf hin, dass es auch ein Modell ohne Pro geben könnte. Nothing hat Techadvisor gegenüber jedoch bestätigt, dass es kein günstigeres CMF Phone 2 ohne “Pro”-Zusatz geben wird. Glücklicherweise ist der Preis des neuen Modells nicht sehr angestiegen. Mit einer unverbindlichen Preisempfehlung in Höhe von 249 Euro ist es nur 10 Euro teurer als der Vorgänger zum Launch. Das CMF Phone 1 war bereits eine klare Empfehlung und alles deutet darauf hin, dass dieses Modell noch besser ist. Ich habe das Smartphone für meinen ausführlichen Test eine Woche lang als mein Haupthandy benutzt. In den folgenden Zeilen erfahren Sie, wie es mir damit ergangen ist. Nothing ist beim gleichen Kernkonzept geblieben und hat einfach alles besser gemacht. Design & Aufbau Unterschiedliche Texturen auf der Rückseite 185 g, Panda Glass Modular austauschbares Zubehör und Rückseite Das CMF Phone 2 Pro hat ein ähnliches Design wie sein Vorgänger. Es hat immer noch die gleiche Accessory-Point-Schraube in der unteren rechten Ecke und die gleichen freiliegenden Schrauben an ähnlichen Stellen auf der Rückseite. Das ist gut, denn in puncto Design hat mir das CMF Phone 1 bereits sehr gefallen. Es freut mich, dass Nothing bei diesem Gerät in eine ähnliche Richtung einschlägt. Sie haben nicht nur mehr Farboptionen zur Auswahl, sondern auch mehr Abwechslung bei der Art und Weise, wie sich jede Rückseite anfühlt. Luke Baker Die offensichtlichste Änderung betrifft die Kameras. Die beiden größeren Objektive erhalten ihre eigenen runden Ringe mit Aluminiumeffekt, während das Ultraweitwinkelobjektiv und der Blitz auf einer separaten länglichen Insel sitzen. Es ist keine drastische Änderung, aber sie fällt sofort auf und ist ein deutlicher Hinweis darauf, dass das CMF-Team etwas Arbeit in die Optik gesteckt hat. Eine weitere große Veränderung betrifft die Oberfläche der Rückseiten. Die Optionen Schwarz und Hellgrün haben eine mattierte, glasartige Oberfläche mit einem Metallrahmen. Die orangefarbene Version hat dagegen einen metallischen Glanz und die weiße Option hat eine “getäfelte Sandsteinoberfläche”. Sie haben also nicht nur mehr Farboptionen zur Auswahl, sondern auch mehr Abwechslung bei der Haptik der einzelnen Rückseiten. Man könnte meinen, dass es egal ist, für welche man sich entscheidet, da CMF die Rückseiten des Phone 1 separat verkauft wurden, aber das ist hier nicht der Fall. Stattdessen werden die freiliegenden Schrauben nur zur Befestigung von Zubehör verwendet, was wahrscheinlich auf die neue IP-Einstufung zurückzuführen ist. Luke Baker Ich habe das hellgrüne Modell zum Testen bekommen und es fühlt sich einen Hauch hochwertiger an als das mattschwarze CMF Phone 1, das ich zuvor getestet habe. Es ist zwar immer noch aus Kunststoff, aber das erkennt man nicht so leicht. Die matte Oberfläche des älteren Modells, die gegen Fingerabdrücke resistent war, gefiel mir zwar sehr gut, aber ich hatte das Gefühl, dass sie sich leicht abnutzt. Die neue Oberfläche scheint langlebiger zu sein. Es fühlt sich einen Hauch hochwertiger an als das mattschwarze CMF Phone 1, das ich zuvor getestet habe. Die Kappe für den Accessory Point wurde bei diesem Modell abgespeckt und ragt nicht mehr so stark hervor wie beim ursprünglichen CMF Phone. Das macht das Gesamtbild etwas stimmiger. Damit ist es nun jedoch auch schwieriger, die Abdeckung zu entfernen. Abgesehen von den Abmessungen bleibt der Accessory Point selbst unverändert. Ich konnte das gleiche Schlüsselband-Zubehör mit beiden Modellen problemlos verwenden. Weiteres Zubehör konnte ich leider nicht ausprobieren, aber die Funktionalität ist ähnlich. Anstatt einer Brieftasche und eines Ständers wurden die beiden Zubehörteile kombiniert, und es gibt jetzt eine Brieftasche, die auch als Ständer dienen kann, und natürlich auch das bereits erwähnte Schlüsselband. Es gibt einige neue Zubehörteile, die in diesem Jahr hinzugekommen sind. Sie können jetzt entweder einen Fischaugen- oder einen Makroobjektivadapter anbringen. Ich habe sie noch nicht ausprobiert, kann also nichts über die Qualität sagen. Das Zubehör-Set könnte eine Überlegung wert sein, wenn Sie Ihren Aufnahmen mehr Abwechslung verleihen möchten und sich etwa das Xiaomi 15 Ultra nicht leisten können. Es ist erwähnenswert, dass sowohl die Objektive als auch der Ständer das Universal Cover benötigen. Dabei handelt es sich um eine schlanke externe Abdeckung, die aufgeschraubt wird und das Smartphone um ein Objektivgewinde und Magnete im MagSafe-Stil erweitert. Luke Baker Angesichts der großen, freiliegenden Schrauben, konnte ich nicht widerstehen, die Rückseite abzunehmen, obwohl Nothing das nicht empfiehlt. Es ist schwieriger als beim Vorgänger, aber sehr viel einfacher als bei anderen Smartphones. Allerdings bin ich mir nicht sicher, ob mein Gerät so wasserdicht ist, wie zuvor, denn der Kleber hat sich dabei etwas abgelöst. Im Inneren ist der Akku leicht zugänglich – er ist nicht mehr unter einer zusätzlichen Verkleidung abgeschirmt. Der Akku kann nicht im laufenden Betrieb ausgetauscht werden und Sie benötigen immer noch etwas Fachwissen. Der Akkutausch ist hier jedoch wesentlich einfacher als bei herkömmlichen Smartphones. Der Essential Key, der mit der Nothing-Phone-(3a)-Serie eingeführt wurde, ist nun auch hier verfügbar. Luke Baker Das CMF Phone 2 Pro hat die gleiche Tastenanordnung wie der Rest der Nothing-Familie, mit der Lautstärkewippe auf der linken Seite und der Sperrtaste auf der rechten Seite. Dieses Mal bekommen Sie jedoch eine zusätzliche Taste. Den Essential Key, der mit der Phone-(3a)-Serie eingeführt wurde. Was die Widerstandsfähigkeit betrifft, so habe ich bereits die IP54-Einstufung erwähnt, die eine Verbesserung gegenüber der IP52-Einstufung des Vorgängers darstellt. Sie erhalten außerdem Panda Glass auf dem Bildschirm – eine günstigere Alternative zu Gorilla Glass. Luke Baker Es sollte den Bildschirm gut vor Kratzern und Rissen schützen. Das Nothing Phone (3a) verfügt über denselben Schutz. Hier haben sich bei mir jedoch bereits einige leichte Kratzer eingeschlichen. Wenn Sie auf Nummer sicher gehen möchten, sollten Sie eine einfache Schutzfolie anbringen. Außerdem erhalten Sie eine einfache, transparente TPU-Hülle für zusätzlichen Schutz im Lieferumfang. Bildschirm & Lautsprecher 6,77-Zoll, 1.080 × 2.392 Pixel, OLED, 120 Hertz 3.000 Nits Spitzenhelligkeit Nur ein Lautsprecher Das CMF Phone 2 Pro hat einen geringfügig größeren Bildschirm als sein Vorgänger. Das Display eignet sich ausgezeichnet zum Spielen sowie für andere Medieninhalte. Es gibt zwei wesentliche Unterschiede, die dieses Gerät zu einer Verbesserung gegenüber dem älteren Modell machen. Der erste ist, dass es jetzt 10-Bit-Farben unterstützt und nicht mehr nur 8-Bit. Das macht einen großen Unterschied, nicht nur bei der Farbgenauigkeit, sondern reduziert auch das Auftreten von Farbstreifen bei der Anzeige von Farbverläufen drastisch. Die zweite Änderung besteht darin, dass der Bildschirm jetzt heller ist und eine Spitzenhelligkeit von bis zu 3.000 Nits bietet, während das ältere Modell maximal 2.000 Nits schaffte. Einer der besten Bildschirme in dieser Preisklasse. Luke Baker Das Display des Vorgängers hat mir ebenfalls sehr gut gefallen, aber wenn man sich die beiden Modelle nebeneinander ansieht, ist die Verbesserung deutlich zu erkennen. Das Display im CMF Phone 2 Pro ist eines der Besten in dieser Preisklasse. Das Display ist flach, aber es gibt jetzt eine dezente Abschrägung an den Rändern. Darüber freue ich mich ganz besonders, denn das CMF Phone 1 hatte eine winzige erhöhte Lippe am Rand. Es handelt sich um eine winzige Änderung, aber es ist eine Veränderung zum Besseren. Die Gestensteuerung fühlt sich damit viel geschmeidiger an, wenn Sie vom Rand aus wischen. Luke Baker An der Audio-Ausstattung hat sich jedoch leider nichts verbessert. Sie haben immer noch nur einen einzigen Lautsprecher, es gibt also keinen Stereoeffekt. Und obwohl der Klang sehr klar ist, fehlt es ihm an Bässen. Er ist bei weitem nicht der schlechteste Lautsprecher auf dem Markt, aber machen Sie sich keine allzu großen Hoffnungen. Spezifikationen & Leistung MediaTek Dimensity 7300 Pro 8 GB RAM 256 GB Speicher Das CMF Phone 2 Pro läuft mit einer verbesserten Version des 4-Nanometer-Chips, der auch das Phone 1 angetrieben hat. Laut Nothing können Sie eine 10 Prozent schnellere Verarbeitung und 5 Prozent mehr Grafikleistung erwarten. Das Smartphone verfügt über 8 Gigabyte Arbeitsspeicher, und Sie können aus 128 oder 256 Gigabyte internem Speicher wählen. Ich habe die Version mit 256 Gigabyte getestet. Es gibt außerdem einen Steckplatz für microSD-Karten, über den Sie den internen Speicher um bis zu 2 Terabyte erweitern können. Die Spielleistung wurde geringfügig verbessert. Einen wirklichen Unterschied macht das aber nicht. Luke Baker Während sich die Performance von CMF Phone 1 und CMF Phone 2 Pro in der Praxis kaum unterscheidet, sind die Verbesserungen in den Benchmarks deutlicher. Die Spieleleistung hat sich leicht verbessert. Das macht aber keinen wirklichen Unterschied Genau wie beim Vorgängermodell war die Leistung im Alltag vollkommen ausreichend. Das Smartphone fühlt sich nie langsam an, auch nicht beim Multitasking. Lediglich bei der Durchführung einer systemweiten Suche spüren Sie den Unterschied zu einem höherwertigen Chip. Es dauert einfach einen Moment länger, bis die Ergebnisse angezeigt werden. Luke Baker Bei weniger grafikintensiven Titeln ist die Leistung großartig. Bei “Genshin Impact” müssen Sie jedoch die niedrigste Voreinstellung verwenden, um stabile 30 Bilder pro Sekunde zu erhalten. Dennoch ist es beeindruckend, dass auf einem so günstigen Smartphone ein so anspruchsvolles Spiel überhaupt läuft, ohne dass das Gehäuse zu heiß wird. Eine weitere große Neuerung des CMF Phone 2 Pro ist die Unterstützung von NFC, sodass Sie mit Google Pay kontaktlos bezahlen können. Der fehlende NFC-Support war einer der großen Nachteile des CMF Phone 1. Rechenleistung Kameras 50 MP f/1,88 Hauptkamera 50 MP f/1,85 2x Teleobjektiv 8 MP f/2,2 Ultraweitwinkel 16 MP f/2.45 Selfie-Kamera Das Kamerasystem ist wohl das größte Upgrade des CMF Phone 2 Pro. Vergangenes Jahr bekamen wir nur eine brauchbare Linse auf der Rückseite, zusammen mit einem Tiefensensor, der hauptsächlich aus ästhetischen Gründen zu existieren schien. Jetzt gibt es drei Kameras: Eine 50-Megapixel-Hauptkamera, eine 8-Megapixel-Ultraweitwinkelkamera und eine 50-Megapixel-Zweifach-Telekamera. Luke Baker Es wurden nicht nur zusätzliche Kameras ergänzt, sondern auch die Hauptkamera deutlich aufgewertet. Sie ist jetzt mit einem 1/1,56-Zoll-Sensor ausgestattet – einem der größten in dieser Preisklasse. Dadurch kann sie bei schlechten Lichtverhältnissen mehr Details erfassen und bei Nahaufnahmen ein natürliches Bokeh erzeugen. Zudem bietet die Hauptkamera einen Makro-Modus für besonders detailreiche Aufnahmen aus nächster Nähe. Das Teleobjektiv ist fast genauso beeindruckend. Es ist das Standardobjektiv, wenn Sie in den Porträtmodus wechseln. Zweifacher Zoom ist zwar nicht sonderlich viel, aber damit können Sie Ihren Aufnahmen eine andere Perspektive ohne Weitwinkel-Verzerrungen verleihen. Sie haben auch die Möglichkeit, im Porträtmodus digital vierfach und sechsfach heranzuzoomen. Das ist eine unerwartete und nützliche Ergänzung – allerdings mit leichten Qualitätseinbußen. Ich konnte mit dem sechsfachen Zoom brauchbare Ergebnisse erzielen. Zoomen Sie weiter heran, wird aus den Fotos jedoch schnell ein Pixelbrei. Angesichts des Preises sind die Ergebnisse jedoch solide. Besonders beeindruckt haben mich die Nahaufnahmen mit dem Teleobjektiv. Durch die längere Brennweite entsteht eine angenehme Komprimierung und ein weiches Bokeh im Hintergrund. Leider wechselt die Kamera-App beim Näherkommen automatisch in den Makromodus, der das Hauptobjektiv nutzt – und das mit etwas zu viel Eifer. Um das Teleobjektiv dennoch für Nahaufnahmen zu verwenden, musste ich in den Expertenmodus wechseln. Der Aufwand hat sich gelohnt: Die Ergebnisse waren hervorragend. Die Ultraweitwinkelkamera ist bei Weitem die schwächste des Trios. Den Bildern fehlt es an Details, sie wirken unscharf und überbearbeitet. Bei Nacht wird es noch schlimmer. Für wichtige Fotos sollten Sie lieber die Hauptkamera verwenden und ein paar Schritte zurückgehen. Auch die Selfie-Kamera ist solide und für gelegentliche Schnappschüsse gänzlich ausreichend. Die Porträt-Effekte wirken hier mittlerweile sehr viel zuverlässiger als bei älteren Smartphones von Nothing. Bei Videoaufnahmen können Sie sowohl mit der Haupt- als auch mit der Telekamera mit bis zu 4K bei 30 Bildern pro Sekunde aufnehmen. Die Ultrawide-Kamera ist auf 1080p und 30 Bilder pro Sekunde beschränkt, während die Selfie-Kamera 1080p mit bis zu 60 Bildern pro Sekunde aufnehmen kann. Erwarten Sie keine Stabilisierung auf Flaggschiff-Niveau, aber das CMF Phone 2 Pro leistet gute Arbeit, insbesondere bei 1080p. Für Social-Media-Beiträge ist die Qualität ausreichend. Akkulaufzeit & Aufladen 5.000 mAh Akku 33 Watt kabelgebundenes Laden Kein Netzteil im Lieferumfang Die Akku- und Ladespezifikationen sind gegenüber dem Vorgängermodell unverändert. Sie erhalten einen großzügigen 5.000-Milliamperestunden-Akku und eine kabelgebundene Ladefunktion mit 33 Watt. Nach Angaben von Nothing soll das CMF Phone 2 Pro jedoch etwa eine Stunde länger durchhalten als sein Vorgänger. Vermutlich ist dies alles auf softwarebasierte Effizienzsteigerungen zurückzuführen. In unserem Standard PCMark Battery Life Test schnitt das CMF Phone 2 Pro sogar noch viel besser ab, es hielt etwa 2 Stunden länger durch als das Vorgängermodell. Wenn ich sparsam war, konnte ich den Akku zwischen den Ladevorgängen zwei Tage lang nutzen. In Wirklichkeit fühlte sich die Akkuleistung bei meiner normalen Nutzung jedoch ungefähr gleich an. An den meisten Tagen bin ich mit einer Restladung von 40 Prozent oder mehr ins Bett gegangen, und wenn ich sparsam war, konnte ich den Akku zwischen den Ladevorgängen zwei Tage lang nutzen. Auf jeden Fall hält der Akku lange genug, um auch exzessive Smartphone-Nutzer bis zum Ende des Tages zu bringen. Luke Baker Wie schon beim Vorgänger ist kein Ladegerät im Lieferumfang enthalten, aber Sie erhalten ein recht hübsches USB-C-Kabel der Marke Nothing. Im Online-Shop von Nothing wird ein 45-Watt-Schnellladegerät für 35 Euro angeboten. Aber das ist meiner Meinung nach ein recht teures Zubehör für ein 250-Euro-Handy. Ich habe mein Ugreen-Nexode-Desktop-Ladegerät für den Test verwendet und festgestellt, dass das Smartphone in einer halben Stunde auf fast 60 Prozent aufgeladen werden kann. Das sind nicht die höchsten Werte, die wir je gemessen haben, aber die Ladegeschwindigkeit ist schnell genug für den Alltag. Software & Apps Nothing OS 3.2, basierend auf Android 15 Wesentlicher Speicherplatz 3 Jahre Android-Updates, 6 Jahre Sicherheitspatches Auf dem CMF Phone 2 Pro läuft Nothing OS 3.2, die neueste angepasste Version von Android 15 von Nothing. Es ist die gleiche Software wie auf den anderen Nothing-Smartphones. Ästhetisch gesehen ist es mit Abstand mein Lieblings-Android-Skin. Natürlich wird ein so stark stilisiertes Betriebssystem nicht jedermanns Geschmack treffen, aber wenn Ihnen die Hardware von Nothing gefällt, können Sie sicher sein, dass Ihnen auch das Aussehen der Software gefallen wird. Ich liebe die Möglichkeit, meine Anwendungen einfarbig zu gestalten, um einen eleganten, minimalistischen Look zu erzielen. Das Beste an dieser Software ist jedoch, dass sie frei von Bloatware ist. Luke Baker Das Beste an dieser Software ist jedoch, dass sie frei von Bloatware ist. Das ist in dieser Preisklasse fast unmöglich zu finden, da die Hersteller ihre Geräte in der Regel mit Apps vollstopfen, um die Hardwarekosten auszugleichen. Aber irgendwie hat es Nothing wieder einmal geschafft, ein Erlebnis zu bieten, das frei von Bloatware ist. Das einzige, was mir an Nothing OS nicht gefällt, ist, dass ich meine Apps nicht in großen Mengen verschieben kann. Nothing ist nicht die einzige Marke, der diese Möglichkeit fehlt. Bei den Google Pixels ist es überraschenderweise genauso, aber das macht die Organisation des Startbildschirms zu einer echten Herausforderung. Nothing könnte in Zukunft ein kostenpflichtiges Abonnement einführen. Luke Baker Neu auf dem CMF Phone 2 Pro ist dieses Mal der Essential Space, der mit der (3a)-Serie eingeführt wurde, sowie die spezielle Hardwaretaste für den Zugriff darauf. Diese Funktion ermöglicht es Ihnen, Screenshots und Sprachnotizen zu sammeln. Anschließend fasst die KI die Inhalte Ihrer Screenshots zusammen, ordnet sie automatisch, erstellt Aufgabenlisten und macht sie durchsuchbar. Das ist eine ziemlich praktische Funktion. Allerdings gibt es einen großen Nachteil. Die Funktion ist nicht plattformübergreifend und es gibt keine Möglichkeit, vom Desktop aus darauf zuzugreifen, sodass Ihre wichtigen Notizen nur auf Ihrem Smartphone verfügbar sind. Für manche mag das keine Rolle spielen, aber für mich ist das ein ziemlicher Minuspunkt. Die Nutzung ist derzeit kostenlos, aber es wird gemunkelt, dass Nothing in Zukunft ein kostenpflichtiges Abonnement einführen könnte. Solange der Funktionsumfang nicht erheblich erweitert wird, kann ich mir das jedoch nicht vorstellen. Luke Baker Der Software-Support wurde ebenfalls erhöht. Nothing verspricht jetzt 3 Jahre lang Android-OS-Updates und 6 Jahre lang Sicherheits-Patches, statt wie bisher 2 beziehungsweise 3 Jahre. Der Support kann vielleicht nicht mit den neuesten Flaggschiff-Geräten mithalten, aber für ein Budget-Handy sind diese Bedingungen sehr wettbewerbsfähig. Preis & Verfügbarkeit Das CMF Phone 2 Pro ist ab sofort über den Online-Shop von Nothing erhältlich. Die 128-Gigabyte-Variante kostet 249 Euro und die 256-Gigabyte-Version 279 Euro. Gratis obendrauf bekommen Sie die CMF Buds 2 in Grün oder Dunkelgrau im Wert von 49,90 Euro. Diese Preise sind identisch mit dem Angebot von Online-Händler Amazon. Hier bekommen Sie die kleinere Version mit 128 Gigabyte und den Gratis-CMF-Buds-2 ebenfalls für 249 Euro. Der Versand erfolgt allerdings erst am 12. Mai 2025. Sollten Sie das CMF Phone 2 Pro kaufen? Ich habe das CMF Phone 1 geliebt und es gehörte seit seiner Markteinführung zu unseren Top-Empfehlungen im Bereich der Budget-Smartphones. Mit dem CMF Phone 2 Pro hat Nothing das gleiche Kernkonzept beibehalten und einfach alles besser gemacht. Es kostet zwar 10 Euro mehr (UVP), aber das ist ein kleiner Preis für ein viel besseres Display, einen schnelleren Prozessor und eine vielseitigere Kameraausstattung. Wenn Sie sich mit dem Design anfreunden können, bekommen Sie für diese Preisklasse ein tolles Gesamtpaket. Wenn Sie Gamer sind und das Budget ein wenig strecken können, ist das leistungsstarke Poco F6 derzeit für 278 Euro eine gute Alternative. Das Samsung Galaxy A16 5G könnte für Sie ebenfalls interessant sein, da es eine erstklassige Softwareunterstützung bietet. Wenn Sie hingegen etwas mit einem schlichteren Design suchen und nicht allzu wählerisch bei Ihren Fotos sind, könnte das Motorola G85 perfekt für Sie sein. Für mich persönlich sind das witzige modulare Design und die schrullige Optik des CMF Phone 2 Pro jedoch ein klares Kaufargument. Technische Daten Nothing OS 3.2, basierend auf Android 15 Display: 6,77-Zoll, 1.080 × 2.392 Pixel, OLED, 120 Hertz Optischer Fingerabdrucksensor im Display MediaTek Dimensity 7300 Pro 8 GB RAM 128/256 GB Speicher Kameras: 50-MP-Hauptsensor 8-MP-Ultraweitwinkel 50-MP-2x-Teleobjektiv 16-MP-Selfie-Kamera Bis zu 4K bei 30 fps Video auf der Rückseite Einzelner Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/ax Bluetooth 5.3 5.000 mAh Akku 33 Watt kabelgebundenes Laden 164 × 78 × 7,8 mm IP54 zertifiziert 185 Gramm Farben: Weiß, Schwarz, Orange, Hellgrün (PC-Welt) 

CMF Phone 2 Pro: Bestes Budget-Smartphone im Test​ Luke Baker

Auf einen Blick

Pro

Mehr und bessere Kameras

Helleres und genaueres Display

Kleiner Leistungssprung

Unterstützung für NFC-Zahlungen

Immer noch ein absolutes Schnäppchen

Kontra

Nur IP54-zertifiziert

Essential Space könnte in Zukunft kostenpflichtig werden

Längerer Software-Support

Fazit

Das CMF Phone 1 war bereits meine Top-Empfehlung unter den Budget-Smartphones 2024. Das CMF Phone 2 Pro bietet noch viel mehr für einen geringfügig höheren Preis. Mit massiven Verbesserungen des Kamerasystems, einem schöneren Display und einem etwas schnelleren Chip ist dieses Schnäppchen kaum zu schlagen.

Das CMF Phone 1 war mein Lieblings-Budget-Smartphone des letzten Jahres und wohl auch mein Lieblings-Budget-Handy aller Zeiten. Es ist ein unglaublich schickes Smartphone mit einem witzigen modularen Design, das normalerweise teuren Flaggschiff-Geräten vorbehalten ist und keinem Budget-Gerät für rund 250 Euro.

Weniger als ein Jahr später ist sein Nachfolger erhältlich. Das CMF Phone 2 Pro bietet alles, was das Original zu einem Hit gemacht hat, und es bringt sogar noch mehr mit. An Bord sind eine bessere Hauptkamera, zwei neue Zusatzlinsen, ein schnellerer Chip, NFC und vieles mehr.

Die Bezeichnung “Pro” deutet darauf hin, dass es auch ein Modell ohne Pro geben könnte. Nothing hat Techadvisor gegenüber jedoch bestätigt, dass es kein günstigeres CMF Phone 2 ohne “Pro”-Zusatz geben wird. Glücklicherweise ist der Preis des neuen Modells nicht sehr angestiegen. Mit einer unverbindlichen Preisempfehlung in Höhe von 249 Euro ist es nur 10 Euro teurer als der Vorgänger zum Launch.

Das CMF Phone 1 war bereits eine klare Empfehlung und alles deutet darauf hin, dass dieses Modell noch besser ist. Ich habe das Smartphone für meinen ausführlichen Test eine Woche lang als mein Haupthandy benutzt. In den folgenden Zeilen erfahren Sie, wie es mir damit ergangen ist.

Nothing ist beim gleichen Kernkonzept geblieben und hat einfach alles besser gemacht.

Design & Aufbau

Unterschiedliche Texturen auf der Rückseite

185 g, Panda Glass

Modular austauschbares Zubehör und Rückseite

Das CMF Phone 2 Pro hat ein ähnliches Design wie sein Vorgänger. Es hat immer noch die gleiche Accessory-Point-Schraube in der unteren rechten Ecke und die gleichen freiliegenden Schrauben an ähnlichen Stellen auf der Rückseite. Das ist gut, denn in puncto Design hat mir das CMF Phone 1 bereits sehr gefallen. Es freut mich, dass Nothing bei diesem Gerät in eine ähnliche Richtung einschlägt.

Sie haben nicht nur mehr Farboptionen zur Auswahl, sondern auch mehr Abwechslung bei der Art und Weise, wie sich jede Rückseite anfühlt.

Luke Baker

Die offensichtlichste Änderung betrifft die Kameras. Die beiden größeren Objektive erhalten ihre eigenen runden Ringe mit Aluminiumeffekt, während das Ultraweitwinkelobjektiv und der Blitz auf einer separaten länglichen Insel sitzen. Es ist keine drastische Änderung, aber sie fällt sofort auf und ist ein deutlicher Hinweis darauf, dass das CMF-Team etwas Arbeit in die Optik gesteckt hat.

Eine weitere große Veränderung betrifft die Oberfläche der Rückseiten. Die Optionen Schwarz und Hellgrün haben eine mattierte, glasartige Oberfläche mit einem Metallrahmen. Die orangefarbene Version hat dagegen einen metallischen Glanz und die weiße Option hat eine “getäfelte Sandsteinoberfläche”.

Sie haben also nicht nur mehr Farboptionen zur Auswahl, sondern auch mehr Abwechslung bei der Haptik der einzelnen Rückseiten. Man könnte meinen, dass es egal ist, für welche man sich entscheidet, da CMF die Rückseiten des Phone 1 separat verkauft wurden, aber das ist hier nicht der Fall.

Stattdessen werden die freiliegenden Schrauben nur zur Befestigung von Zubehör verwendet, was wahrscheinlich auf die neue IP-Einstufung zurückzuführen ist.

Luke Baker

Ich habe das hellgrüne Modell zum Testen bekommen und es fühlt sich einen Hauch hochwertiger an als das mattschwarze CMF Phone 1, das ich zuvor getestet habe.

Es ist zwar immer noch aus Kunststoff, aber das erkennt man nicht so leicht. Die matte Oberfläche des älteren Modells, die gegen Fingerabdrücke resistent war, gefiel mir zwar sehr gut, aber ich hatte das Gefühl, dass sie sich leicht abnutzt. Die neue Oberfläche scheint langlebiger zu sein.

Es fühlt sich einen Hauch hochwertiger an als das mattschwarze CMF Phone 1, das ich zuvor getestet habe.

Die Kappe für den Accessory Point wurde bei diesem Modell abgespeckt und ragt nicht mehr so stark hervor wie beim ursprünglichen CMF Phone. Das macht das Gesamtbild etwas stimmiger. Damit ist es nun jedoch auch schwieriger, die Abdeckung zu entfernen.

Abgesehen von den Abmessungen bleibt der Accessory Point selbst unverändert. Ich konnte das gleiche Schlüsselband-Zubehör mit beiden Modellen problemlos verwenden. Weiteres Zubehör konnte ich leider nicht ausprobieren, aber die Funktionalität ist ähnlich. Anstatt einer Brieftasche und eines Ständers wurden die beiden Zubehörteile kombiniert, und es gibt jetzt eine Brieftasche, die auch als Ständer dienen kann, und natürlich auch das bereits erwähnte Schlüsselband.

Es gibt einige neue Zubehörteile, die in diesem Jahr hinzugekommen sind. Sie können jetzt entweder einen Fischaugen- oder einen Makroobjektivadapter anbringen. Ich habe sie noch nicht ausprobiert, kann also nichts über die Qualität sagen. Das Zubehör-Set könnte eine Überlegung wert sein, wenn Sie Ihren Aufnahmen mehr Abwechslung verleihen möchten und sich etwa das Xiaomi 15 Ultra nicht leisten können.

Es ist erwähnenswert, dass sowohl die Objektive als auch der Ständer das Universal Cover benötigen. Dabei handelt es sich um eine schlanke externe Abdeckung, die aufgeschraubt wird und das Smartphone um ein Objektivgewinde und Magnete im MagSafe-Stil erweitert.

Luke Baker

Angesichts der großen, freiliegenden Schrauben, konnte ich nicht widerstehen, die Rückseite abzunehmen, obwohl Nothing das nicht empfiehlt. Es ist schwieriger als beim Vorgänger, aber sehr viel einfacher als bei anderen Smartphones. Allerdings bin ich mir nicht sicher, ob mein Gerät so wasserdicht ist, wie zuvor, denn der Kleber hat sich dabei etwas abgelöst.

Im Inneren ist der Akku leicht zugänglich – er ist nicht mehr unter einer zusätzlichen Verkleidung abgeschirmt. Der Akku kann nicht im laufenden Betrieb ausgetauscht werden und Sie benötigen immer noch etwas Fachwissen. Der Akkutausch ist hier jedoch wesentlich einfacher als bei herkömmlichen Smartphones.

Der Essential Key, der mit der Nothing-Phone-(3a)-Serie eingeführt wurde, ist nun auch hier verfügbar.

Luke Baker

Das CMF Phone 2 Pro hat die gleiche Tastenanordnung wie der Rest der Nothing-Familie, mit der Lautstärkewippe auf der linken Seite und der Sperrtaste auf der rechten Seite. Dieses Mal bekommen Sie jedoch eine zusätzliche Taste. Den Essential Key, der mit der Phone-(3a)-Serie eingeführt wurde.

Was die Widerstandsfähigkeit betrifft, so habe ich bereits die IP54-Einstufung erwähnt, die eine Verbesserung gegenüber der IP52-Einstufung des Vorgängers darstellt. Sie erhalten außerdem Panda Glass auf dem Bildschirm – eine günstigere Alternative zu Gorilla Glass.

Luke Baker

Es sollte den Bildschirm gut vor Kratzern und Rissen schützen. Das Nothing Phone (3a) verfügt über denselben Schutz. Hier haben sich bei mir jedoch bereits einige leichte Kratzer eingeschlichen. Wenn Sie auf Nummer sicher gehen möchten, sollten Sie eine einfache Schutzfolie anbringen. Außerdem erhalten Sie eine einfache, transparente TPU-Hülle für zusätzlichen Schutz im Lieferumfang.

Bildschirm & Lautsprecher

6,77-Zoll, 1.080 × 2.392 Pixel, OLED, 120 Hertz

3.000 Nits Spitzenhelligkeit

Nur ein Lautsprecher

Das CMF Phone 2 Pro hat einen geringfügig größeren Bildschirm als sein Vorgänger. Das Display eignet sich ausgezeichnet zum Spielen sowie für andere Medieninhalte.

Es gibt zwei wesentliche Unterschiede, die dieses Gerät zu einer Verbesserung gegenüber dem älteren Modell machen. Der erste ist, dass es jetzt 10-Bit-Farben unterstützt und nicht mehr nur 8-Bit. Das macht einen großen Unterschied, nicht nur bei der Farbgenauigkeit, sondern reduziert auch das Auftreten von Farbstreifen bei der Anzeige von Farbverläufen drastisch.

Die zweite Änderung besteht darin, dass der Bildschirm jetzt heller ist und eine Spitzenhelligkeit von bis zu 3.000 Nits bietet, während das ältere Modell maximal 2.000 Nits schaffte.

Einer der besten Bildschirme in dieser Preisklasse.

Luke Baker

Das Display des Vorgängers hat mir ebenfalls sehr gut gefallen, aber wenn man sich die beiden Modelle nebeneinander ansieht, ist die Verbesserung deutlich zu erkennen. Das Display im CMF Phone 2 Pro ist eines der Besten in dieser Preisklasse.

Das Display ist flach, aber es gibt jetzt eine dezente Abschrägung an den Rändern. Darüber freue ich mich ganz besonders, denn das CMF Phone 1 hatte eine winzige erhöhte Lippe am Rand. Es handelt sich um eine winzige Änderung, aber es ist eine Veränderung zum Besseren. Die Gestensteuerung fühlt sich damit viel geschmeidiger an, wenn Sie vom Rand aus wischen.

Luke Baker

An der Audio-Ausstattung hat sich jedoch leider nichts verbessert. Sie haben immer noch nur einen einzigen Lautsprecher, es gibt also keinen Stereoeffekt. Und obwohl der Klang sehr klar ist, fehlt es ihm an Bässen. Er ist bei weitem nicht der schlechteste Lautsprecher auf dem Markt, aber machen Sie sich keine allzu großen Hoffnungen.

Spezifikationen & Leistung

MediaTek Dimensity 7300 Pro

8 GB RAM

256 GB Speicher

Das CMF Phone 2 Pro läuft mit einer verbesserten Version des 4-Nanometer-Chips, der auch das Phone 1 angetrieben hat. Laut Nothing können Sie eine 10 Prozent schnellere Verarbeitung und 5 Prozent mehr Grafikleistung erwarten.

Das Smartphone verfügt über 8 Gigabyte Arbeitsspeicher, und Sie können aus 128 oder 256 Gigabyte internem Speicher wählen. Ich habe die Version mit 256 Gigabyte getestet. Es gibt außerdem einen Steckplatz für microSD-Karten, über den Sie den internen Speicher um bis zu 2 Terabyte erweitern können.

Die Spielleistung wurde geringfügig verbessert. Einen wirklichen Unterschied macht das aber nicht.

Luke Baker

Während sich die Performance von CMF Phone 1 und CMF Phone 2 Pro in der Praxis kaum unterscheidet, sind die Verbesserungen in den Benchmarks deutlicher. Die Spieleleistung hat sich leicht verbessert. Das macht aber keinen wirklichen Unterschied

Genau wie beim Vorgängermodell war die Leistung im Alltag vollkommen ausreichend. Das Smartphone fühlt sich nie langsam an, auch nicht beim Multitasking. Lediglich bei der Durchführung einer systemweiten Suche spüren Sie den Unterschied zu einem höherwertigen Chip. Es dauert einfach einen Moment länger, bis die Ergebnisse angezeigt werden.

Luke Baker

Bei weniger grafikintensiven Titeln ist die Leistung großartig. Bei “Genshin Impact” müssen Sie jedoch die niedrigste Voreinstellung verwenden, um stabile 30 Bilder pro Sekunde zu erhalten. Dennoch ist es beeindruckend, dass auf einem so günstigen Smartphone ein so anspruchsvolles Spiel überhaupt läuft, ohne dass das Gehäuse zu heiß wird.

Eine weitere große Neuerung des CMF Phone 2 Pro ist die Unterstützung von NFC, sodass Sie mit Google Pay kontaktlos bezahlen können. Der fehlende NFC-Support war einer der großen Nachteile des CMF Phone 1.

Rechenleistung

Kameras

50 MP f/1,88 Hauptkamera

50 MP f/1,85 2x Teleobjektiv

8 MP f/2,2 Ultraweitwinkel

16 MP f/2.45 Selfie-Kamera

Das Kamerasystem ist wohl das größte Upgrade des CMF Phone 2 Pro. Vergangenes Jahr bekamen wir nur eine brauchbare Linse auf der Rückseite, zusammen mit einem Tiefensensor, der hauptsächlich aus ästhetischen Gründen zu existieren schien.

Jetzt gibt es drei Kameras: Eine 50-Megapixel-Hauptkamera, eine 8-Megapixel-Ultraweitwinkelkamera und eine 50-Megapixel-Zweifach-Telekamera.

Luke Baker

Es wurden nicht nur zusätzliche Kameras ergänzt, sondern auch die Hauptkamera deutlich aufgewertet. Sie ist jetzt mit einem 1/1,56-Zoll-Sensor ausgestattet – einem der größten in dieser Preisklasse. Dadurch kann sie bei schlechten Lichtverhältnissen mehr Details erfassen und bei Nahaufnahmen ein natürliches Bokeh erzeugen. Zudem bietet die Hauptkamera einen Makro-Modus für besonders detailreiche Aufnahmen aus nächster Nähe.

Das Teleobjektiv ist fast genauso beeindruckend. Es ist das Standardobjektiv, wenn Sie in den Porträtmodus wechseln. Zweifacher Zoom ist zwar nicht sonderlich viel, aber damit können Sie Ihren Aufnahmen eine andere Perspektive ohne Weitwinkel-Verzerrungen verleihen.

Sie haben auch die Möglichkeit, im Porträtmodus digital vierfach und sechsfach heranzuzoomen. Das ist eine unerwartete und nützliche Ergänzung – allerdings mit leichten Qualitätseinbußen. Ich konnte mit dem sechsfachen Zoom brauchbare Ergebnisse erzielen. Zoomen Sie weiter heran, wird aus den Fotos jedoch schnell ein Pixelbrei. Angesichts des Preises sind die Ergebnisse jedoch solide.

Besonders beeindruckt haben mich die Nahaufnahmen mit dem Teleobjektiv. Durch die längere Brennweite entsteht eine angenehme Komprimierung und ein weiches Bokeh im Hintergrund. Leider wechselt die Kamera-App beim Näherkommen automatisch in den Makromodus, der das Hauptobjektiv nutzt – und das mit etwas zu viel Eifer.

Um das Teleobjektiv dennoch für Nahaufnahmen zu verwenden, musste ich in den Expertenmodus wechseln. Der Aufwand hat sich gelohnt: Die Ergebnisse waren hervorragend.

Die Ultraweitwinkelkamera ist bei Weitem die schwächste des Trios. Den Bildern fehlt es an Details, sie wirken unscharf und überbearbeitet. Bei Nacht wird es noch schlimmer. Für wichtige Fotos sollten Sie lieber die Hauptkamera verwenden und ein paar Schritte zurückgehen.

Auch die Selfie-Kamera ist solide und für gelegentliche Schnappschüsse gänzlich ausreichend. Die Porträt-Effekte wirken hier mittlerweile sehr viel zuverlässiger als bei älteren Smartphones von Nothing.

Bei Videoaufnahmen können Sie sowohl mit der Haupt- als auch mit der Telekamera mit bis zu 4K bei 30 Bildern pro Sekunde aufnehmen. Die Ultrawide-Kamera ist auf 1080p und 30 Bilder pro Sekunde beschränkt, während die Selfie-Kamera 1080p mit bis zu 60 Bildern pro Sekunde aufnehmen kann.

Erwarten Sie keine Stabilisierung auf Flaggschiff-Niveau, aber das CMF Phone 2 Pro leistet gute Arbeit, insbesondere bei 1080p. Für Social-Media-Beiträge ist die Qualität ausreichend.

Akkulaufzeit & Aufladen

5.000 mAh Akku

33 Watt kabelgebundenes Laden

Kein Netzteil im Lieferumfang

Die Akku- und Ladespezifikationen sind gegenüber dem Vorgängermodell unverändert. Sie erhalten einen großzügigen 5.000-Milliamperestunden-Akku und eine kabelgebundene Ladefunktion mit 33 Watt. Nach Angaben von Nothing soll das CMF Phone 2 Pro jedoch etwa eine Stunde länger durchhalten als sein Vorgänger.

Vermutlich ist dies alles auf softwarebasierte Effizienzsteigerungen zurückzuführen. In unserem Standard PCMark Battery Life Test schnitt das CMF Phone 2 Pro sogar noch viel besser ab, es hielt etwa 2 Stunden länger durch als das Vorgängermodell.

Wenn ich sparsam war, konnte ich den Akku zwischen den Ladevorgängen zwei Tage lang nutzen.

In Wirklichkeit fühlte sich die Akkuleistung bei meiner normalen Nutzung jedoch ungefähr gleich an. An den meisten Tagen bin ich mit einer Restladung von 40 Prozent oder mehr ins Bett gegangen, und wenn ich sparsam war, konnte ich den Akku zwischen den Ladevorgängen zwei Tage lang nutzen. Auf jeden Fall hält der Akku lange genug, um auch exzessive Smartphone-Nutzer bis zum Ende des Tages zu bringen.

Luke Baker

Wie schon beim Vorgänger ist kein Ladegerät im Lieferumfang enthalten, aber Sie erhalten ein recht hübsches USB-C-Kabel der Marke Nothing. Im Online-Shop von Nothing wird ein 45-Watt-Schnellladegerät für 35 Euro angeboten. Aber das ist meiner Meinung nach ein recht teures Zubehör für ein 250-Euro-Handy.

Ich habe mein Ugreen-Nexode-Desktop-Ladegerät für den Test verwendet und festgestellt, dass das Smartphone in einer halben Stunde auf fast 60 Prozent aufgeladen werden kann. Das sind nicht die höchsten Werte, die wir je gemessen haben, aber die Ladegeschwindigkeit ist schnell genug für den Alltag.

Software & Apps

Nothing OS 3.2, basierend auf Android 15

Wesentlicher Speicherplatz

3 Jahre Android-Updates, 6 Jahre Sicherheitspatches

Auf dem CMF Phone 2 Pro läuft Nothing OS 3.2, die neueste angepasste Version von Android 15 von Nothing. Es ist die gleiche Software wie auf den anderen Nothing-Smartphones. Ästhetisch gesehen ist es mit Abstand mein Lieblings-Android-Skin.

Natürlich wird ein so stark stilisiertes Betriebssystem nicht jedermanns Geschmack treffen, aber wenn Ihnen die Hardware von Nothing gefällt, können Sie sicher sein, dass Ihnen auch das Aussehen der Software gefallen wird. Ich liebe die Möglichkeit, meine Anwendungen einfarbig zu gestalten, um einen eleganten, minimalistischen Look zu erzielen.

Das Beste an dieser Software ist jedoch, dass sie frei von Bloatware ist.

Luke Baker

Das Beste an dieser Software ist jedoch, dass sie frei von Bloatware ist. Das ist in dieser Preisklasse fast unmöglich zu finden, da die Hersteller ihre Geräte in der Regel mit Apps vollstopfen, um die Hardwarekosten auszugleichen. Aber irgendwie hat es Nothing wieder einmal geschafft, ein Erlebnis zu bieten, das frei von Bloatware ist.

Das einzige, was mir an Nothing OS nicht gefällt, ist, dass ich meine Apps nicht in großen Mengen verschieben kann. Nothing ist nicht die einzige Marke, der diese Möglichkeit fehlt. Bei den Google Pixels ist es überraschenderweise genauso, aber das macht die Organisation des Startbildschirms zu einer echten Herausforderung.

Nothing könnte in Zukunft ein kostenpflichtiges Abonnement einführen.

Luke Baker

Neu auf dem CMF Phone 2 Pro ist dieses Mal der Essential Space, der mit der (3a)-Serie eingeführt wurde, sowie die spezielle Hardwaretaste für den Zugriff darauf. Diese Funktion ermöglicht es Ihnen, Screenshots und Sprachnotizen zu sammeln. Anschließend fasst die KI die Inhalte Ihrer Screenshots zusammen, ordnet sie automatisch, erstellt Aufgabenlisten und macht sie durchsuchbar.

Das ist eine ziemlich praktische Funktion. Allerdings gibt es einen großen Nachteil. Die Funktion ist nicht plattformübergreifend und es gibt keine Möglichkeit, vom Desktop aus darauf zuzugreifen, sodass Ihre wichtigen Notizen nur auf Ihrem Smartphone verfügbar sind. Für manche mag das keine Rolle spielen, aber für mich ist das ein ziemlicher Minuspunkt.

Die Nutzung ist derzeit kostenlos, aber es wird gemunkelt, dass Nothing in Zukunft ein kostenpflichtiges Abonnement einführen könnte. Solange der Funktionsumfang nicht erheblich erweitert wird, kann ich mir das jedoch nicht vorstellen.

Luke Baker

Der Software-Support wurde ebenfalls erhöht. Nothing verspricht jetzt 3 Jahre lang Android-OS-Updates und 6 Jahre lang Sicherheits-Patches, statt wie bisher 2 beziehungsweise 3 Jahre. Der Support kann vielleicht nicht mit den neuesten Flaggschiff-Geräten mithalten, aber für ein Budget-Handy sind diese Bedingungen sehr wettbewerbsfähig.

Preis & Verfügbarkeit

Das CMF Phone 2 Pro ist ab sofort über den Online-Shop von Nothing erhältlich. Die 128-Gigabyte-Variante kostet 249 Euro und die 256-Gigabyte-Version 279 Euro. Gratis obendrauf bekommen Sie die CMF Buds 2 in Grün oder Dunkelgrau im Wert von 49,90 Euro.

Diese Preise sind identisch mit dem Angebot von Online-Händler Amazon. Hier bekommen Sie die kleinere Version mit 128 Gigabyte und den Gratis-CMF-Buds-2 ebenfalls für 249 Euro. Der Versand erfolgt allerdings erst am 12. Mai 2025.

Sollten Sie das CMF Phone 2 Pro kaufen?

Ich habe das CMF Phone 1 geliebt und es gehörte seit seiner Markteinführung zu unseren Top-Empfehlungen im Bereich der Budget-Smartphones. Mit dem CMF Phone 2 Pro hat Nothing das gleiche Kernkonzept beibehalten und einfach alles besser gemacht.

Es kostet zwar 10 Euro mehr (UVP), aber das ist ein kleiner Preis für ein viel besseres Display, einen schnelleren Prozessor und eine vielseitigere Kameraausstattung. Wenn Sie sich mit dem Design anfreunden können, bekommen Sie für diese Preisklasse ein tolles Gesamtpaket.

Wenn Sie Gamer sind und das Budget ein wenig strecken können, ist das leistungsstarke Poco F6 derzeit für 278 Euro eine gute Alternative. Das Samsung Galaxy A16 5G könnte für Sie ebenfalls interessant sein, da es eine erstklassige Softwareunterstützung bietet. Wenn Sie hingegen etwas mit einem schlichteren Design suchen und nicht allzu wählerisch bei Ihren Fotos sind, könnte das Motorola G85 perfekt für Sie sein.

Für mich persönlich sind das witzige modulare Design und die schrullige Optik des CMF Phone 2 Pro jedoch ein klares Kaufargument.

Technische Daten

Nothing OS 3.2, basierend auf Android 15

Display: 6,77-Zoll, 1.080 × 2.392 Pixel, OLED, 120 Hertz

Optischer Fingerabdrucksensor im Display

MediaTek Dimensity 7300 Pro

8 GB RAM

128/256 GB Speicher

Kameras:

50-MP-Hauptsensor

8-MP-Ultraweitwinkel

50-MP-2x-Teleobjektiv

16-MP-Selfie-Kamera

Bis zu 4K bei 30 fps Video auf der Rückseite

Einzelner Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/ax

Bluetooth 5.3

5.000 mAh Akku

33 Watt kabelgebundenes Laden

164 × 78 × 7,8 mm

IP54 zertifiziert

185 Gramm

Farben: Weiß, Schwarz, Orange, Hellgrün

(PC-Welt)

CMF Phone 2 Pro: Bestes Budget-Smartphone im Test​ Weiterlesen »

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​

Allgemein

Thomas Rau Auf einen Blick Pro viele Anschlüsse sehr ordentliche Rechenleistung Tastatur mit Nummernblock 5G, Smartcard-Leser als optionale Ausstattung Kontra geringe Display-Auflösung mäßige Farbdarstellung Lüfter häufig aktiv nicht besonders leicht Fazit Auch unter neuem Namen zeigt das Business-Notebook von Dell im Test die bekannten Kernkompetenzen: Das Pro 16 Plus ist ein rundum solide verarbeiteter, zuverlässiger Business-Laptop. Der neue Lunar-Lake-Prozessor macht den Copilot+PC KI- und damit zukunftstauglich.Bei Rechenleistung, Akkulaufzeit und Bildqualität schneidet das Notebook ordentlich ab, ragt aber in keiner Disziplin heraus. Das macht ihn zum Allrounder für den Business-Einsatz besonders in größeren Unternehmen, auf die das Pro 16 Plus bei Ausstattung und Reparaturfähigkeit zugeschnitten ist. Vor allem, wer bei der Büroarbeit eine große Bildschirmfläche für Excel-Tabellen und Powerpoint-Präsentationen benötigt, darf beim 16-Zoll-Notebooks zugreifen. Mit dem Pro 16 Plus läutet Dell eine neue Ära bei seinen Notebooks ein: Verschwunden sind die bekannten Markennamen XPS, Inspiron, Latitude und Precision. Ab jetzt heißen die Laptops für Privatanwender Dell, die Business-Geräte Dell Pro und die High-End- und Workstation-Varianten Dell Pro Max. Innerhalb der jeweiligen Serien gibt es die Ausstattungsstufen Base, Plus und Premium. Das Dell Pro 16 Plus lässt sich somit als Business-Notebook der oberen Mittelklasse und als Nachfolger der Latitude-7000er-Serie einordnen. Beim Gehäusedesign hat sich wenig getan: Gegenüber dem Vorgänger 7650 bekommt das Pro 16 Plus eine breitere Tastatur inklusive Nummernblock. Das hellgraue Aluminiumgehäuse versprüht statt Chefetagen-Chic die businesskonforme Eleganz eines Großraumbüros. Aber genau dort soll das Pro 16 Plus seinen Platz finden als produktive Arbeitsmaschine mit großem Display und einem Prozessor aus Intels Lunar-Lake-Generation: Diese Kombination ist bei Copilot+PCs noch recht einzigartig. Denn die sparsamen und recheneffizienten Intel-Prozessoren werden bislang vor allem in ultramobilen 13- und 14-Zoll-Laptops eingesetzt – in 16-Zoll-Modellen sind sie noch selten. Das Pro 16 Plus sitzt in einem stabil verarbeiteten Aluminium-Gehäuse.Thomas Rau Wie bei Dell üblich, gibt es das Pro 16 Plus in zahlreichen Ausstattungsvarianten, deren Preise bei rund 1600 Euro beginnen. Das Testgerät mit Intel Core Ultra 7 268V, 32B RAM, 1-TB-SSD und 16-Zoll-Bildschirm mit FHD+ kostet rund 2350 Euro. Der Prozessor bietet gegenüber dem vor allem in Consumer-Notebooks häufig zu findenden Core Ultra 7 258V einen etwas höheren Turbo-Takt sowie eine minimal schnellere NPU und CPU-Grafik. Wichtiger fürs Dell Pro ist, dass er Intels vPro-Technik unterstützt, womit sich das Notebook im Unternehmen leichter administrieren und besser schützen lässt. Rechenleistung Leistungstests zeigen keinen Unterschied zwischen dem 268V und einem 258V mit der gleichen mittleren Leistungsaufnahme von 25 Watt. Minimal schneller ist das Dell-Notebook lediglich im Vergleich zu Lunar-Lake-Laptops, in denen ein 258V nur rund 20 Watt verbrauchen darf – aber auch dann nur bei CPU-lastigen Aufgaben wie Rendering oder Fotobearbeitung. Insgesamt bietet das Dell Pro ein ausgewogenes Rechentempo bei allen business-relevanten Anwendungen: Im PC Mark 10 ist es ähnlich leistungsstark wie Notebooks mit dem deutlich leistungshungrigerem Core Ultra 7 155H aus der Meteor-Lake-Generation, hat aber aufgrund der verbesserten internen GPU Arc 140V Vorteile bei grafiklastigen Rendering- und Videoschnitt-Programmen. Im System-Benchmark Crossmark hängt es Notebooks mit einem Prozessor aus der Vorgängergeneration um rund 15 Prozent ab. Beim Vergleich mit ARM-Notebooks, die einen Snapdragon X Elite einsetzen, zeigt das Dell Pro das gleiche Verhalten wie alle Lunar-Lake-Laptops: Bei hoher CPU-Last ist es dem Qualcomm-Prozessor klar unterlegen, benötigt ein Programm nur wenige Kerne, liegt es vorne. Am deutlichsten erweist sich das im beliebten, aber wenig praxisnahem Prozessor-Benchmark Cinebench R24: Beim Multi-Core-Test fehlen dem Dell Pro 16 Plus rund 20 Prozent auf Notebooks mit dem Snapdragon X Elite E78, beim Single-Core-Test ist es genau andersherum. In der Praxis fällt dieser Unterschied vor allem bei Office-Tests auf, wo das Dell Pro stärker bei Word, aber schwächer bei Excel ist: Insgesamt liegen Snapdragon und Lunar Lake beim Büroeinsatz aber gleichauf. Gleiches gilt für die Recheneffizienz, wo beide Konkurrenten rund 23 Cinebench-Punkte pro Watt erreichen: Die Snapdragon-Notebooks mit X Elite sind schneller, verbrauchen aber minimal mehr, bei Lunar-Lake-Laptops ist es umgekehrt. Als Copilot+PC erfüllt das Dell Pro 16 Plus dank der NPU des Intel-Prozessors die KI-Vorgaben von Microsoft. Im KI-Benchmark Procyon AI Computer Vision schneidet es aber etwas schlechter ab als die meisten anderen KI-Notebooks mit Lunar Lake oder Snapdragon-Prozessor. Anschlüsse rechts: Micro-SD-Leser, SIM-Karten-Einschub, Audio, USB Typ-A, Sicherheitsschloss.Thomas Rau Betriebsgeräusch Im Arbeitsalltag mit dem Dell Pro fällt störend auf, dass der Lüfter oft aktiv ist – selbst, wenn nur geringe Rechenleistung gefordert ist. Zwar bleibt das Betriebsgeräusch unter Last gemessen etwas niedriger als bei anderen Notebooks mit Lunar Lake. Die sind aber häufig ganz still, während das Dell fast immer hörbar arbeitet und damit in einer sehr ruhigen Arbeitsumgebung auffällt. Ausstattung Das große Dell Pro 16 Plus bietet viele Anschlüsse wie Thunderbolt 4, USB Typ-A, Micro-SD-Kartenleser und HDMI-Ausgang – optimal für ein Schreibtisch-Gerät, da sich so viele Peripheriegeräte ohne Adapter oder Docking-Station nutzen lassen. Ein Ethernet-Port fehlt, dafür gibt es WLAN mit dem aktuellen Standard Wi-Fi 7. Optional lässt sich das Dell-Notebook mit einem Smartcard-Leser und einem 5G-Modem inklusive Nano-SIM-Einschub ausstatten. Die Kamera löst mit 1440p auf und eignet sich daher sehr gut für Video-Meetings. Die Linse können Sie mit einer mechanischen Abdeckung im Displaydeckel verschließen. Zudem arbeitet die Kamera mit einem Näherungssensor, um den Sperrbildschirm zu aktivieren, wenn Sie sich vom Notebook entfernen und die Displayhelligkeit zu reduzieren, wenn Sie nicht auf den Bildschirm schauen. Servicetechniker erleichtert Dell das Reparieren: Die acht Gehäuseschrauben sind verliersicher und fallen daher nicht sofort heraus, wenn Sie sie aufdrehen. Zudem besitzt das Pro 16 Plus laut Dell als erstes Notebook modulare Typ-C-Ports: Sie sind verschraubt statt verlötet und lassen sich deswegen einfacher ersetzen. Selbst sollten Sie das aber nicht probieren, denn dazu muss die Platine ausgebaut werden, weil sich die Schrauben der USB-C-Module auf deren Unterseite befinden. Anschlüsse links: HDMI, USB Typ-C, Typ-C mit Thunderbolt 4.Thomas Rau Akkulaufzeit Mit einem Gewicht von knapp unter zwei Kilogramm, gehört das Notebook nicht zu den leichtesten 16-Zoll-Modellen. Trotzdem lässt es sich auf kürzeren Strecken bequem transportieren – zum Beispiel zwischen Wohnung und Büro oder innerhalb des Unternehmens. Die Akkulaufzeit geht in Ordnung: Im WLAN-Test erreicht das Dell-Notebook eine Laufzeit von über 14 Stunden, im Office-Einsatz sind es 12 Stunden. Mit einem größeren Akku würde die Ausdauer noch deutlich besser ausfallen, da das Pro 16 mit einer Leistungsaufnahme von unter vier Watt im Akkubetrieb sehr sparsam arbeitet – vor allem, weil es ein LCD-Display statt OLED nutzt. Doch sein Akku fasst nur 55 Wattstunden, mit größerem Akku laufen Lunar-Lake-Laptops zwei bis vier Stunden länger. Das passt aber zum Einsatzzweck des 16-Zöllers: Er ist für den gelegentlichen Akkubetrieb gedacht, nicht als ultramobiler Laptop, mit dem Sie einen ganzen Tag unterwegs arbeiten. Mit Standardeinstellungen lädt das Notebook sehr gemächlich: Nach einer Stunde an der Steckdose ist es nur zu 51 Prozent geladen – das wiederum verlängert die Lebensdauer des Akkus. Bequem austauschen lassen sich beim Dell-Notebook SSD und WLAN-Karte sowie das Mobilfunk-Modem links.Thomas Rau Display Beim Bildschirm können Sie zwischen Displayvarianten mit und ohne Touchscreen wählen und bei der Auflösung zwischen FHD+ und QHD+. Die Auflösung des Testmodells beträgt 1920 x 1200 und ist damit sinnvoll für den Büroalltag. Ebenso alltagstauglich für den Einsatz am Schreibtisch sind die Messergebnisse bei Helligkeit, Kontrast und Ausleuchtung – die Werte sind nicht überragend, aber absolut in Ordnung für Word, Excel und Powerpoint. Das Dell Pro 16 Plus ist aber kein Laptop, den Sie sich wegen der Bildqualität kaufen sollten. Denn die mäßige Farbwiedergabe mit geringer Farbraumabdeckung und Farbtreue disqualifiziert es für ambitionierte Foto- oder Videobearbeitung. Andere Laptops mit LCD bieten eine höhere Maximalhelligkeit und lassen sich daher unter verschiedenen Lichtbedingungen flexibler nutzen. Der Vorteil beim Dell-Notebook ist dafür seine entspiegelte Bildschirmoberfläche. Bedienung Der Nummernblock rechts in der Tastatur erleichtert die schnelle Eingabe von Zahlen und dürfte daher Excel-Arbeiter begeistern – zumal diese Tasten fast genauso groß sind wie in der Haupt-Tastatur. Beim Layout fällt die zweizeilige, aber schmale Enter-Taste auf, die Pfeiltasten sind nicht abgesetzt. Auf der Tastatur lässt sich angenehm tippen, denn sie ist sehr stabil eingebaut, die Tasten verfügen über einen klaren Druckpunkt und einen guten Hub. Besonders leise ist sie aber nicht. Auch das große Touchpad gibt eine deutlich spürbare Klick-Rückmeldung, auf der rechten Seite fühlt es sich aber etwas schwammig an. Testergebnisse und technische Daten Dell Pro 16 Plus (PB16250): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen96 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen88 Punkte (von 100)Leistung 3D Mark100 Punkte (von 100)PC Mark 10  6950 PunktePC Mark 10 Applications Benchmark Office13729 PunkteProcyon Office Productivity Test5344 PunkteCrossmark1826 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)579 / 126 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1551 Punkte3D Mark: Night Raid / Steel Nomad36720 / 581 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast342 / 87% / 1240:1Abdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P367 / 51 / 51Farbabweichung (Delta-E)2,22Akkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test14:14 / 12:00Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last41 dB(A)Temperatur Oberseite / Unterseite36 / 37 Grad Dell Pro 16 Plus (PB16250): Ausstattung ProzessorIntel Core Ultra 7 268VTaktrateStandard-Takt: 2,20 (Turbo-Takt: 5 GHz P-Cores; 3,7 GHz E-Cores)Kerne / Threads8 / 8 (4 P-Cores + 4 E-Cores)RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteIntel Arc Graphics 140VLaufwerkNVMe-SSD SK Hynix PVC10 (PCIe 4.0 x 4)nutzbare Kapazität950,88 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Intel BE201) / 5.4BetriebssystemWindows 11 Pro 24H2Display: Diagonale / Auflösung / Format16 Zoll / 1920 x 1200 / 16:10Display entspiegelt / Touchscreenja / neinPunktdichte / Wiederholrate142 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil1944 / 296 GrammAkku: Kapazität55 WhAnschlüsse rechts1x HDMI 2.1, Typ-A USB 3.2 Gen 1, 1x Audio (Mini-Klinke), 1x Kartenleser (Micro-SD), 1x Einschub SIM-Karte (Nano-SIM), 1x SicherheitsschlossAnschlüsse links2x Typ-C Thunderbolt 4, 1x Typ-A USB 3.2 Gen 1Anschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Abdeckung, Windows Hello; Fingersensor (im Einschaltknopf), Netzteil (65 Watt, Typ-C-Anschluss) (PC-Welt) 

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​ Thomas Rau

Auf einen Blick

Pro

viele Anschlüsse

sehr ordentliche Rechenleistung

Tastatur mit Nummernblock

5G, Smartcard-Leser als optionale Ausstattung

Kontra

geringe Display-Auflösung

mäßige Farbdarstellung

Lüfter häufig aktiv

nicht besonders leicht

Fazit

Auch unter neuem Namen zeigt das Business-Notebook von Dell im Test die bekannten Kernkompetenzen: Das Pro 16 Plus ist ein rundum solide verarbeiteter, zuverlässiger Business-Laptop. Der neue Lunar-Lake-Prozessor macht den Copilot+PC KI- und damit zukunftstauglich.Bei Rechenleistung, Akkulaufzeit und Bildqualität schneidet das Notebook ordentlich ab, ragt aber in keiner Disziplin heraus. Das macht ihn zum Allrounder für den Business-Einsatz besonders in größeren Unternehmen, auf die das Pro 16 Plus bei Ausstattung und Reparaturfähigkeit zugeschnitten ist. Vor allem, wer bei der Büroarbeit eine große Bildschirmfläche für Excel-Tabellen und Powerpoint-Präsentationen benötigt, darf beim 16-Zoll-Notebooks zugreifen.

Mit dem Pro 16 Plus läutet Dell eine neue Ära bei seinen Notebooks ein: Verschwunden sind die bekannten Markennamen XPS, Inspiron, Latitude und Precision. Ab jetzt heißen die Laptops für Privatanwender Dell, die Business-Geräte Dell Pro und die High-End- und Workstation-Varianten Dell Pro Max. Innerhalb der jeweiligen Serien gibt es die Ausstattungsstufen Base, Plus und Premium.

Das Dell Pro 16 Plus lässt sich somit als Business-Notebook der oberen Mittelklasse und als Nachfolger der Latitude-7000er-Serie einordnen. Beim Gehäusedesign hat sich wenig getan: Gegenüber dem Vorgänger 7650 bekommt das Pro 16 Plus eine breitere Tastatur inklusive Nummernblock. Das hellgraue Aluminiumgehäuse versprüht statt Chefetagen-Chic die businesskonforme Eleganz eines Großraumbüros.

Aber genau dort soll das Pro 16 Plus seinen Platz finden als produktive Arbeitsmaschine mit großem Display und einem Prozessor aus Intels Lunar-Lake-Generation: Diese Kombination ist bei Copilot+PCs noch recht einzigartig. Denn die sparsamen und recheneffizienten Intel-Prozessoren werden bislang vor allem in ultramobilen 13- und 14-Zoll-Laptops eingesetzt – in 16-Zoll-Modellen sind sie noch selten.

Das Pro 16 Plus sitzt in einem stabil verarbeiteten Aluminium-Gehäuse.Thomas Rau

Wie bei Dell üblich, gibt es das Pro 16 Plus in zahlreichen Ausstattungsvarianten, deren Preise bei rund 1600 Euro beginnen. Das Testgerät mit Intel Core Ultra 7 268V, 32B RAM, 1-TB-SSD und 16-Zoll-Bildschirm mit FHD+ kostet rund 2350 Euro.

Der Prozessor bietet gegenüber dem vor allem in Consumer-Notebooks häufig zu findenden Core Ultra 7 258V einen etwas höheren Turbo-Takt sowie eine minimal schnellere NPU und CPU-Grafik. Wichtiger fürs Dell Pro ist, dass er Intels vPro-Technik unterstützt, womit sich das Notebook im Unternehmen leichter administrieren und besser schützen lässt.

Rechenleistung

Leistungstests zeigen keinen Unterschied zwischen dem 268V und einem 258V mit der gleichen mittleren Leistungsaufnahme von 25 Watt. Minimal schneller ist das Dell-Notebook lediglich im Vergleich zu Lunar-Lake-Laptops, in denen ein 258V nur rund 20 Watt verbrauchen darf – aber auch dann nur bei CPU-lastigen Aufgaben wie Rendering oder Fotobearbeitung.

Insgesamt bietet das Dell Pro ein ausgewogenes Rechentempo bei allen business-relevanten Anwendungen: Im PC Mark 10 ist es ähnlich leistungsstark wie Notebooks mit dem deutlich leistungshungrigerem Core Ultra 7 155H aus der Meteor-Lake-Generation, hat aber aufgrund der verbesserten internen GPU Arc 140V Vorteile bei grafiklastigen Rendering- und Videoschnitt-Programmen. Im System-Benchmark Crossmark hängt es Notebooks mit einem Prozessor aus der Vorgängergeneration um rund 15 Prozent ab.

Beim Vergleich mit ARM-Notebooks, die einen Snapdragon X Elite einsetzen, zeigt das Dell Pro das gleiche Verhalten wie alle Lunar-Lake-Laptops: Bei hoher CPU-Last ist es dem Qualcomm-Prozessor klar unterlegen, benötigt ein Programm nur wenige Kerne, liegt es vorne.

Am deutlichsten erweist sich das im beliebten, aber wenig praxisnahem Prozessor-Benchmark Cinebench R24: Beim Multi-Core-Test fehlen dem Dell Pro 16 Plus rund 20 Prozent auf Notebooks mit dem Snapdragon X Elite E78, beim Single-Core-Test ist es genau andersherum.

In der Praxis fällt dieser Unterschied vor allem bei Office-Tests auf, wo das Dell Pro stärker bei Word, aber schwächer bei Excel ist: Insgesamt liegen Snapdragon und Lunar Lake beim Büroeinsatz aber gleichauf.

Gleiches gilt für die Recheneffizienz, wo beide Konkurrenten rund 23 Cinebench-Punkte pro Watt erreichen: Die Snapdragon-Notebooks mit X Elite sind schneller, verbrauchen aber minimal mehr, bei Lunar-Lake-Laptops ist es umgekehrt.

Als Copilot+PC erfüllt das Dell Pro 16 Plus dank der NPU des Intel-Prozessors die KI-Vorgaben von Microsoft. Im KI-Benchmark Procyon AI Computer Vision schneidet es aber etwas schlechter ab als die meisten anderen KI-Notebooks mit Lunar Lake oder Snapdragon-Prozessor.

Anschlüsse rechts: Micro-SD-Leser, SIM-Karten-Einschub, Audio, USB Typ-A, Sicherheitsschloss.Thomas Rau

Betriebsgeräusch

Im Arbeitsalltag mit dem Dell Pro fällt störend auf, dass der Lüfter oft aktiv ist – selbst, wenn nur geringe Rechenleistung gefordert ist. Zwar bleibt das Betriebsgeräusch unter Last gemessen etwas niedriger als bei anderen Notebooks mit Lunar Lake. Die sind aber häufig ganz still, während das Dell fast immer hörbar arbeitet und damit in einer sehr ruhigen Arbeitsumgebung auffällt.

Ausstattung

Das große Dell Pro 16 Plus bietet viele Anschlüsse wie Thunderbolt 4, USB Typ-A, Micro-SD-Kartenleser und HDMI-Ausgang – optimal für ein Schreibtisch-Gerät, da sich so viele Peripheriegeräte ohne Adapter oder Docking-Station nutzen lassen. Ein Ethernet-Port fehlt, dafür gibt es WLAN mit dem aktuellen Standard Wi-Fi 7. Optional lässt sich das Dell-Notebook mit einem Smartcard-Leser und einem 5G-Modem inklusive Nano-SIM-Einschub ausstatten.

Die Kamera löst mit 1440p auf und eignet sich daher sehr gut für Video-Meetings. Die Linse können Sie mit einer mechanischen Abdeckung im Displaydeckel verschließen. Zudem arbeitet die Kamera mit einem Näherungssensor, um den Sperrbildschirm zu aktivieren, wenn Sie sich vom Notebook entfernen und die Displayhelligkeit zu reduzieren, wenn Sie nicht auf den Bildschirm schauen.

Servicetechniker erleichtert Dell das Reparieren: Die acht Gehäuseschrauben sind verliersicher und fallen daher nicht sofort heraus, wenn Sie sie aufdrehen. Zudem besitzt das Pro 16 Plus laut Dell als erstes Notebook modulare Typ-C-Ports: Sie sind verschraubt statt verlötet und lassen sich deswegen einfacher ersetzen. Selbst sollten Sie das aber nicht probieren, denn dazu muss die Platine ausgebaut werden, weil sich die Schrauben der USB-C-Module auf deren Unterseite befinden.

Anschlüsse links: HDMI, USB Typ-C, Typ-C mit Thunderbolt 4.Thomas Rau

Akkulaufzeit

Mit einem Gewicht von knapp unter zwei Kilogramm, gehört das Notebook nicht zu den leichtesten 16-Zoll-Modellen. Trotzdem lässt es sich auf kürzeren Strecken bequem transportieren – zum Beispiel zwischen Wohnung und Büro oder innerhalb des Unternehmens.

Die Akkulaufzeit geht in Ordnung: Im WLAN-Test erreicht das Dell-Notebook eine Laufzeit von über 14 Stunden, im Office-Einsatz sind es 12 Stunden. Mit einem größeren Akku würde die Ausdauer noch deutlich besser ausfallen, da das Pro 16 mit einer Leistungsaufnahme von unter vier Watt im Akkubetrieb sehr sparsam arbeitet – vor allem, weil es ein LCD-Display statt OLED nutzt. Doch sein Akku fasst nur 55 Wattstunden, mit größerem Akku laufen Lunar-Lake-Laptops zwei bis vier Stunden länger.

Das passt aber zum Einsatzzweck des 16-Zöllers: Er ist für den gelegentlichen Akkubetrieb gedacht, nicht als ultramobiler Laptop, mit dem Sie einen ganzen Tag unterwegs arbeiten.

Mit Standardeinstellungen lädt das Notebook sehr gemächlich: Nach einer Stunde an der Steckdose ist es nur zu 51 Prozent geladen – das wiederum verlängert die Lebensdauer des Akkus.

Bequem austauschen lassen sich beim Dell-Notebook SSD und WLAN-Karte sowie das Mobilfunk-Modem links.Thomas Rau

Display

Beim Bildschirm können Sie zwischen Displayvarianten mit und ohne Touchscreen wählen und bei der Auflösung zwischen FHD+ und QHD+.

Die Auflösung des Testmodells beträgt 1920 x 1200 und ist damit sinnvoll für den Büroalltag. Ebenso alltagstauglich für den Einsatz am Schreibtisch sind die Messergebnisse bei Helligkeit, Kontrast und Ausleuchtung – die Werte sind nicht überragend, aber absolut in Ordnung für Word, Excel und Powerpoint.

Das Dell Pro 16 Plus ist aber kein Laptop, den Sie sich wegen der Bildqualität kaufen sollten. Denn die mäßige Farbwiedergabe mit geringer Farbraumabdeckung und Farbtreue disqualifiziert es für ambitionierte Foto- oder Videobearbeitung.

Andere Laptops mit LCD bieten eine höhere Maximalhelligkeit und lassen sich daher unter verschiedenen Lichtbedingungen flexibler nutzen. Der Vorteil beim Dell-Notebook ist dafür seine entspiegelte Bildschirmoberfläche.

Bedienung

Der Nummernblock rechts in der Tastatur erleichtert die schnelle Eingabe von Zahlen und dürfte daher Excel-Arbeiter begeistern – zumal diese Tasten fast genauso groß sind wie in der Haupt-Tastatur. Beim Layout fällt die zweizeilige, aber schmale Enter-Taste auf, die Pfeiltasten sind nicht abgesetzt.

Auf der Tastatur lässt sich angenehm tippen, denn sie ist sehr stabil eingebaut, die Tasten verfügen über einen klaren Druckpunkt und einen guten Hub. Besonders leise ist sie aber nicht. Auch das große Touchpad gibt eine deutlich spürbare Klick-Rückmeldung, auf der rechten Seite fühlt es sich aber etwas schwammig an.

Testergebnisse und technische Daten

Dell Pro 16 Plus (PB16250): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen96 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen88 Punkte (von 100)Leistung 3D Mark100 Punkte (von 100)PC Mark 10  6950 PunktePC Mark 10 Applications Benchmark Office13729 PunkteProcyon Office Productivity Test5344 PunkteCrossmark1826 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)579 / 126 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1551 Punkte3D Mark: Night Raid / Steel Nomad36720 / 581 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast342 / 87% / 1240:1Abdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P367 / 51 / 51Farbabweichung (Delta-E)2,22Akkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test14:14 / 12:00Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last41 dB(A)Temperatur Oberseite / Unterseite36 / 37 Grad

Dell Pro 16 Plus (PB16250): Ausstattung ProzessorIntel Core Ultra 7 268VTaktrateStandard-Takt: 2,20 (Turbo-Takt: 5 GHz P-Cores; 3,7 GHz E-Cores)Kerne / Threads8 / 8 (4 P-Cores + 4 E-Cores)RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteIntel Arc Graphics 140VLaufwerkNVMe-SSD SK Hynix PVC10 (PCIe 4.0 x 4)nutzbare Kapazität950,88 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Intel BE201) / 5.4BetriebssystemWindows 11 Pro 24H2Display: Diagonale / Auflösung / Format16 Zoll / 1920 x 1200 / 16:10Display entspiegelt / Touchscreenja / neinPunktdichte / Wiederholrate142 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil1944 / 296 GrammAkku: Kapazität55 WhAnschlüsse rechts1x HDMI 2.1, Typ-A USB 3.2 Gen 1, 1x Audio (Mini-Klinke), 1x Kartenleser (Micro-SD), 1x Einschub SIM-Karte (Nano-SIM), 1x SicherheitsschlossAnschlüsse links2x Typ-C Thunderbolt 4, 1x Typ-A USB 3.2 Gen 1Anschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Abdeckung, Windows Hello; Fingersensor (im Einschaltknopf), Netzteil (65 Watt, Typ-C-Anschluss)

(PC-Welt)

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​ Weiterlesen »

Die besten VPN-Apps für Smartphones (2025)​

Allgemein

nordvpn Smartphones sind aus unserem Alltag nicht wegzudenken. Abseits der Mobilfunkverbindung sind öffentliche WLANs jedoch nicht immer sicher und Hacker können Ihre Aktivitäten leicht überwachen. Daher ist ein VPN (Virtual Private Network) empfehlenswert: Es schützt Ihr Smartphone durch Verschlüsselung des Internetverkehrs und verhindert, dass jemand Ihre Online-Aktivitäten im öffentlichen Wi-Fi ausspioniert. Zudem ermöglicht ein VPN den Zugriff auf geografisch eingeschränkte Webseiten und Inhalte von Streaming-Diensten im Ausland. Die Wahl des richtigen VPN-Dienstes ist entscheidend, da sie sich in Geschwindigkeit, Kosten, Privatsphäre und Sicherheit stark unterscheiden. Hier zeigen wir Ihnen die besten Optionen. Hinweis: In den Produktbildern sehen Sie oben fünf Screenshots der Android-App und darunter die entsprechenden Screens der iOS-App. NordVPN: Gesamtsieger im Test NordVPN Hier geht es zum Angebot von NordVPN Warum wir NordVPN mögen NordVPN ist schnell und bietet viele Server weltweit. Es ermöglicht eine sichere Verbindung auf Android-Smartphones und iPhones. Der Dienst gibt Streaming-Dienste wie Netflix und Disney+ frei und gewährleistet hohe Datensicherheit. Dank NordLynx, einem Wireguard-basierten Protokoll, ist NordVPN das schnellste VPN auf dem Markt. Die Android-App verfügt über einen “Kill-Switch”, der Ihre Daten schützt, falls die Verbindung abbricht. Die Apps unterstützen Spezialserver für P2P-Filesharing, Meshnet und Multi-Hop-VPNs. NordVPN bietet auch Sicherheitsfunktionen wie Ad-Blocking, Malware-Schutz, einen Passwort-Manager und Link-Checker. Warum Sie NordVPN kaufen sollten NordVPN ist zwar nicht der günstigste Dienst, aber definitiv seinen Preis wert. Ein Zwei-Jahres-Abo bietet den niedrigsten Monatspreis. Es gibt drei Varianten: Basis, Plus und Ultimativ. Das Ultimativ-Paket empfehlen wir besonders. Es umfasst VPN, Bedrohungsschutz Pro, Passwort-Manager, Datenleck-Scanner, 1 TB Cloud-Speicher und eine Cyberschutz-Versicherung mit bis zu 5.000 Euro Deckung. Wir haben NordVPN getestet ExpressVPN: Guter Zweitplatzierter ExpressVPN Hier geht es zum Premium-Dienst Express VPN Warum wir ExpressVPN mögen In der App von ExpressVPN ist standardmäßig eine automatische Standortwahl (“Auto-Standort”) eingestellt. ExpressVPN ermittelt automatisch den optimalen VPN-Server basierend auf Ihrem Standort, der Download-Geschwindigkeit und der Latenzzeit. Benutzer können alternativ selbst den gewünschten Serverstandort im Auswahlfenster festlegen. Die Android-Version unterstützt Split-Tunneling, Auto-Connect und einen Kill-Switch, der Ihre Privatsphäre schützt, falls die VPN-Verbindung unerwartet abbrechen sollte. ExpressVPN ist teurer und etwas weniger benutzerfreundlich als NordVPN. Dennoch bietet es umfassende Geräteunterstützung und technischen Support. Warum Sie ExpressVPN kaufen sollten ExpressVPN bietet eine intuitive Bedienung und viele Funktionen. Dank des Lightway-Protokolls sind die Verbindungen schnell und zuverlässig. Der Dienst entsperrt alle gängigen Streaming-Dienste, sodass Sie Ihre Lieblingsinhalte im Ausland genießen können. Obwohl ExpressVPN teurer ist, reflektiert der Preis die hohe Leistung und den ausgezeichneten Support. Ein idealer VPN-Dienst für diejenigen, die keine Kompromisse eingehen möchten. Wir haben Express VPN getestet Cyberghost: Bestes VPN für Streaming Cyberghost Hier geht es zum Angebot von Cyberghost VPN Warum wir Cyberghost mögen Cyberghost, ein VPN-Anbieter aus Rumänien, überzeugt durch günstige Preise und zuverlässige Leistung. Mit einer großen Auswahl an Servern weltweit können Sie immer einen passenden finden. Auf Android warnt die App vor ungesichertem WLAN, was Ihre Daten schützt, egal wo Sie sind – im Café, Hotel oder Flughafen. Zusätzliche Sicherheit bieten die “NoSpy-Server”, die von Cyberghost direkt betrieben werden und sicherer sind als gemietete Server. In unserem Test entsperrte Cyberghost alle getesteten Streaming-Dienste wie Netflix und Disney+ zuverlässig. Die große Serverauswahl ermöglicht es, bei Bedarf alternative Server zu nutzen. Für Android gibt es eine kostenlose Testversion. Cyberghost VPN ab 2,42 Euro mit kostenloser Android-Testversion Warum Sie Cyberghost kaufen sollten Cyberghost bietet Apps für Android- und iOS-Geräte. Alle Abonnements außer dem 1-Monats-Abo enthalten “NoSpy-Server”. Langfristige Abos sind besonders preisgünstig. Der günstige Monatspreis ist das Hauptargument für Cyberghost, besonders beim Zweijahresabonnement. Wir haben Cyberghost VPN getestet Surfshark: Für Nutzer mit vielen Geräten Surfshark Hier geht es zum Angebot von Surfshark VPN Warum wir Surfshark mögen Surfshark ist benutzerfreundlich und bietet eine Vielzahl von Funktionen. Es gibt Apps für alle gängigen Geräte, und es können beliebig viele Geräte gleichzeitig mit dem VPN verbunden werden. In den Surfshark-Abos One und One+ ist ein Virenschutz enthalten. Surfshark unterstützt Wireguard, was hohe Geschwindigkeiten ermöglicht, hat eine gute Erfolgsbilanz beim Entsperren von Streaming-Diensten und bietet die neue Nexus-Funktion, die zusätzliche Privatsphäre-Ebenen hinzufügt. Eine weitere Funktion ist der Bypasser, das Split-Tunneling-Feature von Surfshark. Damit kann der Internetverkehr über zwei separate Pfade geleitet werden: einen über das VPN für sichere Aktivitäten und einen anderen direkt ins Internet ohne Verschlüsselung. Wie bei NordVPN werden keine Daten protokolliert. Dass der Anbieter seinen Sitz in den Niederlanden hat, ist vorteilhaft für den Datenschutz. Warum Sie Surfshark kaufen sollten Surfshark beeindruckt mit schnellem Wireguard-Protokoll und hervorragenden Sicherheitsfunktionen wie Multi-Hop-Servern, einem Kill-Switch und CleanWeb gegen Werbung, Tracker und Malware. Das Alternative ID-Feature in jedem Surfshark-Abo erstellt einen Online-Namen, eine E-Mail-Adresse und eine US-Telefonnummer, um Ihre echten Kontaktinformationen zu verbergen. Wir haben Surfshark VPN getestet FAQ 1. Wozu brauche ich ein VPN? VPN-Dienste schützen Ihre Daten und verbergen Ihre Identität durch Verschlüsselung Ihrer Online-Aktivitäten. So können Sie weltweit auf Inhalte zugreifen. Streamen Sie HBO Max, Netflix US, Disney+ US oder ausländische Sky-Programme, egal wo Sie sind. Wählen Sie einen VPN-Dienst basierend auf Kosten, Verbindungsgeschwindigkeit, Serverstandorten, angebotenen Apps und Support-Qualität. 2. Ein Login für alle Geräte? Die hier vorgestellten VPN-Dienste ermöglichen die gleichzeitige Nutzung eines Kontos auf mehreren Geräten. Dies bietet den Vorteil, dass sämtliche Familienmitglieder den VPN-Dienst gleichzeitig verwenden können, was zu einer erheblichen Senkung der monatlichen Kosten führt. Beispielsweise kann eine Person Inhalte von Netflix US streamen, während eine andere im Internet surft und eine weitere das VPN zur Erhöhung der Sicherheit in einem öffentlichen Wi-Fi-Netzwerk verwendet. 3. Je mehr Länder, desto besser – oder nicht? Eine große Auswahl an Ländern bedeutet nicht automatisch besseren Service. Meist nutzen Sie nur wenige Server und vermeiden solche, die Ihre Internetgeschwindigkeit verlangsamen. Die VPN-Geschwindigkeit variiert ständig, daher zeigen unsere Tests und Bewertungen am besten, ob ein Dienst schnell ist. 4. Wann ist ein VPN sinnvoll? Verwenden Sie ein VPN, wenn Sie sich mit einem öffentlichen Wi-Fi-Netzwerk verbinden. Ein unverschlüsseltes Netzwerk ohne Passwort ermöglicht es anderen, Ihre Aktivitäten zu überwachen. Mit einem VPN werden Ihre Daten verschlüsselt und geschützt. Überprüfen Sie auch die Nutzungsbeschränkungen des Netzwerks, da einige P2P verbieten. 5. Worauf sollte ich bei VPN-Diensten achten? VPN-Dienste kosten unterschiedlich viel. Es ist verlockend, den günstigsten zu wählen, aber achten Sie darauf, dass er die benötigten Funktionen bietet. 6. Welchen Zweck soll der VPN-Client erfüllen? Zum Streamen von Netflix, Disney+ & Co. in Ländern ohne Zugriff, verwenden Sie ein preiswertes VPN, das diese Dienste entsperrt. Für Sicherheit und Privatsphäre wählen Sie einen VPN-Dienst, der keine Daten protokolliert und eigene Server betreibt. 7. Wie setze ich ein VPN auf mehreren Geräten ein? Ein VPN schützt nur das Gerät, auf dem es installiert ist. Möchten Sie ein VPN auf einem Apple TV nutzen, dann installieren Sie entweder eine VPN-App darauf oder verwenden Sie einen VPN-fähigen Router. Die meisten VPNs unterstützen Windows, Android, iOS und macOS. Einige bieten auch Apps für Amazon Fire TV Stick, Linux und Webbrowser-Erweiterungen für Chrome und Firefox. (PC-Welt) > 

Die besten VPN-Apps für Smartphones (2025)​ nordvpn

Smartphones sind aus unserem Alltag nicht wegzudenken. Abseits der Mobilfunkverbindung sind öffentliche WLANs jedoch nicht immer sicher und Hacker können Ihre Aktivitäten leicht überwachen. Daher ist ein VPN (Virtual Private Network) empfehlenswert: Es schützt Ihr Smartphone durch Verschlüsselung des Internetverkehrs und verhindert, dass jemand Ihre Online-Aktivitäten im öffentlichen Wi-Fi ausspioniert.

Zudem ermöglicht ein VPN den Zugriff auf geografisch eingeschränkte Webseiten und Inhalte von Streaming-Diensten im Ausland. Die Wahl des richtigen VPN-Dienstes ist entscheidend, da sie sich in Geschwindigkeit, Kosten, Privatsphäre und Sicherheit stark unterscheiden. Hier zeigen wir Ihnen die besten Optionen.

Hinweis: In den Produktbildern sehen Sie oben fünf Screenshots der Android-App und darunter die entsprechenden Screens der iOS-App.

NordVPN: Gesamtsieger im Test

NordVPN

Hier geht es zum Angebot von NordVPN

Warum wir NordVPN mögen

NordVPN ist schnell und bietet viele Server weltweit. Es ermöglicht eine sichere Verbindung auf Android-Smartphones und iPhones. Der Dienst gibt Streaming-Dienste wie Netflix und Disney+ frei und gewährleistet hohe Datensicherheit.

Dank NordLynx, einem Wireguard-basierten Protokoll, ist NordVPN das schnellste VPN auf dem Markt. Die Android-App verfügt über einen “Kill-Switch”, der Ihre Daten schützt, falls die Verbindung abbricht.

Die Apps unterstützen Spezialserver für P2P-Filesharing, Meshnet und Multi-Hop-VPNs. NordVPN bietet auch Sicherheitsfunktionen wie Ad-Blocking, Malware-Schutz, einen Passwort-Manager und Link-Checker.

Warum Sie NordVPN kaufen sollten

NordVPN ist zwar nicht der günstigste Dienst, aber definitiv seinen Preis wert. Ein Zwei-Jahres-Abo bietet den niedrigsten Monatspreis. Es gibt drei Varianten: Basis, Plus und Ultimativ.

Das Ultimativ-Paket empfehlen wir besonders. Es umfasst VPN, Bedrohungsschutz Pro, Passwort-Manager, Datenleck-Scanner, 1 TB Cloud-Speicher und eine Cyberschutz-Versicherung mit bis zu 5.000 Euro Deckung.

Wir haben NordVPN getestet

ExpressVPN: Guter Zweitplatzierter

ExpressVPN

Hier geht es zum Premium-Dienst Express VPN

Warum wir ExpressVPN mögen

In der App von ExpressVPN ist standardmäßig eine automatische Standortwahl (“Auto-Standort”) eingestellt. ExpressVPN ermittelt automatisch den optimalen VPN-Server basierend auf Ihrem Standort, der Download-Geschwindigkeit und der Latenzzeit. Benutzer können alternativ selbst den gewünschten Serverstandort im Auswahlfenster festlegen.

Die Android-Version unterstützt Split-Tunneling, Auto-Connect und einen Kill-Switch, der Ihre Privatsphäre schützt, falls die VPN-Verbindung unerwartet abbrechen sollte.

ExpressVPN ist teurer und etwas weniger benutzerfreundlich als NordVPN. Dennoch bietet es umfassende Geräteunterstützung und technischen Support.

Warum Sie ExpressVPN kaufen sollten

ExpressVPN bietet eine intuitive Bedienung und viele Funktionen. Dank des Lightway-Protokolls sind die Verbindungen schnell und zuverlässig. Der Dienst entsperrt alle gängigen Streaming-Dienste, sodass Sie Ihre Lieblingsinhalte im Ausland genießen können.

Obwohl ExpressVPN teurer ist, reflektiert der Preis die hohe Leistung und den ausgezeichneten Support. Ein idealer VPN-Dienst für diejenigen, die keine Kompromisse eingehen möchten.

Wir haben Express VPN getestet

Cyberghost: Bestes VPN für Streaming

Cyberghost

Hier geht es zum Angebot von Cyberghost VPN

Warum wir Cyberghost mögen

Cyberghost, ein VPN-Anbieter aus Rumänien, überzeugt durch günstige Preise und zuverlässige Leistung. Mit einer großen Auswahl an Servern weltweit können Sie immer einen passenden finden.

Auf Android warnt die App vor ungesichertem WLAN, was Ihre Daten schützt, egal wo Sie sind – im Café, Hotel oder Flughafen. Zusätzliche Sicherheit bieten die “NoSpy-Server”, die von Cyberghost direkt betrieben werden und sicherer sind als gemietete Server.

In unserem Test entsperrte Cyberghost alle getesteten Streaming-Dienste wie Netflix und Disney+ zuverlässig. Die große Serverauswahl ermöglicht es, bei Bedarf alternative Server zu nutzen.

Für Android gibt es eine kostenlose Testversion. Cyberghost VPN ab 2,42 Euro mit kostenloser Android-Testversion

Warum Sie Cyberghost kaufen sollten

Cyberghost bietet Apps für Android- und iOS-Geräte. Alle Abonnements außer dem 1-Monats-Abo enthalten “NoSpy-Server”. Langfristige Abos sind besonders preisgünstig.

Der günstige Monatspreis ist das Hauptargument für Cyberghost, besonders beim Zweijahresabonnement.

Wir haben Cyberghost VPN getestet

Surfshark: Für Nutzer mit vielen Geräten

Surfshark

Hier geht es zum Angebot von Surfshark VPN

Warum wir Surfshark mögen

Surfshark ist benutzerfreundlich und bietet eine Vielzahl von Funktionen. Es gibt Apps für alle gängigen Geräte, und es können beliebig viele Geräte gleichzeitig mit dem VPN verbunden werden. In den Surfshark-Abos One und One+ ist ein Virenschutz enthalten.

Surfshark unterstützt Wireguard, was hohe Geschwindigkeiten ermöglicht, hat eine gute Erfolgsbilanz beim Entsperren von Streaming-Diensten und bietet die neue Nexus-Funktion, die zusätzliche Privatsphäre-Ebenen hinzufügt.

Eine weitere Funktion ist der Bypasser, das Split-Tunneling-Feature von Surfshark. Damit kann der Internetverkehr über zwei separate Pfade geleitet werden: einen über das VPN für sichere Aktivitäten und einen anderen direkt ins Internet ohne Verschlüsselung.

Wie bei NordVPN werden keine Daten protokolliert. Dass der Anbieter seinen Sitz in den Niederlanden hat, ist vorteilhaft für den Datenschutz.

Warum Sie Surfshark kaufen sollten

Surfshark beeindruckt mit schnellem Wireguard-Protokoll und hervorragenden Sicherheitsfunktionen wie Multi-Hop-Servern, einem Kill-Switch und CleanWeb gegen Werbung, Tracker und Malware.

Das Alternative ID-Feature in jedem Surfshark-Abo erstellt einen Online-Namen, eine E-Mail-Adresse und eine US-Telefonnummer, um Ihre echten Kontaktinformationen zu verbergen.

Wir haben Surfshark VPN getestet

FAQ

1. Wozu brauche ich ein VPN?

VPN-Dienste schützen Ihre Daten und verbergen Ihre Identität durch Verschlüsselung Ihrer Online-Aktivitäten. So können Sie weltweit auf Inhalte zugreifen. Streamen Sie HBO Max, Netflix US, Disney+ US oder ausländische Sky-Programme, egal wo Sie sind. Wählen Sie einen VPN-Dienst basierend auf Kosten, Verbindungsgeschwindigkeit, Serverstandorten, angebotenen Apps und Support-Qualität.

2. Ein Login für alle Geräte?

Die hier vorgestellten VPN-Dienste ermöglichen die gleichzeitige Nutzung eines Kontos auf mehreren Geräten. Dies bietet den Vorteil, dass sämtliche Familienmitglieder den VPN-Dienst gleichzeitig verwenden können, was zu einer erheblichen Senkung der monatlichen Kosten führt. Beispielsweise kann eine Person Inhalte von Netflix US streamen, während eine andere im Internet surft und eine weitere das VPN zur Erhöhung der Sicherheit in einem öffentlichen Wi-Fi-Netzwerk verwendet.

3. Je mehr Länder, desto besser – oder nicht?

Eine große Auswahl an Ländern bedeutet nicht automatisch besseren Service. Meist nutzen Sie nur wenige Server und vermeiden solche, die Ihre Internetgeschwindigkeit verlangsamen. Die VPN-Geschwindigkeit variiert ständig, daher zeigen unsere Tests und Bewertungen am besten, ob ein Dienst schnell ist.

4. Wann ist ein VPN sinnvoll?

Verwenden Sie ein VPN, wenn Sie sich mit einem öffentlichen Wi-Fi-Netzwerk verbinden. Ein unverschlüsseltes Netzwerk ohne Passwort ermöglicht es anderen, Ihre Aktivitäten zu überwachen. Mit einem VPN werden Ihre Daten verschlüsselt und geschützt. Überprüfen Sie auch die Nutzungsbeschränkungen des Netzwerks, da einige P2P verbieten.

5. Worauf sollte ich bei VPN-Diensten achten?

VPN-Dienste kosten unterschiedlich viel. Es ist verlockend, den günstigsten zu wählen, aber achten Sie darauf, dass er die benötigten Funktionen bietet.

6. Welchen Zweck soll der VPN-Client erfüllen?

Zum Streamen von Netflix, Disney+ & Co. in Ländern ohne Zugriff, verwenden Sie ein preiswertes VPN, das diese Dienste entsperrt. Für Sicherheit und Privatsphäre wählen Sie einen VPN-Dienst, der keine Daten protokolliert und eigene Server betreibt.

7. Wie setze ich ein VPN auf mehreren Geräten ein?

Ein VPN schützt nur das Gerät, auf dem es installiert ist. Möchten Sie ein VPN auf einem Apple TV nutzen, dann installieren Sie entweder eine VPN-App darauf oder verwenden Sie einen VPN-fähigen Router. Die meisten VPNs unterstützen Windows, Android, iOS und macOS. Einige bieten auch Apps für Amazon Fire TV Stick, Linux und Webbrowser-Erweiterungen für Chrome und Firefox.

(PC-Welt)

>

Die besten VPN-Apps für Smartphones (2025)​ Weiterlesen »

Flaggschiff-Duell XXL: Samsung Galaxy S25 Edge versus Google Pixel 9 Pro XL​

Allgemein

Anyron Copeman / Foundry Samsung hat gerade sein neuestes Galaxy-Handy vorgestellt, das brandaktuelle S25 Edge. Damit weicht die Marke von ihrer üblichen Strategie ab, bei der wir normalerweise ein Trio von Flaggschiffen zu Beginn des Jahres und faltbare Geräte im Sommer sehen. Dieses neue Modell reiht sich ein in die Riege der Samsung-Flaggschiffe – ist aber eine deutlich schlankere Option für alle, die erstklassige Ausstattung ohne ein sperriges Gehäuse haben wollen. Trotz des schlanken Designs und der leichten Verkleidung ist das S25 Edge immer noch ein großes Telefon, mit einer ähnlichen Bildschirmgröße wie das Pixel 9 Pro XL. Auch die Preise sind sehr ähnlich. Die Kaufentscheidung macht das nicht gerade leichter. Und wenn Sie schon Pixel 9 Pro XL besitzen, denken Sie vielleicht über ein Upgrade nach. Falls ja, sind Sie hier genau richtig. In diesem Artikel stellen wir die beiden Telefone im direkten Vergleich gegenüber – so können Sie leicht das Modell finden, das am besten zu Ihren Bedürfnisse passt. Beachten Sie aber bitte, dass wir zwar das Pixel 9 Pro XL zwar bereits ausführlich getestet haben, unser Test zum Galaxy S25 Edge aber noch veröffentlich ist. Design & Display Wie bereits in der Einleitung erwähnt, ist ein wichtiges Verkaufsargument des Galaxy S25 Edge sein schlankes und leichtes Design. Es wiegt nur 163 g und ist gerade mal 5,9 mm dick. Beim Pixel 9 Pro XL wurde hingegen nicht besonders auf Schlankheit geachtet. Es ist mit 8,9 mm viel dicker und mit 221 g auch deutlich schwerer. Das Galaxy S25 Edge (rechts) im Vergleich zum S25 (links)Anyron Copeman / Foundry Abgesehen von Dicke und Gewicht sehen beide Telefone von vorne ziemlich ähnlich aus. Das Pixel 9 Pro XL ist größer, aber es ist nur etwa 3 mm höher und weniger als 1 mm breiter. Beide haben völlig flache Bildschirme und mittig platzierte Selfie-Kameras. Wo das Galaxy S25 Edge jedoch die Nase vorn hat, sind seine schmalen Ränder. Sie sind auf allen Seiten schlanker als die des Pixel 9 Pro XL und auch der Kameraausschnitt ist kleiner. Das bedeutet, dass der Unterschied in der Bildschirmgröße trotz der geringeren Abmessungen kleiner ist, als Sie erwarten würden – das Pixel ist nur 0,1 Zoll größer. Beide Telefone verfügen über 120 Hz schnelle OLED-Panels mit adaptiven Bildwiederholraten und HDR10-Unterstützung , aber das Galaxy S25 Edge hat eine höhere Auflösung. Es hat ein Display mit 1440 x 3120 Pixeln, während das Pixel 9 Pro XL nur auf 1344 x 2992 Bildpunkte kommt. Allerdings ist das Pixel 9 Pro XL auch etwas heller. Es hat eine Spitzenhelligkeit von 3000 nits, während das S25 Edge maximal 2600 nits erreicht. Realistisch betrachtet sind jedoch beide mehr als hell genug, um sich bequem im Freien verwenden zu lassen. Beide Telefone haben eine wertige Glasrückseite und einen Metallrahmen, aber das S25 Edge verwendet besonders robustes Titan in seinem Rahmen, damit dürfte es haltbarer sein als der Konkurrent. Außerdem verfügt es über die neuere Gorilla Glass Ceramic 2-Beschichtung auf seinem Bildschirm. Die gilt als kratzfester als das Gorilla Glass Victus auf dem Pixel. Beide Modelle sind nach IP68 zertifiziert. Sei sind also staubdicht und können bis zu 30 Minuten lang bis zu einem Meter tief in Süßwasser untergetaucht werden. Leistung: Ein klarer Favorit Das Samsung Galaxy S25 Edge wird von dem Qualcomm Snapdragon 8 Elite angetrieben, einem der schnellsten Chipsätze auf dem Markt. Das Pixel 9 Pro XL verwendet dagegen Googles eigenen Tensor G4 SoC. Anyron Copeman / Foundry Der Tensor G4 ist kein schlechter Chip, aber in Bezug auf die reine Leistung kann er dem Snapdragon 8 Elite nicht das Wasser reichen. Wenn Sie gerne grafikintensive Handyspiele wie Genshin Impact (Android | iOS) spielen oder anspruchsvolle Aufgaben wie die Videobearbeitung auf Ihrem Handy erledigen, dürfte das Galaxy S25 Edge klar im Vorteil sein. Was aber eine größere Herausforderung darstellen könnte, ist die Kühlung. Bis wir es selbst getestet haben, müssen wir abwarten, wie gut das schlanke Gehäuse des S25 Edge die Temperaturen im Zaum halten kann. Das S25 Edge ist in zwei Varianten erhältlich. Sie haben die Wahl zwischen 256 GB oder 512 GB Speicherplatz, und beide Modelle verfügen über 12 GB RAM. Das Pixel 9 Pro XL hat die gleichen Speicheroptionen, aber es fügt noch zwei weitere hinzu. Es beginnt mit nur 128 GB, ist aber mit bis zu 1 TB verfügbar. Alle Versionen sind mit 16 GB RAM ausgestattet – also mehr als das S25 Edge (12 GB). Kameras: Google und Samsung gehen eigene Wege Einer der größten Unterschiede zwischen diesen Handys ist die Kameraausstattung. Das S25 Edge hat nur zwei Kameras auf der Rückseite: einen 200-MP-Hauptsensor und eine 12-MP-Ultraweitwinkelkamera. Das Pixel 9 Pro XL hat eine 50-MP-Hauptkamera, eine 48-MP-Ultrawide-Kamera und ein 48-MP-Teleobjektiv (5x). Anyron Copeman / Foundry Wenn Sie also gerne heranzoomen, werden Sie mit dem Pixel wahrscheinlich die besseren Ergebnisse erzielen. Der 200-Megapixel-Sensor sollte den digitalen Zoom etwas unterstützen, aber unserer Erfahrung nach ist es schwer, ein echtes Teleobjektiv zu übertreffen. Ein weiterer wichtiger Punkt ist natürlich die Bildverarbeitung. Samsung und Google haben dabei sehr unterschiedliche Ansätze. Die aktuellen Samsung-Flaggschiffe haben einen natürlicheren Stil, während die Pixel-Bilder etwas lebendiger und poppiger aussehen. Beide sind auf ihre Weise hervorragend, aber Sie werden wahrscheinlich das eine dem anderen vorziehen. Das ist am Ende des Tags aber immer Geschmackssache, bei der man in diesem Fall keinen pauschalen Sieger küren kann. Auf der Vorderseite verfügt das S25 Edge über einen 12-MP-Selfie-Snapper mit Autofokus. Das Pixel hingegen hat einen höher auflösenden 42-MP-Sensor, der ebenfalls über Autofokus verfügt. Auf dem Papier scheint die Selfie-Kamera des Pixel besser zu sein, aber Samsung ist für seine hervorragenden Selfies bekannt, und in der Realität ist es auch hier sehr schwer, einen objektiven Sieger zu bestimmen. Benutzeroberfläche und KI-Funktionen Samsungs One UI 7 hat viel zu bieten: Es ist eine der funktionsreichsten Android-Builds auf dem Markt und bietet einzigartige Funktionen wie Samsung Dex, mit dem Sie Ihr Telefon in einen vollwertigen Desktop-Ersatz verwandeln können, indem Sie es an einen externen Bildschirm anschließen. Anyron Copeman / Foundry Im Vergleich dazu ist die Pixel UI viel einfacher. Für einige Benutzer könnte das eine gute Sache sein, den das Google UI ist auch intuitiver. Es sieht gut aus und funktioniert prima: zwei der wichtigsten Dinge für jedes Betriebssystem. Beide Telefone sind vollgepackt mit KI-Funktionen. Weil Samsung bekanntlich eng mit Google zusammenarbeitet, gibt es hier auch eine Menge Überschneidungen. Wenn Sie auf der Suche nach Abwechslung sind, dann ist Samsung vermutlich die richtige Wahl. Samsung hat zusätzlich zu den von Google bereitgestellten Funktionen viele eigene Funktionen entwickelt und hinzugefügt, so dass es im Betriebssystem von Samsung mehr zu entdecken gibt. Akkulaufzeit und Aufladen Das Pixel 9 Pro XL hat einen viel größeren Akku (5060 mAh), das S25 Edge muss mit nur 3900 mAh auskommen. Theoretisch hält der Akku also viel länger, aber wir werden das erst nach einem ausführlichen Test abschließend beurteilen können. Das Pixel 9 Pro lässt sich auch schneller aufladen, mit bis zu 37 Watt im Vergleich zu 25 Watt beim Galaxy S25 Edge. Auch beim kabellosen Qi-Laden ist Google mit 23 Watt schneller als Samsung mit nur 15 Watt. Preisgestaltung Das Samsung Galaxy S25 Edge ist in den Farben Titan Silber, Titan Jetblack und Titan Icyblue zu haben. Im Einzelhandel liegt die UVP für das 256-GB-Modell bei 1.249 Euro, mit 512 GB sind es 1.369 Euro. Bei Amazon bekommen Sie das Samsung Galaxy S25 Edge mit 512 GB exklusiv mit drei Jahren Garantie aktuell für 1249 Euro im Sale. Die Vorbestell-Aktion läuft auch noch bis zum 29.5. direkt beim Hersteller. Googles Pixel 9 Pro XL startet günstiger: Die 128-GB-Variante bekommt vom Hersteller ein Preisschild über 949 Euro umgehängt. Mit 256 GB sind es 1.049 Euro, für 512 GB werden 1.179 Euro fällig und wer sich die Modellvariante mit satten 1 TB holen möchte, zahlt bei Google 1.439 Euro. Allerdings ist das Pixel 9 Pro XL bereits seit einiger Zeit auf dem Markt und wird daher häufig schon mit Preisnachlass angeboten – es wird noch eine Weile dauern, bis wir Rabatte für das S25 Edge sehen. Fazit Wir wissen bereits, dass das Pixel 9 Pro XL ein großartiges Telefon ist, und das Gleiche wird wahrscheinlich auch für das Galaxy S25 Edge gelten. Welches für Sie das richtige ist, hängt wie immer von Ihren persönlichen Bedürfnissen und Wünschen ab. Das S25 Edge zeichnet sich durch sein schlankes und leichtes Design aus – etwas, das das Pixel 9 Pro XL so nicht bieten kann. Außerdem ist es viel schneller. Wenn Sie also ein Gamer sind und etwas für die Hosentasche suchen, ist das S25 Edge wahrscheinlich das Richtige Modell für Sie. Das Pixel 9 Pro XL hat aber auch jede Menge Vorteile für sich. Es hat eine zusätzliche Kamera, einen viel größeren Akku und unterstützt schnelles kabelloses Laden. Außerdem können Sie es jetzt, da es schon eine Weile auf dem Markt ist, manchmal im Angebot finden. Aktuell ist es beispielsweise mit 128 GB schon für rund 850 Euro zu haben. (PC-Welt) 

Flaggschiff-Duell XXL: Samsung Galaxy S25 Edge versus Google Pixel 9 Pro XL​ Anyron Copeman / Foundry

Samsung hat gerade sein neuestes Galaxy-Handy vorgestellt, das brandaktuelle S25 Edge. Damit weicht die Marke von ihrer üblichen Strategie ab, bei der wir normalerweise ein Trio von Flaggschiffen zu Beginn des Jahres und faltbare Geräte im Sommer sehen. Dieses neue Modell reiht sich ein in die Riege der Samsung-Flaggschiffe – ist aber eine deutlich schlankere Option für alle, die erstklassige Ausstattung ohne ein sperriges Gehäuse haben wollen.

Trotz des schlanken Designs und der leichten Verkleidung ist das S25 Edge immer noch ein großes Telefon, mit einer ähnlichen Bildschirmgröße wie das Pixel 9 Pro XL. Auch die Preise sind sehr ähnlich. Die Kaufentscheidung macht das nicht gerade leichter. Und wenn Sie schon Pixel 9 Pro XL besitzen, denken Sie vielleicht über ein Upgrade nach.

Falls ja, sind Sie hier genau richtig. In diesem Artikel stellen wir die beiden Telefone im direkten Vergleich gegenüber – so können Sie leicht das Modell finden, das am besten zu Ihren Bedürfnisse passt. Beachten Sie aber bitte, dass wir zwar das Pixel 9 Pro XL zwar bereits ausführlich getestet haben, unser Test zum Galaxy S25 Edge aber noch veröffentlich ist.

Design & Display

Wie bereits in der Einleitung erwähnt, ist ein wichtiges Verkaufsargument des Galaxy S25 Edge sein schlankes und leichtes Design. Es wiegt nur 163 g und ist gerade mal 5,9 mm dick. Beim Pixel 9 Pro XL wurde hingegen nicht besonders auf Schlankheit geachtet. Es ist mit 8,9 mm viel dicker und mit 221 g auch deutlich schwerer.

Das Galaxy S25 Edge (rechts) im Vergleich zum S25 (links)Anyron Copeman / Foundry

Abgesehen von Dicke und Gewicht sehen beide Telefone von vorne ziemlich ähnlich aus. Das Pixel 9 Pro XL ist größer, aber es ist nur etwa 3 mm höher und weniger als 1 mm breiter. Beide haben völlig flache Bildschirme und mittig platzierte Selfie-Kameras.

Wo das Galaxy S25 Edge jedoch die Nase vorn hat, sind seine schmalen Ränder. Sie sind auf allen Seiten schlanker als die des Pixel 9 Pro XL und auch der Kameraausschnitt ist kleiner. Das bedeutet, dass der Unterschied in der Bildschirmgröße trotz der geringeren Abmessungen kleiner ist, als Sie erwarten würden – das Pixel ist nur 0,1 Zoll größer.

Beide Telefone verfügen über 120 Hz schnelle OLED-Panels mit adaptiven Bildwiederholraten und HDR10-Unterstützung , aber das Galaxy S25 Edge hat eine höhere Auflösung. Es hat ein Display mit 1440 x 3120 Pixeln, während das Pixel 9 Pro XL nur auf 1344 x 2992 Bildpunkte kommt.

Allerdings ist das Pixel 9 Pro XL auch etwas heller. Es hat eine Spitzenhelligkeit von 3000 nits, während das S25 Edge maximal 2600 nits erreicht. Realistisch betrachtet sind jedoch beide mehr als hell genug, um sich bequem im Freien verwenden zu lassen.

Beide Telefone haben eine wertige Glasrückseite und einen Metallrahmen, aber das S25 Edge verwendet besonders robustes Titan in seinem Rahmen, damit dürfte es haltbarer sein als der Konkurrent. Außerdem verfügt es über die neuere Gorilla Glass Ceramic 2-Beschichtung auf seinem Bildschirm. Die gilt als kratzfester als das Gorilla Glass Victus auf dem Pixel.

Beide Modelle sind nach IP68 zertifiziert. Sei sind also staubdicht und können bis zu 30 Minuten lang bis zu einem Meter tief in Süßwasser untergetaucht werden.

Leistung: Ein klarer Favorit

Das Samsung Galaxy S25 Edge wird von dem Qualcomm Snapdragon 8 Elite angetrieben, einem der schnellsten Chipsätze auf dem Markt. Das Pixel 9 Pro XL verwendet dagegen Googles eigenen Tensor G4 SoC.

Anyron Copeman / Foundry

Der Tensor G4 ist kein schlechter Chip, aber in Bezug auf die reine Leistung kann er dem Snapdragon 8 Elite nicht das Wasser reichen. Wenn Sie gerne grafikintensive Handyspiele wie Genshin Impact (Android | iOS) spielen oder anspruchsvolle Aufgaben wie die Videobearbeitung auf Ihrem Handy erledigen, dürfte das Galaxy S25 Edge klar im Vorteil sein.

Was aber eine größere Herausforderung darstellen könnte, ist die Kühlung. Bis wir es selbst getestet haben, müssen wir abwarten, wie gut das schlanke Gehäuse des S25 Edge die Temperaturen im Zaum halten kann.

Das S25 Edge ist in zwei Varianten erhältlich. Sie haben die Wahl zwischen 256 GB oder 512 GB Speicherplatz, und beide Modelle verfügen über 12 GB RAM. Das Pixel 9 Pro XL hat die gleichen Speicheroptionen, aber es fügt noch zwei weitere hinzu. Es beginnt mit nur 128 GB, ist aber mit bis zu 1 TB verfügbar. Alle Versionen sind mit 16 GB RAM ausgestattet – also mehr als das S25 Edge (12 GB).

Kameras: Google und Samsung gehen eigene Wege

Einer der größten Unterschiede zwischen diesen Handys ist die Kameraausstattung. Das S25 Edge hat nur zwei Kameras auf der Rückseite: einen 200-MP-Hauptsensor und eine 12-MP-Ultraweitwinkelkamera. Das Pixel 9 Pro XL hat eine 50-MP-Hauptkamera, eine 48-MP-Ultrawide-Kamera und ein 48-MP-Teleobjektiv (5x).

Anyron Copeman / Foundry

Wenn Sie also gerne heranzoomen, werden Sie mit dem Pixel wahrscheinlich die besseren Ergebnisse erzielen. Der 200-Megapixel-Sensor sollte den digitalen Zoom etwas unterstützen, aber unserer Erfahrung nach ist es schwer, ein echtes Teleobjektiv zu übertreffen.

Ein weiterer wichtiger Punkt ist natürlich die Bildverarbeitung. Samsung und Google haben dabei sehr unterschiedliche Ansätze. Die aktuellen Samsung-Flaggschiffe haben einen natürlicheren Stil, während die Pixel-Bilder etwas lebendiger und poppiger aussehen. Beide sind auf ihre Weise hervorragend, aber Sie werden wahrscheinlich das eine dem anderen vorziehen. Das ist am Ende des Tags aber immer Geschmackssache, bei der man in diesem Fall keinen pauschalen Sieger küren kann.

Auf der Vorderseite verfügt das S25 Edge über einen 12-MP-Selfie-Snapper mit Autofokus. Das Pixel hingegen hat einen höher auflösenden 42-MP-Sensor, der ebenfalls über Autofokus verfügt. Auf dem Papier scheint die Selfie-Kamera des Pixel besser zu sein, aber Samsung ist für seine hervorragenden Selfies bekannt, und in der Realität ist es auch hier sehr schwer, einen objektiven Sieger zu bestimmen.

Benutzeroberfläche und KI-Funktionen

Samsungs One UI 7 hat viel zu bieten: Es ist eine der funktionsreichsten Android-Builds auf dem Markt und bietet einzigartige Funktionen wie Samsung Dex, mit dem Sie Ihr Telefon in einen vollwertigen Desktop-Ersatz verwandeln können, indem Sie es an einen externen Bildschirm anschließen.

Anyron Copeman / Foundry

Im Vergleich dazu ist die Pixel UI viel einfacher. Für einige Benutzer könnte das eine gute Sache sein, den das Google UI ist auch intuitiver. Es sieht gut aus und funktioniert prima: zwei der wichtigsten Dinge für jedes Betriebssystem.

Beide Telefone sind vollgepackt mit KI-Funktionen. Weil Samsung bekanntlich eng mit Google zusammenarbeitet, gibt es hier auch eine Menge Überschneidungen. Wenn Sie auf der Suche nach Abwechslung sind, dann ist Samsung vermutlich die richtige Wahl.

Samsung hat zusätzlich zu den von Google bereitgestellten Funktionen viele eigene Funktionen entwickelt und hinzugefügt, so dass es im Betriebssystem von Samsung mehr zu entdecken gibt.

Akkulaufzeit und Aufladen

Das Pixel 9 Pro XL hat einen viel größeren Akku (5060 mAh), das S25 Edge muss mit nur 3900 mAh auskommen. Theoretisch hält der Akku also viel länger, aber wir werden das erst nach einem ausführlichen Test abschließend beurteilen können.

Das Pixel 9 Pro lässt sich auch schneller aufladen, mit bis zu 37 Watt im Vergleich zu 25 Watt beim Galaxy S25 Edge. Auch beim kabellosen Qi-Laden ist Google mit 23 Watt schneller als Samsung mit nur 15 Watt.

Preisgestaltung

Das Samsung Galaxy S25 Edge ist in den Farben Titan Silber, Titan Jetblack und Titan Icyblue zu haben. Im Einzelhandel liegt die UVP für das 256-GB-Modell bei 1.249 Euro, mit 512 GB sind es 1.369 Euro. Bei Amazon bekommen Sie das Samsung Galaxy S25 Edge mit 512 GB exklusiv mit drei Jahren Garantie aktuell für 1249 Euro im Sale. Die Vorbestell-Aktion läuft auch noch bis zum 29.5. direkt beim Hersteller.

Googles Pixel 9 Pro XL startet günstiger: Die 128-GB-Variante bekommt vom Hersteller ein Preisschild über 949 Euro umgehängt. Mit 256 GB sind es 1.049 Euro, für 512 GB werden 1.179 Euro fällig und wer sich die Modellvariante mit satten 1 TB holen möchte, zahlt bei Google 1.439 Euro.

Allerdings ist das Pixel 9 Pro XL bereits seit einiger Zeit auf dem Markt und wird daher häufig schon mit Preisnachlass angeboten – es wird noch eine Weile dauern, bis wir Rabatte für das S25 Edge sehen.

Fazit

Wir wissen bereits, dass das Pixel 9 Pro XL ein großartiges Telefon ist, und das Gleiche wird wahrscheinlich auch für das Galaxy S25 Edge gelten. Welches für Sie das richtige ist, hängt wie immer von Ihren persönlichen Bedürfnissen und Wünschen ab.

Das S25 Edge zeichnet sich durch sein schlankes und leichtes Design aus – etwas, das das Pixel 9 Pro XL so nicht bieten kann. Außerdem ist es viel schneller. Wenn Sie also ein Gamer sind und etwas für die Hosentasche suchen, ist das S25 Edge wahrscheinlich das Richtige Modell für Sie.

Das Pixel 9 Pro XL hat aber auch jede Menge Vorteile für sich. Es hat eine zusätzliche Kamera, einen viel größeren Akku und unterstützt schnelles kabelloses Laden. Außerdem können Sie es jetzt, da es schon eine Weile auf dem Markt ist, manchmal im Angebot finden. Aktuell ist es beispielsweise mit 128 GB schon für rund 850 Euro zu haben.

(PC-Welt)

Flaggschiff-Duell XXL: Samsung Galaxy S25 Edge versus Google Pixel 9 Pro XL​ Weiterlesen »

KI-Readiness – viele Angestellte noch nicht bereit?​

Allgemein

width=”5244″ height=”2950″ sizes=”(max-width: 5244px) 100vw, 5244px”>Das Gros der Mitarbeitenden stünde KI ablehnend gegenüber, glauben viele CEOs – die meisten CIOs sehen das jedoch anders. vectorfusionart – shutterstock.com Zwischen Anspruch und Wirklichkeit beim KI-Einsatz klafft in vielen Unternehmen eine eklatante Lücke. Das ist ein zentrales Ergebnis des ersten „People Readiness Report“ von Kyndryl. Die Betriebe hierzulande nutzten zwar bereits durchgängig KI, doch ihre Belegschaft sei der Umfrage zufolge noch nicht ausreichend auf den Wandel vorbereitet.   Kyndry hat für die Studie 1.100 Führungskräfte aus Business- und Technik-Bereichen im März und Februar 2025 befragen lassen. Die Teilnehmenden kamen aus Brasilien, Deutschland, Frankreich, Großbritannien Indien, Japan, Spanien und den USA.  Das sind die wichtigsten Ergebnisse für den deutschen Markt:  94 Prozent der Unternehmen haben bereits in KI investiert.  63 Prozent der deutschen Führungskräfte meinen, ihre Belegschaft sei noch nicht bereit, die Technologie erfolgreich zu nutzen.  60 Prozent beklagen, dass KI-Fachkräfte fehlen.  20 Prozent der deutschen CEOs, CTOs und CIOs geben an, dass viele Mitarbeitende KI ablehnen – teils sogar offen feindselig.  width=”2890″ height=”1626″ sizes=”(max-width: 2890px) 100vw, 2890px”>Kai Grunwitz, President Kyndryl Germany, plädiert dafür, den KI-Einsatz ganzheitlich aus unterschiedlichen Perspektiven zu beleuchten. Kyndryl „Wenn 63 Prozent der Unternehmen sagen, ihre Belegschaft sei nicht bereit für den KI-Einsatz, dann ist das ein deutliches Alarmsignal“, kommentierte Kai Grunwitz, President Kyndryl Germany. Es reiche nicht aus, KI strategisch oder technologisch motiviert einzuführen – Unternehmen müssten darüber hinaus in Weiterentwicklung und Veränderungsfähigkeit ihrer Mitarbeitenden investieren. „Nur wer Business, Technologie und Kultur ganzheitlich betrachtet, kann das volle Potenzial von KI erschließen und seine Wettbewerbsfähigkeit langfristig sichern“, so der Kyndryl-Manager.  Deutschland vorne – auf niedrigem Niveau Die erfreuliche Nachricht im internationalen Vergleich: Auch wenn das allgemeine Niveau der KI-Readiness (global 29 Prozent) weltweit noch ausbaufähig ist, zählt Deutschland immerhin zu den Spitzenreitern. Gemeinsam mit Indien erreicht Deutschland mit 37 Prozent den höchsten Wert. Dahinter folgen die USA mit 34 Prozent, Frankreich und Spanien mit jeweils 28 Prozent sowie das Vereinigte Königreich mit 18 Prozent. Japan bildet mit 15 Prozent das Schlusslicht.  Auch zwischen den Branchen gibt es Unterschiede: Während in der Versicherungsbranche global gesehen bereits 35 Prozent der Unternehmen KI konkret in ihren Produkten und Services einsetzen, sind es im produzierenden Gewerbe gerade einmal 14 Prozent. Dazwischen rangieren der Telekommunikationssektor (24 Prozent), Energieversorger (23 Prozent) sowie Banken und das Gesundheitswesen mit jeweils 22 Prozent fast gleichauf.  KI vor dem Sprung auf das nächste Level In deutschen Betrieben nutzen fast zwei Drittel der Mitarbeitenden bereits generative KI-Tools (65 Prozent). Jeweils rund sechs von zehn automatisieren Verwaltungsaufgaben oder entwickeln KI-gestützte Produkte und Services. 57 Prozent greifen auf datenbasierte Analysen zurück, 56 Prozent arbeiten mit Agentic AI. Entscheidungsunterstützung durch KI nutzen 61 Prozent – ganz ohne KI arbeiten laut Umfrage praktisch keine Teams mehr. CEOs und CIOs – unterschiedliche Perspektiven Auffällig in den Ergebnissen der Umfrage: CEOs nehmen die KI-Readiness in ihren Unternehmen ganz anders wahr als ihre Kolleginnen und Kollegen auf der Technik-Seite. Während 45 Prozent der Firmenchefs glauben, dass die meisten Mitarbeitenden gegenüber KI ablehnend oder sogar feindselig eingestellt sind, teilen nur acht Prozent der CTOs und CIOs diese Meinung. Rund vier von zehn CEOs sagen, ihre bestehende Infrastruktur reiche für den KI-Einsatz nicht aus beziehungsweise es sei eine erhebliche Herausforderung, KI in die bestehenden Systeme zu integrieren. Unter den CTOs und CIOs sehen dagegen nur 16 Prozent diese Barrieren.  Unterschiede zeigen sich auch beim Umgang, wie mit den daraus resultierenden Herausforderungen umgegangen werden sollte: Während Technikverantwortliche stärker darauf setzen, intern zusätzliche Kompetenzen aufzubauen, bevorzugen viele CEOs den schnellen Weg und würden lieber externe Fachkräfte anheuern, statt langwierig die eigene Belegschaft weiterzubilden. Was KI-Pacesetter besser machen Laut der Kyndryl-Umfrage hebt sich eine kleine Gruppe von sogenannten KI-Pacesettern (etwa: Taktgeber) deutlich ab. Diese Unternehmen nutzten KI nicht nur gezielt für Wachstum, sondern würden ihre Mitarbeitenden aktiv in den Wandel einbinden. Drei zentrale Hürden, die viele bei der Einführung von KI ausbremsen, hätten diese Betriebe bereits erfolgreich adressiert:  Change Management: Pacesetter verfügten drei Mal so häufig wie andere Unternehmen über eine vollständig umgesetzte Strategie für den organisatorischen Wandel im Zuge von KI.  Vertrauen in KI: In dieser Gruppe berichteten 29 Prozent weniger Unternehmen von Ängsten in der Belegschaft, die das Engagement in Sachen KI-Einsatz bremsten.  Skill-Gaps: KI-Pacesetter stimmten mit 67 Prozent höherer Wahrscheinlichkeit zu, dass sie über die nötigen Tools und Prozesse verfügen, um die Kompetenzen ihrer Mitarbeitenden systematisch zu erfassen. Vier von zehn Unternehmen aus dieser Gruppe gaben sogar an, überhaupt keine Qualifikationslücken mehr zu haben.  

KI-Readiness – viele Angestellte noch nicht bereit?​ width=”5244″ height=”2950″ sizes=”(max-width: 5244px) 100vw, 5244px”>Das Gros der Mitarbeitenden stünde KI ablehnend gegenüber, glauben viele CEOs – die meisten CIOs sehen das jedoch anders. vectorfusionart – shutterstock.com

Zwischen Anspruch und Wirklichkeit beim KI-Einsatz klafft in vielen Unternehmen eine eklatante Lücke. Das ist ein zentrales Ergebnis des ersten „People Readiness Report“ von Kyndryl. Die Betriebe hierzulande nutzten zwar bereits durchgängig KI, doch ihre Belegschaft sei der Umfrage zufolge noch nicht ausreichend auf den Wandel vorbereitet.  

Kyndry hat für die Studie 1.100 Führungskräfte aus Business- und Technik-Bereichen im März und Februar 2025 befragen lassen. Die Teilnehmenden kamen aus Brasilien, Deutschland, Frankreich, Großbritannien Indien, Japan, Spanien und den USA. 

Das sind die wichtigsten Ergebnisse für den deutschen Markt: 

94 Prozent der Unternehmen haben bereits in KI investiert. 

63 Prozent der deutschen Führungskräfte meinen, ihre Belegschaft sei noch nicht bereit, die Technologie erfolgreich zu nutzen. 

60 Prozent beklagen, dass KI-Fachkräfte fehlen. 

20 Prozent der deutschen CEOs, CTOs und CIOs geben an, dass viele Mitarbeitende KI ablehnen – teils sogar offen feindselig. 

width=”2890″ height=”1626″ sizes=”(max-width: 2890px) 100vw, 2890px”>Kai Grunwitz, President Kyndryl Germany, plädiert dafür, den KI-Einsatz ganzheitlich aus unterschiedlichen Perspektiven zu beleuchten. Kyndryl

„Wenn 63 Prozent der Unternehmen sagen, ihre Belegschaft sei nicht bereit für den KI-Einsatz, dann ist das ein deutliches Alarmsignal“, kommentierte Kai Grunwitz, President Kyndryl Germany. Es reiche nicht aus, KI strategisch oder technologisch motiviert einzuführen – Unternehmen müssten darüber hinaus in Weiterentwicklung und Veränderungsfähigkeit ihrer Mitarbeitenden investieren. „Nur wer Business, Technologie und Kultur ganzheitlich betrachtet, kann das volle Potenzial von KI erschließen und seine Wettbewerbsfähigkeit langfristig sichern“, so der Kyndryl-Manager. 

Deutschland vorne – auf niedrigem Niveau

Die erfreuliche Nachricht im internationalen Vergleich: Auch wenn das allgemeine Niveau der KI-Readiness (global 29 Prozent) weltweit noch ausbaufähig ist, zählt Deutschland immerhin zu den Spitzenreitern. Gemeinsam mit Indien erreicht Deutschland mit 37 Prozent den höchsten Wert. Dahinter folgen die USA mit 34 Prozent, Frankreich und Spanien mit jeweils 28 Prozent sowie das Vereinigte Königreich mit 18 Prozent. Japan bildet mit 15 Prozent das Schlusslicht. 

Auch zwischen den Branchen gibt es Unterschiede: Während in der Versicherungsbranche global gesehen bereits 35 Prozent der Unternehmen KI konkret in ihren Produkten und Services einsetzen, sind es im produzierenden Gewerbe gerade einmal 14 Prozent. Dazwischen rangieren der Telekommunikationssektor (24 Prozent), Energieversorger (23 Prozent) sowie Banken und das Gesundheitswesen mit jeweils 22 Prozent fast gleichauf. 

KI vor dem Sprung auf das nächste Level

In deutschen Betrieben nutzen fast zwei Drittel der Mitarbeitenden bereits generative KI-Tools (65 Prozent). Jeweils rund sechs von zehn automatisieren Verwaltungsaufgaben oder entwickeln KI-gestützte Produkte und Services. 57 Prozent greifen auf datenbasierte Analysen zurück, 56 Prozent arbeiten mit Agentic AI. Entscheidungsunterstützung durch KI nutzen 61 Prozent – ganz ohne KI arbeiten laut Umfrage praktisch keine Teams mehr.

CEOs und CIOs – unterschiedliche Perspektiven

Auffällig in den Ergebnissen der Umfrage: CEOs nehmen die KI-Readiness in ihren Unternehmen ganz anders wahr als ihre Kolleginnen und Kollegen auf der Technik-Seite. Während 45 Prozent der Firmenchefs glauben, dass die meisten Mitarbeitenden gegenüber KI ablehnend oder sogar feindselig eingestellt sind, teilen nur acht Prozent der CTOs und CIOs diese Meinung. Rund vier von zehn CEOs sagen, ihre bestehende Infrastruktur reiche für den KI-Einsatz nicht aus beziehungsweise es sei eine erhebliche Herausforderung, KI in die bestehenden Systeme zu integrieren. Unter den CTOs und CIOs sehen dagegen nur 16 Prozent diese Barrieren. 

Unterschiede zeigen sich auch beim Umgang, wie mit den daraus resultierenden Herausforderungen umgegangen werden sollte: Während Technikverantwortliche stärker darauf setzen, intern zusätzliche Kompetenzen aufzubauen, bevorzugen viele CEOs den schnellen Weg und würden lieber externe Fachkräfte anheuern, statt langwierig die eigene Belegschaft weiterzubilden.

Was KI-Pacesetter besser machen

Laut der Kyndryl-Umfrage hebt sich eine kleine Gruppe von sogenannten KI-Pacesettern (etwa: Taktgeber) deutlich ab. Diese Unternehmen nutzten KI nicht nur gezielt für Wachstum, sondern würden ihre Mitarbeitenden aktiv in den Wandel einbinden. Drei zentrale Hürden, die viele bei der Einführung von KI ausbremsen, hätten diese Betriebe bereits erfolgreich adressiert: 

Change Management: Pacesetter verfügten drei Mal so häufig wie andere Unternehmen über eine vollständig umgesetzte Strategie für den organisatorischen Wandel im Zuge von KI. 

Vertrauen in KI: In dieser Gruppe berichteten 29 Prozent weniger Unternehmen von Ängsten in der Belegschaft, die das Engagement in Sachen KI-Einsatz bremsten. 

Skill-Gaps: KI-Pacesetter stimmten mit 67 Prozent höherer Wahrscheinlichkeit zu, dass sie über die nötigen Tools und Prozesse verfügen, um die Kompetenzen ihrer Mitarbeitenden systematisch zu erfassen. Vier von zehn Unternehmen aus dieser Gruppe gaben sogar an, überhaupt keine Qualifikationslücken mehr zu haben. 

KI-Readiness – viele Angestellte noch nicht bereit?​ Weiterlesen »

Nach oben scrollen
×