Computerhaus Quickborn

Allgemein

Oracle-Ingenieure verursachten tagelangen Software-Ausfall​

Allgemein

Seit der Übernahme von Cerner ist Oracle ein zentraler Akteur im Gesundheits-IT-Markt. Immer wieder macht das Unternehmen dabei mit Pannen von sich reden. Quelle: Chay_Tee – shutterstock.com In zahlreichen Krankenhäusern des US-amerikanischen Gesundheitsdienstleisters Community Health Systems (CHS) ist es wegen menschlichem Versagen zu einem fünftägigen Softwareausfall gekommen. Schuld daran war ein Ausfall von Oracles Electronic-Health-Records-Systems, berichtete CHS dem US-amerikanischen Nachrichtensender CNBC.    Schlamperei führt zu Ausfall Techniker von Oracle Health hatten am 23. April im Rahmen von Wartungsarbeiten versehentlich kritische Speichermedien gelöscht. Diese waren mit einer wichtigen Datenbank verbunden, so ein CHS-Sprecher, so dass die Einrichtungen zeitweise auf papierbasierte Patientenakten zurückgreifen mussten.  Berichten zufolge waren 45 Krankenhäuser von dem Ausfall betroffen. Der Ausfall konnte am 28. April 2025 behoben werden. Vermehrt Pannen im Jahr 2025 Es ist nicht die erste größere Panne, die Oracle im Jahr 2025 zu verantworten hat: Bereits im März 2025 dementierte das Unternehmen ein Datenleck und warnte im April vor Datenschutzverletzungen bei Oracle Health. Oracle, besser bekannt für seine Datenbank Oracle Database, ist seit dem Kauf des EHR-Anbieters Cerner im Jahr 2022 einer der größten Anbieter in diesem Segment. 

Oracle-Ingenieure verursachten tagelangen Software-Ausfall​ Seit der Übernahme von Cerner ist Oracle ein zentraler Akteur im Gesundheits-IT-Markt. Immer wieder macht das Unternehmen dabei mit Pannen von sich reden.
Quelle: Chay_Tee – shutterstock.com

In zahlreichen Krankenhäusern des US-amerikanischen Gesundheitsdienstleisters Community Health Systems (CHS) ist es wegen menschlichem Versagen zu einem fünftägigen Softwareausfall gekommen. Schuld daran war ein Ausfall von Oracles Electronic-Health-Records-Systems, berichtete CHS dem US-amerikanischen Nachrichtensender CNBC.   

Schlamperei führt zu Ausfall

Techniker von Oracle Health hatten am 23. April im Rahmen von Wartungsarbeiten versehentlich kritische Speichermedien gelöscht. Diese waren mit einer wichtigen Datenbank verbunden, so ein CHS-Sprecher, so dass die Einrichtungen zeitweise auf papierbasierte Patientenakten zurückgreifen mussten.  Berichten zufolge waren 45 Krankenhäuser von dem Ausfall betroffen.

Der Ausfall konnte am 28. April 2025 behoben werden.

Vermehrt Pannen im Jahr 2025

Es ist nicht die erste größere Panne, die Oracle im Jahr 2025 zu verantworten hat: Bereits im März 2025 dementierte das Unternehmen ein Datenleck und warnte im April vor Datenschutzverletzungen bei Oracle Health.

Oracle, besser bekannt für seine Datenbank Oracle Database, ist seit dem Kauf des EHR-Anbieters Cerner im Jahr 2022 einer der größten Anbieter in diesem Segment.

Oracle-Ingenieure verursachten tagelangen Software-Ausfall​ Weiterlesen »

Windows Server 2025 bekommt Hotpatching-Abo-Option​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?quality=50&strip=all 4772w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Hotpatching-Abo hat Microsoft einen Weg gefunden, zusätzlich abzukassieren. FellowNeko – Shutterstock.com Nachdem Microsoft im vergangenen Jahr eine Hotpatching-Funktion für Windows Server 2025 als Preview vorgestellt hatte, will das Unternehmen die bisher nur in Azure verfügbare Funktion nun ab Juli über Azure Arc auch für Windows- Server-Computer außerhalb von Azure verfügbar machen.  Der Patch Tuesday verschwindet (fast)  Hotpatching ist eine Methode, um Betriebssystem-Sicherheits-Updates auf Computern zu installieren, ohne dass nach der Installation ein Neustart erforderlich ist. Dabei wird der Code der laufenden Prozesse im Arbeitsspeicher gepatcht, ohne dass der Prozess neu gestartet werden muss.  Zu den Vorteilen von Hotpatching gehören entsprechend:  eine höhere Verfügbarkeit, da weniger Neustarts,  eine schnellere Bereitstellung von Updates, da kein Wartungsfenster für den kurzen Ausfall des Servers gefunden werden muss, sowie damit verbunden  eine kürzere Verwundbarkeit durch das schnellere Schließen von Sicherheitslücken.  Um die Hotpatch-Sicherheits-Updates ohne Neustart ausführen zu können, müssen laut Microsoft „Windows Server 2025 Standard oder Datacenter verwendet werden und Ihr Server muss mit Azure Arc verbunden sein“. Außerdem knüpft der Anbieter die Vorteile an ein Windows- Server-Hotpatching-Abonnement. Die Anwender müssen dabei monatlich 1,50 Dollar pro Prozessorkern bezahlen.  Microsoft weist allerdings darauf hin, dass Nutzer trotz Hotpatching ihre Windows Server weiterhin etwa viermal pro Jahr für Basisaktualisierungen neu starten müssten. Dennoch könnten sie mit Hotpatching erheblich Zeit sparen und die Unannehmlichkeiten eines herkömmlichen „Patch Tuesday“ vermeiden.   Wie das Unternehmen ausführt, stellt der Hotpatch-Service bis zu acht Hotpatches pro Jahr zur Verfügung. Er folgt dabei einem dreimonatigen Zyklus, wobei der erste Monat als Basismonat (monatliches kumulatives Update) dient, gefolgt von zwei Monaten mit Hotpatches. Während der Basismonate müssen die Maschinen neu gestartet werden. Die vier geplanten Basismonate sind Januar, April, Juli und Oktober.  In seltenen Fällen könne es aus Sicherheitsgründen erforderlich sein, während eines Hotpatch-Monats ein reguläres Update bereitzustellen, das ebenfalls einen Neustart erfordert, so Microsoft. Das Ziel sei jedoch, bis zu acht Hotpatches pro Jahr bereitzustellen.  

Windows Server 2025 bekommt Hotpatching-Abo-Option​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?quality=50&strip=all 4772w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2110568675_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Hotpatching-Abo hat Microsoft einen Weg gefunden, zusätzlich abzukassieren. FellowNeko – Shutterstock.com

Nachdem Microsoft im vergangenen Jahr eine Hotpatching-Funktion für Windows Server 2025 als Preview vorgestellt hatte, will das Unternehmen die bisher nur in Azure verfügbare Funktion nun ab Juli über Azure Arc auch für Windows- Server-Computer außerhalb von Azure verfügbar machen. 

Der Patch Tuesday verschwindet (fast) 

Hotpatching ist eine Methode, um Betriebssystem-Sicherheits-Updates auf Computern zu installieren, ohne dass nach der Installation ein Neustart erforderlich ist. Dabei wird der Code der laufenden Prozesse im Arbeitsspeicher gepatcht, ohne dass der Prozess neu gestartet werden muss. 

Zu den Vorteilen von Hotpatching gehören entsprechend: 

eine höhere Verfügbarkeit, da weniger Neustarts, 

eine schnellere Bereitstellung von Updates, da kein Wartungsfenster für den kurzen Ausfall des Servers gefunden werden muss, sowie damit verbunden 

eine kürzere Verwundbarkeit durch das schnellere Schließen von Sicherheitslücken. 

Um die Hotpatch-Sicherheits-Updates ohne Neustart ausführen zu können, müssen laut Microsoft „Windows Server 2025 Standard oder Datacenter verwendet werden und Ihr Server muss mit Azure Arc verbunden sein“. Außerdem knüpft der Anbieter die Vorteile an ein Windows- Server-Hotpatching-Abonnement. Die Anwender müssen dabei monatlich 1,50 Dollar pro Prozessorkern bezahlen. 

Microsoft weist allerdings darauf hin, dass Nutzer trotz Hotpatching ihre Windows Server weiterhin etwa viermal pro Jahr für Basisaktualisierungen neu starten müssten. Dennoch könnten sie mit Hotpatching erheblich Zeit sparen und die Unannehmlichkeiten eines herkömmlichen „Patch Tuesday“ vermeiden.  

Wie das Unternehmen ausführt, stellt der Hotpatch-Service bis zu acht Hotpatches pro Jahr zur Verfügung. Er folgt dabei einem dreimonatigen Zyklus, wobei der erste Monat als Basismonat (monatliches kumulatives Update) dient, gefolgt von zwei Monaten mit Hotpatches. Während der Basismonate müssen die Maschinen neu gestartet werden. Die vier geplanten Basismonate sind Januar, April, Juli und Oktober. 

In seltenen Fällen könne es aus Sicherheitsgründen erforderlich sein, während eines Hotpatch-Monats ein reguläres Update bereitzustellen, das ebenfalls einen Neustart erfordert, so Microsoft. Das Ziel sei jedoch, bis zu acht Hotpatches pro Jahr bereitzustellen. 

Windows Server 2025 bekommt Hotpatching-Abo-Option​ Weiterlesen »

TechTalk-Podcast: Neue Chancen erschließen mit Digital Twins und KI​

Allgemein

iteratec Das Thema Nachhaltigkeit hat nach dem Amtsantritt von Donald Trump als US-Präsident weltweit einen schwereren Stand. Doch für Christoph Völker, beim Münchner Softwarehaus Iteratec verantwortlich für „Sustainable Solutions“, ist das nur eine Momentaufnahme. Umweltgerechtes Wirtschaften sei eine „Menschheitsaufgabe“, die durch politische Umstände vielleicht verzögert, letztendlich aber nicht aufgehalten werden könne, erklärt er in der neuesten Ausgabe von „TechTalk Smart Leadership“, dem Podcast von COMPUTERWOCHE, CIO-Magazin und CSO-Online. Nachhaltigkeit lohnt sich auch wirtschaftlich  Auch wenn sich einige Unverbesserliche immer noch darüber streiten möchten, ob es den menschengemachten Klimawandel wirklich gibt, so zweifeln doch die wenigsten daran, dass viele lebenswichtige Rohstoffe auf dem Planeten Erde knapper werden. Die Endlichkeit der Ressourcen zwingt die Menschheit dazu, sparsamer zu wirtschaften, auf erneuerbare Energien umzusteigen und vermehrt über Kreislaufwirtschaft und Recycling nachzudenken.   Diesen Weg einzuschlagen, lohnt sich auch wirtschaftlich: Wer seine Produktion nachhaltig gestaltet, kommt schnell in den Genuss von sinkenden Kosten, kürzeren Marktreaktionszeiten sowie einer optimierten Produktqualität und -vielfalt. Die Digitalisierung spielt eine Schlüsselrolle auf dem Weg in diese Zukunft. Insbesondere der Einsatz von Digital-Twin-Technologie im Zusammenspiel mit künstlicher Intelligenz (KI) eröffnet ganz neue Perspektiven.   Während sich große Konzerne schon längst auf den Weg gemacht haben, zögern viele Mittelständler noch. Zu komplex und zu teuer, lautet ihr Vorurteil, doch Iteratec-Consultant Völker widerspricht vehement. Er hält die Einstiegsbarrieren auch für kleinere Unternehmen für überschaubar. Schon in wenigen Monaten ließen sich mit der Kombination von KI und Digital Twin großartige Resultate erzielen – nicht nur beim Monitoren und Optimieren von Maschinen und Anlagen, auch in der Logistik und vor allem in der Entwicklung von neuen Materialien, die beispielsweise knappe Rohstoffe ersetzen können.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”> 

TechTalk-Podcast: Neue Chancen erschließen mit Digital Twins und KI​ iteratec

Das Thema Nachhaltigkeit hat nach dem Amtsantritt von Donald Trump als US-Präsident weltweit einen schwereren Stand. Doch für Christoph Völker, beim Münchner Softwarehaus Iteratec verantwortlich für „Sustainable Solutions“, ist das nur eine Momentaufnahme. Umweltgerechtes Wirtschaften sei eine „Menschheitsaufgabe“, die durch politische Umstände vielleicht verzögert, letztendlich aber nicht aufgehalten werden könne, erklärt er in der neuesten Ausgabe von „TechTalk Smart Leadership“, dem Podcast von COMPUTERWOCHE, CIO-Magazin und CSO-Online.

Nachhaltigkeit lohnt sich auch wirtschaftlich 

Auch wenn sich einige Unverbesserliche immer noch darüber streiten möchten, ob es den menschengemachten Klimawandel wirklich gibt, so zweifeln doch die wenigsten daran, dass viele lebenswichtige Rohstoffe auf dem Planeten Erde knapper werden. Die Endlichkeit der Ressourcen zwingt die Menschheit dazu, sparsamer zu wirtschaften, auf erneuerbare Energien umzusteigen und vermehrt über Kreislaufwirtschaft und Recycling nachzudenken.  

Diesen Weg einzuschlagen, lohnt sich auch wirtschaftlich: Wer seine Produktion nachhaltig gestaltet, kommt schnell in den Genuss von sinkenden Kosten, kürzeren Marktreaktionszeiten sowie einer optimierten Produktqualität und -vielfalt. Die Digitalisierung spielt eine Schlüsselrolle auf dem Weg in diese Zukunft. Insbesondere der Einsatz von Digital-Twin-Technologie im Zusammenspiel mit künstlicher Intelligenz (KI) eröffnet ganz neue Perspektiven.  

Während sich große Konzerne schon längst auf den Weg gemacht haben, zögern viele Mittelständler noch. Zu komplex und zu teuer, lautet ihr Vorurteil, doch Iteratec-Consultant Völker widerspricht vehement. Er hält die Einstiegsbarrieren auch für kleinere Unternehmen für überschaubar. Schon in wenigen Monaten ließen sich mit der Kombination von KI und Digital Twin großartige Resultate erzielen – nicht nur beim Monitoren und Optimieren von Maschinen und Anlagen, auch in der Logistik und vor allem in der Entwicklung von neuen Materialien, die beispielsweise knappe Rohstoffe ersetzen können.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”>

TechTalk-Podcast: Neue Chancen erschließen mit Digital Twins und KI​ Weiterlesen »

Lernen Sie Vibe Coding – oder gehen Sie in Rente!​

Allgemein

Fühlen Sie den Vibe?Rawpixel.com | shutterstock.com Falls Sie sich durch den Header dieses Artikels provoziert fühlen: Das ist beabsichtigt. Denn beim Thema Vibe Coding ist ein Weckruf angebracht. Dieser Begriff beschreibt den Prozess, mit Hilfe von LLM-basierten Generative-AI-Tools Code, respektive Applikationen zu generieren. Inzwischen gibt es eine ganze Reihe von Programmier-Tools, die Support für Vibe Coding mitbringen, etwa von Cursor, Codeline und Tabnine – aber auch GitHub Copilot wurde inzwischen entsprechend erweitert. Dieser Artikel beschäftigt sich allerdings nicht damit, wie gut oder schlecht diese Tools funktionieren oder ob sie aus Security-Perspektive zu empfehlen sind. Stattdessen erfahren Sie in diesem Meinungsbeitrag, warum Sie sich dringend mit dem Konzept von Vibe Coding beschäftigen und lernen sollten, wie man entsprechende Tools optimal einsetzt. Denn wenn Sie das nicht verinnerlichen können oder wollen, bleibt aus meiner Sicht nur eine Lösung: Setzen Sie sich zur Ruhe. Entwickler-Déjà-Vus Diese Empfehlung spreche ich auf der Grundlage meiner Erfahrung aus, denn ich habe ganz Ähnliches schon einmal zu Beginn meiner Developer-Karriere erlebt. Damals hatte ich einen Entwicklerkollegen – nennen wir ihn einfach Tom. Der war ein Programmierer der alten Schule, hat Visual Basic auf der Grundlage von Büchern erlernt und konnte mit diesem Know-how alle sechs Monate ein Reporting erstellen. Als Tom dann seinen wohlverdienten Urlaub antrat, habe ich ihn vertreten und die Arbeit von sechs Monaten in rund eineinhalb Wochen erledigt. Von da an war Toms Abneigung mein täglicher Begleiter. Das habe ich im Wesentlichen geschafft, indem ich eine IDE genutzt und gegoogelt habe. Als unser Arbeitgeber dann zu Java wechselte, habe ich auch diese Sprache in etwa einer Woche verinnerlicht – dem Internet sei Dank. Tom hingegen setzte auch zu diesem Zeitpunkt noch darauf, aus Büchern zu lernen – und betrachtete Bruce Eckles „Thinking in Java“ als seine persönliche Bibel. Tom hatte einfach keinerlei Interesse daran, neue Arbeitsweisen kennenzulernen.  Wenn Sie auch ein „Tom“ sein sollten: Neue Arbeitsmethoden zu erlernen, ist Teil des Entwickler-Jobs. Sie schreiben schließlich Software für Unternehmen und sind kein Künstler oder Code-Poet. Die harte Wahrheit ist, dass sich im Enterprise-Umfeld niemand für „Software-Handwerkskunst“ interessiert. Es geht darum, neue Wege zu ergründen, um die Aufgaben besser oder schneller zu erledigen. Wenn Sie das nicht so sehen, bleibt Ihnen vermutlich nur, das zu tun, was Tom getan hat, als ihm ein 20-Jähriger mit Google-Know-how den Rang abgelaufen hat. Er ging in Rente. Gut Ding… Die erste Applikation, die Sie im Vibe-Coding-Verfahren erstellen, wird vermutlich nicht besonders gut sein (es kann aber auch anders laufen). Das liegt dann allerdings weniger am Tool, das dafür zum Einsatz kam, sondern (wie so oft) an seinem Benutzer. Zwar sind diese weit davon entfernt, ausgereift zu sein und zuverlässig und stabil zu laufen – aber es liegt an Ihnen, sich „reinzufuchsen“ und die Werkzeuge so anzupassen, dass sie optimal damit arbeiten können. Wie man das eben so macht mit Developer-Tools – und schon immer gemacht hat. Wenn Sie den Dreh raus haben, sind Sie nicht nur in der Lage, schneller zu programmieren – Sie verfügen auch über entscheidende Skills für Ihre Karrierezukunft. Ich für meinen Teil spare mit Vibe Coding jede Menge Zeit. Wenn Ihnen in der bevorstehenden Hyperinflations-Ära etwas an ihrem Job und dem damit verbundenen Gehalt liegt, hier noch einige Tipps für einen erfolgreichen Vibe-Coding-Einstieg: Starten Sie mit der kostenlosen Version von Cursor, Codeline oder einem anderen Tool mit Vibe-Coding-Fähigkeiten – und investieren Sie anschließend die paar Dollar, die das „richtige“ Abo kostet. Ermitteln Sie ein Problem, das Sie gerne mit Programmierarbeit lösen würden, wenn Sie Zeit hätten. Nutzen Sie regelmäßig Git. Die Versionskontrollsoftware hat den Hang, seltsam zu agieren – darauf sollten Sie vorbereitet sein. „Erörtern“ Sie vor der Codegenerierung das Design mit dem LLM und lassen Sie das Ergebnis in Markdown ausgeben. Diese lassen sich in der Regel in der Vibe-Coding-IDE referenzieren, sodass Sie das Modell nicht ständig daran erinnern müssen, was es programmieren soll. Überprüfen Sie jeden einzelnen Arbeitsschritt und machen Sie ihn rückgängig, wenn nötig. Bleiben Sie dran, auch wenn Sie frustriert sind. Mit Blick auf LLMs empfehlen sich Claude 3.7 Sonnet oder auch Gemini 2.5 Pro. Wow, this is cool. AI gaming will be massive. https://t.co/W125t7VqXz— Elon Musk (@elonmusk) February 26, 2025 (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Lernen Sie Vibe Coding – oder gehen Sie in Rente!​ Fühlen Sie den Vibe?Rawpixel.com | shutterstock.com

Falls Sie sich durch den Header dieses Artikels provoziert fühlen: Das ist beabsichtigt. Denn beim Thema Vibe Coding ist ein Weckruf angebracht. Dieser Begriff beschreibt den Prozess, mit Hilfe von LLM-basierten Generative-AI-Tools Code, respektive Applikationen zu generieren. Inzwischen gibt es eine ganze Reihe von Programmier-Tools, die Support für Vibe Coding mitbringen, etwa von Cursor, Codeline und Tabnine – aber auch GitHub Copilot wurde inzwischen entsprechend erweitert.

Dieser Artikel beschäftigt sich allerdings nicht damit, wie gut oder schlecht diese Tools funktionieren oder ob sie aus Security-Perspektive zu empfehlen sind. Stattdessen erfahren Sie in diesem Meinungsbeitrag, warum Sie sich dringend mit dem Konzept von Vibe Coding beschäftigen und lernen sollten, wie man entsprechende Tools optimal einsetzt.

Denn wenn Sie das nicht verinnerlichen können oder wollen, bleibt aus meiner Sicht nur eine Lösung: Setzen Sie sich zur Ruhe.

Entwickler-Déjà-Vus

Diese Empfehlung spreche ich auf der Grundlage meiner Erfahrung aus, denn ich habe ganz Ähnliches schon einmal zu Beginn meiner Developer-Karriere erlebt. Damals hatte ich einen Entwicklerkollegen – nennen wir ihn einfach Tom. Der war ein Programmierer der alten Schule, hat Visual Basic auf der Grundlage von Büchern erlernt und konnte mit diesem Know-how alle sechs Monate ein Reporting erstellen. Als Tom dann seinen wohlverdienten Urlaub antrat, habe ich ihn vertreten und die Arbeit von sechs Monaten in rund eineinhalb Wochen erledigt. Von da an war Toms Abneigung mein täglicher Begleiter.

Das habe ich im Wesentlichen geschafft, indem ich eine IDE genutzt und gegoogelt habe. Als unser Arbeitgeber dann zu Java wechselte, habe ich auch diese Sprache in etwa einer Woche verinnerlicht – dem Internet sei Dank. Tom hingegen setzte auch zu diesem Zeitpunkt noch darauf, aus Büchern zu lernen – und betrachtete Bruce Eckles „Thinking in Java“ als seine persönliche Bibel. Tom hatte einfach keinerlei Interesse daran, neue Arbeitsweisen kennenzulernen. 

Wenn Sie auch ein „Tom“ sein sollten: Neue Arbeitsmethoden zu erlernen, ist Teil des Entwickler-Jobs. Sie schreiben schließlich Software für Unternehmen und sind kein Künstler oder Code-Poet. Die harte Wahrheit ist, dass sich im Enterprise-Umfeld niemand für „Software-Handwerkskunst“ interessiert. Es geht darum, neue Wege zu ergründen, um die Aufgaben besser oder schneller zu erledigen. Wenn Sie das nicht so sehen, bleibt Ihnen vermutlich nur, das zu tun, was Tom getan hat, als ihm ein 20-Jähriger mit Google-Know-how den Rang abgelaufen hat. Er ging in Rente.

Gut Ding…

Die erste Applikation, die Sie im Vibe-Coding-Verfahren erstellen, wird vermutlich nicht besonders gut sein (es kann aber auch anders laufen). Das liegt dann allerdings weniger am Tool, das dafür zum Einsatz kam, sondern (wie so oft) an seinem Benutzer. Zwar sind diese weit davon entfernt, ausgereift zu sein und zuverlässig und stabil zu laufen – aber es liegt an Ihnen, sich „reinzufuchsen“ und die Werkzeuge so anzupassen, dass sie optimal damit arbeiten können. Wie man das eben so macht mit Developer-Tools – und schon immer gemacht hat.

Wenn Sie den Dreh raus haben, sind Sie nicht nur in der Lage, schneller zu programmieren – Sie verfügen auch über entscheidende Skills für Ihre Karrierezukunft. Ich für meinen Teil spare mit Vibe Coding jede Menge Zeit.

Wenn Ihnen in der bevorstehenden Hyperinflations-Ära etwas an ihrem Job und dem damit verbundenen Gehalt liegt, hier noch einige Tipps für einen erfolgreichen Vibe-Coding-Einstieg:

Starten Sie mit der kostenlosen Version von Cursor, Codeline oder einem anderen Tool mit Vibe-Coding-Fähigkeiten – und investieren Sie anschließend die paar Dollar, die das „richtige“ Abo kostet.

Ermitteln Sie ein Problem, das Sie gerne mit Programmierarbeit lösen würden, wenn Sie Zeit hätten.

Nutzen Sie regelmäßig Git. Die Versionskontrollsoftware hat den Hang, seltsam zu agieren – darauf sollten Sie vorbereitet sein.

„Erörtern“ Sie vor der Codegenerierung das Design mit dem LLM und lassen Sie das Ergebnis in Markdown ausgeben. Diese lassen sich in der Regel in der Vibe-Coding-IDE referenzieren, sodass Sie das Modell nicht ständig daran erinnern müssen, was es programmieren soll.

Überprüfen Sie jeden einzelnen Arbeitsschritt und machen Sie ihn rückgängig, wenn nötig.

Bleiben Sie dran, auch wenn Sie frustriert sind.

Mit Blick auf LLMs empfehlen sich Claude 3.7 Sonnet oder auch Gemini 2.5 Pro.

Wow, this is cool. AI gaming will be massive. https://t.co/W125t7VqXz— Elon Musk (@elonmusk) February 26, 2025

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Lernen Sie Vibe Coding – oder gehen Sie in Rente!​ Weiterlesen »

Eine neue Ära der Entwicklerzusammenarbeit​

Allgemein

Der Einsatz moderner Tools unterstützt Unternehmen bei der digitalen Transformation. shutterstock/PeopleImages.com – Yuri A Führungskräfte von GitLab und Siemens kommen zusammen, um Resümee zu ziehen und zu besprechen, wie sich der weltweit agierende Technologiekonzern in den letzten zehn Jahren im Hinblick auf internes Softwaremanagement entwickelt hat. Seit 2014 setzt Siemens auf GitLab – anfangs jedoch nur in begrenztem Umfang. Wie kam es zu dieser Entscheidung, und wie sah die Nutzung der Plattform in der Anfangsphase konkret aus? Für welche Zwecke war GitLab ursprünglich vorgesehen? Roger Meier: Im Jahr 2014 suchte ein kleines Team bei Siemens nach kollaborativen Lösungen, die eine einfache Zusammenarbeit bei der Entwicklung von Linux-basierten, eingebetteten Geräten und bei der Versionskontrolle ermöglichten. Sie entschieden sich für GitLab! Vor der Einführung von GitLab nutzten wir eine Vielzahl von Entwicklungstools und hatten nur sehr wenige Git-Benutzer(innen). Außerdem fehlte eine unternehmensweite Plattform für das Hosting von Quellcode. Wir benötigten eine Open-Source-Lösung, bei der wir die von uns benötigten Funktionen einfach hinzufügen konnten. Unser Hauptziel war es, eine Plattform für den Austausch von und die Zusammenarbeit am Code aufzubauen, die für alle im gesamten Unternehmen zugänglich ist. loading=”lazy” width=”400px”> Roger Meier, Distinguished Engineer und Service Owner von code.siemens.com, Siemens   loading=”lazy” width=”400px”> André Braun, Head of DACH, GitLab   Haben Sie im Vorfeld auch andere Open-Source- oder Closed-Source-Plattformen geprüft? Falls ja, was gab letztlich den Ausschlag zugunsten von GitLab? Roger Meier: Während der ersten Evaluierung im Jahr 2013 haben wir mehrere Tests und Installationen anderer Plattformen für Code-Zusammenarbeit durchgeführt. Da wir bereits Open-Source verwendet und mehrfach eigene Beiträge dazu geleistet hatten, fiel die Wahl ganz natürlich auf eine Open-Source-Plattform. Es war großartig zu sehen, wie rasch sich ein Teamgeist in der Zusammenarbeit mit GitLab entwickelte. Wir waren extrem inspiriert von der kollaborativen Atmosphäre, die wir vorfanden. André Braun: Es gibt viele Gründe, warum sich Benutzer(innen), Kund(inn)en und Partner(innen) für die Arbeit mit GitLab entscheiden. Die engagierte globale Community rund um GitLab zeichnet uns besonders aus. Ständig diskutieren Tausende von Entwickler(inne)n miteinander darüber, wie sie die Plattform am besten nutzen und weiterentwickeln können. Siemens nutzt das GitLab-Handbuch und unser Ticketsystem, um unsere Werte und die empfohlenen DevOps-Praktiken in die Kultur seiner Entwicklungsteams zu integrieren. Dies zeigt ganz klar, dass unsere Mission unterstützt wird, was uns sehr freut. Wann und wie wurde GitLab für das gesamte Unternehmen freigeschaltet? Roger Meier: Man muss das tun, was man für richtig hält – Schritt für Schritt. Unsere GitLab-Plattform war von der ersten Einrichtung im Februar 2014 an für alle verfügbar. Später habe ich jedoch das Konzept von code.siemens.com in unserem internen sozialen Netzwerk eingeführt, und am 5. November 2015 haben wir den primären DNS-Eintrag auf code.siemens.com umgestellt. André Braun: Ähnlich wie Siemens starten viele unserer Kund(inn)en ihre eigenen Softwarelösungen für Inner-Source, um die Zusammenarbeit in ihren Unternehmen zu optimieren. Inner-Source ermöglicht die Zusammenarbeit, indem geistiges Eigentum aus verschiedenen Abteilungen in einer einzigen Datenquelle zentralisiert wird. Nicht jedes Mal ein neues Konzept entwickeln zu müssen, schafft einen enormen Mehrwert für Unternehmen wie Siemens. Welche konkreten Mehrwerte konnte Siemens durch die Einführung von GitLab bisher erzielen? Roger Meier: Die Flexibilität von GitLab bei der Implementierung von Open-Source-Tools hat unserer Plattform bei Siemens viele Vorteile gebracht. Von Linting über Container-Builds bis hin zu Containersicherheit: Es gibt viele Beispiele, bei denen wir in der Lage waren, Workflows zu automatisieren oder zu vereinfachen, indem wir Open-Source-Tools so implementierten, wie es den damaligen Bedürfnissen entsprach. Und wenn wir in Zukunft das Gefühl haben, dass eine Funktion fehlt, fügen wir sie zu GitLab hinzu. Dies tun wir bereits seit Beginn unserer gemeinsamen Reise. Tatsächlich hat unser Team in den letzten neun Jahren über 300 Merge Requests beigetragen und 12 MVP (Most Valuable Person)-Nominierungen erhalten. Gab es positive Effekte, mit denen Sie anfangs nicht gerechnet hatten? Roger Meier: Unser Hauptziel bestand darin, mit GitLab die Effizienz und Effektivität auf breiter Ebene zu verbessern. Wir hatten allerdings keine Ahnung, wie wirkungsvoll dies sein würde und wie sehr das Führungsteam von Siemens seinen Wert erkennen würde. Welche Zahlen würden Sie heranziehen, um den Erfolg der GitLab-Einführung zu veranschaulichen? Roger Meier: Siemens verzeichnete von Anfang an positive Ergebnisse. Wir hätten aber nie gedacht, dass wir die Benutzerzahlen erreichen würden, die wir derzeit haben – über 75.000 registrierte Benutzer(innen). Die GitLab-Plattform zeichnet sich u. a. dadurch aus, dass sie mit unseren Ambitionen Schritt halten konnte. Heute werden täglich über 200.000 Builds erstellt, und die CI/CD-Funktionen von GitLab werden unternehmensweit eingesetzt. André Braun: Die Nutzung einer zentralen Plattform ist ein Eckpfeiler der Werte von GitLab für Kund(inn)en und Partner(innen). GitLab bietet eine Plattform mit nur einer Benutzeroberfläche, die das Skalieren zum Kinderspiel macht – von einem Benutzerkonto zu Millionen, ganz ohne Probleme. Welche Potenziale bietet die Plattform aus Sicht von Siemens – vor allem mit Blick auf künstliche Intelligenz? Roger Meier: Wir betrachten KI als ein bedeutendes Thema für die Unterstützung unserer Entwickler(innen). Wir hosten derzeit unsere eigenen Modelle und verfügen über den CodeAI-Bot, der bei Merge Requests hilft. In diesem Bereich wird es noch viel mehr geben. Ich bin mir nicht ganz sicher, was du darüber denkst, André. André Braun: GitLab ist der Ansicht, dass unsere Kund(inn)en durch KI bessere und sicherere Software schneller bereitstellen können. Der Einsatz von KI in der Softwareentwicklung kann die täglichen Aufgaben von Entwickler(inne)n effizienter gestalten. Zum Beispiel berichten Entwickler(innen), dass sie nur 21 % ihrer Zeit damit verbringen, neuen Code zu schreiben. Die verbleibende Zeit wird für administrative Aufgaben, die Verbesserung von bestehendem Code, Tests und die Behebung von Sicherheitslücken aufgewendet. Mithilfe der KI gehen all diese Aufgaben noch leichter von der Hand. Deshalb arbeiten wir kontinuierlich daran, die Funktionen und Fähigkeiten unserer KI-Erweiterung GitLab Duo noch weiter zu verbessern. Welche Empfehlungen würden Sie Unternehmen mitgeben, die planen, GitLab oder generell eine DevOps-Plattform einzuführen? Roger Meier: Wir empfehlen GitLab für Unternehmen, die viele Entwickler(innen) aus verschiedenen Abteilungen an einen Tisch bringen müssen, um gemeinsam an Softwareprojekten zu arbeiten. Durch die Nutzung einer einheitlichen Plattform wie GitLab beträgt unsere typische Reaktionszeit für die Beantwortung von Entwickler(innen)-Fragen nur eine Stunde. Die Abwicklung erfolgt über unser internes soziales Netzwerk oder das Ticketsystem, das für alle Siemens-Mitarbeiter(innen) zugänglich ist. Wir empfehlen diesen Ansatz allen Unternehmen, die sich in einer ähnlichen Lage befinden. Das Verfolgen dieser Strategie hat sich für Siemens jedenfalls ausgezahlt – wir profitieren nach wie vor davon. Registrieren Sie sich jetzt 

Eine neue Ära der Entwicklerzusammenarbeit​ Der Einsatz moderner Tools unterstützt Unternehmen bei der digitalen Transformation.
shutterstock/PeopleImages.com – Yuri A

Führungskräfte von GitLab und Siemens kommen zusammen, um Resümee zu ziehen und zu besprechen, wie sich der weltweit agierende Technologiekonzern in den letzten zehn Jahren im Hinblick auf internes Softwaremanagement entwickelt hat.

Seit 2014 setzt Siemens auf GitLab – anfangs jedoch nur in begrenztem Umfang. Wie kam es zu dieser Entscheidung, und wie sah die Nutzung der Plattform in der Anfangsphase konkret aus? Für welche Zwecke war GitLab ursprünglich vorgesehen?

Roger Meier: Im Jahr 2014 suchte ein kleines Team bei Siemens nach kollaborativen Lösungen, die eine einfache Zusammenarbeit bei der Entwicklung von Linux-basierten, eingebetteten Geräten und bei der Versionskontrolle ermöglichten. Sie entschieden sich für GitLab! Vor der Einführung von GitLab nutzten wir eine Vielzahl von Entwicklungstools und hatten nur sehr wenige Git-Benutzer(innen). Außerdem fehlte eine unternehmensweite Plattform für das Hosting von Quellcode. Wir benötigten eine Open-Source-Lösung, bei der wir die von uns benötigten Funktionen einfach hinzufügen konnten. Unser Hauptziel war es, eine Plattform für den Austausch von und die Zusammenarbeit am Code aufzubauen, die für alle im gesamten Unternehmen zugänglich ist.

loading=”lazy” width=”400px”> Roger Meier, Distinguished Engineer und Service Owner von code.siemens.com, Siemens   loading=”lazy” width=”400px”> André Braun, Head of DACH, GitLab  

Haben Sie im Vorfeld auch andere Open-Source- oder Closed-Source-Plattformen geprüft? Falls ja, was gab letztlich den Ausschlag zugunsten von GitLab?

Roger Meier: Während der ersten Evaluierung im Jahr 2013 haben wir mehrere Tests und Installationen anderer Plattformen für Code-Zusammenarbeit durchgeführt. Da wir bereits Open-Source verwendet und mehrfach eigene Beiträge dazu geleistet hatten, fiel die Wahl ganz natürlich auf eine Open-Source-Plattform. Es war großartig zu sehen, wie rasch sich ein Teamgeist in der Zusammenarbeit mit GitLab entwickelte. Wir waren extrem inspiriert von der kollaborativen Atmosphäre, die wir vorfanden.

André Braun: Es gibt viele Gründe, warum sich Benutzer(innen), Kund(inn)en und Partner(innen) für die Arbeit mit GitLab entscheiden. Die engagierte globale Community rund um GitLab zeichnet uns besonders aus. Ständig diskutieren Tausende von Entwickler(inne)n miteinander darüber, wie sie die Plattform am besten nutzen und weiterentwickeln können. Siemens nutzt das GitLab-Handbuch und unser Ticketsystem, um unsere Werte und die empfohlenen DevOps-Praktiken in die Kultur seiner Entwicklungsteams zu integrieren. Dies zeigt ganz klar, dass unsere Mission unterstützt wird, was uns sehr freut.

Wann und wie wurde GitLab für das gesamte Unternehmen freigeschaltet?

Roger Meier: Man muss das tun, was man für richtig hält – Schritt für Schritt. Unsere GitLab-Plattform war von der ersten Einrichtung im Februar 2014 an für alle verfügbar. Später habe ich jedoch das Konzept von code.siemens.com in unserem internen sozialen Netzwerk eingeführt, und am 5. November 2015 haben wir den primären DNS-Eintrag auf code.siemens.com umgestellt.

André Braun: Ähnlich wie Siemens starten viele unserer Kund(inn)en ihre eigenen Softwarelösungen für Inner-Source, um die Zusammenarbeit in ihren Unternehmen zu optimieren. Inner-Source ermöglicht die Zusammenarbeit, indem geistiges Eigentum aus verschiedenen Abteilungen in einer einzigen Datenquelle zentralisiert wird. Nicht jedes Mal ein neues Konzept entwickeln zu müssen, schafft einen enormen Mehrwert für Unternehmen wie Siemens.

Welche konkreten Mehrwerte konnte Siemens durch die Einführung von GitLab bisher erzielen?

Roger Meier: Die Flexibilität von GitLab bei der Implementierung von Open-Source-Tools hat unserer Plattform bei Siemens viele Vorteile gebracht. Von Linting über Container-Builds bis hin zu Containersicherheit: Es gibt viele Beispiele, bei denen wir in der Lage waren, Workflows zu automatisieren oder zu vereinfachen, indem wir Open-Source-Tools so implementierten, wie es den damaligen Bedürfnissen entsprach. Und wenn wir in Zukunft das Gefühl haben, dass eine Funktion fehlt, fügen wir sie zu GitLab hinzu. Dies tun wir bereits seit Beginn unserer gemeinsamen Reise. Tatsächlich hat unser Team in den letzten neun Jahren über 300 Merge Requests beigetragen und 12 MVP (Most Valuable Person)-Nominierungen erhalten.

Gab es positive Effekte, mit denen Sie anfangs nicht gerechnet hatten?

Roger Meier: Unser Hauptziel bestand darin, mit GitLab die Effizienz und Effektivität auf breiter Ebene zu verbessern. Wir hatten allerdings keine Ahnung, wie wirkungsvoll dies sein würde und wie sehr das Führungsteam von Siemens seinen Wert erkennen würde.

Welche Zahlen würden Sie heranziehen, um den Erfolg der GitLab-Einführung zu veranschaulichen?

Roger Meier: Siemens verzeichnete von Anfang an positive Ergebnisse. Wir hätten aber nie gedacht, dass wir die Benutzerzahlen erreichen würden, die wir derzeit haben – über 75.000 registrierte Benutzer(innen). Die GitLab-Plattform zeichnet sich u. a. dadurch aus, dass sie mit unseren Ambitionen Schritt halten konnte. Heute werden täglich über 200.000 Builds erstellt, und die CI/CD-Funktionen von GitLab werden unternehmensweit eingesetzt.

André Braun: Die Nutzung einer zentralen Plattform ist ein Eckpfeiler der Werte von GitLab für Kund(inn)en und Partner(innen). GitLab bietet eine Plattform mit nur einer Benutzeroberfläche, die das Skalieren zum Kinderspiel macht – von einem Benutzerkonto zu Millionen, ganz ohne Probleme.

Welche Potenziale bietet die Plattform aus Sicht von Siemens – vor allem mit Blick auf künstliche Intelligenz?

Roger Meier: Wir betrachten KI als ein bedeutendes Thema für die Unterstützung unserer Entwickler(innen). Wir hosten derzeit unsere eigenen Modelle und verfügen über den CodeAI-Bot, der bei Merge Requests hilft. In diesem Bereich wird es noch viel mehr geben. Ich bin mir nicht ganz sicher, was du darüber denkst, André.

André Braun: GitLab ist der Ansicht, dass unsere Kund(inn)en durch KI bessere und sicherere Software schneller bereitstellen können. Der Einsatz von KI in der Softwareentwicklung kann die täglichen Aufgaben von Entwickler(inne)n effizienter gestalten. Zum Beispiel berichten Entwickler(innen), dass sie nur 21 % ihrer Zeit damit verbringen, neuen Code zu schreiben. Die verbleibende Zeit wird für administrative Aufgaben, die Verbesserung von bestehendem Code, Tests und die Behebung von Sicherheitslücken aufgewendet. Mithilfe der KI gehen all diese Aufgaben noch leichter von der Hand. Deshalb arbeiten wir kontinuierlich daran, die Funktionen und Fähigkeiten unserer KI-Erweiterung GitLab Duo noch weiter zu verbessern.

Welche Empfehlungen würden Sie Unternehmen mitgeben, die planen, GitLab oder generell eine DevOps-Plattform einzuführen?

Roger Meier: Wir empfehlen GitLab für Unternehmen, die viele Entwickler(innen) aus verschiedenen Abteilungen an einen Tisch bringen müssen, um gemeinsam an Softwareprojekten zu arbeiten. Durch die Nutzung einer einheitlichen Plattform wie GitLab beträgt unsere typische Reaktionszeit für die Beantwortung von Entwickler(innen)-Fragen nur eine Stunde. Die Abwicklung erfolgt über unser internes soziales Netzwerk oder das Ticketsystem, das für alle Siemens-Mitarbeiter(innen) zugänglich ist. Wir empfehlen diesen Ansatz allen Unternehmen, die sich in einer ähnlichen Lage befinden. Das Verfolgen dieser Strategie hat sich für Siemens jedenfalls ausgezahlt – wir profitieren nach wie vor davon.

Registrieren Sie sich jetzt

Eine neue Ära der Entwicklerzusammenarbeit​ Weiterlesen »

7 Fehler vermeiden: Was eine gute Stellenanzeige ausmacht​

Allgemein

Nach wie vor nehmen Arbeitgeber das Formulieren und Gestalten von Jobanzeigen nicht ernst genug und vergeben damit Chancen, neue Mitarbeiter zu erreichen. Foto: PIC SNIPE – shutterstock.com“Eine gute Werbeanzeige muss das Produkt verkaufen, ohne die Aufmerksamkeit auf sich selbst zu ziehen.” Das ist ein Zitat des berühmten Werbetexters David Ogilvy. Er schrieb unter anderem die Slogans für Marken wie Dove, Guinness, Schweppes und viele mehr und führte dank seiner Werbetexte viele Unternehmen zu großen Erfolgen.Eines seiner Geheimnisse ist dabei die Aufmerksamkeit, die nie auf das wesentliche Produkt bezogen wird, sondern immer auf die Person selbst, die das Erlebnis mit diesem Produkt sucht. Genau aus diesem Zitat lassen sich auch einige Tipps und Tricks auf die eigene und richtige Stellenanzeige projizieren. Schließlich sind Stellenangebote Werbeanzeigen für das eigene Unternehmen.Internen Fachjargon vermeidenInwiefern sich dieser eine Satz von David Ogilvy auch auf Stellenanzeigen übertragen lässt, sollen folgende Überlegungen zeigen:1. Derzeit gibt es viele Stellenanzeigen auf dem Markt. Die Jobbörsen sind wortwörtlich überflutet von Angeboten, und potenzielle Bewerber sind meist überfordert von der Vielzahl an Anzeigen. Demnach sind Keywords der Schlüssel zum Erfolg. Es wird immer wieder geraten, sich auf die Bezeichnungen der Außenwelt zu beziehen und auf interne Stellenbezeichnungen zu verzichten. Der Bewerber benötigt eine klare Definition, um welchen Beruf es sich handelt. Aus diesem Grund sollte immer gefragt werden: Wie wird dieser Job in der Gesellschaft benannt?Keine missverständlichen Formulierungen2. Originell bleiben! In einer guten Stellenanzeige wird das eigene Unternehmen kurz definiert. Fragen wie: Wie groß ist das Unternehmen? Was machen Sie genau? Warum tun Sie das? Sprich, was ist Ihre Aufgabe auf dem Markt? sollten kurze, klare Antworten haben. Allerdings sollte berücksichtigt werden, dass es in erster Linie um einen Wettbewerb geht. Der potenzielle Bewerber möchte erstmal eine grobe Übersicht über die unternehmerischen Tätigkeiten erhalten und keine Erfolgsgeschichte lesen.3. Fast jeder Bewerber glaubt, dass die wichtigste Aufgabe ganz oben im Bereich des Tätigkeitsfeldes steht. Unklare Aufgaben sollten also am besten vermieden werden.Keine Buzzwords4. Wenn nun eine eindeutige Erklärung im Stellenangebot zum Aufgabenbereich verfasst wurde, wird empfohlen, nochmal einen Blick über diese Liste zu werfen. Am besten funktioniert die Gegenprobe: “Würde ich mich dort bewerben?”. Der Fokus darf dabei nicht aus den Augen verloren werden. Oftmals hat eine kürzere Aufgabenliste bessere Erfolgsquoten, da der Bewerber besser zwischen “Kann” und “Muss” unterscheiden wird. Schließlich können im Bewerbungsgespräch dann weitere Aufgaben besprochen werden.5. Buzzwords vermeiden! “Wir sind ein dynamisches Unternehmen mit familiärer Atmosphäre und flacherer Hierarchien.” Kommt Ihnen dieser Satz bekannt vor? Bei Buzzwords hat jeder Kandidate andere Vorstellungen. Die Definition hinter den Wörtern, wie unter anderem dynamisch, familiär oder auch teamfähig, ist bei jedem eine andere. Demnach wird die beworbene Tätigkeit für den Bewerber weder greifbar noch verständlich. Als Alternative bietet sich eine Beschreibung des Teams, Unternehmens oder auch die interne Kommunikation an.Benefits nicht vergessen6. Ein wichtiger Punkt in einer Stellenanzeige sind Benefits. Bei diesem Thema wird besonders das Zitat von David Ogilvy erfüllt: “Machen Sie ein echtes Angebot!” Die Benefits müssen aus der Masse herausstechen und machen so auf das Unternehmen aufmerksam, ohne dass es sich in den Vordergrund stellt. Schließlich möchte der potenzielle Bewerber wissen, wovon er selbst profitieren kann, wenn er ein Teil der Firma wird. Der Grundstein dafür können unter anderem Urlaubstage, Zuschüsse in Weiterbildungen oder die Gesundheit sein sowie die Möglichkeit, auch Home-Office zu nutzen.7. Zum Abschluss folgt noch eine kleine Erinnerung: Der Call-to-Action! Zum Abschluss der Stellenanzeige muss der Kandidat direkt zur Handlung aufgefordert werden – etwa mit dem Satz: “Bewerben Sie sich jetzt.” 

7 Fehler vermeiden: Was eine gute Stellenanzeige ausmacht​ Nach wie vor nehmen Arbeitgeber das Formulieren und Gestalten von Jobanzeigen nicht ernst genug und vergeben damit Chancen, neue Mitarbeiter zu erreichen.
Foto: PIC SNIPE – shutterstock.com“Eine gute Werbeanzeige muss das Produkt verkaufen, ohne die Aufmerksamkeit auf sich selbst zu ziehen.” Das ist ein Zitat des berühmten Werbetexters David Ogilvy. Er schrieb unter anderem die Slogans für Marken wie Dove, Guinness, Schweppes und viele mehr und führte dank seiner Werbetexte viele Unternehmen zu großen Erfolgen.Eines seiner Geheimnisse ist dabei die Aufmerksamkeit, die nie auf das wesentliche Produkt bezogen wird, sondern immer auf die Person selbst, die das Erlebnis mit diesem Produkt sucht. Genau aus diesem Zitat lassen sich auch einige Tipps und Tricks auf die eigene und richtige Stellenanzeige projizieren. Schließlich sind Stellenangebote Werbeanzeigen für das eigene Unternehmen.Internen Fachjargon vermeidenInwiefern sich dieser eine Satz von David Ogilvy auch auf Stellenanzeigen übertragen lässt, sollen folgende Überlegungen zeigen:1. Derzeit gibt es viele Stellenanzeigen auf dem Markt. Die Jobbörsen sind wortwörtlich überflutet von Angeboten, und potenzielle Bewerber sind meist überfordert von der Vielzahl an Anzeigen. Demnach sind Keywords der Schlüssel zum Erfolg. Es wird immer wieder geraten, sich auf die Bezeichnungen der Außenwelt zu beziehen und auf interne Stellenbezeichnungen zu verzichten. Der Bewerber benötigt eine klare Definition, um welchen Beruf es sich handelt. Aus diesem Grund sollte immer gefragt werden: Wie wird dieser Job in der Gesellschaft benannt?Keine missverständlichen Formulierungen2. Originell bleiben! In einer guten Stellenanzeige wird das eigene Unternehmen kurz definiert. Fragen wie: Wie groß ist das Unternehmen? Was machen Sie genau? Warum tun Sie das? Sprich, was ist Ihre Aufgabe auf dem Markt? sollten kurze, klare Antworten haben. Allerdings sollte berücksichtigt werden, dass es in erster Linie um einen Wettbewerb geht. Der potenzielle Bewerber möchte erstmal eine grobe Übersicht über die unternehmerischen Tätigkeiten erhalten und keine Erfolgsgeschichte lesen.3. Fast jeder Bewerber glaubt, dass die wichtigste Aufgabe ganz oben im Bereich des Tätigkeitsfeldes steht. Unklare Aufgaben sollten also am besten vermieden werden.Keine Buzzwords4. Wenn nun eine eindeutige Erklärung im Stellenangebot zum Aufgabenbereich verfasst wurde, wird empfohlen, nochmal einen Blick über diese Liste zu werfen. Am besten funktioniert die Gegenprobe: “Würde ich mich dort bewerben?”. Der Fokus darf dabei nicht aus den Augen verloren werden. Oftmals hat eine kürzere Aufgabenliste bessere Erfolgsquoten, da der Bewerber besser zwischen “Kann” und “Muss” unterscheiden wird. Schließlich können im Bewerbungsgespräch dann weitere Aufgaben besprochen werden.5. Buzzwords vermeiden! “Wir sind ein dynamisches Unternehmen mit familiärer Atmosphäre und flacherer Hierarchien.” Kommt Ihnen dieser Satz bekannt vor? Bei Buzzwords hat jeder Kandidate andere Vorstellungen. Die Definition hinter den Wörtern, wie unter anderem dynamisch, familiär oder auch teamfähig, ist bei jedem eine andere. Demnach wird die beworbene Tätigkeit für den Bewerber weder greifbar noch verständlich. Als Alternative bietet sich eine Beschreibung des Teams, Unternehmens oder auch die interne Kommunikation an.Benefits nicht vergessen6. Ein wichtiger Punkt in einer Stellenanzeige sind Benefits. Bei diesem Thema wird besonders das Zitat von David Ogilvy erfüllt: “Machen Sie ein echtes Angebot!” Die Benefits müssen aus der Masse herausstechen und machen so auf das Unternehmen aufmerksam, ohne dass es sich in den Vordergrund stellt. Schließlich möchte der potenzielle Bewerber wissen, wovon er selbst profitieren kann, wenn er ein Teil der Firma wird. Der Grundstein dafür können unter anderem Urlaubstage, Zuschüsse in Weiterbildungen oder die Gesundheit sein sowie die Möglichkeit, auch Home-Office zu nutzen.7. Zum Abschluss folgt noch eine kleine Erinnerung: Der Call-to-Action! Zum Abschluss der Stellenanzeige muss der Kandidat direkt zur Handlung aufgefordert werden – etwa mit dem Satz: “Bewerben Sie sich jetzt.”

7 Fehler vermeiden: Was eine gute Stellenanzeige ausmacht​ Weiterlesen »

Trump-Regierung drängt EU zu weniger strengen KI-Vorgaben​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Da KI-Anbieter wie Google, Meta, Microsoft oder OpenAI aus den Vereinigten Staaten kommen, will sich die US-Regierung auch in die EU-Gesetzgebung einmischen.Ivan Marc – shutterstock.com Das EU-KI-Gesetz scheint zwar beschlossene Sache zu sein, doch die Interessengruppen arbeiten noch an einem Verhaltenskodex, der Regeln für allgemeine KI-Modelle festlegen soll, darunter auch solche mit systemischen Risiken.  Nun jedoch, da die Frist für die Ausarbeitung des Entwurfs näher rückt, soll US-Präsident Donald Trump Druck auf die europäischen Regulierungsbehörden ausüben, das Regelwerk zu verwerfen. Die US-Regierung und andere Kritiker behaupten, dieses behindere Innovationen, sei aufwändig und erweitere den Geltungsbereich des KI-Gesetzes, wodurch im Wesentlichen neue, unnötige Vorschriften geschaffen würden.  Um sich gegen die Verabschiedung des Entwurfs in seiner jetzigen Form auszusprechen, hat sich die US-Vertreter bei der EU kürzlich an die Europäische Kommission und mehrere europäische Regierungen gewandt, berichtet Bloomberg .  „Große Technologie-Unternehmen und nun auch Regierungsvertreter argumentieren, dass der Entwurf des KI-Regelwerks zusätzliche Verpflichtungen vorsieht“, erklärt Thomas Randall, Direktor für KI-Marktforschung bei der Info-Tech Research Group. Dazu zählten die Prüfung von Modellen durch Dritte und die vollständige Offenlegung von Trainingsdaten, die über den Inhalt des rechtsverbindlichen KI-Gesetzes hinausgehen und darüber hinaus nur sehr schwer in großem Maßstab umzusetzen seien.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> Verantwortung verlagert sich vom Anbieter zum Unternehmen  Auf ihrer Webseite, auf der die Initiative beschrieben wird, erklärt die Europäische Kommission entsprechend: „Der Kodex sollte ein zentrales Instrument für Anbieter sein, um die Einhaltung des KI-Gesetzes unter Einbeziehung modernster Praktiken nachzuweisen.“  Der Kodex ist freiwillig, soll aber Anbietern dabei helfen, sich auf die Vorschriften des EU-KI-Gesetzes in Bezug auf Transparenz, Urheberrecht und Risikominderung vorzubereiten. Er wird von einer vielfältigen Gruppe aus Anbietern von Allzweck-KI-Modellen, Branchenverbänden, Urheberrechtsinhabern, Vertretern der Zivilgesellschaft, Wissenschaftlern und unabhängigen Experten unter der Aufsicht des Europäischen KI-Amtes ausgearbeitet.  Die Frist für die Fertigstellung läuft bis Ende April. Die endgültige Fassung soll im Mai den EU-Vertretern zur Genehmigung vorgelegt werden und im August, ein Jahr nach Inkrafttreten des KI-Gesetzes, in Kraft treten. Der Kodex wird mit Sanktionen belegt sein. Randall weist darauf hin, dass bei Nichteinhaltung nach Inkrafttreten Geldstrafen in Höhe von bis zu sieben Prozent des weltweiten Umsatzes oder strengere Kontrollen durch die Regulierungsbehörden drohen.  Unabhängig davon, ob Brüssel den aktuellen Entwurf lockere oder verschärfe, verlagere sich das Gewicht der „verantwortungsvollen KI“ bereits von den Anbietern auf die Kundenunternehmen, die die Technologie einsetzten, merkt der Info-Tech-Analyst an.  „Jedes Unternehmen, das in Europa geschäftlich tätig ist, muss über eigene KI-Risikomanagement-Leitfäden verfügen, um vertragliche, regulatorische und Reputationsschäden zu vermeiden – einschließlich Datenschutz-Folgenabschätzungen, Herkunftsprotokollen oder Red-Team-Tests“, weiß Randall.  Wenn Brüssel seinen KI-Kodex tatsächlich abschwäche, würde es den Unternehmen nicht nur einen Freifahrtschein ausstellen, sondern ihnen das Steuer aus der Hand nehmen, fügte er hinzu.  Klare, genau definierte Regeln könnten zumindest die Leitplanken abstecken, so der Analyst. Fielen diese weg, müsste jedes Unternehmen, vom Garagen-Start-up bis zum globalen Konzern, seinen eigenen Kurs in Sachen Datenschutz, Urheberrecht und Modell-Sicherheit festlegen. Während einige vorpreschen würden, müssten andere wahrscheinlich auf die Bremse treten, da die Haftung „direkt auf ihrem Schreibtisch liegen würde“.  „In jedem Fall müssen CIOs Responsible-AI-Kontrollen als Kerninfrastruktur- und nicht als Nebenprojekt betrachten“, so der Analyst.  Ein weniger strenges, regulatorisches Umfeld  Folgten andere Länder dem Ansatz der aktuellen US-Regierung in Bezug auf die KI-Gesetzgebung, würde dies wahrscheinlich zu einem weniger strengen, regulatorischen Umfeld mit weniger staatlicher Aufsicht führen, merkt Bill Wong, KI-Forschungsstipendiat bei der Info-Tech Research Group, an.  Er weist darauf hin, dass die neue US-Regierung im Januar die Executive Order 14179 „Removing Barriers to American Leadership in Artificial Intelligence“ (Beseitigung von Hindernissen für die Führungsrolle Amerikas im Bereich der künstlichen Intelligenz) erlassen hat. Unmittelbar danach habe das National Institute of Standards and Technology (NIST) seine Leitlinien für Wissenschaftler, die mit dem US Artificial Intelligence Safety Institute (AISI) zusammenarbeiten, aktualisiert. Darüber hinaus wurden Verweise auf „KI-Sicherheit“, „verantwortungsvolle KI“ und „KI-Fairness“ gestrichen – stattdessen wurde ein neuer Schwerpunkt auf die „Verringerung ideologischer Vorurteile zur Förderung des menschlichen Wohlergehens und der wirtschaftlichen Wettbewerbsfähigkeit“ gelegt.  Wong erklärte: „Tatsächlich scheinen die aktualisierten Leitlinien die Partner zu ermutigen, sich der deregulierenden Haltung der Exekutivverordnung anzuschließen.“ (mb)  

Trump-Regierung drängt EU zu weniger strengen KI-Vorgaben​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Da KI-Anbieter wie Google, Meta, Microsoft oder OpenAI aus den Vereinigten Staaten kommen, will sich die US-Regierung auch in die EU-Gesetzgebung einmischen.Ivan Marc – shutterstock.com

Das EU-KI-Gesetz scheint zwar beschlossene Sache zu sein, doch die Interessengruppen arbeiten noch an einem Verhaltenskodex, der Regeln für allgemeine KI-Modelle festlegen soll, darunter auch solche mit systemischen Risiken. 

Nun jedoch, da die Frist für die Ausarbeitung des Entwurfs näher rückt, soll US-Präsident Donald Trump Druck auf die europäischen Regulierungsbehörden ausüben, das Regelwerk zu verwerfen. Die US-Regierung und andere Kritiker behaupten, dieses behindere Innovationen, sei aufwändig und erweitere den Geltungsbereich des KI-Gesetzes, wodurch im Wesentlichen neue, unnötige Vorschriften geschaffen würden. 

Um sich gegen die Verabschiedung des Entwurfs in seiner jetzigen Form auszusprechen, hat sich die US-Vertreter bei der EU kürzlich an die Europäische Kommission und mehrere europäische Regierungen gewandt, berichtet Bloomberg . 

„Große Technologie-Unternehmen und nun auch Regierungsvertreter argumentieren, dass der Entwurf des KI-Regelwerks zusätzliche Verpflichtungen vorsieht“, erklärt Thomas Randall, Direktor für KI-Marktforschung bei der Info-Tech Research Group. Dazu zählten die Prüfung von Modellen durch Dritte und die vollständige Offenlegung von Trainingsdaten, die über den Inhalt des rechtsverbindlichen KI-Gesetzes hinausgehen und darüber hinaus nur sehr schwer in großem Maßstab umzusetzen seien. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

Verantwortung verlagert sich vom Anbieter zum Unternehmen 

Auf ihrer Webseite, auf der die Initiative beschrieben wird, erklärt die Europäische Kommission entsprechend: „Der Kodex sollte ein zentrales Instrument für Anbieter sein, um die Einhaltung des KI-Gesetzes unter Einbeziehung modernster Praktiken nachzuweisen.“ 

Der Kodex ist freiwillig, soll aber Anbietern dabei helfen, sich auf die Vorschriften des EU-KI-Gesetzes in Bezug auf Transparenz, Urheberrecht und Risikominderung vorzubereiten. Er wird von einer vielfältigen Gruppe aus Anbietern von Allzweck-KI-Modellen, Branchenverbänden, Urheberrechtsinhabern, Vertretern der Zivilgesellschaft, Wissenschaftlern und unabhängigen Experten unter der Aufsicht des Europäischen KI-Amtes ausgearbeitet. 

Die Frist für die Fertigstellung läuft bis Ende April. Die endgültige Fassung soll im Mai den EU-Vertretern zur Genehmigung vorgelegt werden und im August, ein Jahr nach Inkrafttreten des KI-Gesetzes, in Kraft treten. Der Kodex wird mit Sanktionen belegt sein. Randall weist darauf hin, dass bei Nichteinhaltung nach Inkrafttreten Geldstrafen in Höhe von bis zu sieben Prozent des weltweiten Umsatzes oder strengere Kontrollen durch die Regulierungsbehörden drohen. 

Unabhängig davon, ob Brüssel den aktuellen Entwurf lockere oder verschärfe, verlagere sich das Gewicht der „verantwortungsvollen KI“ bereits von den Anbietern auf die Kundenunternehmen, die die Technologie einsetzten, merkt der Info-Tech-Analyst an. 

„Jedes Unternehmen, das in Europa geschäftlich tätig ist, muss über eigene KI-Risikomanagement-Leitfäden verfügen, um vertragliche, regulatorische und Reputationsschäden zu vermeiden – einschließlich Datenschutz-Folgenabschätzungen, Herkunftsprotokollen oder Red-Team-Tests“, weiß Randall. 

Wenn Brüssel seinen KI-Kodex tatsächlich abschwäche, würde es den Unternehmen nicht nur einen Freifahrtschein ausstellen, sondern ihnen das Steuer aus der Hand nehmen, fügte er hinzu. 

Klare, genau definierte Regeln könnten zumindest die Leitplanken abstecken, so der Analyst. Fielen diese weg, müsste jedes Unternehmen, vom Garagen-Start-up bis zum globalen Konzern, seinen eigenen Kurs in Sachen Datenschutz, Urheberrecht und Modell-Sicherheit festlegen. Während einige vorpreschen würden, müssten andere wahrscheinlich auf die Bremse treten, da die Haftung „direkt auf ihrem Schreibtisch liegen würde“. 

„In jedem Fall müssen CIOs Responsible-AI-Kontrollen als Kerninfrastruktur- und nicht als Nebenprojekt betrachten“, so der Analyst. 

Ein weniger strenges, regulatorisches Umfeld 

Folgten andere Länder dem Ansatz der aktuellen US-Regierung in Bezug auf die KI-Gesetzgebung, würde dies wahrscheinlich zu einem weniger strengen, regulatorischen Umfeld mit weniger staatlicher Aufsicht führen, merkt Bill Wong, KI-Forschungsstipendiat bei der Info-Tech Research Group, an. 

Er weist darauf hin, dass die neue US-Regierung im Januar die Executive Order 14179 „Removing Barriers to American Leadership in Artificial Intelligence“ (Beseitigung von Hindernissen für die Führungsrolle Amerikas im Bereich der künstlichen Intelligenz) erlassen hat. Unmittelbar danach habe das National Institute of Standards and Technology (NIST) seine Leitlinien für Wissenschaftler, die mit dem US Artificial Intelligence Safety Institute (AISI) zusammenarbeiten, aktualisiert. Darüber hinaus wurden Verweise auf „KI-Sicherheit“, „verantwortungsvolle KI“ und „KI-Fairness“ gestrichen – stattdessen wurde ein neuer Schwerpunkt auf die „Verringerung ideologischer Vorurteile zur Förderung des menschlichen Wohlergehens und der wirtschaftlichen Wettbewerbsfähigkeit“ gelegt. 

Wong erklärte: „Tatsächlich scheinen die aktualisierten Leitlinien die Partner zu ermutigen, sich der deregulierenden Haltung der Exekutivverordnung anzuschließen.“ (mb) 

Trump-Regierung drängt EU zu weniger strengen KI-Vorgaben​ Weiterlesen »

Blackout in Spanien und Portugal – Hackerangriff?​

Allgemein

width=”2490″ height=”1400″ sizes=”(max-width: 2490px) 100vw, 2490px”>Im spanischen Stromnetz ging am 28. April ab Mittag kaum noch etwas. Yevhen Prozhyrko – shutterstock.com Seit dem Mittag des 28. April sind in weiten Teilen Spaniens und Portugals Strom- und Kommunikationsnetze ausgefallen. Die Ursachen für den Blackout sind noch unbekannt. Um 13:30 Uhr meldete der spanische Stromnetzbetreiber Red Eléctrica, dass man mit der Wiederherstellung der Stromversorgung im Norden und Süden der Halbinsel begonnen habe. “Wir arbeiten weiter daran, die Versorgung wiederherzustellen”, hieß es in einem Tweet des Energieversorgers im sozialen Netzwerk X. Die Ausfälle haben massive Auswirkungen auf das öffentliche Leben in Spanien und Portugal. Züge blieben in den Bahnhöfen und ausgefallene Ampeln legten den Straßenverkehr teilweise lahm. In Madrid mussten Passagiere aus festsitzenden U-Bahnen evakuiert werden. Ein Mastern-Tennis-Turnier in der spanischen Hauptstadt wurde unterbrochen. IT-Security-Experten untersuchen möglichen Hackerangriff Obwohl noch nicht bekannt ist, was genau passiert sein könnte, schließen die Behörden keine Möglichkeit aus. Tatsächlich sprechen Vertreter des nationalen Institut für Cybersicherheit in Spanien INCIBE davon, dass der Vorfall auf eine mögliche Cyberattacke zurückzuführen sein könnte. INCIBE und die spanische Regierung untersuchen bereits, ob die massiven Ausfälle durch Hacker verursacht sein könnten. Live-Daten des spanischen Energieversorgers Red Eléctrica zeigen den Einbruch im Stromnetz.Red Electrica Nach Angaben von Eldiario.es haben sich der spanische Ministerpräsident Pedro Sánchez sowie weitere Vertreter der Regierung in die Zentrale von Red Eléctrica begeben, um sich ein Bild von der Lage zu machen. 

Blackout in Spanien und Portugal – Hackerangriff?​ width=”2490″ height=”1400″ sizes=”(max-width: 2490px) 100vw, 2490px”>Im spanischen Stromnetz ging am 28. April ab Mittag kaum noch etwas. Yevhen Prozhyrko – shutterstock.com

Seit dem Mittag des 28. April sind in weiten Teilen Spaniens und Portugals Strom- und Kommunikationsnetze ausgefallen. Die Ursachen für den Blackout sind noch unbekannt. Um 13:30 Uhr meldete der spanische Stromnetzbetreiber Red Eléctrica, dass man mit der Wiederherstellung der Stromversorgung im Norden und Süden der Halbinsel begonnen habe. “Wir arbeiten weiter daran, die Versorgung wiederherzustellen”, hieß es in einem Tweet des Energieversorgers im sozialen Netzwerk X.

Die Ausfälle haben massive Auswirkungen auf das öffentliche Leben in Spanien und Portugal. Züge blieben in den Bahnhöfen und ausgefallene Ampeln legten den Straßenverkehr teilweise lahm. In Madrid mussten Passagiere aus festsitzenden U-Bahnen evakuiert werden. Ein Mastern-Tennis-Turnier in der spanischen Hauptstadt wurde unterbrochen.

IT-Security-Experten untersuchen möglichen Hackerangriff

Obwohl noch nicht bekannt ist, was genau passiert sein könnte, schließen die Behörden keine Möglichkeit aus. Tatsächlich sprechen Vertreter des nationalen Institut für Cybersicherheit in Spanien INCIBE davon, dass der Vorfall auf eine mögliche Cyberattacke zurückzuführen sein könnte. INCIBE und die spanische Regierung untersuchen bereits, ob die massiven Ausfälle durch Hacker verursacht sein könnten.

Live-Daten des spanischen Energieversorgers Red Eléctrica zeigen den Einbruch im Stromnetz.Red Electrica

Nach Angaben von Eldiario.es haben sich der spanische Ministerpräsident Pedro Sánchez sowie weitere Vertreter der Regierung in die Zentrale von Red Eléctrica begeben, um sich ein Bild von der Lage zu machen.

Blackout in Spanien und Portugal – Hackerangriff?​ Weiterlesen »

Frust und Stress – deutsche Beschäftigte verlieren Motivation​

Allgemein

width=”2487″ height=”1399″ sizes=”(max-width: 2487px) 100vw, 2487px”>Gravierend: Wenn Manager unmotiviert sind, sind es auch ihre Teams.Gorodenkoff – shutterstock.com Das Engagement der Mitarbeitenden in den Unternehmen ist 2024 weltweit gesunken – nach 2020 erst das zweite Mal in den vergangenen 12 Jahren. Das ist ein Kernergebnis des aktuellen „State of the Global Workplace Report“ von Gallup. Die schlechte Stimmung in den Betrieben hat massive Folgen. Der Rückgang beim Global Employee Engagement kostet die Weltwirtschaft nach Einschätzung der Arbeitsmarktforscher rund 438 Milliarden Dollar an Produktivität. Gerade in Deutschland und Europa sind viele Beschäftigte wenig motiviert, haben den Gallup-Arbeitsmarktspezialisten festgestellt. Hier einige Zahlen aus dem Bericht:  Motivation Die motiviertesten Beschäftigten innerhalb Europas werkeln in Rumänien (39 Prozent) und Albanien (29 Prozent). Deutschland rangiert mit zwölf Prozent (minus drei Punkte im Vergleich zu 2023) leicht unter dem europäischen Durchschnitt (13 Prozent) und damit im hinteren Drittel des Rankings. Die schlechtesten Werte, was das Employee Engagement anbelangt, haben Frankreich und die Schweiz mit jeweils acht Prozent und Schlusslicht Kroatien mit sieben Prozent.  Wohlbefinden Beim Wohlbefinden haben die Nordlichter die Nase vorn. In Finnland (81 Prozent), Island (77 Prozent) und Dänemark (77 Prozent) liegt der Anteil zufriedener Menschen am höchsten. Deutschland liegt mit 45 Prozent und Platz 21 im europäischen Mittelfeld. Am unzufriedensten mit ihrem Leben sind die Beschäftigten in Kroatien (28 Prozent), Nordmazedonien (27 Prozent) und der Republik Zypern (20 Prozent).  Stress In Nord-Zypern ist auch der Stresslevel am höchsten. Fast zwei Drittel der Beschäftigten auf der Mittelmeerinsel sprechen von einer hohen Belastung. Auch viele Griechen (59 Prozent) und Malteser (58 Prozent) fühlen sich gestresst. Deutschland rangiert mit 41 Prozent in dieser Kategorie auf Rang 14 im europäischen Vergleich und knapp über dem globalen Durchschnitt (40 Prozent). Am entspanntesten in Europa sind die Menschen in Litauen (24 Prozent Gestresste), Polen (23 Prozent) und Dänemark (21 Prozent).  Wut, Traurigkeit, Einsamkeit Auch was die negativen Gefühle wie Wut, Traurigkeit und Einsamkeit angelangt, liegt Nord-Zypern im europäischen Vergleich zum Teil deutlich an der Spitze. Die Deutschen rangieren in diesen drei Kategorien im europäischen Mittelfeld und liegen unter dem globalen Durchschnitt.  Job-Klima In Sachen Job-Klima liegt Deutschland im europäischen Vergleich weiter vorne auf Rang fünf. 72 Prozent der hiesigen Beschäftigten sagen, es sei eine gute Zeit, sich eine neue Arbeit zu suchen. Noch besser beurteilen dies die Menschen in den Niederlanden (87 Prozent) und Island (82 Prozent). Schlusslicht in diesem Ranking ist die Slowakei (30 Prozent). Auffällig hier: Italien liegt mit 49 Prozent zwar im hinteren Drittel, machte mit plus 16 Punkten aber einen deutlichen Sprung nach vorne, was das Job-Klima betrifft.  Job-Suche 39 Prozent der Beschäftigten in Deutschland schauen sich nach einem neuen Job um. Damit liegt Deutschland deutlich über dem europäischen Durchschnitt (30 Prozent) und rangiert in dieser Kategorie zum Spitzen-Trio neben Finnland (40 Prozent und Griechenland (39 Prozent). Dagegen scheinen die Menschen in den Alpenrepubliken Schweiz (22 Prozent) und Österreich (20 Prozent) mit ihren Jobs zufrieden und suchen zu einem deutlich geringeren Anteil eine neue Arbeit. Frustrierte Manager = frustrierte Belegschaft Global gesehen ist der Gallup-Engagement-Index 2024 gegenüber dem Vorjahr um zwei Prozentpunkte auf 21 Prozent gefallen und liegt damit auf dem Niveau des Jahres 2021. Schlecht ist die Stimmung vor allem auf der Manager-Ebene. Hier sank der Engagement-Index im Jahresvergleich um drei Punkte auf 27 Prozent. Vor allem bei den jüngeren, unter 35 Jahre alten (minus fünf Punkte) und den weiblichen Managern (minus sieben Punkte) sitzt der Frust tief. Demgegenüber stagnierte das Engagement beim ‚Fußvolk‘ bei niedrigen 18 Prozent. Das globale Mitarbeiter-Engagement seit 2010.Gallup Gerade die mittlere Management-Ebene sei in den vergangenen Jahren hin- und hergerissen gewesen von verschiedensten Anforderungen aller Seiten, interpretieren die Gallup-Experten diese Zahlen. Neue Prioritäten und veränderte Strategien nach der Corona-Pandemie gepaart mit vielen personellen Veränderungen und hoher Fluktuation hätten in vielen Firmen für Unruhe gesorgt. Schlechte Führung: Was Chefs alles falsch machen Gleichzeitig stiegen die Ansprüche zahlreicher Mitarbeiterinnen und Mitarbeiter hinsichtlich Flexibilität und Remote Work, was wiederum nicht in allen Führungsetagen gut ankam. Ausbaden mussten die Konflikte vielfach die Manager in den mittleren Hierarchieebenen. Die Bemühungen, die unterschiedlichen Wünsche und Anforderungen unter einen Hut zu bekommen, zehrt offensichtlich bei vielen Managerinnen und Managern an den Nerven. Die Produktivität ist in Gefahr Neben dem Engagement leidet auch das Wohlbefinden der Mitarbeitenden. Der Anteil der zufriedenen Beschäftigten sank 2024 das zweite Jahr in Folge. Lag deren Anteil 2022 global gesehen noch bei 35 Prozent, waren es 2023 noch 34 Prozent und im vergangenen Jahr 33 Prozent. Damit liegt der Index für Global Life Evaluation zwar deutlich über dem Tiefpunkt von 27 Prozent in den Jahren 2026 und 2017, doch der Trend ist besorgniserregend. Auch beim Wohlbefinden verzeichnet die Management-Riege die höchsten Rückgänge. Betroffen sind vor allem ältere (minus fünf Punkte) und weibliche (minus sieben Punkte) Führungskräfte.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?quality=50&strip=all 1622w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nachdem das Wohlbefinden der Beschäftigten weltweit viele Jahre lang besser wurde, nimmt es seit 2022 wieder ab.Gallup Der Frust im Management hat gravierende Folgen. Wenn Manager unmotiviert sind, sind es auch ihre Teams, heißt es in dem Gallup-Report. Wenn das Engagement von Managerinnen und Managern weiter abnimmt, wird es nicht auf diesem Level aufhören. „Die Produktivität der weltweiten Arbeitswelt ist in Gefahr.“  Die Workforce-Experten warnen vor einem sich immer weiter verschlechternden Arbeitsplatzumfeld – bis hin zu existenziellen Folgen für ein Unternehmen. Burnout bei Managern führe schließlich zu sinkenden Leistungen, erhöhten Fehlzeiten und mehr Fluktuation – mit Auswirkungen auf die von ihnen geführten Mitarbeiter und das Unternehmen selbst.  Was die Beschäftigten weltweit umtreibt Was den Motivationsgrad und das Wohlbefinden der Beschäftigten angeht, gibt es deutliche regionale Unterschiede. Hier einige Zahlen:  Mit 31 Prozent finden sich die meisten engagierten Mitarbeitenden in den USA und Kanada. Europa liegt mit gerade einmal 13 Prozent auf dem letzten Platz der zehn von Gallup untersuchten Regionen.  Beim Wohlbefinden haben Australien und Neuseeland mit einem Anteil von 56 Prozent zufriedener Menschen die Nase vorn. Europa liegt in dieser Kategorie über dem Durchschnitt und schafft es mit 47 Prozent auf Rang 4. Vor den Europäern platzieren sich Lateinamerika und die Karibik (54 Prozent) sowie die vereinigten Staaten und Kanada (53 Prozent).  Vier von zehn Beschäftigten weltweit fühlen sich gestresst – ein Prozentpunkt weniger als noch 2023 (41 Prozent). In den USA und Kanada spricht jedoch sogar jede/r zweite Mitarbeitende von einem hohen Stresslevel. Auch in Australien und Neuseeland (49 Prozent) und in Ostasien (48 Prozent) scheint die Belastung hoch zu sein. Europa liegt dagegen mit einem Anteil von 38 Prozent gestressten Menschen leicht unter dem globalen Durchschnitt auf Rang sieben.  Wut in ihrem Job empfinden global 21 Prozent der Beschäftigten – dieser Anteil stagniert seit 2021. Besonders betroffen sind Menschen in Südasien (34 Prozent). In dieser Region fasst Gallup Länder wie Afghanistan, Pakistan, Indien, Bangladesch und Sri Lanka zusammen. In Europa scheinen die Menschen deutlich gelassener. Der Anteil derer, die mit Wutgefühlen in ihrem Job konfrontiert sind, liegt bei 14 Prozent. Damit liegt man gemeinsam mit Lateinamerika und der Karibik ganz am unteren Ende der Wut-Skala.  Auffällig ist, dass immer mehr Menschen über traurige Gefühle in Verbindung mit ihrem Job klagen. Weltweit sind es 23 Prozent, die davon berichten – vor zehn Jahren lag dieser Anteil noch bei 15 Prozent. Wieder sind es vor allem Menschen in Südasien, die von Traurigkeit in ihrem Jobleben sprechen (39 Prozent). In Europa kennt man traurige Gefühle in der Arbeit dagegen weniger – ein Anteil von 17 Prozent bedeutet den vorletzten Platz. Nur in Ostasien sind die Beschäftigten fröhlicher gestimmt (14 Prozent Traueranteil).  Auch die Einsamkeit nimmt zu. Diesen Faktor fragt Gallup seit drei Jahren ab. 2024 äußerten 22 Prozent, dass sie sich einsam im Job fühlten – 2023 waren es 20 Prozent, im Jahr zuvor 21 Prozent. Besonders hoch ist der Anteil der Einsamen in Afrika südlich der Sahara (30 Prozent). In Europa fühlen sich deutlich weniger Menschen im Job allein (12 Prozent) – Rang neun und gleichauf mit den Menschen in Australien und Neuseeland.  Das Klima, einen neuen Job zu finden, bezeichnen weltweit 51 Prozent der Beschäftigten als gut. Insbesondere in Australien und Neuseeland (72 Prozent) sind die Menschen guter Dinge, schnell eine neue Beschäftigung finden zu können. Europa liegt mit den USA und Kanada mit 57 Prozent gleichauf auf Platz 4. Auffallend: Während sich in Europa die Einschätzung des Jobklimas im Vergleich zu 2023 um fünf Prozentpunkte verbesserte, verschlechterte es sich in den Vereinigten Staaten und Kanada um neun Prozentpunkte. Besonders schlecht schätzen die Menschen in Nordafrika und dem Nahen Osten das Job-Klima ein (34 Prozent).  Genau die Hälfte der Beschäftigten weltweit hält derzeit die Augen nach einem neuen Job offen. 2023 waren es noch etwas mehr (52 Prozent). Vor allem im mittleren und südlichen Afrika scheinen die Menschen mit ihrem aktuellen Job unzufrieden. 72 Prozent suchen eine neue Arbeit. Dagegen scheinen die Menschen in Europa mehr auf Sicherheit bedacht. Nur drei von zehn Beschäftigten gaben an, nach einer neuen Beschäftigung Ausschau zu halten.  

Frust und Stress – deutsche Beschäftigte verlieren Motivation​ width=”2487″ height=”1399″ sizes=”(max-width: 2487px) 100vw, 2487px”>Gravierend: Wenn Manager unmotiviert sind, sind es auch ihre Teams.Gorodenkoff – shutterstock.com

Das Engagement der Mitarbeitenden in den Unternehmen ist 2024 weltweit gesunken – nach 2020 erst das zweite Mal in den vergangenen 12 Jahren. Das ist ein Kernergebnis des aktuellen „State of the Global Workplace Report“ von Gallup. Die schlechte Stimmung in den Betrieben hat massive Folgen. Der Rückgang beim Global Employee Engagement kostet die Weltwirtschaft nach Einschätzung der Arbeitsmarktforscher rund 438 Milliarden Dollar an Produktivität.

Gerade in Deutschland und Europa sind viele Beschäftigte wenig motiviert, haben den Gallup-Arbeitsmarktspezialisten festgestellt. Hier einige Zahlen aus dem Bericht: 

Motivation

Die motiviertesten Beschäftigten innerhalb Europas werkeln in Rumänien (39 Prozent) und Albanien (29 Prozent). Deutschland rangiert mit zwölf Prozent (minus drei Punkte im Vergleich zu 2023) leicht unter dem europäischen Durchschnitt (13 Prozent) und damit im hinteren Drittel des Rankings. Die schlechtesten Werte, was das Employee Engagement anbelangt, haben Frankreich und die Schweiz mit jeweils acht Prozent und Schlusslicht Kroatien mit sieben Prozent. 

Wohlbefinden

Beim Wohlbefinden haben die Nordlichter die Nase vorn. In Finnland (81 Prozent), Island (77 Prozent) und Dänemark (77 Prozent) liegt der Anteil zufriedener Menschen am höchsten. Deutschland liegt mit 45 Prozent und Platz 21 im europäischen Mittelfeld. Am unzufriedensten mit ihrem Leben sind die Beschäftigten in Kroatien (28 Prozent), Nordmazedonien (27 Prozent) und der Republik Zypern (20 Prozent). 

Stress

In Nord-Zypern ist auch der Stresslevel am höchsten. Fast zwei Drittel der Beschäftigten auf der Mittelmeerinsel sprechen von einer hohen Belastung. Auch viele Griechen (59 Prozent) und Malteser (58 Prozent) fühlen sich gestresst. Deutschland rangiert mit 41 Prozent in dieser Kategorie auf Rang 14 im europäischen Vergleich und knapp über dem globalen Durchschnitt (40 Prozent). Am entspanntesten in Europa sind die Menschen in Litauen (24 Prozent Gestresste), Polen (23 Prozent) und Dänemark (21 Prozent). 

Wut, Traurigkeit, Einsamkeit

Auch was die negativen Gefühle wie Wut, Traurigkeit und Einsamkeit angelangt, liegt Nord-Zypern im europäischen Vergleich zum Teil deutlich an der Spitze. Die Deutschen rangieren in diesen drei Kategorien im europäischen Mittelfeld und liegen unter dem globalen Durchschnitt. 

Job-Klima

In Sachen Job-Klima liegt Deutschland im europäischen Vergleich weiter vorne auf Rang fünf. 72 Prozent der hiesigen Beschäftigten sagen, es sei eine gute Zeit, sich eine neue Arbeit zu suchen. Noch besser beurteilen dies die Menschen in den Niederlanden (87 Prozent) und Island (82 Prozent). Schlusslicht in diesem Ranking ist die Slowakei (30 Prozent). Auffällig hier: Italien liegt mit 49 Prozent zwar im hinteren Drittel, machte mit plus 16 Punkten aber einen deutlichen Sprung nach vorne, was das Job-Klima betrifft. 

Job-Suche

39 Prozent der Beschäftigten in Deutschland schauen sich nach einem neuen Job um. Damit liegt Deutschland deutlich über dem europäischen Durchschnitt (30 Prozent) und rangiert in dieser Kategorie zum Spitzen-Trio neben Finnland (40 Prozent und Griechenland (39 Prozent). Dagegen scheinen die Menschen in den Alpenrepubliken Schweiz (22 Prozent) und Österreich (20 Prozent) mit ihren Jobs zufrieden und suchen zu einem deutlich geringeren Anteil eine neue Arbeit.

Frustrierte Manager = frustrierte Belegschaft

Global gesehen ist der Gallup-Engagement-Index 2024 gegenüber dem Vorjahr um zwei Prozentpunkte auf 21 Prozent gefallen und liegt damit auf dem Niveau des Jahres 2021. Schlecht ist die Stimmung vor allem auf der Manager-Ebene. Hier sank der Engagement-Index im Jahresvergleich um drei Punkte auf 27 Prozent. Vor allem bei den jüngeren, unter 35 Jahre alten (minus fünf Punkte) und den weiblichen Managern (minus sieben Punkte) sitzt der Frust tief. Demgegenüber stagnierte das Engagement beim ‚Fußvolk‘ bei niedrigen 18 Prozent.

Das globale Mitarbeiter-Engagement seit 2010.Gallup

Gerade die mittlere Management-Ebene sei in den vergangenen Jahren hin- und hergerissen gewesen von verschiedensten Anforderungen aller Seiten, interpretieren die Gallup-Experten diese Zahlen. Neue Prioritäten und veränderte Strategien nach der Corona-Pandemie gepaart mit vielen personellen Veränderungen und hoher Fluktuation hätten in vielen Firmen für Unruhe gesorgt.

Schlechte Führung: Was Chefs alles falsch machen

Gleichzeitig stiegen die Ansprüche zahlreicher Mitarbeiterinnen und Mitarbeiter hinsichtlich Flexibilität und Remote Work, was wiederum nicht in allen Führungsetagen gut ankam. Ausbaden mussten die Konflikte vielfach die Manager in den mittleren Hierarchieebenen. Die Bemühungen, die unterschiedlichen Wünsche und Anforderungen unter einen Hut zu bekommen, zehrt offensichtlich bei vielen Managerinnen und Managern an den Nerven.

Die Produktivität ist in Gefahr

Neben dem Engagement leidet auch das Wohlbefinden der Mitarbeitenden. Der Anteil der zufriedenen Beschäftigten sank 2024 das zweite Jahr in Folge. Lag deren Anteil 2022 global gesehen noch bei 35 Prozent, waren es 2023 noch 34 Prozent und im vergangenen Jahr 33 Prozent. Damit liegt der Index für Global Life Evaluation zwar deutlich über dem Tiefpunkt von 27 Prozent in den Jahren 2026 und 2017, doch der Trend ist besorgniserregend. Auch beim Wohlbefinden verzeichnet die Management-Riege die höchsten Rückgänge. Betroffen sind vor allem ältere (minus fünf Punkte) und weibliche (minus sieben Punkte) Führungskräfte. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?quality=50&strip=all 1622w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Gallup2.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nachdem das Wohlbefinden der Beschäftigten weltweit viele Jahre lang besser wurde, nimmt es seit 2022 wieder ab.Gallup

Der Frust im Management hat gravierende Folgen. Wenn Manager unmotiviert sind, sind es auch ihre Teams, heißt es in dem Gallup-Report. Wenn das Engagement von Managerinnen und Managern weiter abnimmt, wird es nicht auf diesem Level aufhören. „Die Produktivität der weltweiten Arbeitswelt ist in Gefahr.“ 

Die Workforce-Experten warnen vor einem sich immer weiter verschlechternden Arbeitsplatzumfeld – bis hin zu existenziellen Folgen für ein Unternehmen. Burnout bei Managern führe schließlich zu sinkenden Leistungen, erhöhten Fehlzeiten und mehr Fluktuation – mit Auswirkungen auf die von ihnen geführten Mitarbeiter und das Unternehmen selbst. 

Was die Beschäftigten weltweit umtreibt

Was den Motivationsgrad und das Wohlbefinden der Beschäftigten angeht, gibt es deutliche regionale Unterschiede. Hier einige Zahlen: 

Mit 31 Prozent finden sich die meisten engagierten Mitarbeitenden in den USA und Kanada. Europa liegt mit gerade einmal 13 Prozent auf dem letzten Platz der zehn von Gallup untersuchten Regionen. 

Beim Wohlbefinden haben Australien und Neuseeland mit einem Anteil von 56 Prozent zufriedener Menschen die Nase vorn. Europa liegt in dieser Kategorie über dem Durchschnitt und schafft es mit 47 Prozent auf Rang 4. Vor den Europäern platzieren sich Lateinamerika und die Karibik (54 Prozent) sowie die vereinigten Staaten und Kanada (53 Prozent). 

Vier von zehn Beschäftigten weltweit fühlen sich gestresst – ein Prozentpunkt weniger als noch 2023 (41 Prozent). In den USA und Kanada spricht jedoch sogar jede/r zweite Mitarbeitende von einem hohen Stresslevel. Auch in Australien und Neuseeland (49 Prozent) und in Ostasien (48 Prozent) scheint die Belastung hoch zu sein. Europa liegt dagegen mit einem Anteil von 38 Prozent gestressten Menschen leicht unter dem globalen Durchschnitt auf Rang sieben. 

Wut in ihrem Job empfinden global 21 Prozent der Beschäftigten – dieser Anteil stagniert seit 2021. Besonders betroffen sind Menschen in Südasien (34 Prozent). In dieser Region fasst Gallup Länder wie Afghanistan, Pakistan, Indien, Bangladesch und Sri Lanka zusammen. In Europa scheinen die Menschen deutlich gelassener. Der Anteil derer, die mit Wutgefühlen in ihrem Job konfrontiert sind, liegt bei 14 Prozent. Damit liegt man gemeinsam mit Lateinamerika und der Karibik ganz am unteren Ende der Wut-Skala. 

Auffällig ist, dass immer mehr Menschen über traurige Gefühle in Verbindung mit ihrem Job klagen. Weltweit sind es 23 Prozent, die davon berichten – vor zehn Jahren lag dieser Anteil noch bei 15 Prozent. Wieder sind es vor allem Menschen in Südasien, die von Traurigkeit in ihrem Jobleben sprechen (39 Prozent). In Europa kennt man traurige Gefühle in der Arbeit dagegen weniger – ein Anteil von 17 Prozent bedeutet den vorletzten Platz. Nur in Ostasien sind die Beschäftigten fröhlicher gestimmt (14 Prozent Traueranteil). 

Auch die Einsamkeit nimmt zu. Diesen Faktor fragt Gallup seit drei Jahren ab. 2024 äußerten 22 Prozent, dass sie sich einsam im Job fühlten – 2023 waren es 20 Prozent, im Jahr zuvor 21 Prozent. Besonders hoch ist der Anteil der Einsamen in Afrika südlich der Sahara (30 Prozent). In Europa fühlen sich deutlich weniger Menschen im Job allein (12 Prozent) – Rang neun und gleichauf mit den Menschen in Australien und Neuseeland. 

Das Klima, einen neuen Job zu finden, bezeichnen weltweit 51 Prozent der Beschäftigten als gut. Insbesondere in Australien und Neuseeland (72 Prozent) sind die Menschen guter Dinge, schnell eine neue Beschäftigung finden zu können. Europa liegt mit den USA und Kanada mit 57 Prozent gleichauf auf Platz 4. Auffallend: Während sich in Europa die Einschätzung des Jobklimas im Vergleich zu 2023 um fünf Prozentpunkte verbesserte, verschlechterte es sich in den Vereinigten Staaten und Kanada um neun Prozentpunkte. Besonders schlecht schätzen die Menschen in Nordafrika und dem Nahen Osten das Job-Klima ein (34 Prozent). 

Genau die Hälfte der Beschäftigten weltweit hält derzeit die Augen nach einem neuen Job offen. 2023 waren es noch etwas mehr (52 Prozent). Vor allem im mittleren und südlichen Afrika scheinen die Menschen mit ihrem aktuellen Job unzufrieden. 72 Prozent suchen eine neue Arbeit. Dagegen scheinen die Menschen in Europa mehr auf Sicherheit bedacht. Nur drei von zehn Beschäftigten gaben an, nach einer neuen Beschäftigung Ausschau zu halten. 

Frust und Stress – deutsche Beschäftigte verlieren Motivation​ Weiterlesen »

USA bei KI-(Job)Angst weltweit führend, Deutschland im Mittelfeld​

Allgemein

KI-Chatbots und -Agenten dringen immer tiefer in den Arbeitsalltag ein, womit die Angst, seinen Job an die KI zu verlieren, nicht ganz unbegründet ist.Melnikov Dmitriy – Shutterstock.com Als OpenAI Ende 2023 ChatGPT vorstellte, wurde generative künstliche Intelligenz (GenAI) zunächst primär als Tool wahrgenommen, um sich Gedichte im Shakespeare-Stil oder lustige Bilder erstellen zu lassen. Inzwischen kristallisiert sich dank seriöserer Einsatzszenarien im Business-Umfeld aber mehr und mehr heraus, welches Potenzial in der Technologie steckt – insbesondere auch wenn es darum geht, menschliche Tätigkeiten komplett zu übernehmen.   Aus Spaß wird Ernst  Nach Ankündigungen verschiedener Unternehmen, im Zuge einer neuen GenAI-Strategie Jobs zu streichen oder auf Neueinstellungen zu verzichten, beginnt die Stimmung daher allmählich zu kippen. Besonders in Ländern mit hoher KI-Nutzung aber einer schlechten Konjunktur und weniger ausgeprägten Arbeitnehmerrechten, wächst die Angst der Bevölkerung, dass KI ihnen den Job wegnimmt.  Wie der E-Mail-Verifizierungsdienst Zerobounce in einer Studie berechnete, sind die Vereinigten Staaten mit einer Punktzahl von 100 das Land mit der größten KI-Jobangst weltweit, gefolgt von Mexiko (84,4 Punkte), Großbritannien (68,3 Punkte) und Kanada (53,6 Punkte).   Dabei weisen die Amerikaner mit einem – bevölkerungsbereinigten – Wert von 440.000 Suchanfragen zum Thema KI-Arbeitsplatzverlust das höchste Suchvolumen auf, während ihre Einstellung gegenüber KI mit 54,5 Prozent moderat positiv ist. Der Intensitätswert von 3 für die USA zeigt, dass die Sorge, Arbeitsplätze an KI zu verlieren vorrangig ein nationales Thema ist, wodurch sich die USA von allen anderen untersuchten Ländern unterscheiden.  In Mexiko dagegen stellte Zerobounce trotz einer relativ positiven Einstellung gegenüber KI (75 Prozent) eine überraschend hohe Besorgnis fest. Die Studienbetreiber interpretieren die 120.600 Suchanfragen zum Thema Jobverlust durch KI mit erheblichen Bedenken der Arbeitnehmer in einem Land, wo sich die technologische Infrastruktur gerade erst entwickelt (Intensitätswert 53).  German Angst – auch vor KI?  Deutschland liegt im Ländervergleich mit Platz 7 im Mittelfeld, vor seinen europäischen Nachbarn Niederlande, Frankreich und Spanien. Wie die Untersuchung ergab, steht die Bevölkerung hierzulande der KI mit einem Wert von rund 60 Prozent relativ positiv gegenüber. Mit einem bereinigten Wert von 35.000 Anfragen fallen die Suchanfragen zum Thema Arbeitsplatzverlust durch KI allerdings vergleichsweise hoch aus.  Obwohl weitgehend plausibel, sollte man die Ergebnisse nicht überinterpretieren. Für seine Studie analysierte Zerobounce unter anderem die Suchvolumendaten für Begriffe im Zusammenhang mit dem Verlust von Arbeitsplätzen durch KI sowie den Prozentsatz positiver Meinungen zu KI in den wichtigsten Volkswirtschaften. Aus den Werten wurde dann der KI-Angstindex berechnet.  

USA bei KI-(Job)Angst weltweit führend, Deutschland im Mittelfeld​ KI-Chatbots und -Agenten dringen immer tiefer in den Arbeitsalltag ein, womit die Angst, seinen Job an die KI zu verlieren, nicht ganz unbegründet ist.Melnikov Dmitriy – Shutterstock.com

Als OpenAI Ende 2023 ChatGPT vorstellte, wurde generative künstliche Intelligenz (GenAI) zunächst primär als Tool wahrgenommen, um sich Gedichte im Shakespeare-Stil oder lustige Bilder erstellen zu lassen. Inzwischen kristallisiert sich dank seriöserer Einsatzszenarien im Business-Umfeld aber mehr und mehr heraus, welches Potenzial in der Technologie steckt – insbesondere auch wenn es darum geht, menschliche Tätigkeiten komplett zu übernehmen.  

Aus Spaß wird Ernst 

Nach Ankündigungen verschiedener Unternehmen, im Zuge einer neuen GenAI-Strategie Jobs zu streichen oder auf Neueinstellungen zu verzichten, beginnt die Stimmung daher allmählich zu kippen. Besonders in Ländern mit hoher KI-Nutzung aber einer schlechten Konjunktur und weniger ausgeprägten Arbeitnehmerrechten, wächst die Angst der Bevölkerung, dass KI ihnen den Job wegnimmt. 

Wie der E-Mail-Verifizierungsdienst Zerobounce in einer Studie berechnete, sind die Vereinigten Staaten mit einer Punktzahl von 100 das Land mit der größten KI-Jobangst weltweit, gefolgt von Mexiko (84,4 Punkte), Großbritannien (68,3 Punkte) und Kanada (53,6 Punkte).  

Dabei weisen die Amerikaner mit einem – bevölkerungsbereinigten – Wert von 440.000 Suchanfragen zum Thema KI-Arbeitsplatzverlust das höchste Suchvolumen auf, während ihre Einstellung gegenüber KI mit 54,5 Prozent moderat positiv ist. Der Intensitätswert von 3 für die USA zeigt, dass die Sorge, Arbeitsplätze an KI zu verlieren vorrangig ein nationales Thema ist, wodurch sich die USA von allen anderen untersuchten Ländern unterscheiden. 

In Mexiko dagegen stellte Zerobounce trotz einer relativ positiven Einstellung gegenüber KI (75 Prozent) eine überraschend hohe Besorgnis fest. Die Studienbetreiber interpretieren die 120.600 Suchanfragen zum Thema Jobverlust durch KI mit erheblichen Bedenken der Arbeitnehmer in einem Land, wo sich die technologische Infrastruktur gerade erst entwickelt (Intensitätswert 53). 

German Angst – auch vor KI? 

Deutschland liegt im Ländervergleich mit Platz 7 im Mittelfeld, vor seinen europäischen Nachbarn Niederlande, Frankreich und Spanien. Wie die Untersuchung ergab, steht die Bevölkerung hierzulande der KI mit einem Wert von rund 60 Prozent relativ positiv gegenüber. Mit einem bereinigten Wert von 35.000 Anfragen fallen die Suchanfragen zum Thema Arbeitsplatzverlust durch KI allerdings vergleichsweise hoch aus. 

Obwohl weitgehend plausibel, sollte man die Ergebnisse nicht überinterpretieren. Für seine Studie analysierte Zerobounce unter anderem die Suchvolumendaten für Begriffe im Zusammenhang mit dem Verlust von Arbeitsplätzen durch KI sowie den Prozentsatz positiver Meinungen zu KI in den wichtigsten Volkswirtschaften. Aus den Werten wurde dann der KI-Angstindex berechnet. 

USA bei KI-(Job)Angst weltweit führend, Deutschland im Mittelfeld​ Weiterlesen »

Prompt-Engineering: 2023 noch angesagt, 2025 veraltet​

Allgemein

Neue KI-Modelle verstehen Nutzer besser und machen perfekte Prompts und ihre Ersteller schon wieder überflüssig.TippaPatt – shuterstock.com 2023 war Prompt-Engineering noch einer der angesagtesten Jobs in der Tech-Branche. Interessenten wurden mit Spitzengehältern und dem Versprechen, der „KI-Flüsterer“ eines Unternehmens zu werden, angelockt. Anfang 2025 sieht die Realität anders aus, Experten, die genau die richtigen Eingaben in LLMs tätigen, um aus ihnen die besten Antworten zu generieren, sind mittlerweile fast nicht mehr gefragt. Prompt-Engineering bleibt Nische auf dem Arbeitsmarkt Wie eine aktuelle Microsoft-Umfrage unter 31.000 Arbeitnehmern in 31 Ländern ergab, wollen Unternehmen in den nächsten 12 bis 18 Monaten eher Rollen wie KI-Trainer, KI-Datenspezialist und KI-Sicherheitsspezialist schaffen. Auch auf dem Arbeitsmarkt wird die Situation deutlich, wie die Jobplattform Indeed offenlegt. Die Zahl der Stellenausschreibungen für Prompt-Ingenieure ist minimal, erklärt Hannah Calhoon, VP AI bei Indeed, im Gespräch mit dem Wall Street Journal. Bevor der Hype um die neue Tätigkeit groß war, lagen die Suchanfragen von Nutzern auf der Plattform nach dieser Funktion bei zwei Suchanfragen pro Million Gesamtsuchanfragen allein in den USA. Im Januar 2023, Monate nach dem Debüt von ChatGPT, explodierte diese Zahl auf 144 pro Million im April 2023. Seit diesem Höhepunkt hat sich die Zahl der Suchanfragen laut Indeed auf etwa 20 bis 30 pro Million eingependelt. Schulungen statt Neueinstellungen Für die Entwicklung gibt es verschiedene Gründe: Zum einen haben Unternehmen eine Vielzahl von Mitarbeitern in allen Funktionen der Technologie geschult. Sie wissen mittlerweile, wie man Modelle am besten anspricht und einsetzt. Dadurch ist es nicht mehr notwendig, dass eine einzige Person über dieses Fachwissen verfügt. Zum anderen sind KI-Modelle heute viel besser in der Lage, die Absicht des Nutzers zu erkennen, und können Folgefragen stellen, wenn sie sich nicht sicher sind. Sie seien kontextbewusster und arbeiteten interaktiver, sodass Nutzer keine perfekten Eingaben mehr benötigen, so Jared Spataro, Chief Marketing Officer von AI at Work bei Microsoft. Ein weiterer Faktor für den Rückgang des Interesses von Unternehmen an der Spezialistenrolle sind und waren knappe Budgets sowie wirtschaftliche Unsicherheiten. Deshalb stellen US-amerikanische Unternehmen wie die Versicherer Nationwide und New York Life sowie der Bekleidungshersteller Carhartt keine speziellen Prompt-Ingenieure ein, wie sie dem Wall Street Journal berichteten. Stattdessen setzen sie auf Schulungen für bestehende Mitarbeiter, um Prompting-Fähigkeiten als Zusatzkompetenz in verschiedenen Berufsrollen zu integrieren. Bei Nationwide ist Prompt-Engineering dabei, laut Chief Technology Officer Jim Fowler, einer der beliebtesten Kurse im unternehmensweiten KI-Trainingsprogramm. 

Prompt-Engineering: 2023 noch angesagt, 2025 veraltet​ Neue KI-Modelle verstehen Nutzer besser und machen perfekte Prompts und ihre Ersteller schon wieder überflüssig.TippaPatt – shuterstock.com

2023 war Prompt-Engineering noch einer der angesagtesten Jobs in der Tech-Branche. Interessenten wurden mit Spitzengehältern und dem Versprechen, der „KI-Flüsterer“ eines Unternehmens zu werden, angelockt.

Anfang 2025 sieht die Realität anders aus, Experten, die genau die richtigen Eingaben in LLMs tätigen, um aus ihnen die besten Antworten zu generieren, sind mittlerweile fast nicht mehr gefragt.

Prompt-Engineering bleibt Nische auf dem Arbeitsmarkt

Wie eine aktuelle Microsoft-Umfrage unter 31.000 Arbeitnehmern in 31 Ländern ergab, wollen Unternehmen in den nächsten 12 bis 18 Monaten eher Rollen wie KI-Trainer, KI-Datenspezialist und KI-Sicherheitsspezialist schaffen.

Auch auf dem Arbeitsmarkt wird die Situation deutlich, wie die Jobplattform Indeed offenlegt. Die Zahl der Stellenausschreibungen für Prompt-Ingenieure ist minimal, erklärt Hannah Calhoon, VP AI bei Indeed, im Gespräch mit dem Wall Street Journal.

Bevor der Hype um die neue Tätigkeit groß war, lagen die Suchanfragen von Nutzern auf der Plattform nach dieser Funktion bei zwei Suchanfragen pro Million Gesamtsuchanfragen allein in den USA. Im Januar 2023, Monate nach dem Debüt von ChatGPT, explodierte diese Zahl auf 144 pro Million im April 2023. Seit diesem Höhepunkt hat sich die Zahl der Suchanfragen laut Indeed auf etwa 20 bis 30 pro Million eingependelt.

Schulungen statt Neueinstellungen

Für die Entwicklung gibt es verschiedene Gründe: Zum einen haben Unternehmen eine Vielzahl von Mitarbeitern in allen Funktionen der Technologie geschult. Sie wissen mittlerweile, wie man Modelle am besten anspricht und einsetzt. Dadurch ist es nicht mehr notwendig, dass eine einzige Person über dieses Fachwissen verfügt.

Zum anderen sind KI-Modelle heute viel besser in der Lage, die Absicht des Nutzers zu erkennen, und können Folgefragen stellen, wenn sie sich nicht sicher sind. Sie seien kontextbewusster und arbeiteten interaktiver, sodass Nutzer keine perfekten Eingaben mehr benötigen, so Jared Spataro, Chief Marketing Officer von AI at Work bei Microsoft.

Ein weiterer Faktor für den Rückgang des Interesses von Unternehmen an der Spezialistenrolle sind und waren knappe Budgets sowie wirtschaftliche Unsicherheiten. Deshalb stellen US-amerikanische Unternehmen wie die Versicherer Nationwide und New York Life sowie der Bekleidungshersteller Carhartt keine speziellen Prompt-Ingenieure ein, wie sie dem Wall Street Journal berichteten.

Stattdessen setzen sie auf Schulungen für bestehende Mitarbeiter, um Prompting-Fähigkeiten als Zusatzkompetenz in verschiedenen Berufsrollen zu integrieren. Bei Nationwide ist Prompt-Engineering dabei, laut Chief Technology Officer Jim Fowler, einer der beliebtesten Kurse im unternehmensweiten KI-Trainingsprogramm.

Prompt-Engineering: 2023 noch angesagt, 2025 veraltet​ Weiterlesen »

KI und Kriminalität: Gefälschte Pässe in Minuten​

Allgemein

War das Fälschen von Pässen und anderen Dokumenten früher eine Aufgabe für Spezialisten, so erledigt die KI das heute in Minuten. karenfoleyphotography – shutterstock.com Forscher warnen vor einer neuen Gefahr: Mit gefälschten Identitätsdokumenten eröffnen Kriminelle unter anderem neue Bankkonten, übernehmen bestehende Konten oder begehen Versicherungsbetrug. Die erforderlichen Papiere würden sie per KI in Minuten erstellen. Vor dieser neuen Entwicklung, GenAI im Bereich der Kriminalität zu nutzen, warnen die Experten von Cato CTRL, dem Threat-Research-Team von Cato Networks. Insbesondere der neueste Bildgenerator von ChatGPT lasse sich zur Erstellung gefälschter Dokumente wie Pässen nutzen. KI als Meisterfälscher So werde die Technologie zunehmend von Kriminellen zweckentfremdet, um überzeugende Fälschungen zu erstellen – ohne technisches Fachwissen oder Zugang zu illegalen Netzwerken zu benötigen. Was früher spezialisierte Fähigkeiten und Werkzeuge wie Photoshop erforderte, kann heute mit wenigen gezielten Eingaben in eine KI-Plattform erreicht werden. Dies markiert laut Cato Networks einen Wendepunkt in der Bedrohungslandschaft und ebnet den Weg für sogenannte „Zero-Knowledge“-Angreifer: Also Kriminelle, die ohne tiefgreifende Fachkenntnisse ausgefeilte Betrugsstrategien umsetzen können. Dabei könnten die von OpenAI implementierten Sicherheitsschranken im Bildgenerator von ChatGPT einfach umgangen werden. Die Anfragen müssen nur geschickt formuliert werden. Sperren leicht ausgetrickst So war es etwa Etay Maor, Chief Security Strategist bei Cato Networks, möglich, die Schutzmechanismen der Plattform zu überwinden, indem er vorgab, dass ein Dokument lediglich eine Visitenkarte im Stil eines Reisepasses sei. Auf diese Weise erhielt er ein gefälschtes, aber täuschend echt wirkendes Ausweisdokument. Dieser Prozess, der früher Stunden dauerte und spezielle Kenntnisse erforderte, ist nun in wenigen Minuten möglich – allein durch einfache Texteingaben. Besonders beunruhigend sei dabei die Qualität der Fälschungen: Die KI reproduziere nicht nur visuelle Details wie Stempel und Bildüberlagerungen, sondern auch subtile Merkmale wie die Textur von Handschriften oder Unregelmäßigkeiten im Tintenauftrag. Diese weise normalerweise in echten Dokumenten auf die Authentizität hin. Für Cato Networks besteht die Bedrohung nicht nur in der Leichtigkeit, mit der entsprechende Dokumente erstellt werden können, sondern auch in ihrer zunehmenden Glaubwürdigkeit. Denn mit den Fälschungen seien traditionelle Erkennungsmechanismen zuweilen überfordert. 

KI und Kriminalität: Gefälschte Pässe in Minuten​ War das Fälschen von Pässen und anderen Dokumenten früher eine Aufgabe für Spezialisten, so erledigt die KI das heute in Minuten.
karenfoleyphotography – shutterstock.com

Forscher warnen vor einer neuen Gefahr: Mit gefälschten Identitätsdokumenten eröffnen Kriminelle unter anderem neue Bankkonten, übernehmen bestehende Konten oder begehen Versicherungsbetrug. Die erforderlichen Papiere würden sie per KI in Minuten erstellen.

Vor dieser neuen Entwicklung, GenAI im Bereich der Kriminalität zu nutzen, warnen die Experten von Cato CTRL, dem Threat-Research-Team von Cato Networks. Insbesondere der neueste Bildgenerator von ChatGPT lasse sich zur Erstellung gefälschter Dokumente wie Pässen nutzen.

KI als Meisterfälscher

So werde die Technologie zunehmend von Kriminellen zweckentfremdet, um überzeugende Fälschungen zu erstellen – ohne technisches Fachwissen oder Zugang zu illegalen Netzwerken zu benötigen. Was früher spezialisierte Fähigkeiten und Werkzeuge wie Photoshop erforderte, kann heute mit wenigen gezielten Eingaben in eine KI-Plattform erreicht werden. Dies markiert laut Cato Networks einen Wendepunkt in der Bedrohungslandschaft und ebnet den Weg für sogenannte „Zero-Knowledge“-Angreifer: Also Kriminelle, die ohne tiefgreifende Fachkenntnisse ausgefeilte Betrugsstrategien umsetzen können.

Dabei könnten die von OpenAI implementierten Sicherheitsschranken im Bildgenerator von ChatGPT einfach umgangen werden. Die Anfragen müssen nur geschickt formuliert werden.

Sperren leicht ausgetrickst

So war es etwa Etay Maor, Chief Security Strategist bei Cato Networks, möglich, die Schutzmechanismen der Plattform zu überwinden, indem er vorgab, dass ein Dokument lediglich eine Visitenkarte im Stil eines Reisepasses sei. Auf diese Weise erhielt er ein gefälschtes, aber täuschend echt wirkendes Ausweisdokument.

Dieser Prozess, der früher Stunden dauerte und spezielle Kenntnisse erforderte, ist nun in wenigen Minuten möglich – allein durch einfache Texteingaben. Besonders beunruhigend sei dabei die Qualität der Fälschungen: Die KI reproduziere nicht nur visuelle Details wie Stempel und Bildüberlagerungen, sondern auch subtile Merkmale wie die Textur von Handschriften oder Unregelmäßigkeiten im Tintenauftrag. Diese weise normalerweise in echten Dokumenten auf die Authentizität hin.

Für Cato Networks besteht die Bedrohung nicht nur in der Leichtigkeit, mit der entsprechende Dokumente erstellt werden können, sondern auch in ihrer zunehmenden Glaubwürdigkeit. Denn mit den Fälschungen seien traditionelle Erkennungsmechanismen zuweilen überfordert.

KI und Kriminalität: Gefälschte Pässe in Minuten​ Weiterlesen »

MediaMarktSaturn-Chef soll erster Digitalminister werden​

Allgemein

Karsten Wildberger, Chef von CECONOMY und MediaMarktSaturn, wird erster Digitalminister Deutschlands.Ceconomy CDU-Chef Friedrich Merz hat seine Liste mit den designierten Bundesministerinnen und -minister bekannt gegeben. Demzufolge soll Karsten Wildberger, derzeit noch Vorstandsvorsitzender von CECONOMY und Vorsitzender der Geschäftsführung der Media-Saturn-Holding, neuer Minister für Digitalisierung und Staatsmodernisierung werden. Der 56-jährige Manager hatte zuvor verschiedene Managerposten bei T-Mobile und Vodafone inne. Beim Energieversorger Eon kümmerte sich Wildberger von 2016 bis 2021 im Vorstand um die digitale Transformation. Wildberger ist studierter Physiker und hatte in den 90er Jahren seine Karriere als Berater bei der Boston Consulting Group begonnen.   Wildberger hat den Aufsichtsrat der CECONOMY AG bereits um eine einvernehmliche kurzfristige Entbindung von seinen Aufgaben im Unternehmen zum 5. Mai 2025 gebeten. „Ich fühle mich geehrt über das Vertrauen, das Friedrich Merz in mich setzt, und die Möglichkeit, der neue Minister für Digitales zu werden“, kommentierte der MediaMarktSaturn-Chef seine Berufung. Er bezeichnete Digitalisierung und Technologie als prägende Themen seiner beruflichen Laufbahn. „Das neue Ministerium wird eine entscheidende Rolle bei der Modernisierung unseres Landes spielen.“  Treiber für die Digitalisierung in Deutschland? Bitkom-Präsident Ralf Wintergerst gratulierte dem designierten Digitalminister, verwies allerdings auch auf die vor ihm liegenden Aufgaben. Dabei gehe es um nichts weniger, als Deutschland zu einem digital souveränen Land zu machen – in Wirtschaft, Staat und Gesellschaft. „Die Einrichtung des neuen Ressorts ist ein Meilenstein für Deutschland und seine Ausgestaltung wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird“, betonte Wintergerst. Mehr denn je müsse man jetzt wettbewerbsfähig, innovativ und digital handlungsfähig werden. „Um die Wirtschaft in Schwung zu bringen, den gesellschaftlichen Zusammenhalt zu stärken, die Sicherheit auch im Cyberraum zu verbessern und den Staat auf die Höhe der Zeit zu bringen.“  Der Bitkom-Chef mahnte: „Das neue Ressort braucht daher jetzt eine zügige und verbindliche Klärung der konkreten Zuständigkeiten, Befugnisse und Ressourcen, auch im nachgeordneten Bereich. Das Digitalministerium kann nur schlagkräftig handeln, wenn es die Federführung für die digitalen Kernthemen erhält und mit den notwendigen Koordinierungsrechten, einem Digitalvorbehalt sowie einem ausreichenden Einzelplan ausgestattet ist.“  Alles eine Frage der Kompetenzen Gerade der Zuschnitt der Kompetenzen des neuen Digitalministeriums dürfte über Erfolg oder Misserfolg der neuen ministerialen Organisation in Berlin entscheiden. Fedor Rose, der für die SPD die Digitalisierungsthemen in den Koalitionsverhandlungen mitdiskutierte, betonte in einem LinkedIn-Post Mitte April die Bündelung aller Querschnittsthemen der Digitalisierung in einem Ministerium. Es gehe um die Konsolidierung behördlicher Strukturen und eine echte und ehrliche Zusammenführung der IT-Budgets der Ressorts im neuen Einzelplan des Digitalministeriums. Bundestagswahl 2025: Die Digital-Agenda der Parteien Deutschland müsse in der Digitalpolitik eine zentrale Mission verfolgen, nämlich die Herstellung einer technologischen Souveränität mit europäischem Fokus, bekräftigte der SPD-Mann. Das sei in allen Vorhaben und Instrumenten zu verankern. „So schaffen wir ein Ministerium, dass die Transformation der Verwaltung gestaltet und die digitale Verwaltung vorantreibt.“ 

MediaMarktSaturn-Chef soll erster Digitalminister werden​ Karsten Wildberger, Chef von CECONOMY und MediaMarktSaturn, wird erster Digitalminister Deutschlands.Ceconomy

CDU-Chef Friedrich Merz hat seine Liste mit den designierten Bundesministerinnen und -minister bekannt gegeben. Demzufolge soll Karsten Wildberger, derzeit noch Vorstandsvorsitzender von CECONOMY und Vorsitzender der Geschäftsführung der Media-Saturn-Holding, neuer Minister für Digitalisierung und Staatsmodernisierung werden. Der 56-jährige Manager hatte zuvor verschiedene Managerposten bei T-Mobile und Vodafone inne. Beim Energieversorger Eon kümmerte sich Wildberger von 2016 bis 2021 im Vorstand um die digitale Transformation. Wildberger ist studierter Physiker und hatte in den 90er Jahren seine Karriere als Berater bei der Boston Consulting Group begonnen.  

Wildberger hat den Aufsichtsrat der CECONOMY AG bereits um eine einvernehmliche kurzfristige Entbindung von seinen Aufgaben im Unternehmen zum 5. Mai 2025 gebeten. „Ich fühle mich geehrt über das Vertrauen, das Friedrich Merz in mich setzt, und die Möglichkeit, der neue Minister für Digitales zu werden“, kommentierte der MediaMarktSaturn-Chef seine Berufung. Er bezeichnete Digitalisierung und Technologie als prägende Themen seiner beruflichen Laufbahn. „Das neue Ministerium wird eine entscheidende Rolle bei der Modernisierung unseres Landes spielen.“ 

Treiber für die Digitalisierung in Deutschland?

Bitkom-Präsident Ralf Wintergerst gratulierte dem designierten Digitalminister, verwies allerdings auch auf die vor ihm liegenden Aufgaben. Dabei gehe es um nichts weniger, als Deutschland zu einem digital souveränen Land zu machen – in Wirtschaft, Staat und Gesellschaft. „Die Einrichtung des neuen Ressorts ist ein Meilenstein für Deutschland und seine Ausgestaltung wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird“, betonte Wintergerst. Mehr denn je müsse man jetzt wettbewerbsfähig, innovativ und digital handlungsfähig werden. „Um die Wirtschaft in Schwung zu bringen, den gesellschaftlichen Zusammenhalt zu stärken, die Sicherheit auch im Cyberraum zu verbessern und den Staat auf die Höhe der Zeit zu bringen.“ 

Der Bitkom-Chef mahnte: „Das neue Ressort braucht daher jetzt eine zügige und verbindliche Klärung der konkreten Zuständigkeiten, Befugnisse und Ressourcen, auch im nachgeordneten Bereich. Das Digitalministerium kann nur schlagkräftig handeln, wenn es die Federführung für die digitalen Kernthemen erhält und mit den notwendigen Koordinierungsrechten, einem Digitalvorbehalt sowie einem ausreichenden Einzelplan ausgestattet ist.“ 

Alles eine Frage der Kompetenzen

Gerade der Zuschnitt der Kompetenzen des neuen Digitalministeriums dürfte über Erfolg oder Misserfolg der neuen ministerialen Organisation in Berlin entscheiden. Fedor Rose, der für die SPD die Digitalisierungsthemen in den Koalitionsverhandlungen mitdiskutierte, betonte in einem LinkedIn-Post Mitte April die Bündelung aller Querschnittsthemen der Digitalisierung in einem Ministerium. Es gehe um die Konsolidierung behördlicher Strukturen und eine echte und ehrliche Zusammenführung der IT-Budgets der Ressorts im neuen Einzelplan des Digitalministeriums.

Bundestagswahl 2025: Die Digital-Agenda der Parteien

Deutschland müsse in der Digitalpolitik eine zentrale Mission verfolgen, nämlich die Herstellung einer technologischen Souveränität mit europäischem Fokus, bekräftigte der SPD-Mann. Das sei in allen Vorhaben und Instrumenten zu verankern. „So schaffen wir ein Ministerium, dass die Transformation der Verwaltung gestaltet und die digitale Verwaltung vorantreibt.“

MediaMarktSaturn-Chef soll erster Digitalminister werden​ Weiterlesen »

Was ist eine GPU?​

Allgemein

GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen.   In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie: wie sich GPUs und CPUs unterscheiden, wie Grafikprozessoren funktionieren, in welchen Ausformungen sie auftreten, welche Business Use Cases dabei besonders relevant sind, sowie welche Anbieter im GPU-Bereich tonangebend sind. GPU “vs.” CPU Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel: Anwendungen auszuführen, Input- und Output-Prozesse abzuarbeiten, oder Grafiken zu verarbeiten. Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining. Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist. GPU – Funktionsweise GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden. In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren.   GPU-Formen Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als: diskrete GPUs, integrierte GPUs oder virtuelle GPUs (vGPUs). Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen. Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen. Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten. GPU-Anwendungsfälle Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases. High Performance Computing Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert. HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz. Machine & Deep Learning Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können. So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen. (Generative) KI Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten.   Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen. Edge Computing & IoT Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind.  Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen. GPU-Anbieter Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend. Nvidia Marvell Broadcom Intel AMD Samsung Qualcomm (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist eine GPU?​ GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia

Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen.  

In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie:

wie sich GPUs und CPUs unterscheiden,

wie Grafikprozessoren funktionieren,

in welchen Ausformungen sie auftreten,

welche Business Use Cases dabei besonders relevant sind, sowie

welche Anbieter im GPU-Bereich tonangebend sind.

GPU “vs.” CPU

Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel:

Anwendungen auszuführen,

Input- und Output-Prozesse abzuarbeiten, oder

Grafiken zu verarbeiten.

Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining.

Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist.

GPU – Funktionsweise

GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden.

In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren.  

GPU-Formen

Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als:

diskrete GPUs,

integrierte GPUs oder

virtuelle GPUs (vGPUs).

Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen.

Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen.

Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten.

GPU-Anwendungsfälle

Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases.

High Performance Computing

Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert.

HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz.

Machine & Deep Learning

Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können.

So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen.

(Generative) KI

Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten.  

Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen.

Edge Computing & IoT

Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind. 

Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen.

GPU-Anbieter

Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend.

Nvidia

Marvell

Broadcom

Intel

AMD

Samsung

Qualcomm

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist eine GPU?​ Weiterlesen »

GenAI kommt auf Ihre UEM-Plattform: So bereiten Sie sich vor​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?quality=50&strip=all 9429w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit GenAI gibt es auch beim Device Management neue Möglichkeiten – und Risiken. thinkhubstudio – Shutterstock.com Generative künstliche Intelligenz (GenAI) hält Einzug in Unified-Endpoint-Management- (UEM)-Plattformen – einige Funktionen sind sogar schon verfügbar – und IT- und Business Manager müssen sich auf die damit verbundenen Herausforderungen vorbereiten.  Einige der führenden UEM-Anbieter integrieren derzeit KI- und GenAI-Funktionen in ihre Plattformen. Hier einige Beispiele:  ManageEngine hat seinen hauseigenen KI-basierten Assistenten Zia zu einem integralen Bestandteil seiner UEM-Lösung Endpoint Central gemacht. Durch natürliche Sprachinteraktionen mit dem Chatbot „Ask Zia“ sollen IT-Teams KI-gestützte Erkenntnisse, intelligentes Reporting und KI-fähigen Remote-Support nutzen können. Zukünftig sollen GenAI-gestützte Verwaltung und Sicherheitsautomatisierung folgen, weitere Funktionen zielen auf die Verbesserung der Geräteoptimierung und des Security Incident Managements ab.  Microsoft bietet in seinem Intune UEM-Produkt Copilot für Windows Autopatch an. Das Tool bietet KI-gesteuerte Anleitungen für alle Phasen des Update-Managements, von der Planung über das Deployment Tracking bis hin zur Identifizierung und Behebung von Problemen. Weitere Intune-Funktionen, die bereits verfügbar sind oder in Kürze verfügbar sein werden, sind die Unterstützung von Copiloten für Abfragen über mehrere Geräte hinweg sowie die Verwaltung von Endgeräteberechtigungen und -richtlinien.   BlackBerry verwendet KI und Machine Learning in seiner Mobile Threat Defense, um Apps und URLs zu bewerten. Zudem prüft das Unternehmen derzeit GenAI-Anwendungsfälle für Server und Apps, mit besonderem Fokus auf Datenschutz. Konkretere Angaben zu Zeitplan oder Funktionsumfang wurden nicht gemacht.  Aus Sicht von Branchenbeobachtern wird GenAI UEM-Tools bald auch beim Anwender-Support unterstützen und dabei helfen, bessere Skripte zu generieren oder Daten in natürlicher Sprache zu extrahieren und analysieren.  In einem großen Unternehmen verwaltet eine UEM-Plattform oft Tausende von Geräten und ist eng mit Sicherheitssystemen und anderen Tools verknüpft. Entsprechend wichtig ist es, sich auf die neuen GenAI-Integrationen vorzubereiten. Die Computerworld befragte drei Enterprise-Mobility-Experten dazu, wie Unternehmen GenAI in UEM-Tools sinnvoll und sicher nutzen können.  Anbieter nach Details fragen  „Der wichtigste erste Schritt ist, die Roadmap des Anbieters für GenAI-Funktionen sowie die zugrundeliegende Architektur genau zu verstehen“, erklärt Tom Cipolla, Senior Director und Analyst bei Gartner. „Überraschende Releases ohne Vorwarnung sind ein Zeichen für mangelnde Vorbereitung – und eine potenziell schwache Beziehung zum Anbieter“, ergänzt Cipolla.  Auch die Kosten von GenAI sind ein häufiges Thema. „Derzeit befinden sich die meisten dieser Funktionen in der Beta-Phase und werden kostenlos angeboten“, führt Andrew Hewitt, Principal Analyst bei Forrester Research, an. “Das wird jedoch möglicherweise nicht so bleiben, da die Kosten für GenAI hoch sind.“   Die Kunden sollten daher Anbieter um genaue Angaben dazu bitten, welche Kosten sie für verschiedene GenAI-Funktionen in ihren UEM-Plattformen berechnen wollen – und wann, rät Hewitt.  Cybersicherheit und der Schutz von Unternehmensdaten sind ebenfalls kritisch. „Wenn GenAI geschäftskritische Daten nutzt und an die Cloud eines Drittanbieters sendet, kann das riskant sein“, so Hewitt. Er empfiehlt daher, beim UEM-Anbieter zu klären, ob die Daten lokal verarbeitet und geschützt werden. Im Vertrag sollte festgelegt werden, dass die proprietären Daten der Kunden, einschließlich der privaten Daten ihrer Mitarbeiter, verschlüsselt werden und nicht für das Training von GenAI-Modellen verwendet werden.  Sicherheitsvorkehrungen treffen  Bevor Unternehmen neue GenAI-Funktionen in ihren UEM-Plattformen einsetzen, sollten sie entsprechende Schutzmaßnahmen ergreifen.   „Unternehmen müssen eine KI-Governance aufbauen, nicht nur für UEM-Plattformen, sondern für den gesamten digitalen Arbeitsplatz“, so Hewitt. Dazu zähle eine Bestandsaufnahme, wo sich die Daten derzeit befinden, welche Schutzmaßnahmen sie für eine sichere Autorisierung getroffen haben, und inwieweit sie ihre Sorgfaltspflicht in Bezug auf personenbezogene oder andere sensible Informationen wahrnehmen.  IT-Organisationen sollten außerdem damit beginnen, über ihren Automatisierungsprozess nachzudenken, erklärt der Forrester-Analyst. „Hier könnte eine Bestandsaufnahme der bestehenden Automatisierungsprozesse hilfreich sein, ebenso wie einige Tests von GenAI in grundlegenden Anwendungsfällen.“  Sein Gartner-Kollege Cipolla empfiehlt Unternehmen dazu eine „Block-Walk-Run“-Strategie (Blockieren-Beobachten-Einführen), während sie sich mit der Lösung und ihrer Sicherheit vertraut machen.  Prüfen, testen, überwachen – unter menschlicher Kontrolle  „Unternehmen sollten sicherstellen, dass KI-gestützte Device-Management-Aufgaben oder -Funktionen mindestens so gute Ergebnisse erzielen wie bisherige Methoden“, so Phil Hochmuth, Program Vice President, Enterprise Mobility bei IDC. Das bedeute, dass sie die Empfehlungen und Maßnahmen der KI genau im Auge behalten müssen. „Teams, die KI im IT-Betrieb für Endgeräte einsetzen, sollten auf Fehlinterpretationen des KI-Systems, unvollständige oder fehlerhafte Ausführung von Aufgaben und andere negative Auswirkungen auf die Produktivität der Endbenutzer achten“, so Hochmuth.  Forrester-Kollege Hewitt stimmt zu. Administratoren müssten Empfehlungen der KI einer „Plausibilitätsprüfung“ unterziehen, bevor sie sie in ihrer Umgebung implementieren, erklärt er. Beispielsweise sei es wichtig zu überprüfen, ob die Empfehlungen auf aktuellen oder Echtzeitdaten basieren.  „GenAI kann ungenaue oder falsche Informationen liefern, sogenannte Halluzinationen“, warnt auch Cipolla. Werden GenAI-Ergebnisse vor der Verwendung nicht überprüft, könne dies zu erheblichen Folgen für das Unternehmen führen, darunter Datenverlust, Reputationsschäden und eine schlechte User Experience, so Cipolla. Gleichzeitig weist er darauf hin, dass GenAI nicht zur Validierung von GenAI genutzt werden sollte, da verschiedene Modelle Halluzinationen teilen könnten.  Stattdessen empfiehlt der Gartner-Analyst Cipolla ein Vorgehen nach ITIL-Standards, wo IT-Änderungen ordnungsgemäß überprüft werden. „Stellen Sie außerdem vor der Implementierung eines Skripts in einer Produktionsumgebung mit Tests sicher, dass keine unbeabsichtigten Nebenwirkungen auftreten. Überwachen Sie nach der Implementierung sorgfältig den Betrieb des Systems auf verzögerte Auswirkungen“, so Cipolla.  Erfolge dokumentieren und darauf aufbauen  Der Gartner-Analyst warnt Unternehmen außerdem vor der Annahme, dass GenAI technische Mitarbeiter ersetzen kann. „GenAI sollte Mitarbeiter ergänzen, nicht ersetzen“, so Cipolla. „Wird die Kreativität und das Fachwissen des Menschen mit Hilfe von GenAI multipliziert, sind enorme Fortschritte möglich.“  Um Best Practices zu teilen und darauf aufzubauen, empfiehlt der Mobility-Experte Unternehmen, Wiki-ähnliche, leicht durchsuchbare Bibliotheken mit Prompts (und Beispielergebnissen) zu erstellen, die zur Identifizierung erfolgreicher Prompts verwendet werden können. Das könne eine gemeinsame Tabelle, ein Slack-Kanal oder eine einfache Website im Wiki-Stil sein. Der Gartner-Analyst rät in diesem Zusammenhang auch zu einem regelmäßigen Austausch mit dem UEM-Anbieter. So verfügten die meisten GenAI-Funktionen über Feedback-Mechanismen um das System zu verbessern. (mb) 

GenAI kommt auf Ihre UEM-Plattform: So bereiten Sie sich vor​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?quality=50&strip=all 9429w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_1727384935_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit GenAI gibt es auch beim Device Management neue Möglichkeiten – und Risiken. thinkhubstudio – Shutterstock.com

Generative künstliche Intelligenz (GenAI) hält Einzug in Unified-Endpoint-Management- (UEM)-Plattformen – einige Funktionen sind sogar schon verfügbar – und IT- und Business Manager müssen sich auf die damit verbundenen Herausforderungen vorbereiten. 

Einige der führenden UEM-Anbieter integrieren derzeit KI- und GenAI-Funktionen in ihre Plattformen. Hier einige Beispiele: 

ManageEngine hat seinen hauseigenen KI-basierten Assistenten Zia zu einem integralen Bestandteil seiner UEM-Lösung Endpoint Central gemacht. Durch natürliche Sprachinteraktionen mit dem Chatbot „Ask Zia“ sollen IT-Teams KI-gestützte Erkenntnisse, intelligentes Reporting und KI-fähigen Remote-Support nutzen können. Zukünftig sollen GenAI-gestützte Verwaltung und Sicherheitsautomatisierung folgen, weitere Funktionen zielen auf die Verbesserung der Geräteoptimierung und des Security Incident Managements ab. 

Microsoft bietet in seinem Intune UEM-Produkt Copilot für Windows Autopatch an. Das Tool bietet KI-gesteuerte Anleitungen für alle Phasen des Update-Managements, von der Planung über das Deployment Tracking bis hin zur Identifizierung und Behebung von Problemen. Weitere Intune-Funktionen, die bereits verfügbar sind oder in Kürze verfügbar sein werden, sind die Unterstützung von Copiloten für Abfragen über mehrere Geräte hinweg sowie die Verwaltung von Endgeräteberechtigungen und -richtlinien.  

BlackBerry verwendet KI und Machine Learning in seiner Mobile Threat Defense, um Apps und URLs zu bewerten. Zudem prüft das Unternehmen derzeit GenAI-Anwendungsfälle für Server und Apps, mit besonderem Fokus auf Datenschutz. Konkretere Angaben zu Zeitplan oder Funktionsumfang wurden nicht gemacht. 

Aus Sicht von Branchenbeobachtern wird GenAI UEM-Tools bald auch beim Anwender-Support unterstützen und dabei helfen, bessere Skripte zu generieren oder Daten in natürlicher Sprache zu extrahieren und analysieren. 

In einem großen Unternehmen verwaltet eine UEM-Plattform oft Tausende von Geräten und ist eng mit Sicherheitssystemen und anderen Tools verknüpft. Entsprechend wichtig ist es, sich auf die neuen GenAI-Integrationen vorzubereiten. Die Computerworld befragte drei Enterprise-Mobility-Experten dazu, wie Unternehmen GenAI in UEM-Tools sinnvoll und sicher nutzen können. 

Anbieter nach Details fragen 

„Der wichtigste erste Schritt ist, die Roadmap des Anbieters für GenAI-Funktionen sowie die zugrundeliegende Architektur genau zu verstehen“, erklärt Tom Cipolla, Senior Director und Analyst bei Gartner. „Überraschende Releases ohne Vorwarnung sind ein Zeichen für mangelnde Vorbereitung – und eine potenziell schwache Beziehung zum Anbieter“, ergänzt Cipolla. 

Auch die Kosten von GenAI sind ein häufiges Thema. „Derzeit befinden sich die meisten dieser Funktionen in der Beta-Phase und werden kostenlos angeboten“, führt Andrew Hewitt, Principal Analyst bei Forrester Research, an. “Das wird jedoch möglicherweise nicht so bleiben, da die Kosten für GenAI hoch sind.“  

Die Kunden sollten daher Anbieter um genaue Angaben dazu bitten, welche Kosten sie für verschiedene GenAI-Funktionen in ihren UEM-Plattformen berechnen wollen – und wann, rät Hewitt. 

Cybersicherheit und der Schutz von Unternehmensdaten sind ebenfalls kritisch. „Wenn GenAI geschäftskritische Daten nutzt und an die Cloud eines Drittanbieters sendet, kann das riskant sein“, so Hewitt. Er empfiehlt daher, beim UEM-Anbieter zu klären, ob die Daten lokal verarbeitet und geschützt werden. Im Vertrag sollte festgelegt werden, dass die proprietären Daten der Kunden, einschließlich der privaten Daten ihrer Mitarbeiter, verschlüsselt werden und nicht für das Training von GenAI-Modellen verwendet werden. 

Sicherheitsvorkehrungen treffen 

Bevor Unternehmen neue GenAI-Funktionen in ihren UEM-Plattformen einsetzen, sollten sie entsprechende Schutzmaßnahmen ergreifen.  

„Unternehmen müssen eine KI-Governance aufbauen, nicht nur für UEM-Plattformen, sondern für den gesamten digitalen Arbeitsplatz“, so Hewitt. Dazu zähle eine Bestandsaufnahme, wo sich die Daten derzeit befinden, welche Schutzmaßnahmen sie für eine sichere Autorisierung getroffen haben, und inwieweit sie ihre Sorgfaltspflicht in Bezug auf personenbezogene oder andere sensible Informationen wahrnehmen. 

IT-Organisationen sollten außerdem damit beginnen, über ihren Automatisierungsprozess nachzudenken, erklärt der Forrester-Analyst. „Hier könnte eine Bestandsaufnahme der bestehenden Automatisierungsprozesse hilfreich sein, ebenso wie einige Tests von GenAI in grundlegenden Anwendungsfällen.“ 

Sein Gartner-Kollege Cipolla empfiehlt Unternehmen dazu eine „Block-Walk-Run“-Strategie (Blockieren-Beobachten-Einführen), während sie sich mit der Lösung und ihrer Sicherheit vertraut machen. 

Prüfen, testen, überwachen – unter menschlicher Kontrolle 

„Unternehmen sollten sicherstellen, dass KI-gestützte Device-Management-Aufgaben oder -Funktionen mindestens so gute Ergebnisse erzielen wie bisherige Methoden“, so Phil Hochmuth, Program Vice President, Enterprise Mobility bei IDC. Das bedeute, dass sie die Empfehlungen und Maßnahmen der KI genau im Auge behalten müssen. „Teams, die KI im IT-Betrieb für Endgeräte einsetzen, sollten auf Fehlinterpretationen des KI-Systems, unvollständige oder fehlerhafte Ausführung von Aufgaben und andere negative Auswirkungen auf die Produktivität der Endbenutzer achten“, so Hochmuth. 

Forrester-Kollege Hewitt stimmt zu. Administratoren müssten Empfehlungen der KI einer „Plausibilitätsprüfung“ unterziehen, bevor sie sie in ihrer Umgebung implementieren, erklärt er. Beispielsweise sei es wichtig zu überprüfen, ob die Empfehlungen auf aktuellen oder Echtzeitdaten basieren. 

„GenAI kann ungenaue oder falsche Informationen liefern, sogenannte Halluzinationen“, warnt auch Cipolla. Werden GenAI-Ergebnisse vor der Verwendung nicht überprüft, könne dies zu erheblichen Folgen für das Unternehmen führen, darunter Datenverlust, Reputationsschäden und eine schlechte User Experience, so Cipolla. Gleichzeitig weist er darauf hin, dass GenAI nicht zur Validierung von GenAI genutzt werden sollte, da verschiedene Modelle Halluzinationen teilen könnten. 

Stattdessen empfiehlt der Gartner-Analyst Cipolla ein Vorgehen nach ITIL-Standards, wo IT-Änderungen ordnungsgemäß überprüft werden. „Stellen Sie außerdem vor der Implementierung eines Skripts in einer Produktionsumgebung mit Tests sicher, dass keine unbeabsichtigten Nebenwirkungen auftreten. Überwachen Sie nach der Implementierung sorgfältig den Betrieb des Systems auf verzögerte Auswirkungen“, so Cipolla. 

Erfolge dokumentieren und darauf aufbauen 

Der Gartner-Analyst warnt Unternehmen außerdem vor der Annahme, dass GenAI technische Mitarbeiter ersetzen kann. „GenAI sollte Mitarbeiter ergänzen, nicht ersetzen“, so Cipolla. „Wird die Kreativität und das Fachwissen des Menschen mit Hilfe von GenAI multipliziert, sind enorme Fortschritte möglich.“ 

Um Best Practices zu teilen und darauf aufzubauen, empfiehlt der Mobility-Experte Unternehmen, Wiki-ähnliche, leicht durchsuchbare Bibliotheken mit Prompts (und Beispielergebnissen) zu erstellen, die zur Identifizierung erfolgreicher Prompts verwendet werden können. Das könne eine gemeinsame Tabelle, ein Slack-Kanal oder eine einfache Website im Wiki-Stil sein. Der Gartner-Analyst rät in diesem Zusammenhang auch zu einem regelmäßigen Austausch mit dem UEM-Anbieter. So verfügten die meisten GenAI-Funktionen über Feedback-Mechanismen um das System zu verbessern. (mb)

GenAI kommt auf Ihre UEM-Plattform: So bereiten Sie sich vor​ Weiterlesen »

Mediationsverfahren: Wie Change etwas Gutes wird​

Allgemein

An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Mediation kann helfen, das Ruder noch rumzureißen, bevor man gegen einen Eisberg fährt. Foto: S.Bachstroem – shutterstock.com “Früher war alles besser”. Wer kennt diesen Satz nicht? Der Mensch ist ein Gewohnheitstier und fühlt sich unwohl, sobald Veränderungen auftreten – sei es privater oder beruflicher Natur. Doch in einer Welt des ständigen Wandels sind Veränderungen unvermeidlich und Anpassungsfähigkeit gefragt, wie schon Charles Darwin erkannte: ”It is not the strongest of the species that survives, nor the most intelligent; it is the one most adaptable to change”. In der heutigen dynamischen Unternehmenswelt bedeutet dies: Stillstand ist Rückschritt, und wer sich nicht anpasst, verliert seinen Wettbewerbsvorteil. Dennoch ist nicht jeder Mitarbeiter bereit, neue Wege mitzugehen. Die Angst vor dem Unbekannten ist menschlich und evolutionstheoretisch nachvollziehbar: Warum die Höhle verlassen, wenn man nicht weiß, was einen draußen erwartet? Projektmanagement – die Anzeichen des Scheiterns An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Typische Fehler von Führungskräften sind Foliensätze mit Transformationsbekenntnissen, ohne sie aktiv vorzuleben. Man verschanzt sich hinter neuen Buzzwords, ohne zu verstehen was sie bedeuten. Oder es werden im Trend liegende Methoden und Techniken eingeführt, ohne zu hinterfragen, ob diese zur eigenen Situation passen. Das schürt das Misstrauen der Mitarbeiter und treibt negative Reaktionen voran. Jetzt ist es Zeit, die Situation zu hinterfragen, bevor das Projekt zu scheitern droht. Achten Sie auf die Anzeichen: Ihre Kollegen streiten öfter und Diskussionen werden lauter? Konflikte entstehen oft aus unbefriedigten Bedürfnissen heraus und einem Mangel an Klarheit, Orientierung und Transparenz. Anstatt sich mit dem Wesentlichen auseinanderzusetzen und an einem Strang zu ziehen, gehen sich Kolleginnen und Kollegen nun gegenseitig an. Hören Sie öfter den Spruch: “Wir haben keine Probleme!” Dann sollten Sie wachsam sein, denn das ist ein klassischer Fall von Verdrängung oder Verleugnung. Die Mitarbeiter möchten sich nicht mit dem neuen Sachverhalt auseinandersetzen, weil sie entweder davon ausgehen, dass “das” schon vorbeigeht, wie alles davor auch. Oder weil sie ignorieren, dass sie eine aktive Rolle in dieser Veränderung spielen. Sie möchten keine Verantwortung übernehmen und halten sich lieber raus. Vor allem verdeckter Widerstand ist bedrohlich. Selten ist er eindeutig erkennbar und häufig ist er den ausübenden Personen selbst nicht bewusst. Oft wird er dadurch aber zu einem unkalkulierbaren Risiko für Transformationsprojekte. Werden Sie hellhörig, wenn bereits getroffene Entscheidungen immer wieder in Frage gestellt werden, angenommene Aufgaben zurückdelegiert und Verantwortungsbereiche von Ihnen eingeteilt werden müssen, weil sich niemand mehr freiwillig meldet. Proaktivität wird zum Fremdwort. Nebensächliches und Sonderfälle werden endlos diskutiert. Doch dort, wo Kommunikation notwendig wäre, wird geschwiegen. Man kann das Ruder aber dennoch rumreißen, bevor man gegen einen Eisberg fährt. Es bedarf nur des richtigen Werkzeugs. Mediationsverfahren für den Change-Erfolg Mediation ist eine Methode der strategischen Konfliktlösung. Das Verfahren kann in seiner Struktur auch von Führungskräften genutzt werden, um Spannungen zu lösen und Widerstände in Veränderungsprozessen abzubauen. Betrachten wir dazu den Mediationsprozess im Rahmen der Umstrukturierung eines IT-Bereiches. Die Herausforderung besteht darin, dass einige Mitarbeiter hartnäckig an den alten Arbeitsweisen festhalten, was zu starken Spannungen innerhalb des Teams und an den Schnittstellen der Zusammenarbeit mit anderen Abteilungen führt. Der Mediationsprozess gliedert sich in sieben Schritte: Bedarfsanalyse und Vorbereitung: Zuerst erfolgt eine umfassende Bedarfsanalyse, um die Art des Konflikts zu verstehen und die Ziele des Mediationsprozesses festzulegen. Dies geschieht durch Gespräche zwischen dem Mediator und den betroffenen Mitarbeitern, Vorgesetzten und sonstigen Beteiligten. Mediationsverfahren erläutern: Die betroffenen Parteien werden eingeladen und der Mediator erklärt das Mediationsverfahren, seine Ziele, Regeln und Grundsätze. Dabei wird auch auf die Vertraulichkeit der Gespräche hingewiesen. Konfliktthemen herausarbeiten: Die Parteien haben nun die Möglichkeit, ihre Sicht der Konfliktsituation darzustellen. Der Mediator hilft dabei, einen Überblick über die zu klärenden Themen zu gewinnen. Dies können zum Beispiel Kommunikationsprobleme, Ressourcenkonflikte oder Widerstände gegen Veränderungen sein. Interessen und Bedürfnisse identifizieren: Der Mediator unterstützt die Parteien dabei, gemeinsame Interessen und Bedürfnisse zu erkennen, um den Kern des zugrunde liegenden Konflikts zu erfassen und zu lösen. Lösungsoptionen entwickeln: In diesem Schritt arbeiten die Beteiligten an Lösungen für die zuvor identifizierten Problembereiche. Der Mediator spielt dabei eine entscheidende Rolle. Er stellt sicher, dass die Zusammenarbeit von Anfang an auf einer soliden Basis steht und die Kommunikation zwischen den Parteien während des gesamten Prozesses lösungsorientiert bleibt. Dies schafft die Grundlage für eine rasche Lösung und legt den Grundstein dafür, dass die Zusammenarbeit auch bei zukünftigen Streitpunkten kooperativ bleibt. Vereinbarung und Durchführung: Sobald die Parteien eine Vereinbarung getroffen haben, wird diese schriftlich festgehalten. Ziel ist die Festlegung konkreter Aktionspunkte mit klaren Verantwortlichkeiten. In regelmäßigen Folgetreffen werden der Umsetzungsfortschritt und die Zielerreichung überprüft. Abschluss und Nachbereitung: Am Ende der Mediation findet ein Abschlussgespräch statt, um sicherzustellen, dass die Vereinbarung wirksam ist, die Parteien mit dem Ergebnis zufrieden sind und die ursprünglichen Konflikte dauerhaft gelöst sind. Dies ist eine grobe Skizze eines Mediationsverfahrens für Konflikte im Zusammenhang mit Umstrukturierungen im IT-Bereich. Die tatsächlichen Schritte und Details können je nach den spezifischen Umständen und den beteiligten Parteien variieren. Widerstände managen – oder managen lassen? Ist der Konflikt bereits weit fortgeschritten, gleicht er oftmals einem Flächenbrand, der nur schwer wieder unter Kontrolle zu bringen ist. In solchen Situationen stellt sich für Führungskräfte die Frage: Wann ist es noch sinnvoll, selbst weiter gegenzusteuern, und ab wann sollte ein Mediator hinzugezogen werden? Fünf Indikatoren zeigen, wann externe Unterstützung sinnvoll sein kann: 1. Konflikte halten sich hartnäckig: Wenn Probleme trotz wiederholter Lösungsansätze bestehen bleiben, Diskussionen sich im Kreis drehen oder Spannungen zwischen denselben Parteien immer wieder aufflammen, kann Mediation eingesetzt werden, um die strittigen Themen nachhaltig zu klären. 2. Die Zusammenarbeit leidet: Wenn ungelöste Spannungen eine einst lebendige Arbeitsatmosphäre ersticken, der Aufwand für schriftliche Absicherungen steigt oder sich konträre Positionen so verhärten, dass die Kooperationsbereitschaft zum Erliegen kommt, kann Mediation dazu beitragen, diesen Entwicklungen entgegenzuwirken. Sie hilft dabei, Trennwände zwischen Teams abzubauen, eine effektive abteilungsübergreifende Zusammenarbeit zu fördern und die Kommunikation an Schnittstellen zu verbessern.3. Emotionen blockieren den Fortschritt: Wenn starke Emotionen wie Ärger, Frustration oder Groll einen konstruktiven Dialog erschweren und Diskussionen den Boden der Sachlichkeit verlassen, kann Mediation helfen, diese Blockaden zu lösen und die Diskussion wieder auf eine sachliche und lösungsorientierte Ebene zurückzuführen. 4. Umsetzung von Lösungen scheitert: Wenn getroffene Vereinbarungen nur auf dem Papier Bestand haben und somit Diskussionen, zum Beispiel über Zuständigkeiten, immer wieder von vorne beginnen, kann ein Mediator helfen, eine nachhaltige Lösung zu erarbeiten, die sich auch in der Praxis bewährt.5. Die Kommunikation bricht ab: Wenn die Parteien nur noch schriftlich miteinander kommunizieren, etwa per E-Mail, wobei jedes Wort so sorgfältig gewählt ist, wie es in rechtssicheren Vertragstexten der Fall ist, oder wenn die Kommunikation ganz abbricht, ist dies ein deutliches Signal, externe Unterstützung hinzuzuziehen. Beachten Sie alle oben genannten Prozessschritte, dann sollte dem Erfolg Ihres nächsten Change-Management-Projektes nichts mehr im Wege stehen. Und droht es doch einmal außer Kontrolle zu geraten, denken Sie daran: Mediation kann helfen, das Ruder noch herumzureißen. 

Mediationsverfahren: Wie Change etwas Gutes wird​ An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Mediation kann helfen, das Ruder noch rumzureißen, bevor man gegen einen Eisberg fährt.
Foto: S.Bachstroem – shutterstock.com

“Früher war alles besser”. Wer kennt diesen Satz nicht? Der Mensch ist ein Gewohnheitstier und fühlt sich unwohl, sobald Veränderungen auftreten – sei es privater oder beruflicher Natur. Doch in einer Welt des ständigen Wandels sind Veränderungen unvermeidlich und Anpassungsfähigkeit gefragt, wie schon Charles Darwin erkannte: ”It is not the strongest of the species that survives, nor the most intelligent; it is the one most adaptable to change”. In der heutigen dynamischen Unternehmenswelt bedeutet dies: Stillstand ist Rückschritt, und wer sich nicht anpasst, verliert seinen Wettbewerbsvorteil.

Dennoch ist nicht jeder Mitarbeiter bereit, neue Wege mitzugehen. Die Angst vor dem Unbekannten ist menschlich und evolutionstheoretisch nachvollziehbar: Warum die Höhle verlassen, wenn man nicht weiß, was einen draußen erwartet?

Projektmanagement – die Anzeichen des Scheiterns

An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Typische Fehler von Führungskräften sind Foliensätze mit Transformationsbekenntnissen, ohne sie aktiv vorzuleben. Man verschanzt sich hinter neuen Buzzwords, ohne zu verstehen was sie bedeuten. Oder es werden im Trend liegende Methoden und Techniken eingeführt, ohne zu hinterfragen, ob diese zur eigenen Situation passen. Das schürt das Misstrauen der Mitarbeiter und treibt negative Reaktionen voran. Jetzt ist es Zeit, die Situation zu hinterfragen, bevor das Projekt zu scheitern droht. Achten Sie auf die Anzeichen:

Ihre Kollegen streiten öfter und Diskussionen werden lauter? Konflikte entstehen oft aus unbefriedigten Bedürfnissen heraus und einem Mangel an Klarheit, Orientierung und Transparenz. Anstatt sich mit dem Wesentlichen auseinanderzusetzen und an einem Strang zu ziehen, gehen sich Kolleginnen und Kollegen nun gegenseitig an.

Hören Sie öfter den Spruch: “Wir haben keine Probleme!” Dann sollten Sie wachsam sein, denn das ist ein klassischer Fall von Verdrängung oder Verleugnung. Die Mitarbeiter möchten sich nicht mit dem neuen Sachverhalt auseinandersetzen, weil sie entweder davon ausgehen, dass “das” schon vorbeigeht, wie alles davor auch. Oder weil sie ignorieren, dass sie eine aktive Rolle in dieser Veränderung spielen. Sie möchten keine Verantwortung übernehmen und halten sich lieber raus.

Vor allem verdeckter Widerstand ist bedrohlich. Selten ist er eindeutig erkennbar und häufig ist er den ausübenden Personen selbst nicht bewusst. Oft wird er dadurch aber zu einem unkalkulierbaren Risiko für Transformationsprojekte. Werden Sie hellhörig, wenn bereits getroffene Entscheidungen immer wieder in Frage gestellt werden, angenommene Aufgaben zurückdelegiert und Verantwortungsbereiche von Ihnen eingeteilt werden müssen, weil sich niemand mehr freiwillig meldet. Proaktivität wird zum Fremdwort. Nebensächliches und Sonderfälle werden endlos diskutiert. Doch dort, wo Kommunikation notwendig wäre, wird geschwiegen.

Man kann das Ruder aber dennoch rumreißen, bevor man gegen einen Eisberg fährt. Es bedarf nur des richtigen Werkzeugs.

Mediationsverfahren für den Change-Erfolg

Mediation ist eine Methode der strategischen Konfliktlösung. Das Verfahren kann in seiner Struktur auch von Führungskräften genutzt werden, um Spannungen zu lösen und Widerstände in Veränderungsprozessen abzubauen. Betrachten wir dazu den Mediationsprozess im Rahmen der Umstrukturierung eines IT-Bereiches. Die Herausforderung besteht darin, dass einige Mitarbeiter hartnäckig an den alten Arbeitsweisen festhalten, was zu starken Spannungen innerhalb des Teams und an den Schnittstellen der Zusammenarbeit mit anderen Abteilungen führt. Der Mediationsprozess gliedert sich in sieben Schritte:

Bedarfsanalyse und Vorbereitung: Zuerst erfolgt eine umfassende Bedarfsanalyse, um die Art des Konflikts zu verstehen und die Ziele des Mediationsprozesses festzulegen. Dies geschieht durch Gespräche zwischen dem Mediator und den betroffenen Mitarbeitern, Vorgesetzten und sonstigen Beteiligten.

Mediationsverfahren erläutern: Die betroffenen Parteien werden eingeladen und der Mediator erklärt das Mediationsverfahren, seine Ziele, Regeln und Grundsätze. Dabei wird auch auf die Vertraulichkeit der Gespräche hingewiesen.

Konfliktthemen herausarbeiten: Die Parteien haben nun die Möglichkeit, ihre Sicht der Konfliktsituation darzustellen. Der Mediator hilft dabei, einen Überblick über die zu klärenden Themen zu gewinnen. Dies können zum Beispiel Kommunikationsprobleme, Ressourcenkonflikte oder Widerstände gegen Veränderungen sein.

Interessen und Bedürfnisse identifizieren: Der Mediator unterstützt die Parteien dabei, gemeinsame Interessen und Bedürfnisse zu erkennen, um den Kern des zugrunde liegenden Konflikts zu erfassen und zu lösen.

Lösungsoptionen entwickeln: In diesem Schritt arbeiten die Beteiligten an Lösungen für die zuvor identifizierten Problembereiche. Der Mediator spielt dabei eine entscheidende Rolle. Er stellt sicher, dass die Zusammenarbeit von Anfang an auf einer soliden Basis steht und die Kommunikation zwischen den Parteien während des gesamten Prozesses lösungsorientiert bleibt. Dies schafft die Grundlage für eine rasche Lösung und legt den Grundstein dafür, dass die Zusammenarbeit auch bei zukünftigen Streitpunkten kooperativ bleibt.

Vereinbarung und Durchführung: Sobald die Parteien eine Vereinbarung getroffen haben, wird diese schriftlich festgehalten. Ziel ist die Festlegung konkreter Aktionspunkte mit klaren Verantwortlichkeiten. In regelmäßigen Folgetreffen werden der Umsetzungsfortschritt und die Zielerreichung überprüft.

Abschluss und Nachbereitung: Am Ende der Mediation findet ein Abschlussgespräch statt, um sicherzustellen, dass die Vereinbarung wirksam ist, die Parteien mit dem Ergebnis zufrieden sind und die ursprünglichen Konflikte dauerhaft gelöst sind.

Dies ist eine grobe Skizze eines Mediationsverfahrens für Konflikte im Zusammenhang mit Umstrukturierungen im IT-Bereich. Die tatsächlichen Schritte und Details können je nach den spezifischen Umständen und den beteiligten Parteien variieren.

Widerstände managen – oder managen lassen?

Ist der Konflikt bereits weit fortgeschritten, gleicht er oftmals einem Flächenbrand, der nur schwer wieder unter Kontrolle zu bringen ist. In solchen Situationen stellt sich für Führungskräfte die Frage: Wann ist es noch sinnvoll, selbst weiter gegenzusteuern, und ab wann sollte ein Mediator hinzugezogen werden? Fünf Indikatoren zeigen, wann externe Unterstützung sinnvoll sein kann:

1. Konflikte halten sich hartnäckig: Wenn Probleme trotz wiederholter Lösungsansätze bestehen bleiben, Diskussionen sich im Kreis drehen oder Spannungen zwischen denselben Parteien immer wieder aufflammen, kann Mediation eingesetzt werden, um die strittigen Themen nachhaltig zu klären.

2. Die Zusammenarbeit leidet: Wenn ungelöste Spannungen eine einst lebendige Arbeitsatmosphäre ersticken, der Aufwand für schriftliche Absicherungen steigt oder sich konträre Positionen so verhärten, dass die Kooperationsbereitschaft zum Erliegen kommt, kann Mediation dazu beitragen, diesen Entwicklungen entgegenzuwirken. Sie hilft dabei, Trennwände zwischen Teams abzubauen, eine effektive abteilungsübergreifende Zusammenarbeit zu fördern und die Kommunikation an Schnittstellen zu verbessern.3. Emotionen blockieren den Fortschritt: Wenn starke Emotionen wie Ärger, Frustration oder Groll einen konstruktiven Dialog erschweren und Diskussionen den Boden der Sachlichkeit verlassen, kann Mediation helfen, diese Blockaden zu lösen und die Diskussion wieder auf eine sachliche und lösungsorientierte Ebene zurückzuführen.

4. Umsetzung von Lösungen scheitert: Wenn getroffene Vereinbarungen nur auf dem Papier Bestand haben und somit Diskussionen, zum Beispiel über Zuständigkeiten, immer wieder von vorne beginnen, kann ein Mediator helfen, eine nachhaltige Lösung zu erarbeiten, die sich auch in der Praxis bewährt.5. Die Kommunikation bricht ab: Wenn die Parteien nur noch schriftlich miteinander kommunizieren, etwa per E-Mail, wobei jedes Wort so sorgfältig gewählt ist, wie es in rechtssicheren Vertragstexten der Fall ist, oder wenn die Kommunikation ganz abbricht, ist dies ein deutliches Signal, externe Unterstützung hinzuzuziehen.

Beachten Sie alle oben genannten Prozessschritte, dann sollte dem Erfolg Ihres nächsten Change-Management-Projektes nichts mehr im Wege stehen. Und droht es doch einmal außer Kontrolle zu geraten, denken Sie daran: Mediation kann helfen, das Ruder noch herumzureißen.

Mediationsverfahren: Wie Change etwas Gutes wird​ Weiterlesen »

Worst of Schadsoftware: 11 historische Malware-Angriffe​

Allgemein

Diese elf Malware-Meilensteine haben die Evolution von Schadsoftware maßgeblich geprägt. Foto: local doctor – shutterstock.com Schadsoftware, die sich unter mysteriösen Umständen ausbreitet, ist seit Dekaden fester Bestandteil von Cyberpunk-Stories – und solchen aus dem Real Life. Worst of … Malware-Angriffe Dieser Artikel beleuchtet elf Meilensteine der Malware-Evolution – von der Premiere der Schadsoftware über fiese Trojaner bis hin zu modernen Ransomware-Attacken mit Schäden in Millionenhöhe. 1. Creeper-Virus (1971) Im Jahr 1966 wurde John von Neumanns “Theory of Self-Reproducing Automata” (PDF) posthum veröffentlicht. Darin stellt der Mathematiker das Konzept eines sich selbst reproduzierenden Computercodes vor. Bereits fünf Jahre später tauchte der erste bekannte Computervirus namens Creeper auf – geschrieben in der PDP-10-Assembler-Sprache. Der Virus war in der Lage, sich selbst zu reproduzieren und sich über das gerade entstehende ARPANET von Rechner zu Rechner zu verbreiten. Creeper war dabei keine Schadsoftware im eigentlichen Sinn: Entwickler Bob Thomas wollte damit lediglich beweisen, dass das Konzept von von Neumann funktioniert. Deswegen veranlasste der Virus angeschlossene Teletype-Fernschreiber lediglich dazu eine Textnachricht auszudrucken: “I’M THE CREEPER: CATCH ME IF YOU CAN” Trotz seiner harmlosen Natur ist der Creeper-Virus von signifikanter Bedeutung für die Evolution der Malware. Schließlich bildet er die Grundlage, für alles, was auf ihn folgte. Kurz nachdem Creeper auf die “Öffentlichkeit losgelassen” wurde, war es Ray Tomlinson – Erfinder der E-Mail – der mit einem programmierten Gegenmittel – Reaper -, den Code von Creeper eliminierte. 2. Brain-Virus (1986) Creeper wurde entwickelt, um sich über Computernetzwerke zu verbreiten. Allerdings war dieser Angriffsvektor in den 1970er und 1980er Jahren begrenzt – die meisten Rechner arbeiteten isoliert. Die Verbreitung von Malware fand zu dieser Zeit im Wesentlichen über Disketten statt. Das früheste Beispiel für eine Schadsoftware dieser Art ist ElkCloner – entwickelt von einem 15-Jährigen, “just for fun” und maßgeschneidert für Apple-II-Computer. Der bedeutendste Computervirus der Generation Diskette war jedoch Brain, der sich ab 1986 weltweit verbreitete und als erster IBM-PC-Virus gilt. Entwickelt wurde er von dem Programmierer-Brüderpaar Amjad und Basit Farooq Alvi in Pakistan, die sich ihren Lebensunterhalt mit medizinischer Software verdienten. Da ihre Programme häufig raubkopiert wurden, entwickelten sie einen Virus, der in der Lage war, den Bootsektor raubkopierter Disketten zu infizieren. Brain war dabei relativ harmlos – er enthielt lediglich Kontaktinformationen der Entwickler, mit dem Angebot die Software zu “desinfizieren”. Die Entwickler-Brüder zeigten sich selbst 25 Jahre später noch schockiert darüber, wie schnell sich Brain auf der ganzen Welt verbreitet hatte. Und darüber, wie wütend die Menschen, die ihre Software illegal kopiert hatten, aus irgendeinem Grund auf sie waren. Trotzdem haben sie immer noch dieselbe Adresse und Telefonnummer. 3. Morris-Wurm (1988) Die Malware Morris debütierte im Jahr 1988 und kann gleich mehrere Premieren für sich beanspruchen: Er war der erste Computerwurm, der sich ohne ein “Hilfsprogramm” reproduzieren konnte. Um sich möglichst schnell möglichst weit zu verbreiten, nutzte Morris mehrere Sicherheitslücken aus. Obwohl nicht darauf konzipiert, war es die erste Malware, die größeren, finanziellen Schaden anrichten konnte. Der Morris-Wurm verbreitete sich mit rasender Geschwindigkeit: Innerhalb von 24 Stunden waren bereits zehn Prozent aller mit dem Internet verbundenen Computer infiziert. Die Schadsoftware kopierte sich auf befallenen Rechnern mehrmals selbst, was diese mehrheitlich in die Knie zwang. Die geschätzten Kosten des Angriffs gingen in die Millionen. Benannt ist der Wurm nach seinem Schöpfer Robert Morris. Der damalige Student der Cornell University betrachtete sein Werk als Proof-of-Concept, das belegen sollte, wie weit verbreitet Sicherheitslücken sind. Dabei ahnte er nicht, welche Dynamik das Projekt annehmen würde und versuchte noch den Schaden abzuwenden, was ihm nicht gelang. Die Konsequenz: eine weitere Premiere. Robert Morris war die erste Person, die auf Grundlage des 1986 eingeführten “Computer Fraud and Abuse Act” verurteilt wurde. 4. ILOVEYOU-Wurm (2000) Im Gegensatz zu den bisher genannten Malware-Entwicklern hatte der 24-jährige Onel de Guzman im Jahr 2000 ausschließlich kriminelle Absichten. Weil er sich keinen Einwahl-Service leisten konnte, entwickelte er ein Virus, um die Passwörter anderer Nutzer zu stehlen und ihre Accounts zu übernehmen. Dabei nutzte die Schadsoftware eine ganze Reihe von Schwachstellen in Windows 95 aus – auf besonders raffinierte Art und Weise. Weil das Legacy-Betriebssystem Dateierweiterungen in E-Mail-Anhängen automatisch versteckte, merkten die meisten Benutzer nicht, dass sie auf Executables klickten. Der Wurm breitete sich wie ein Lauffeuer aus und infizierte Millionen von Rechnern, die daraufhin die Zugangsdaten an eine philippinische E-Mail-Adresse zurückschickten. Dabei löschte ILOVEYOU auch zahlreiche Dateien auf den Zielsystemen. Der Wurm verursachte Schäden in Millionenhöhe und legte kurzzeitig sogar das Computersystem des britischen Parlaments lahm. Der Schöpfer des Wurms wurde – mangels Gesetze – nie wegen seiner kriminellen Handlungen angeklagt. In einem Interview mit der BBC drückte de Guzman jedoch sein Bedauern aus. Dennoch macht ihn der Wurm zu einer Art Social-Engineering-Pionier. Ihren Namen verdankt die Schadsoftware dem Umstand, dass sie sich über E-Mails mit dem Betreff “ILOVEYOU” verbreitete. 5. Mydoom-Wurm (2004) Trotzdem der Wurm Mydoom beinahe 20 Jahre auf dem Buckel hat, hält er immer noch eine Reihe von Rekorden. Er infizierte Computer per E-Mail, übernahm Zielrechner und verschickte dann Kopien von sich selbst per E-Mail. Dabei war er so effizient, dass er auf seinem Höhepunkt ein Viertel aller weltweit verschickten E-Mails ausmachte – eine “Leistung”, die bis heute nicht übertroffen wurde. Mydoom verursachte einen Schaden von mehr als 35 Milliarden Dollar – ein Wert, der (inflationsbereinigt) ebenfalls noch nie übertroffen wurde. Dazu kommt, dass der Urheber und der eigentliche Zweck von Mydoom bis heute ein Mysterium sind. Infizierte Computer wurden auch im Rahmen eines Botnetzes verwendet, das wiederum DDoS-Angriffen auf die SCO Group und Microsoft diente. Ersteres Unternehmen versuchte damals Eigentumsrechte an Linux geltend zu machen, weshalb Einige ein abtrünniges Mitglied der Open-Source-Gemeinschaft hinter dem Wurm vermuten. Konkrete Beweise gibt es dafür jedoch nicht. 6. Zeus-Trojaner (2007) Der Trojaner Zeus wurde erstmals im Jahr 2007 – am Ende der “Web 1.0”-Ära – entdeckt und war für die Zukunft der Schadsoftware wegweisend. Er infizierte seine Zeile per Phishing oder über Drive-by-Downloads und diente als Vehikel für jede Art von bösartigem Payload. Der Quellcode und ein Benutzerhandbuch wurden im Jahr 2011 geleakt, was sowohl für Security-Forscher, als auch für kriminelle Hacker ein gefundenes Fressen war und für zahlreiche neue Varianten sorgte. Zeus wird auch oft als “Banking-Trojaner” bezeichnet, da die meisten dieser “Ableger” vor allem für diesen Bereich konzipiert waren. Im Jahr 2014 schaffte es eine davon, sich zwischen einen Benutzer und seine Bank-Webseite zu schalten und unter anderem Passwörter und Tastatureingaben abzufangen. Es gibt jedoch zum Beispiel auch Versionen, die darauf ausgelegt sind, Salesforce-Kontoinformationen abzugreifen. 7. CryptoLocker Ransomware (2013) Zeus kann auch dazu verwendet werden, Botnetze aus befallenen Rechnern zu erschaffen. Die Betreiber eines solchen Botnet mit dem Namen “Gameover Zeus” infizierten ihre Bots mit CryptoLocker, eines der ersten erpresserischen Schadsoftware-Programme. Die Ransomware wurde für ihre rasante Verbreitung und performante, asymmetrische Verschlüsselung “berühmt”, die damals schwer zu knacken war. Im Jahr 2014 gelang es internationalen Behörden, in Kooperation die Kontrolle über das Gameover-Zeus-Botnet zu übernehmen. Die Dateien von CryptoLocker-Betroffenen konnten kostenlos wiederhergestellt werden. Leider verbreitete sich CryptoLocker aber auch per Phishing – bis heute tauchen Varianten der Erpresser-Malware auf. 8. Emotet-Trojaner (2014) Der Trojaner Emotet ist ein weiteres Beispiel für eine Schadsoftware, deren Funktionalität sich im Laufe seiner aktiven Jahre verändert hat. Darüber hinaus ist Emotet auch ein Paradebeispiel für sogenannte polymorphe Malware. Deren Code verändert sich bei jedem Zugriff leicht, um zu verhindern, dass sie von Endpoint-Security-Software erkannt wird. Auch Emotet verbreitete sich hauptsächlich über Phishing – erstmals im Jahr 2014. Inzwischen handelt es sich aber – wie im Fall von Zeus – um eine modulare Malware, die als Vehikel für andere Schadsoftware-Formen dient – etwa die Ransomware-Varianten Trickster und Ryuk. Die höchste “Auszeichnung” erhielt der Emotet-Trojaner von Arne Schönbohm, Leiter des Bundesamtes für Sicherheit in der Informationstechnik (BSI), der ihn als “König der Malware” bezeichnete. 9. Mirai-Botnet (2016) Alle bisher aufgeführten Viren, Trojaner und Würmer haben Computer befallen – die PCs und Laptops, die wir für Arbeit und Freizeit nutzen. Das änderte sich mit dem Mirai-Botnetz, welches schonungslos die Lücken in Sachen IoT-Sicherheit aufdeckte und Devices – hauptsächlich Überwachungskameras – befiel, deren Standardpasswörter nicht geändert worden waren. Paras Jha, der Student, der die Mirai-Malware entwickelte, wollte die Botnetze für DoS-Angriffe nutzen, um sich an Rivalen in der obskuren Welt des Minecraft-Server-Hosting zu rächen. Stattdessen löste er einen Angriff auf einen großen DNS-Anbieter aus und legte damit das Internet für einen Großteil der US-Ostküste für fast 24 Stunden lahm. 10. Petya Ransomware/NotPetya Wiper (2016/2017) Ein Ransomware-Trojaner namens Petya befiel im Jahr 2016 erstmals Computer. Obwohl die Malware über einen cleveren Mechanismus verfügte, um Daten auf Zielrechnern zu verschlüsseln, verbreitete sie sich vor allem über herkömmliche Phishing-Methoden und galt als nicht besonders virulent. Sehr wahrscheinlich würde sich heute niemand mehr an den Trojaner erinnern, wäre nicht im Jahr darauf eine neue, sich selbst reproduzierende Variante aufgetaucht, die geleakte NSA-Exploits (Eternal Blue und Eternal Romance) nutzte, um sich zu verbreiten. Die neue Version mit dem Namen NotPetya nutzte ursprünglich eine Hintertür in einer (vor allem in der Ukraine verwendeten) Buchhaltungssoftware aus, um sich zu verbreiten und richtete in kürzester Zeit großen Schäden an – vornehmlich in Europa. Obwohl NotPetya immer noch wie eine Ransomware aussah, handelte es sich um einen sogenannten Wiper, der schlicht dazu dient, Daten und Systeme zu zerstören. Security-Forscher gehen davon aus, dass der russische Geheimdienst die eher gewöhnliche Petya-Malware umfunktioniert hat, um sie als Cyberwaffe gegen die Ukraine einzusetzen. Damit unterstreicht NotPetya auch die symbiotische Beziehung zwischen staatlich gesponserten und kriminellen Hackern. 11. Clop-Ransomware (2019- ) Clop (manchmal auch Cl0p) ist eine weitere Ransomware-Variante, die 2019 auf der Bildfläche erschien und seitdem immer häufiger auftritt. Das machte die Schadsoftware zu einer der größten Malware-Bedrohungen des Jahres 2023. Clop verhindert nicht nur, dass Betroffene auf ihre Daten zugreifen, sondern ermöglicht es dem Angreifer auch, diese Daten zu exfiltrieren. Der Sicherheitsanbieter McAfee hat die technischen Details analysiert und zeigt auf, wie die Ransomware Sicherheitssoftware umgeht. Was Clop extrem gefährlich macht, ist allerdings nicht die Art und Weise, wie es eingesetzt wird – sondern von wem. Die Ransomware bildet die Speerspitze des Ransomware-as-a-Service-Trends und kann gegen eine Gebühr – oder einen Anteil am zu erwarteten Lösegeld – quasi von Jedermann gebucht werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! Die Geschichte des Computer-Virus1986: Brain Foto: Sergey Nivens – shutterstock.comMehr als ein Jahrzehnt, bevor Napster für irgendjemanden ein Begriff war, wurde der erste Computervirus entwickelt – um Softwarepiraterie zu bekämpfen. Der Autor, der das Wort “Cyber” in die Welt setzte, war William Gibson – genannt “Brain”. Basit und Amjad Alvi entwickelten und vermarkteten medizinische Software im pakistanischen Lahore. Sie interessierten sich für zwei Dinge. Zuerst wollten sie die Multitasking-Funktionalität der neuen DOS-Betriebssysteme (sogenannte “TSR”-Systeme) testen. Zweitens wollten sie sehen, ob es im Vergleich zu anderen Betriebssystemen wie Unix Sicherheitslücken in DOS gibt.Als sie bemerkten, dass DOS recht anfällig war, hatten sie die Idee, ein Stück Software zu schreiben, das überwacht, wie die Software und die Disketten sich bewegen. Brain verbreitete sich viral über 3,25-Zoll-Disketten und innerhalb weniger Wochen mussten die Alvis ihre Telefonnummern ändern. Das hat Ihnen allerdings wenig genützt, denn 25 Jahre nach der Entwicklung des ersten PC-Virus machte sich Mikko Hypponen von F-Secure im Frühjahr 2011 auf die Reise nach Lahore. Sein Ziel: die Adresse, die im Code zu finden war. Tatsächlich fand er die Alvi-Brüder dort vor und bekam die Gelegenheit, mit ihnen das erste Video-Interview über Brain zu führen.1987: Stoned Foto: Rido – shutterstock.comErstellt durch einen Gymnasiasten in Neuseeland, wurde Stoned zunächst als harmlos angesehen. Zunächst machte er sich auch lediglich mit der Meldung “Your PC is now Stoned” bemerkbar. Doch als erster Virus, der den Bootsektor eines PCs infizierte, zeigte Stoned, dass Viren die Funktion eines Computers steuern können – und zwar von dem Moment an, in dem er eingeschaltet wird. Bob Dylan wäre stolz gewesen.1990: Form Foto: Peeradach Rattanakoses – shutterstock.comForm wurde zu einem der meistverbreiteten Viren überhaupt. Am 18. eines jeden Monats entlockte er den PC-Lautsprechern ein klickendes Geräusch – jedes Mal, wenn eine Taste gedrückt wurde. Das war zwar durchaus ärgerlich, aber harmlos.1992: Michelangelo Foto: QQ7 – shutterstock.comMichelangelo wurde dazu genutzt, alle Daten auf einer Festplatte zu bestimmten Terminen zu überschreiben. Als eine Variante von Stoned – nur deutlich bösartiger – war Michelangelo wohl der erste Computervirus, der es auf internationaler Ebene in die Nachrichten geschafft hat.1992: VCL Foto: Alexander Raths – shutterstock.comDas Virus Creation Laboratory (VCL) machte es kinderleicht, ein bösartiges kleines Programm zu basteln – durch die Automatisierung der Virenerstellung über eine einfache grafische Schnittstelle.1993: Monkey Foto: Volodymyr Burdiak – shutterstock.comMonkey – ebenfalls ein entfernter Verwandter von Stoned – integrierte sich heimlich in Dateien und verbreitete sich anschließend nahtlos. Damit war Monkey ein früher Vorfahre des Rootkits: Ein selbstverbergendes Programm, das den Bootvorgang per Diskette verhindern konnte. Wenn es nicht korrekt entfernt wurde, verhinderte Monkey gar jegliche Art des Bootens.1995: Concept Foto: Bacho – shutterstock.comAls erster Virus, der Microsoft Word-Dateien infizierte, wurde Concept zu einem der häufigsten Computer-Schädlinge. Schließlich war er in der Lage, jedes Betriebssystem, das Word ausführen konnte, zu infizieren. Achja und: Wurde die Datei geteilt, wurde auch der Virus geteilt.1999: Happy99 Foto: YanLev – shutterstock.comHappy99 war der erste E-Mail-Virus. Er begrüßte User mit den Worten “Happy New Year 1999” und verbreitete die frohe Botschaft per E-Mail auch gleich an alle Kontakte im Adressbuch. Wie die frühen PC-Viren richtete Happy99 keinen wirklichen Schaden an, schaffte es aber dennoch, sich auf Millionen von PCs auf der ganzen Welt auszubreiten.1999: Melissa Foto: Celso Pupo – shutterstock.comAngeblich benannt nach einer exotischen Tänzerin, stellte Melissa eine Kombination aus klassischem Virus und E-Mail-Virus dar. Er (beziehungsweise sie) infizierte eine Word-Datei, verschickte sich dann selbst per E-Mail an alle Kontakte im Adressbuch und wurde so zum ersten Virus, der innerhalb weniger Stunden zu weltweiter Verbreitung brachte.Melissa kombinierte das “Spaß-Motiv” der frühen Virenautoren mit der Zerstörungskraft der neuen Ära: Der Virus integrierte unter anderem Kommentare von “The Simpsons” in Dokumente der Benutzer, konnte aber auch vertrauliche Informationen verschicken, ohne dass Betroffene dies bemerkten. Nicht lange nach Melissa wurden Makroviren praktisch eliminiert, indem Microsoft die Arbeitsweise der Visual-Basic-Makro-Sprache in Office-Anwendungen änderte.2000: Loveletter Foto: OlegKoval – shutterstock.comDieser Loveletter hat Millionen von Herzen gebrochen und gilt noch heute als einer der größten Ausbrüche aller Zeiten. Loveletter verbreitete sich via E-Mail-Anhang und überschrieb viele wichtige Dateien auf infizierten PCs. Gleichzeitig ist es einer der erfolgreichsten Social-Engineering-Attacken überhaupt. Millionen von Internet-Nutzern fielen dem Versprechen von der großen Liebe zum Opfer und öffneten den infizierten E-Mail-Anhang. Der geschätzte, weltweite Gesamtschaden betrug Schätzungen zufolge 5,5 Milliarden Dollar.2001: Code Red Foto: Tidarat Tiemjai – shutterstock.comDer erste Wurm, der sich ohne jegliche Benutzerinteraktion innerhalb von Minuten verbreitete, trug den Namen Code Red. Er führte verschiedene Aktionen in einem Monatszyklus aus: An den Tagen eins bis 19 verbreitete er sich – von Tag 20 bis 27 startete er Denial-of-Service-Attacken auf diverse Webseiten – beispielsweise die des Weißen Hauses. Von Tag 28 bis zum Ende des Monats war übrigens auch bei Code Red Siesta angesagt.2003: Slammer Foto: muzsy – shutterstock.comNetzwerk-Würmer benötigen nur ein paar Zeilen Code und eine Schwachstelle – schon können sie für ernste Probleme sorgen. Slammer brachte auf diese Weise das Geldautomaten-Netz der Bank of America und die Notrufdienste in Seattle zum Absturz. Sogar das Flugverkehrskontrollsystem war nicht gegen den agilen Bösewicht immun.2003: Fizzer Foto: TijanaM – shutterstock.comFizzer war der erste Virus, der gezielt entwickelt wurde, um Geld zu verdienen. In Gestalt eines infizierten E-Mail-Anhangs kam er auf die Rechner seiner Opfer. Wurde die Datei geöffnet, übernahm Fizzer den Rechner und benutzte diesen, um Spam zu versenden.2003: Cabir Foto: Maxim Tupikov – chuckchee – shutterstock.comCabir war der erste Handy-Virus der IT-Geschichte und hatte es gezielt auf Nokia-Telefone mit Symbian OS abgesehen. Cabir wurde über Bluetooth verbreitet und bewies, dass der technologische Fortschritt alleine kein wirksames Mittel gegen Hacker und Cyberkriminelle ist.2003: SDBot Foto: Mati Nitibhon – shutterstock.comSDBot war ein Trojanisches Pferd, das die üblichen Sicherheitsmaßnahmen eines PCs umging, um heimlich die Kontrolle zu übernehmen. Er erstellte eine Backdoor, die es dem Autor unter anderem ermöglichte, Passwörter und Registrierungscodes von Spielen wie “Half-Life” und “Need for Speed 2” auszuspionieren.2003: Sobig Foto: Jakub Krechowicz – shutterstock.comSobig war eine Optimierung von Fizzer. Die Besonderheit: Einige Versionen warteten zunächst ein paar Tage nach der Infektion eines Rechners, bevor die betroffenen Rechner als E-Mail-Proxy-Server benutzt wurden. Das Ergebnis? Eine massive Spam-Attacke. Alleine AOL musste mehr als 20 Millionen infizierte Nachrichten pro Tag abfangen.2004: Sasser Foto: Montypeter – shutterstock.comSasser verschaffte sich über gefährdete Netzwerk-Ports Zugang zum System, verlangsamte dieses dramatisch oder brachte gleich ganze Netzwerke zum Absturz – von Australien über Hongkong bis nach Großbritannien.2005: Haxdoor Foto: leolintang – shutterstock.comHaxdoor war ein weiterer Trojaner, der nach Passwörtern und anderen privaten Daten schnüffelte. Spätere Varianten hatten zudem Rootkit-Fähigkeiten. Im Vergleich zu früheren Viren setzte Haxdoor weitaus komplexere Methoden ein, um seine Existenz auf dem System zu verschleiern. Ein modernes Rootkit kann einen Computer in einen Zombie-Computer verwandeln, der ohne das Wissen des Benutzers fremdgesteuert werden kann – unter Umständen jahrelang.2005: Sony DRM Rootkit Foto: April Cat – shutterstock.comIm Jahr 2005 hatte eine der größten Plattenfirmen der Welt die gleiche Idee, die schon die Alvi-Brüder im Jahr 1986 hatten: Ein Virus sollte Piraterie verhindern. Auf den betroffenen Audio-CDs war nicht nur eine Musik-Player-Software, sondern auch ein Rootkit enthalten. Dieses kontrollierte, wie der Besitzer auf die Audio-Tracks der Disc zugreift. Das Ergebnis: ein medialer Shitstorm und eine Sammelklage. Letzterer konnte sich Sony nur durch großzügige Vergleichszahlungen und kostenlose Downloads außergerichtlich erwehren. 2007: Storm Worm Foto: solarseven – shutterstock.comLaut Machiavelli ist es besser, gefürchtet als geliebt zu werden. Sieben Jahre nach Loveletter, machte sich der Schädling Storm Worm unsere kollektive Angst vor Wetterkapriolen zu Nutze. Dazu benutzte er eine E-Mail mit der Betreffzeile “230 Tote durch Sturm in Europa”. Sobald der Dateianhang geöffnet wurde, zwangen eine Trojaner- Backdoor und ein Rootkit den betroffenen Rechner, sich einem Botnetz anzuschließen. Botnetze sind Armeen von Zombie-Computern, die verwendet werden können, um unter anderem Tonnen von Spam zu verbreiten. Storm Worm kaperte zehn Millionen Rechner.2008: Mebroot Foto: GlebStock – shutterstock.comMebroot war ein Rootkit, dass gezielt konstruiert wurde, um die gerade aufkommenden Rootkit-Detektoren auszutricksen. Dabei war der Schädling so fortschrittlich, dass er einen Diagnosebericht an den Virenschreiber sendete, sobald er einen PC zum Absturz gebracht hatte.2008: Conficker Foto: Lemau Studio – shutterstock.comConficker verbreitete sich rasend schnell auf Millionen von Computern weltweit. Er nutzte sowohl Schwachstellen in Windows, als auch schwache Passwörter. Kombiniert mit einigen fortschrittlichen Techniken, konnte Conficker weitere Malware installieren. Eine – besonders fiese – Folge: die Benutzer wurden durch den Virus vom Besuch der Website der meisten Anbieter von Security-Software gehindert. Mehr als zwei Jahre nachdem Conficker erstmals gesichtet wurde, waren immer noch täglich mehr Rechner infiziert.2010: 3D Anti Terrorist Foto: 1000 Words – shutterstock.comDieses “trojanisierte” Game zielte auf Windows-Telefone ab und wurde über Freeware-Websites verteilt. Einmal installiert, startete der Trojaner Anrufe zu besonders teuren Sondernummern und bescherte den Nutzern überaus saftige Rechnungen. Diese Strategie bei Apps ist immer noch neu – wird sich aber vermutlich zu einer der gängigsten Methoden entwickeln, mit denen Hacker und Cyberkriminelle künftig mobile Endgeräte angreifen.2010: Stuxnet Foto: jaroslava V – shutterstock.comWie schon gesehen, haben Computer-Viren schon seit Jahrzehnten Auswirkungen auf die reale Welt – doch im Jahr 2010 hat ein Virus auch den Lauf der Geschichte verändert: Stuxnet. Als ungewöhnlich großer Windows-Wurm (Stuxnet ist mehr als 1000 Prozent größer als der typische Computerwurm) verbreitete sich Stuxnet wahrscheinlich über USB-Geräte. Der Wurm infizierte ein System, versteckte sich mit einem Rootkit und erkannte dann, ob der infizierte Computer sich mit dem Automatisierungssystem Siemens Simatic verbindet. Wenn Stuxnet eine Verbindung feststellte, veränderte er die Befehle, die der Windows-Rechner an die PLC/SPS-programmierbaren Logik-Controller sendet – also die Boxen zur Steuerung der Maschinen. Läuft er auf PLC/SPS, sucht er nach einer bestimmten Fabrikumgebung. Wenn diese nicht gefunden wird, bleibt Stuxnet inaktiv. Nach Schätzungen der F-Secure Labs, kostete die Umsetzung von Stuxnet mehr als zehn Mannjahre Arbeit. Immerhin zeigt das, dass ein Virus, der offensichtlich eine Zentrifuge zur Urananreicherung manipulieren kann, nicht im Handumdrehen von Jedermann erschaffen werden kann. Die Komplexität von Stuxnet und die Tatsache, dass der Einsatz dieses Virus nicht auf finanziellen Interessen beruhte, legt den Verdacht nahe, dass Stuxnet im Auftrag einer Regierung entwickelt wurde. 

Worst of Schadsoftware: 11 historische Malware-Angriffe​ Diese elf Malware-Meilensteine haben die Evolution von Schadsoftware maßgeblich geprägt.
Foto: local doctor – shutterstock.com

Schadsoftware, die sich unter mysteriösen Umständen ausbreitet, ist seit Dekaden fester Bestandteil von Cyberpunk-Stories – und solchen aus dem Real Life.

Worst of … Malware-Angriffe

Dieser Artikel beleuchtet elf Meilensteine der Malware-Evolution – von der Premiere der Schadsoftware über fiese Trojaner bis hin zu modernen Ransomware-Attacken mit Schäden in Millionenhöhe.

1. Creeper-Virus (1971)

Im Jahr 1966 wurde John von Neumanns “Theory of Self-Reproducing Automata” (PDF) posthum veröffentlicht. Darin stellt der Mathematiker das Konzept eines sich selbst reproduzierenden Computercodes vor. Bereits fünf Jahre später tauchte der erste bekannte Computervirus namens Creeper auf – geschrieben in der PDP-10-Assembler-Sprache. Der Virus war in der Lage, sich selbst zu reproduzieren und sich über das gerade entstehende ARPANET von Rechner zu Rechner zu verbreiten. Creeper war dabei keine Schadsoftware im eigentlichen Sinn: Entwickler Bob Thomas wollte damit lediglich beweisen, dass das Konzept von von Neumann funktioniert. Deswegen veranlasste der Virus angeschlossene Teletype-Fernschreiber lediglich dazu eine Textnachricht auszudrucken: “I’M THE CREEPER: CATCH ME IF YOU CAN”

Trotz seiner harmlosen Natur ist der Creeper-Virus von signifikanter Bedeutung für die Evolution der Malware. Schließlich bildet er die Grundlage, für alles, was auf ihn folgte. Kurz nachdem Creeper auf die “Öffentlichkeit losgelassen” wurde, war es Ray Tomlinson – Erfinder der E-Mail – der mit einem programmierten Gegenmittel – Reaper -, den Code von Creeper eliminierte.

2. Brain-Virus (1986)

Creeper wurde entwickelt, um sich über Computernetzwerke zu verbreiten. Allerdings war dieser Angriffsvektor in den 1970er und 1980er Jahren begrenzt – die meisten Rechner arbeiteten isoliert. Die Verbreitung von Malware fand zu dieser Zeit im Wesentlichen über Disketten statt. Das früheste Beispiel für eine Schadsoftware dieser Art ist ElkCloner – entwickelt von einem 15-Jährigen, “just for fun” und maßgeschneidert für Apple-II-Computer.

Der bedeutendste Computervirus der Generation Diskette war jedoch Brain, der sich ab 1986 weltweit verbreitete und als erster IBM-PC-Virus gilt. Entwickelt wurde er von dem Programmierer-Brüderpaar Amjad und Basit Farooq Alvi in Pakistan, die sich ihren Lebensunterhalt mit medizinischer Software verdienten. Da ihre Programme häufig raubkopiert wurden, entwickelten sie einen Virus, der in der Lage war, den Bootsektor raubkopierter Disketten zu infizieren. Brain war dabei relativ harmlos – er enthielt lediglich Kontaktinformationen der Entwickler, mit dem Angebot die Software zu “desinfizieren”. Die Entwickler-Brüder zeigten sich selbst 25 Jahre später noch schockiert darüber, wie schnell sich Brain auf der ganzen Welt verbreitet hatte. Und darüber, wie wütend die Menschen, die ihre Software illegal kopiert hatten, aus irgendeinem Grund auf sie waren. Trotzdem haben sie immer noch dieselbe Adresse und Telefonnummer.

3. Morris-Wurm (1988)

Die Malware Morris debütierte im Jahr 1988 und kann gleich mehrere Premieren für sich beanspruchen:

Er war der erste Computerwurm, der sich ohne ein “Hilfsprogramm” reproduzieren konnte.

Um sich möglichst schnell möglichst weit zu verbreiten, nutzte Morris mehrere Sicherheitslücken aus.

Obwohl nicht darauf konzipiert, war es die erste Malware, die größeren, finanziellen Schaden anrichten konnte.

Der Morris-Wurm verbreitete sich mit rasender Geschwindigkeit: Innerhalb von 24 Stunden waren bereits zehn Prozent aller mit dem Internet verbundenen Computer infiziert. Die Schadsoftware kopierte sich auf befallenen Rechnern mehrmals selbst, was diese mehrheitlich in die Knie zwang. Die geschätzten Kosten des Angriffs gingen in die Millionen. Benannt ist der Wurm nach seinem Schöpfer Robert Morris. Der damalige Student der Cornell University betrachtete sein Werk als Proof-of-Concept, das belegen sollte, wie weit verbreitet Sicherheitslücken sind. Dabei ahnte er nicht, welche Dynamik das Projekt annehmen würde und versuchte noch den Schaden abzuwenden, was ihm nicht gelang. Die Konsequenz: eine weitere Premiere. Robert Morris war die erste Person, die auf Grundlage des 1986 eingeführten “Computer Fraud and Abuse Act” verurteilt wurde.

4. ILOVEYOU-Wurm (2000)

Im Gegensatz zu den bisher genannten Malware-Entwicklern hatte der 24-jährige Onel de Guzman im Jahr 2000 ausschließlich kriminelle Absichten. Weil er sich keinen Einwahl-Service leisten konnte, entwickelte er ein Virus, um die Passwörter anderer Nutzer zu stehlen und ihre Accounts zu übernehmen. Dabei nutzte die Schadsoftware eine ganze Reihe von Schwachstellen in Windows 95 aus – auf besonders raffinierte Art und Weise.

Weil das Legacy-Betriebssystem Dateierweiterungen in E-Mail-Anhängen automatisch versteckte, merkten die meisten Benutzer nicht, dass sie auf Executables klickten. Der Wurm breitete sich wie ein Lauffeuer aus und infizierte Millionen von Rechnern, die daraufhin die Zugangsdaten an eine philippinische E-Mail-Adresse zurückschickten. Dabei löschte ILOVEYOU auch zahlreiche Dateien auf den Zielsystemen. Der Wurm verursachte Schäden in Millionenhöhe und legte kurzzeitig sogar das Computersystem des britischen Parlaments lahm.

Der Schöpfer des Wurms wurde – mangels Gesetze – nie wegen seiner kriminellen Handlungen angeklagt. In einem Interview mit der BBC drückte de Guzman jedoch sein Bedauern aus. Dennoch macht ihn der Wurm zu einer Art Social-Engineering-Pionier. Ihren Namen verdankt die Schadsoftware dem Umstand, dass sie sich über E-Mails mit dem Betreff “ILOVEYOU” verbreitete.

5. Mydoom-Wurm (2004)

Trotzdem der Wurm Mydoom beinahe 20 Jahre auf dem Buckel hat, hält er immer noch eine Reihe von Rekorden.

Er infizierte Computer per E-Mail, übernahm Zielrechner und verschickte dann Kopien von sich selbst per E-Mail.

Dabei war er so effizient, dass er auf seinem Höhepunkt ein Viertel aller weltweit verschickten E-Mails ausmachte – eine “Leistung”, die bis heute nicht übertroffen wurde.

Mydoom verursachte einen Schaden von mehr als 35 Milliarden Dollar – ein Wert, der (inflationsbereinigt) ebenfalls noch nie übertroffen wurde.

Dazu kommt, dass der Urheber und der eigentliche Zweck von Mydoom bis heute ein Mysterium sind. Infizierte Computer wurden auch im Rahmen eines Botnetzes verwendet, das wiederum DDoS-Angriffen auf die SCO Group und Microsoft diente. Ersteres Unternehmen versuchte damals Eigentumsrechte an Linux geltend zu machen, weshalb Einige ein abtrünniges Mitglied der Open-Source-Gemeinschaft hinter dem Wurm vermuten. Konkrete Beweise gibt es dafür jedoch nicht.

6. Zeus-Trojaner (2007)

Der Trojaner Zeus wurde erstmals im Jahr 2007 – am Ende der “Web 1.0”-Ära – entdeckt und war für die Zukunft der Schadsoftware wegweisend. Er infizierte seine Zeile per Phishing oder über Drive-by-Downloads und diente als Vehikel für jede Art von bösartigem Payload. Der Quellcode und ein Benutzerhandbuch wurden im Jahr 2011 geleakt, was sowohl für Security-Forscher, als auch für kriminelle Hacker ein gefundenes Fressen war und für zahlreiche neue Varianten sorgte.

Zeus wird auch oft als “Banking-Trojaner” bezeichnet, da die meisten dieser “Ableger” vor allem für diesen Bereich konzipiert waren. Im Jahr 2014 schaffte es eine davon, sich zwischen einen Benutzer und seine Bank-Webseite zu schalten und unter anderem Passwörter und Tastatureingaben abzufangen. Es gibt jedoch zum Beispiel auch Versionen, die darauf ausgelegt sind, Salesforce-Kontoinformationen abzugreifen.

7. CryptoLocker Ransomware (2013)

Zeus kann auch dazu verwendet werden, Botnetze aus befallenen Rechnern zu erschaffen. Die Betreiber eines solchen Botnet mit dem Namen “Gameover Zeus” infizierten ihre Bots mit CryptoLocker, eines der ersten erpresserischen Schadsoftware-Programme. Die Ransomware wurde für ihre rasante Verbreitung und performante, asymmetrische Verschlüsselung “berühmt”, die damals schwer zu knacken war.

Im Jahr 2014 gelang es internationalen Behörden, in Kooperation die Kontrolle über das Gameover-Zeus-Botnet zu übernehmen. Die Dateien von CryptoLocker-Betroffenen konnten kostenlos wiederhergestellt werden. Leider verbreitete sich CryptoLocker aber auch per Phishing – bis heute tauchen Varianten der Erpresser-Malware auf.

8. Emotet-Trojaner (2014)

Der Trojaner Emotet ist ein weiteres Beispiel für eine Schadsoftware, deren Funktionalität sich im Laufe seiner aktiven Jahre verändert hat. Darüber hinaus ist Emotet auch ein Paradebeispiel für sogenannte polymorphe Malware. Deren Code verändert sich bei jedem Zugriff leicht, um zu verhindern, dass sie von Endpoint-Security-Software erkannt wird.

Auch Emotet verbreitete sich hauptsächlich über Phishing – erstmals im Jahr 2014. Inzwischen handelt es sich aber – wie im Fall von Zeus – um eine modulare Malware, die als Vehikel für andere Schadsoftware-Formen dient – etwa die Ransomware-Varianten Trickster und Ryuk. Die höchste “Auszeichnung” erhielt der Emotet-Trojaner von Arne Schönbohm, Leiter des Bundesamtes für Sicherheit in der Informationstechnik (BSI), der ihn als “König der Malware” bezeichnete.

9. Mirai-Botnet (2016)

Alle bisher aufgeführten Viren, Trojaner und Würmer haben Computer befallen – die PCs und Laptops, die wir für Arbeit und Freizeit nutzen. Das änderte sich mit dem Mirai-Botnetz, welches schonungslos die Lücken in Sachen IoT-Sicherheit aufdeckte und Devices – hauptsächlich Überwachungskameras – befiel, deren Standardpasswörter nicht geändert worden waren.

Paras Jha, der Student, der die Mirai-Malware entwickelte, wollte die Botnetze für DoS-Angriffe nutzen, um sich an Rivalen in der obskuren Welt des Minecraft-Server-Hosting zu rächen. Stattdessen löste er einen Angriff auf einen großen DNS-Anbieter aus und legte damit das Internet für einen Großteil der US-Ostküste für fast 24 Stunden lahm.

10. Petya Ransomware/NotPetya Wiper (2016/2017)

Ein Ransomware-Trojaner namens Petya befiel im Jahr 2016 erstmals Computer. Obwohl die Malware über einen cleveren Mechanismus verfügte, um Daten auf Zielrechnern zu verschlüsseln, verbreitete sie sich vor allem über herkömmliche Phishing-Methoden und galt als nicht besonders virulent. Sehr wahrscheinlich würde sich heute niemand mehr an den Trojaner erinnern, wäre nicht im Jahr darauf eine neue, sich selbst reproduzierende Variante aufgetaucht, die geleakte NSA-Exploits (Eternal Blue und Eternal Romance) nutzte, um sich zu verbreiten.

Die neue Version mit dem Namen NotPetya nutzte ursprünglich eine Hintertür in einer (vor allem in der Ukraine verwendeten) Buchhaltungssoftware aus, um sich zu verbreiten und richtete in kürzester Zeit großen Schäden an – vornehmlich in Europa. Obwohl NotPetya immer noch wie eine Ransomware aussah, handelte es sich um einen sogenannten Wiper, der schlicht dazu dient, Daten und Systeme zu zerstören. Security-Forscher gehen davon aus, dass der russische Geheimdienst die eher gewöhnliche Petya-Malware umfunktioniert hat, um sie als Cyberwaffe gegen die Ukraine einzusetzen. Damit unterstreicht NotPetya auch die symbiotische Beziehung zwischen staatlich gesponserten und kriminellen Hackern.

11. Clop-Ransomware (2019- )

Clop (manchmal auch Cl0p) ist eine weitere Ransomware-Variante, die 2019 auf der Bildfläche erschien und seitdem immer häufiger auftritt. Das machte die Schadsoftware zu einer der größten Malware-Bedrohungen des Jahres 2023. Clop verhindert nicht nur, dass Betroffene auf ihre Daten zugreifen, sondern ermöglicht es dem Angreifer auch, diese Daten zu exfiltrieren. Der Sicherheitsanbieter McAfee hat die technischen Details analysiert und zeigt auf, wie die Ransomware Sicherheitssoftware umgeht.

Was Clop extrem gefährlich macht, ist allerdings nicht die Art und Weise, wie es eingesetzt wird – sondern von wem. Die Ransomware bildet die Speerspitze des Ransomware-as-a-Service-Trends und kann gegen eine Gebühr – oder einen Anteil am zu erwarteten Lösegeld – quasi von Jedermann gebucht werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die Geschichte des Computer-Virus1986: Brain
Foto: Sergey Nivens – shutterstock.comMehr als ein Jahrzehnt, bevor Napster für irgendjemanden ein Begriff war, wurde der erste Computervirus entwickelt – um Softwarepiraterie zu bekämpfen. Der Autor, der das Wort “Cyber” in die Welt setzte, war William Gibson – genannt “Brain”. Basit und Amjad Alvi entwickelten und vermarkteten medizinische Software im pakistanischen Lahore. Sie interessierten sich für zwei Dinge. Zuerst wollten sie die Multitasking-Funktionalität der neuen DOS-Betriebssysteme (sogenannte “TSR”-Systeme) testen. Zweitens wollten sie sehen, ob es im Vergleich zu anderen Betriebssystemen wie Unix Sicherheitslücken in DOS gibt.Als sie bemerkten, dass DOS recht anfällig war, hatten sie die Idee, ein Stück Software zu schreiben, das überwacht, wie die Software und die Disketten sich bewegen. Brain verbreitete sich viral über 3,25-Zoll-Disketten und innerhalb weniger Wochen mussten die Alvis ihre Telefonnummern ändern. Das hat Ihnen allerdings wenig genützt, denn 25 Jahre nach der Entwicklung des ersten PC-Virus machte sich Mikko Hypponen von F-Secure im Frühjahr 2011 auf die Reise nach Lahore. Sein Ziel: die Adresse, die im Code zu finden war. Tatsächlich fand er die Alvi-Brüder dort vor und bekam die Gelegenheit, mit ihnen das erste Video-Interview über Brain zu führen.1987: Stoned
Foto: Rido – shutterstock.comErstellt durch einen Gymnasiasten in Neuseeland, wurde Stoned zunächst als harmlos angesehen. Zunächst machte er sich auch lediglich mit der Meldung “Your PC is now Stoned” bemerkbar. Doch als erster Virus, der den Bootsektor eines PCs infizierte, zeigte Stoned, dass Viren die Funktion eines Computers steuern können – und zwar von dem Moment an, in dem er eingeschaltet wird. Bob Dylan wäre stolz gewesen.1990: Form
Foto: Peeradach Rattanakoses – shutterstock.comForm wurde zu einem der meistverbreiteten Viren überhaupt. Am 18. eines jeden Monats entlockte er den PC-Lautsprechern ein klickendes Geräusch – jedes Mal, wenn eine Taste gedrückt wurde. Das war zwar durchaus ärgerlich, aber harmlos.1992: Michelangelo
Foto: QQ7 – shutterstock.comMichelangelo wurde dazu genutzt, alle Daten auf einer Festplatte zu bestimmten Terminen zu überschreiben. Als eine Variante von Stoned – nur deutlich bösartiger – war Michelangelo wohl der erste Computervirus, der es auf internationaler Ebene in die Nachrichten geschafft hat.1992: VCL
Foto: Alexander Raths – shutterstock.comDas Virus Creation Laboratory (VCL) machte es kinderleicht, ein bösartiges kleines Programm zu basteln – durch die Automatisierung der Virenerstellung über eine einfache grafische Schnittstelle.1993: Monkey
Foto: Volodymyr Burdiak – shutterstock.comMonkey – ebenfalls ein entfernter Verwandter von Stoned – integrierte sich heimlich in Dateien und verbreitete sich anschließend nahtlos. Damit war Monkey ein früher Vorfahre des Rootkits: Ein selbstverbergendes Programm, das den Bootvorgang per Diskette verhindern konnte. Wenn es nicht korrekt entfernt wurde, verhinderte Monkey gar jegliche Art des Bootens.1995: Concept
Foto: Bacho – shutterstock.comAls erster Virus, der Microsoft Word-Dateien infizierte, wurde Concept zu einem der häufigsten Computer-Schädlinge. Schließlich war er in der Lage, jedes Betriebssystem, das Word ausführen konnte, zu infizieren. Achja und: Wurde die Datei geteilt, wurde auch der Virus geteilt.1999: Happy99
Foto: YanLev – shutterstock.comHappy99 war der erste E-Mail-Virus. Er begrüßte User mit den Worten “Happy New Year 1999” und verbreitete die frohe Botschaft per E-Mail auch gleich an alle Kontakte im Adressbuch. Wie die frühen PC-Viren richtete Happy99 keinen wirklichen Schaden an, schaffte es aber dennoch, sich auf Millionen von PCs auf der ganzen Welt auszubreiten.1999: Melissa
Foto: Celso Pupo – shutterstock.comAngeblich benannt nach einer exotischen Tänzerin, stellte Melissa eine Kombination aus klassischem Virus und E-Mail-Virus dar. Er (beziehungsweise sie) infizierte eine Word-Datei, verschickte sich dann selbst per E-Mail an alle Kontakte im Adressbuch und wurde so zum ersten Virus, der innerhalb weniger Stunden zu weltweiter Verbreitung brachte.Melissa kombinierte das “Spaß-Motiv” der frühen Virenautoren mit der Zerstörungskraft der neuen Ära: Der Virus integrierte unter anderem Kommentare von “The Simpsons” in Dokumente der Benutzer, konnte aber auch vertrauliche Informationen verschicken, ohne dass Betroffene dies bemerkten. Nicht lange nach Melissa wurden Makroviren praktisch eliminiert, indem Microsoft die Arbeitsweise der Visual-Basic-Makro-Sprache in Office-Anwendungen änderte.2000: Loveletter
Foto: OlegKoval – shutterstock.comDieser Loveletter hat Millionen von Herzen gebrochen und gilt noch heute als einer der größten Ausbrüche aller Zeiten. Loveletter verbreitete sich via E-Mail-Anhang und überschrieb viele wichtige Dateien auf infizierten PCs. Gleichzeitig ist es einer der erfolgreichsten Social-Engineering-Attacken überhaupt. Millionen von Internet-Nutzern fielen dem Versprechen von der großen Liebe zum Opfer und öffneten den infizierten E-Mail-Anhang. Der geschätzte, weltweite Gesamtschaden betrug Schätzungen zufolge 5,5 Milliarden Dollar.2001: Code Red
Foto: Tidarat Tiemjai – shutterstock.comDer erste Wurm, der sich ohne jegliche Benutzerinteraktion innerhalb von Minuten verbreitete, trug den Namen Code Red. Er führte verschiedene Aktionen in einem Monatszyklus aus: An den Tagen eins bis 19 verbreitete er sich – von Tag 20 bis 27 startete er Denial-of-Service-Attacken auf diverse Webseiten – beispielsweise die des Weißen Hauses. Von Tag 28 bis zum Ende des Monats war übrigens auch bei Code Red Siesta angesagt.2003: Slammer
Foto: muzsy – shutterstock.comNetzwerk-Würmer benötigen nur ein paar Zeilen Code und eine Schwachstelle – schon können sie für ernste Probleme sorgen. Slammer brachte auf diese Weise das Geldautomaten-Netz der Bank of America und die Notrufdienste in Seattle zum Absturz. Sogar das Flugverkehrskontrollsystem war nicht gegen den agilen Bösewicht immun.2003: Fizzer
Foto: TijanaM – shutterstock.comFizzer war der erste Virus, der gezielt entwickelt wurde, um Geld zu verdienen. In Gestalt eines infizierten E-Mail-Anhangs kam er auf die Rechner seiner Opfer. Wurde die Datei geöffnet, übernahm Fizzer den Rechner und benutzte diesen, um Spam zu versenden.2003: Cabir
Foto: Maxim Tupikov – chuckchee – shutterstock.comCabir war der erste Handy-Virus der IT-Geschichte und hatte es gezielt auf Nokia-Telefone mit Symbian OS abgesehen. Cabir wurde über Bluetooth verbreitet und bewies, dass der technologische Fortschritt alleine kein wirksames Mittel gegen Hacker und Cyberkriminelle ist.2003: SDBot
Foto: Mati Nitibhon – shutterstock.comSDBot war ein Trojanisches Pferd, das die üblichen Sicherheitsmaßnahmen eines PCs umging, um heimlich die Kontrolle zu übernehmen. Er erstellte eine Backdoor, die es dem Autor unter anderem ermöglichte, Passwörter und Registrierungscodes von Spielen wie “Half-Life” und “Need for Speed 2” auszuspionieren.2003: Sobig
Foto: Jakub Krechowicz – shutterstock.comSobig war eine Optimierung von Fizzer. Die Besonderheit: Einige Versionen warteten zunächst ein paar Tage nach der Infektion eines Rechners, bevor die betroffenen Rechner als E-Mail-Proxy-Server benutzt wurden. Das Ergebnis? Eine massive Spam-Attacke. Alleine AOL musste mehr als 20 Millionen infizierte Nachrichten pro Tag abfangen.2004: Sasser
Foto: Montypeter – shutterstock.comSasser verschaffte sich über gefährdete Netzwerk-Ports Zugang zum System, verlangsamte dieses dramatisch oder brachte gleich ganze Netzwerke zum Absturz – von Australien über Hongkong bis nach Großbritannien.2005: Haxdoor
Foto: leolintang – shutterstock.comHaxdoor war ein weiterer Trojaner, der nach Passwörtern und anderen privaten Daten schnüffelte. Spätere Varianten hatten zudem Rootkit-Fähigkeiten. Im Vergleich zu früheren Viren setzte Haxdoor weitaus komplexere Methoden ein, um seine Existenz auf dem System zu verschleiern. Ein modernes Rootkit kann einen Computer in einen Zombie-Computer verwandeln, der ohne das Wissen des Benutzers fremdgesteuert werden kann – unter Umständen jahrelang.2005: Sony DRM Rootkit
Foto: April Cat – shutterstock.comIm Jahr 2005 hatte eine der größten Plattenfirmen der Welt die gleiche Idee, die schon die Alvi-Brüder im Jahr 1986 hatten: Ein Virus sollte Piraterie verhindern. Auf den betroffenen Audio-CDs war nicht nur eine Musik-Player-Software, sondern auch ein Rootkit enthalten. Dieses kontrollierte, wie der Besitzer auf die Audio-Tracks der Disc zugreift. Das Ergebnis: ein medialer Shitstorm und eine Sammelklage. Letzterer konnte sich Sony nur durch großzügige Vergleichszahlungen und kostenlose Downloads außergerichtlich erwehren. 2007: Storm Worm
Foto: solarseven – shutterstock.comLaut Machiavelli ist es besser, gefürchtet als geliebt zu werden. Sieben Jahre nach Loveletter, machte sich der Schädling Storm Worm unsere kollektive Angst vor Wetterkapriolen zu Nutze. Dazu benutzte er eine E-Mail mit der Betreffzeile “230 Tote durch Sturm in Europa”. Sobald der Dateianhang geöffnet wurde, zwangen eine Trojaner- Backdoor und ein Rootkit den betroffenen Rechner, sich einem Botnetz anzuschließen. Botnetze sind Armeen von Zombie-Computern, die verwendet werden können, um unter anderem Tonnen von Spam zu verbreiten. Storm Worm kaperte zehn Millionen Rechner.2008: Mebroot
Foto: GlebStock – shutterstock.comMebroot war ein Rootkit, dass gezielt konstruiert wurde, um die gerade aufkommenden Rootkit-Detektoren auszutricksen. Dabei war der Schädling so fortschrittlich, dass er einen Diagnosebericht an den Virenschreiber sendete, sobald er einen PC zum Absturz gebracht hatte.2008: Conficker
Foto: Lemau Studio – shutterstock.comConficker verbreitete sich rasend schnell auf Millionen von Computern weltweit. Er nutzte sowohl Schwachstellen in Windows, als auch schwache Passwörter. Kombiniert mit einigen fortschrittlichen Techniken, konnte Conficker weitere Malware installieren. Eine – besonders fiese – Folge: die Benutzer wurden durch den Virus vom Besuch der Website der meisten Anbieter von Security-Software gehindert. Mehr als zwei Jahre nachdem Conficker erstmals gesichtet wurde, waren immer noch täglich mehr Rechner infiziert.2010: 3D Anti Terrorist
Foto: 1000 Words – shutterstock.comDieses “trojanisierte” Game zielte auf Windows-Telefone ab und wurde über Freeware-Websites verteilt. Einmal installiert, startete der Trojaner Anrufe zu besonders teuren Sondernummern und bescherte den Nutzern überaus saftige Rechnungen. Diese Strategie bei Apps ist immer noch neu – wird sich aber vermutlich zu einer der gängigsten Methoden entwickeln, mit denen Hacker und Cyberkriminelle künftig mobile Endgeräte angreifen.2010: Stuxnet
Foto: jaroslava V – shutterstock.comWie schon gesehen, haben Computer-Viren schon seit Jahrzehnten Auswirkungen auf die reale Welt – doch im Jahr 2010 hat ein Virus auch den Lauf der Geschichte verändert: Stuxnet. Als ungewöhnlich großer Windows-Wurm (Stuxnet ist mehr als 1000 Prozent größer als der typische Computerwurm) verbreitete sich Stuxnet wahrscheinlich über USB-Geräte. Der Wurm infizierte ein System, versteckte sich mit einem Rootkit und erkannte dann, ob der infizierte Computer sich mit dem Automatisierungssystem Siemens Simatic verbindet. Wenn Stuxnet eine Verbindung feststellte, veränderte er die Befehle, die der Windows-Rechner an die PLC/SPS-programmierbaren Logik-Controller sendet – also die Boxen zur Steuerung der Maschinen. Läuft er auf PLC/SPS, sucht er nach einer bestimmten Fabrikumgebung. Wenn diese nicht gefunden wird, bleibt Stuxnet inaktiv. Nach Schätzungen der F-Secure Labs, kostete die Umsetzung von Stuxnet mehr als zehn Mannjahre Arbeit. Immerhin zeigt das, dass ein Virus, der offensichtlich eine Zentrifuge zur Urananreicherung manipulieren kann, nicht im Handumdrehen von Jedermann erschaffen werden kann. Die Komplexität von Stuxnet und die Tatsache, dass der Einsatz dieses Virus nicht auf finanziellen Interessen beruhte, legt den Verdacht nahe, dass Stuxnet im Auftrag einer Regierung entwickelt wurde.

Worst of Schadsoftware: 11 historische Malware-Angriffe​ Weiterlesen »

Wie man dem Chef elegant „Nein“ sagt​

Allgemein

Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. eamesBot – Shutterstock 2430583241 Egal, ob Führungskraft oder Mitarbeiter: Jeder Mensch kennt Situationen, in denen er das Gefühl hat, in einer Konfliktsituation zwischen den eigenen Bedürfnissen und den Erwartungen anderer zu stehen, weshalb ein klares Nein nötig wäre. Doch dieses zu artikulieren, fällt vielen Menschen schwer, obwohl ein klares „Nein“ enorm befreiend sein kann – für beide Seiten.    Wann und wie „Nein“ sagen? Beim Neinsagen gilt es jedoch zu beachten: Unser „Nein“ sollte weder willkürlich noch aggressiv sein. Es bedarf einiger Vorüberlegungen und eines gewissen Fingerspitzengefühls, um auf eine respektvolle Art und Weise ein Nichtwollen oder -können zu artikulieren und damit Grenzen zu setzen.   Folgende Tipps helfen dabei:  Klare ICH-Botschaften senden Kommunizieren Sie Ihre eigenen Kapazitäten oder Prioritäten sachlich und ohne Schuldzuweisungen. Ein Beispiel: „Ich bin derzeit mit meinen Aufgaben komplett ausgelastet. Ich kann dieses Projekt nur zusätzlich übernehmen, wenn andere Aufgaben verschoben oder delegiert werden.“  Alternativen aufzeigen Ein „Nein“ muss nicht endgültig sein. Bieten Sie mögliche Lösungen an, die für beide Seiten eventuell akzeptabel sind. Beispiele: „Können wir das Projekt verschieben?“ oder „Könnte vorläufig erst einmal jemand anderes diese Aufgabe übernehmen?“  Zeit für Reflexion nehmen Ein vorschnelles „Ja“ kann langfristig negative Folgen haben, ebenso ein abruptes beziehungsweise vorschnelles „Nein“. Bedenken Sie die möglichen Konsequenzen und bitten Sie, sofern nötig, um Bedenkzeit: „Darf ich Ihnen morgen Bescheid geben, wie ich beziehungsweise wir das am besten lösen könnten?“  Konsequenzen erfragen Stellen Sie gezielte Fragen, um den Spielraum für eine Lösung auszuloten: „Was passiert, wenn wir diese Aufgabe erst in zwei Wochen erledigen?“ oder „Welches Ziel hat für Sie aktuell die höchste Priorität?“     Ein klares „Nein“ nicht als Schwäche interpretieren Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. Es schafft nämlich Raum für das gemeinsame Suchen nach einer tragfähigen, weil für alle Beteiligten beziehungsweise Betroffenen akzeptablen Lösung und verhindert, dass sich Probleme oder Konflikte auf der psychologischen Ebene verfestigen.   Führungskräfte sollten in ihrem Umfeld eine Kultur fördern, in der Widerspruch als konstruktiv wahrgenommen wird – ohne Angst vor Konsequenzen. Denn nur dann können Konflikte funktional betrachtet und gelöst werden und so das Fundament für eine Weiterentwicklung der Zusammenarbeit geschaffen werden. Ein klar formuliertes und begründetes „Nein“ ist mehr als eine Absage: Es ist ein Ausdruck von Respekt, Klarheit und Verantwortung.  

Wie man dem Chef elegant „Nein“ sagt​ Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. eamesBot – Shutterstock 2430583241

Egal, ob Führungskraft oder Mitarbeiter: Jeder Mensch kennt Situationen, in denen er das Gefühl hat, in einer Konfliktsituation zwischen den eigenen Bedürfnissen und den Erwartungen anderer zu stehen, weshalb ein klares Nein nötig wäre. Doch dieses zu artikulieren, fällt vielen Menschen schwer, obwohl ein klares „Nein“ enorm befreiend sein kann – für beide Seiten. 

 

Wann und wie „Nein“ sagen?

Beim Neinsagen gilt es jedoch zu beachten: Unser „Nein“ sollte weder willkürlich noch aggressiv sein. Es bedarf einiger Vorüberlegungen und eines gewissen Fingerspitzengefühls, um auf eine respektvolle Art und Weise ein Nichtwollen oder -können zu artikulieren und damit Grenzen zu setzen.  

Folgende Tipps helfen dabei: 

Klare ICH-Botschaften senden

Kommunizieren Sie Ihre eigenen Kapazitäten oder Prioritäten sachlich und ohne Schuldzuweisungen. Ein Beispiel: „Ich bin derzeit mit meinen Aufgaben komplett ausgelastet. Ich kann dieses Projekt nur zusätzlich übernehmen, wenn andere Aufgaben verschoben oder delegiert werden.“ 

Alternativen aufzeigen

Ein „Nein“ muss nicht endgültig sein. Bieten Sie mögliche Lösungen an, die für beide Seiten eventuell akzeptabel sind. Beispiele: „Können wir das Projekt verschieben?“ oder „Könnte vorläufig erst einmal jemand anderes diese Aufgabe übernehmen?“ 

Zeit für Reflexion nehmen

Ein vorschnelles „Ja“ kann langfristig negative Folgen haben, ebenso ein abruptes beziehungsweise vorschnelles „Nein“. Bedenken Sie die möglichen Konsequenzen und bitten Sie, sofern nötig, um Bedenkzeit: „Darf ich Ihnen morgen Bescheid geben, wie ich beziehungsweise wir das am besten lösen könnten?“ 

Konsequenzen erfragen

Stellen Sie gezielte Fragen, um den Spielraum für eine Lösung auszuloten: „Was passiert, wenn wir diese Aufgabe erst in zwei Wochen erledigen?“ oder „Welches Ziel hat für Sie aktuell die höchste Priorität?“  

 

Ein klares „Nein“ nicht als Schwäche interpretieren

Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. Es schafft nämlich Raum für das gemeinsame Suchen nach einer tragfähigen, weil für alle Beteiligten beziehungsweise Betroffenen akzeptablen Lösung und verhindert, dass sich Probleme oder Konflikte auf der psychologischen Ebene verfestigen.  

Führungskräfte sollten in ihrem Umfeld eine Kultur fördern, in der Widerspruch als konstruktiv wahrgenommen wird – ohne Angst vor Konsequenzen. Denn nur dann können Konflikte funktional betrachtet und gelöst werden und so das Fundament für eine Weiterentwicklung der Zusammenarbeit geschaffen werden. Ein klar formuliertes und begründetes „Nein“ ist mehr als eine Absage: Es ist ein Ausdruck von Respekt, Klarheit und Verantwortung. 

Wie man dem Chef elegant „Nein“ sagt​ Weiterlesen »

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​

Allgemein

Von neuen Mitarbeitern erwartet man Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie! Foto: Roman Samborskyi – shutterstock.comSie kommen in eine neue Umgebung und müssen sich und Ihre Arbeit präsentieren. Sie müssen es schaffen, möglichst schnell alle Arbeitsabläufe zu durchschauen, Ihre Kollegen kennen zulernen und alle informellen Beziehungsnetzwerke zu verstehen. Das geht nur, wenn Sie den Einstieg in das neue Unternehmen mit derselben Sorgfalt angehen wie zuvor den Ausstieg aus dem alten und den Bewerbungsprozess.Dabei ist es wichtig, die Angst abzubauen. Viele Neueinsteiger betrachten die Probezeit als eine Phase, in der man ohne Probleme hinausgeworfen werden kann. Doch diese Sichtweise ist falsch. In der Probezeit befinden sich beide Seiten auf dem Prüfstand. Sie sollten herausfinden, ob sie zusammen passen. Dabei geht es nicht nur um fachliche Leistungen, sondern auch um die Chemie.Die erste Begegnung mit den KollegenTypische Anfängerfehler sollten natürlich vom ersten Tag an vermieden werden. Dass das Outfit stimmt, versteht sich von selbst. Sorgen Sie auch dafür, dass Sie nicht völlig abgehetzt das Büro betreten. Das beste Gefühl fürs Timing bekommen Sie, indem Sie den Weg schon im Vorfeld einmal abfahrenDie größte Angst haben Neulinge vor der ersten Begegnung mit den neuen Kollegen – und das zu Recht. In der Regel treffen wir eine Einschätzung über Sympathie oder Antipathie des Gegenübers innerhalb weniger Sekunden. Es kommt darauf an, wie Sie jetzt auftreten, ob sie natürlich und souverän wirken oder ängstlich und verunsichert. Was Sie sich in den ersten Minuten, Stunden und Tagen verscherzen, ist nur schwer wieder gut zu machen.Nicht einfacher wird die Sache dadurch, dass die Kollegen meist wenig vorbereitet sind. Wenn Sie Glück haben, wissen sie zumindest, dass heute ein Neuer kommt. Wenn Sie Pech haben, nicht einmal das. Eine organisierte Einarbeitung gibt es in den wenigsten Fällen. In manchen Unternehmen gibt es zwar Mentoren, die den Einstieg erleichtern sollen – auch dies ist jedoch oft genug nur blanke Theorie. Umso wichtiger ist, es den Einstieg gut vorzubereiten.Zunächst sollten Sie sich vorstellen, allerdings nur, wenn die Situation das hergibt. Sind alle sehr beschäftigt, kann es befremdlich wirken, wenn Sie herumgehen und jeden von der Arbeit abhalten. Passen Sie die richtige Gelegenheit ab und stellen Sie sich dann mit vollem Namen und der Funktion vor, die Sie ausfüllen werdenDuzen oder Siezen?Eine heikle Frage ist oft die nach dem “Du” oder “Sie“. Passen Sie auf, wie die anderen miteinander umgehen. Das “Du” sollten Sie erst anbieten, wenn Sie die Betriebssitten kennen. Anders herum gilt: Duzt man sie sofort, weil dies im Betrieb üblich ist, sollten Sie sich gut überlegen, ob Sie sich dem entziehen wollen.Die Regeln für die ersten Stunden und Tage sind einfach:zunächst beobachten und dann handelnim Zweifel fragen. Je schneller es Ihnen gelingt, sich die Namen der neuen Kollegen, die Abteilungskürzel, wichtige Kunden und die Palette der Produkte zu merken, desto schneller läuft die Integration.Vorsicht vor Aktionismus und BesserwissereiNatürlich sollten Sie sich in der Anfangszeit engagiert zeigen. Gleich die Pausen zu überziehen macht einen genauso schlechten Eindruck wie überpünktlich in den Feierabend zu starten. Andererseits: Zu viel Aktionismus kommt auch nicht gut. Insbesondere dann nicht, wenn Sie einfach drauflos starten – ohne sich vorher mit den Rahmenbedingungen vertraut gemacht zu haben. Oder noch schlimmer: Wenn Sie gleich zu Anfang eingefahrene Abläufe umkrempeln.Wenn Sie Ihren neuen Kollegen erklären, was sie alles falsch machen oder wie Sie es besser machen würden, haben Sie schon verloren. Zunächst ist Zurückhaltung gefordert. Tragen Sie Ihre Ideen nur bei passender Gelegenheit vor und stempeln Sie keinen als Dummkopf ab. Wer gleich die ganze Firma umstrukturieren will und damit Kompetenzen anzweifelt, wird die neuen Kollegen vor den Kopf stoßen.Viel besser: Nachfragen! Gerade am Anfang nimmt Ihnen das niemand übel. Im Gegenteil, man wird es als Interesse verstehen. Auch vermeintliche Nebensächlichkeiten bedürfen mitunter der Klärung: Bringt jeder seine eigene Kaffeetasse mit? Gibt es eine Kaffeekasse? Ist es üblich, zum Einstand eine Runde auszugeben? Tabu ist auch, im neuen Job über Ihren alten Arbeitgeber oder die alten Kollegen zu lästern.Abwarten und von anderen lernenNiemand erwartet von Ihnen, dass Sie sofort alles verstehen, alles richtig oder gar besser machen als die anderen. Was man einzig erwartet, ist Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!Seien Sie aufmerksam, machen Sie sich Notizen und beschäftigen Sie sich damit. Nutzen Sie alle Informationsquellen wie Unternehmensblog, Mitarbeiterzeitschrift, Intranet oder Handbücher, um möglichst viel über Ihr neues Unternehmen und Ihre eigenen Aufgaben zu erfahren. Eine gute Möglichkeit, die Abläufe zu hinterfragen, bieten auch die Pausen. Soweit dies üblich und in Corona-Zeiten möglich ist, gehen Sie mit den Kollegen zum Mittagessen.Halten Sie sich im Zweifel zurück, solange Sie die Rollen der Kollegen nicht sicher einschätzen können. Lassen Sie sich nur nicht zu Kritik hinreißen. Eine falsche Bemerkung beim falschen Kollegen – und Sie sind raus. In jedem Unternehmen gibt es Mitarbeiter, die mehr Gewicht haben als andere. Diese sollten Sie möglichst schnell identifizieren. Die Unfähigkeit, die firmeninternen Spielregeln zu durchschauen, ist der zweithäufigste Grund, warum jemand bei Beförderungen übergangen wird. Noch fataler ist dieses Nichtverstehen in einem neuen Job. Wer sich mit den Falschen verbündet, hat keine Chance. Welche Wege zum neuen Job führenMehr Mobilität?Überdenken Sie Ihre Flexibilität. Längere Anfahrtswege oder geringeres Gehalt können trotzdem zielführend sein.Keine KatastropheIst die Kündigung bereits ausgesprochen, bewahren Sie die Ruhe.Der FlurfunkReagieren Sie möglichst frühzeitig auf die Zeichen des Marktes. Nehmen Sie die Gerüchteküche ernst. Agieren Sie selbst.Absichern?Verlassen Sie sich nicht auf vermeintliche Sicherheiten. Manch einer steht schneller auf der Straße, als er meint.Haltung bewahrenHängen Sie Ihren Frust nicht an die große Glocke – weder vor noch nach einer Kündigung.Außen vor Informieren Sie Kollegen oder gar den Vorgesetzten auf keinen Fall zu früh, denn von da an sind Sie von allen wichtigen Informationen abgeschnitten.Präsenz zeigenStellen Sie Ihr Profil in die relevanten Online-Portale ein. Tun Sie dies frühzeitig. Erste Erfolge zeigen sich frühestens nach vier bis sechs Monaten.Externe UnterstützungNehmen Sie Kontakt mit ausgewählten Personalberatern Ihrer Branche auf. Signalisieren Sie Ihr Interesse an neuen Herausforderungen in allen relevanten Netzwerken, aber werden Sie nicht zu deutlich, ehe die Kündigung tatsächlich ausgesprochen ist.Profilieren Sie sichWenn noch nicht absehbar ist, ob und wann Sie wechseln werden, nutzen Sie bereits die Zeit, um sich zunächst im eigenen Haus zu profilieren. Beteiligen Sie sich an Projekten, die für die Zukunft relevant sind, schlagen Sie sinnvolle Sparmöglichkeiten vor. Sorgen Sie dafür, dass Ihr Engagement auch extern publik wird. Netzwerke und Arbeitskreise bieten dafür gute Möglichkeiten.Eine gute Bewerbung … ist immer noch sehr wichtig. Überarbeiten und vervollständigen Sie Ihre Bewerbungsunterlagen.Eigenwerbung stinkt?Das war einmal. Kümmern Sie sich um Ihr Selbstmarketing. Erarbeiten Sie Ihr eigenes Stärkenprofil. Besonders in der Krise geht es um Effizienz. Im Bewerbungsgespräch müssen Sie kurz und knapp darlegen können, worin Ihre Stärken liegen. Unterstützung bieten Karriereberater.Bereit seinBesorgen Sie sich ein Zwischenzeugnis.Ups, zu spät …Wenn Sie selbst gehen, bereiten Sie die Trennung sorgfältig vor. Beachten Sie die Fristen.Viele Wege führen zum neuen JobNutzen Sie alle Bewerbungswege: Print, online, persönlich.Hilfreich: ein langer AtemBefassen Sie sich mit der Psychologie des Vorstellungsgespräches, und zwar nicht nur in der ersten Runde.Falsche Kompromisse?Bei potenziellen Stellenangeboten: Bleiben Sie kritisch, sich selbst und Ihrem Können gegenüber – aber auch dem suchenden Unternehmen.Im Guten trennenIst die Entscheidung zum Wechsel gefallen, nutzen Sie auch Ihren Abgang zur Profilierung.Es ist soweitWenn Sie dann tatsächlich gehen: Hinterlassen Sie einen bestellten Acker.Neu ankommenAgieren Sie im neuen Unternehmen besonnen. Lernen Sie, hören Sie gut zu.Los gehts!Nehmen Sie die eigenen Gefühle ernst – auch wenn sie negativ sind. Bei Zweifeln: Starten Sie neu! 

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​ Von neuen Mitarbeitern erwartet man Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!
Foto: Roman Samborskyi – shutterstock.comSie kommen in eine neue Umgebung und müssen sich und Ihre Arbeit präsentieren. Sie müssen es schaffen, möglichst schnell alle Arbeitsabläufe zu durchschauen, Ihre Kollegen kennen zulernen und alle informellen Beziehungsnetzwerke zu verstehen. Das geht nur, wenn Sie den Einstieg in das neue Unternehmen mit derselben Sorgfalt angehen wie zuvor den Ausstieg aus dem alten und den Bewerbungsprozess.Dabei ist es wichtig, die Angst abzubauen. Viele Neueinsteiger betrachten die Probezeit als eine Phase, in der man ohne Probleme hinausgeworfen werden kann. Doch diese Sichtweise ist falsch. In der Probezeit befinden sich beide Seiten auf dem Prüfstand. Sie sollten herausfinden, ob sie zusammen passen. Dabei geht es nicht nur um fachliche Leistungen, sondern auch um die Chemie.Die erste Begegnung mit den KollegenTypische Anfängerfehler sollten natürlich vom ersten Tag an vermieden werden. Dass das Outfit stimmt, versteht sich von selbst. Sorgen Sie auch dafür, dass Sie nicht völlig abgehetzt das Büro betreten. Das beste Gefühl fürs Timing bekommen Sie, indem Sie den Weg schon im Vorfeld einmal abfahrenDie größte Angst haben Neulinge vor der ersten Begegnung mit den neuen Kollegen – und das zu Recht. In der Regel treffen wir eine Einschätzung über Sympathie oder Antipathie des Gegenübers innerhalb weniger Sekunden. Es kommt darauf an, wie Sie jetzt auftreten, ob sie natürlich und souverän wirken oder ängstlich und verunsichert. Was Sie sich in den ersten Minuten, Stunden und Tagen verscherzen, ist nur schwer wieder gut zu machen.Nicht einfacher wird die Sache dadurch, dass die Kollegen meist wenig vorbereitet sind. Wenn Sie Glück haben, wissen sie zumindest, dass heute ein Neuer kommt. Wenn Sie Pech haben, nicht einmal das. Eine organisierte Einarbeitung gibt es in den wenigsten Fällen. In manchen Unternehmen gibt es zwar Mentoren, die den Einstieg erleichtern sollen – auch dies ist jedoch oft genug nur blanke Theorie. Umso wichtiger ist, es den Einstieg gut vorzubereiten.Zunächst sollten Sie sich vorstellen, allerdings nur, wenn die Situation das hergibt. Sind alle sehr beschäftigt, kann es befremdlich wirken, wenn Sie herumgehen und jeden von der Arbeit abhalten. Passen Sie die richtige Gelegenheit ab und stellen Sie sich dann mit vollem Namen und der Funktion vor, die Sie ausfüllen werdenDuzen oder Siezen?Eine heikle Frage ist oft die nach dem “Du” oder “Sie“. Passen Sie auf, wie die anderen miteinander umgehen. Das “Du” sollten Sie erst anbieten, wenn Sie die Betriebssitten kennen. Anders herum gilt: Duzt man sie sofort, weil dies im Betrieb üblich ist, sollten Sie sich gut überlegen, ob Sie sich dem entziehen wollen.Die Regeln für die ersten Stunden und Tage sind einfach:zunächst beobachten und dann handelnim Zweifel fragen. Je schneller es Ihnen gelingt, sich die Namen der neuen Kollegen, die Abteilungskürzel, wichtige Kunden und die Palette der Produkte zu merken, desto schneller läuft die Integration.Vorsicht vor Aktionismus und BesserwissereiNatürlich sollten Sie sich in der Anfangszeit engagiert zeigen. Gleich die Pausen zu überziehen macht einen genauso schlechten Eindruck wie überpünktlich in den Feierabend zu starten. Andererseits: Zu viel Aktionismus kommt auch nicht gut. Insbesondere dann nicht, wenn Sie einfach drauflos starten – ohne sich vorher mit den Rahmenbedingungen vertraut gemacht zu haben. Oder noch schlimmer: Wenn Sie gleich zu Anfang eingefahrene Abläufe umkrempeln.Wenn Sie Ihren neuen Kollegen erklären, was sie alles falsch machen oder wie Sie es besser machen würden, haben Sie schon verloren. Zunächst ist Zurückhaltung gefordert. Tragen Sie Ihre Ideen nur bei passender Gelegenheit vor und stempeln Sie keinen als Dummkopf ab. Wer gleich die ganze Firma umstrukturieren will und damit Kompetenzen anzweifelt, wird die neuen Kollegen vor den Kopf stoßen.Viel besser: Nachfragen! Gerade am Anfang nimmt Ihnen das niemand übel. Im Gegenteil, man wird es als Interesse verstehen. Auch vermeintliche Nebensächlichkeiten bedürfen mitunter der Klärung: Bringt jeder seine eigene Kaffeetasse mit? Gibt es eine Kaffeekasse? Ist es üblich, zum Einstand eine Runde auszugeben? Tabu ist auch, im neuen Job über Ihren alten Arbeitgeber oder die alten Kollegen zu lästern.Abwarten und von anderen lernenNiemand erwartet von Ihnen, dass Sie sofort alles verstehen, alles richtig oder gar besser machen als die anderen. Was man einzig erwartet, ist Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!Seien Sie aufmerksam, machen Sie sich Notizen und beschäftigen Sie sich damit. Nutzen Sie alle Informationsquellen wie Unternehmensblog, Mitarbeiterzeitschrift, Intranet oder Handbücher, um möglichst viel über Ihr neues Unternehmen und Ihre eigenen Aufgaben zu erfahren. Eine gute Möglichkeit, die Abläufe zu hinterfragen, bieten auch die Pausen. Soweit dies üblich und in Corona-Zeiten möglich ist, gehen Sie mit den Kollegen zum Mittagessen.Halten Sie sich im Zweifel zurück, solange Sie die Rollen der Kollegen nicht sicher einschätzen können. Lassen Sie sich nur nicht zu Kritik hinreißen. Eine falsche Bemerkung beim falschen Kollegen – und Sie sind raus. In jedem Unternehmen gibt es Mitarbeiter, die mehr Gewicht haben als andere. Diese sollten Sie möglichst schnell identifizieren. Die Unfähigkeit, die firmeninternen Spielregeln zu durchschauen, ist der zweithäufigste Grund, warum jemand bei Beförderungen übergangen wird. Noch fataler ist dieses Nichtverstehen in einem neuen Job. Wer sich mit den Falschen verbündet, hat keine Chance. Welche Wege zum neuen Job führenMehr Mobilität?Überdenken Sie Ihre Flexibilität. Längere Anfahrtswege oder geringeres Gehalt können trotzdem zielführend sein.Keine KatastropheIst die Kündigung bereits ausgesprochen, bewahren Sie die Ruhe.Der FlurfunkReagieren Sie möglichst frühzeitig auf die Zeichen des Marktes. Nehmen Sie die Gerüchteküche ernst. Agieren Sie selbst.Absichern?Verlassen Sie sich nicht auf vermeintliche Sicherheiten. Manch einer steht schneller auf der Straße, als er meint.Haltung bewahrenHängen Sie Ihren Frust nicht an die große Glocke – weder vor noch nach einer Kündigung.Außen vor Informieren Sie Kollegen oder gar den Vorgesetzten auf keinen Fall zu früh, denn von da an sind Sie von allen wichtigen Informationen abgeschnitten.Präsenz zeigenStellen Sie Ihr Profil in die relevanten Online-Portale ein. Tun Sie dies frühzeitig. Erste Erfolge zeigen sich frühestens nach vier bis sechs Monaten.Externe UnterstützungNehmen Sie Kontakt mit ausgewählten Personalberatern Ihrer Branche auf. Signalisieren Sie Ihr Interesse an neuen Herausforderungen in allen relevanten Netzwerken, aber werden Sie nicht zu deutlich, ehe die Kündigung tatsächlich ausgesprochen ist.Profilieren Sie sichWenn noch nicht absehbar ist, ob und wann Sie wechseln werden, nutzen Sie bereits die Zeit, um sich zunächst im eigenen Haus zu profilieren. Beteiligen Sie sich an Projekten, die für die Zukunft relevant sind, schlagen Sie sinnvolle Sparmöglichkeiten vor. Sorgen Sie dafür, dass Ihr Engagement auch extern publik wird. Netzwerke und Arbeitskreise bieten dafür gute Möglichkeiten.Eine gute Bewerbung … ist immer noch sehr wichtig. Überarbeiten und vervollständigen Sie Ihre Bewerbungsunterlagen.Eigenwerbung stinkt?Das war einmal. Kümmern Sie sich um Ihr Selbstmarketing. Erarbeiten Sie Ihr eigenes Stärkenprofil. Besonders in der Krise geht es um Effizienz. Im Bewerbungsgespräch müssen Sie kurz und knapp darlegen können, worin Ihre Stärken liegen. Unterstützung bieten Karriereberater.Bereit seinBesorgen Sie sich ein Zwischenzeugnis.Ups, zu spät …Wenn Sie selbst gehen, bereiten Sie die Trennung sorgfältig vor. Beachten Sie die Fristen.Viele Wege führen zum neuen JobNutzen Sie alle Bewerbungswege: Print, online, persönlich.Hilfreich: ein langer AtemBefassen Sie sich mit der Psychologie des Vorstellungsgespräches, und zwar nicht nur in der ersten Runde.Falsche Kompromisse?Bei potenziellen Stellenangeboten: Bleiben Sie kritisch, sich selbst und Ihrem Können gegenüber – aber auch dem suchenden Unternehmen.Im Guten trennenIst die Entscheidung zum Wechsel gefallen, nutzen Sie auch Ihren Abgang zur Profilierung.Es ist soweitWenn Sie dann tatsächlich gehen: Hinterlassen Sie einen bestellten Acker.Neu ankommenAgieren Sie im neuen Unternehmen besonnen. Lernen Sie, hören Sie gut zu.Los gehts!Nehmen Sie die eigenen Gefühle ernst – auch wenn sie negativ sind. Bei Zweifeln: Starten Sie neu!

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​ Weiterlesen »

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​

Allgemein

Connor Jewiss / Foundry Auf einen Blick Pro Wunderschönes Curved-Edge-POLED-Display Schlankes und leichtes Design Zuverlässige Akkulaufzeit Beeindruckende Schnellladefunktion Kontra Mittelmäßige Kameraleistung, insbesondere bei schlechten Lichtverhältnissen Softwareunterstützung hinkt der Konkurrenz hinterher Leistung bleibt hinter ähnlich teuren Konkurrenten zurück Fazit Das Moto G85 5G punktet mit ansprechendem Design und hochwertiger Haptik, kann jedoch in puncto Leistung, Kameraqualität und Softwareunterstützung nicht vollends überzeugen. Ein solides Mittelklasse-Smartphone, aber kein Klassenbester. Das Moto G85 5G ist eines der neuesten Mittelklasse-Smartphones von Motorola (Stand: Zeitpunkt der Erstellung dieses Artikels). Mit seinem eleganten Design und dem gebogenen POLED-Display vermittelt es eine hochwertige Anmutung, die über seinen Preis hinausgeht. Das Moto G85 5G bietet eine solide Akkulaufzeit, eine reibungslose Leistung im Alltag und ein sauberes Software-Erlebnis. Die Kameraqualität ist jedoch nur mittelmäßig, in der Leistung bleibt das Moto hinter den wichtigsten Konkurrenten, und dazu kommt die enttäuschende Software-Update-Politik von Motorola. Wenn Sie mehr Wert auf Design und Displayqualität als auf reine Leistung legen, ist das Moto G85 G5 einen Blick wert. Allerdings gibt es bessere Allrounder zu einem ähnlichen Preis. Design & Verarbeitung Hochwertiges Design mit gebogenem Display Veganes Leder oder matte Kunststoffoberflächen Schlank und leicht, aber nur IP52 wasserdicht Motorola hat schon immer attraktive, erschwingliche Mobiltelefone auf den Markt gebracht. Mit dem Moto G85 5G orientiert sich Motorola am Design der Flaggschiff-Serie Edge und bietet mit 7,6 Millimetern ein ultraschlankes Profil und eine gebogene Frontscheibe, was sich in der Hand erstklassig anfühlt. Mit 172 Gramm ist es außerdem bemerkenswert leicht, wenn man die Größe des Displays und des Akkus bedenkt. Connor Jewiss / Foundry Die veganen Lederoptionen (Kobaltblau und Olivgrün) verleihen dem Gerät eine strukturierte, griffige Oberfläche. Sie werden feststellen, dass es sich nicht um Leder handelt – es fühlt sich eher wie Wildleder an. Wenn Sie eine konventionellere Oberfläche bevorzugen, bietet das Modell Urban Grey eine glatte, matte Kunststoffrückseite, die Fingerabdrücke und Flecken gut verbirgt. Ergonomisch gesehen liegt das Telefon gut in der Hand, und die sanften Kurven machen die einhändige Bedienung weniger schwierig als bei flacheren Geräten wie dem Poco X7. Die Tasten sind gut platziert, wobei die Einschalttaste gleichzeitig als schneller und zuverlässiger Fingerabdruckscanner dient. Es gibt keine Option für das Display, aber bei diesem Preisniveau würde ich auch keine erwarten. Bei der Widerstandsfähigkeit zeigt das Moto G85 5G seine Grenzen. Die IP52-Einstufung bietet Schutz gegen leichte Spritzer und Staub, aber nicht gegen Untertauchen. Das ist besser als nichts, aber Konkurrenten wie das Samsung Galaxy A36 5G bieten eine IP67-Zertifizierung. Display & Sound Beeindruckendes 6,67-Zoll-POLED-Display Glatte 120 Hertz Bildwiederholrate und ordentliche Helligkeit Laute Stereolautsprecher, aber zu wenig Bass Das 6,67-Zoll-POLED-Display des Moto G85 ist sein größtes Verkaufsargument. Gebogene Displays zu diesem Preis sind heutzutage praktisch unbekannt, und ich bin normalerweise kein Fan davon, aber Motorola hat es ausgezeichnet gemacht. Die Wölbungen sind subtil und minimieren versehentliche Berührungen, ein häufiges Problem bei früheren gebogenen Bildschirmen. Das Ergebnis ist ein Display, das viel hochwertiger aussieht, als es der Preis vermuten lässt. Connor Jewiss / Foundry Mit einer Auflösung von 2.400 × 1.080 Pixeln und einer Bildwiederholfrequenz von 120 Hertz ist das Scrollen butterweich und die Darstellung scharf. Die Farben sind lebendig und das Display bietet eine gute Kalibrierung, auch wenn manche es etwas zu kräftig finden mögen. Es gibt einen manuellen Farbbalance-Modus in den Einstellungen, wenn Sie einen natürlicheren Ton bevorzugen. Die Helligkeit erreicht bei direktem Sonnenlicht einen Spitzenwert von 1.600 Nits. Das genügt für die meisten Außenbedingungen, reicht aber nicht ganz an die Helligkeit des Panels von Konkurrenten wie dem Poco X7 heran, das über 1.800 Nits hinausgeht. Die Betrachtungswinkel sind dank der POLED-Technologie ausgezeichnet, und die Farbverschiebung bei schrägen Blickwinkeln ist minimal. Die Stereolautsprecher sind laut und liefern klaren Klang für Podcasts und gelegentliches Videoschauen. Sie sind Dolby-Atmos-zertifiziert, was ihnen eine gewisse virtuelle Surround-Tiefe verleiht, aber es fehlt ihnen an Wärme und Bass, insbesondere bei höheren Lautstärken. Es gibt keinen Kopfhöreranschluss, was enttäuschend ist, da dies bei günstigen Handys immer noch üblich ist. Spezifikationen & Leistung Snapdragon 6s Gen 3 liefert eine reibungslose Alltagsleistung Bleibt in Hinblick auf Leistung hinter Konkurrenten wie dem Poco X6 und dem Galaxy A35 zurück UFS-2.2-Speicher begrenzt die Geschwindigkeit Bei der Leistung liegt das Moto G85 5G definitiv in der Mittelklasse. Es wird vom Snapdragon 6s Gen 3 angetrieben, einem relativ neuen, aber bescheidenen 6-nm-Chipsatz mit acht Kernen (zwei Cortex-A78 und sechs Cortex-A55). Die Grafikaufgaben werden von der Adreno-619-GPU übernommen. Connor Jewiss / Foundry Bei normaler Nutzung wie dem Scrollen in sozialen Medien, dem Surfen im Internet und leichtem Multitasking hält das Moto G85 5G gut mit. Die leichtgewichtige “My UX”-Oberfläche von Motorola sorgt dafür, dass alles flott funktioniert, und die Animationen flüssig sind. Apps werden schnell geöffnet, und das Smartphone hält mit den meisten täglichen Aufgaben problemlos mit. Bei stärkerer Belastung treten jedoch Einschränkungen auf. Einfache Spiele können problemlos laufen, aber bei 3D-Spielen kann es bei mehr Details problematisch werden. Große Spiele sollten Sie am besten vermeiden, es sei denn, Sie setzen die Einstellungen auf die niedrigste Stufe herab. Das Wärmemanagement ist anständig und das Moto G85 5G erwärmt sich nur nach längeren Spielesessions. Allerdings ist mir aufgefallen, dass das Handy besonders warm wird, wenn Sie es während des Ladevorgangs benutzen. Benchmarks Im Vergleich zu ähnlich teuren Konkurrenten schneidet das Moto G85 5G nicht so gut ab, wie Sie in den Benchmarks unten sehen können: Kameras 50-Megapixel-Hauptkamera auf der Rückseite 8-Megapixel-Ultraweitwinkelkamera 32-Megapixel-Selfiekamera Motorola hat das Moto G85 5G mit einer Dual-Rückkamera ausgestattet: einem 50-Megapixel-Hauptsensor (f/1.8) und einem 8-Megapixel-Ultraweitwinkelobjektiv (f/2.2). Auf der Vorderseite befindet sich eine 32-Megapixel-Selfiekamera. Connor Jewiss / Foundry Bei guter Beleuchtung macht die 50-Megapixel-Hauptkamera solide Fotos. Die Farben sind lebendig, ohne übersättigt zu wirken, und die Detailgenauigkeit ist für diese Preisklasse anständig. Der Dynamikbereich ist allerdings etwas eingeschränkt und die Lichter können an hellen Tagen leicht überstrahlen. Nahaufnahmen und Porträts sind einigermaßen scharf, aber die Kantenerkennung ist im Porträtmodus nicht immer optimal. Bei anspruchsvolleren Objekten in Porträtaufnahmen hat das Moto G85 5G definitiv Probleme mit der Kantenerkennung. Die 8-Megapixel-Ultraweitwinkelkamera hat noch größere Probleme. Die Bilder sind spürbar weicher, insbesondere an den Rändern, und die Farbkonsistenz des Hauptsensors ist nicht besonders gut. Fotos bei schlechten Lichtverhältnissen weisen ein deutliches Rauschen auf, auch wenn der Nachtmodus aktiviert ist. Die 32-Megapixel-Selfiekamera ist bei Tageslicht gut und liefert scharfe, detaillierte Bilder mit akkuraten Hauttönen. Bei schwachem Licht schleicht sich jedoch erneut Rauschen ein. Das Fehlen eines Autofokus bedeutet, dass Selfies nur dann gelingen, wenn Sie das Handy ruhig halten. Die Videoaufzeichnung erreicht eine Höchstgeschwindigkeit von 1080p 60 fps (frames per second). Die Bildstabilisierung ist elektronisch (EIS) und funktioniert gut für den gelegentlichen Gebrauch, aber das Fehlen von 4K-Aufnahmen und optischer Bildstabilisierung (OIS) schränkt die Attraktivität des G85 für Videofilmer ein. Akkulaufzeit & Aufladen 5.000-mAh-Akku 30 Watt kabelgebundenes Laden (kein Ladegerät in der Verpackung) Kein kabelloses Laden Kompetente Ladegeschwindigkeiten, aber nicht klassenführend Der Akku des Moto G85 5G hat eine Kapazität von 5.000 mAh, was für Mittelklassegeräte Standard ist. Die Akkulaufzeit ist im täglichen Gebrauch ausgezeichnet. Bei leichter bis mittlerer Nutzung (soziale Medien, Anrufe, gelegentliches Streaming) hält das Moto G85 5G eineinhalb Tage durch. Bei anspruchsvoller Nutzung kommen Sie immer noch problemlos durch einen Tag. Connor Jewiss / Foundry Meine Tests ergaben eine Betriebszeit von etwa sieben Stunden, wobei das Streaming von Videos etwa sechs Prozent pro Stunde verbraucht. Bei anspruchsvollen Spielen liegt der Verbrauch bei etwa 15 Prozent pro Stunde, Gelegenheitsspiele wirken sich weit weniger aus. Das Aufladen erfolgt über ein kabelgebundenes 30-Watt-Ladegerät, aber Motorola legt kein Ladegerät bei, sondern nur ein Kabel USB-A zu USB-C. Mit einem kompatiblen 30-Watt-Ladegerät erreicht das Handy in etwa 30 Minuten 50 Prozent und ist in etwa 80 Minuten vollständig aufgeladen. Es gibt keine kabellose Ladefunktion, was bei einem Handy dieses Preises nicht mehr die Norm ist. Außerdem bieten Konkurrenten wie das Poco X7 schnelleres kabelgebundenes Laden (45 Watt). Trotzdem sollte die Ladegeschwindigkeit des Moto G85 für die meisten Leute ausreichen. Software & Funktionen Sauberes Android 14 mit minimalem Ballast Die nützlichen Moto-Gesten von Motorola sind zurück Nur ein Betriebssystem-Update, drei Jahre lang Sicherheitspatches Motorolas “My UX”-Skin über Android 14 ist ein weiteres Highlight. Es ist sauber, nahe am sogenannten Stock-Android und frei von unnötigen Animationen und Unordnung. Die Moto-Gesten-Funktionen (drehen Sie Ihre Hand, um die Kamera zu öffnen, tippen Sie, um die Taschenlampe zu aktivieren) sind intuitiv, obwohl ich nicht sicher bin, ob sie für die meisten so nützlich sein werden. Connor Jewiss / Foundry Das Moto G85 5G wird mit vorinstallierten Drittanbieter-Apps wie Booking.com und Facebook geliefert. Das ist nicht so schlimm wie ich es schon bei anderen Handys gesehen habe, aber Bloatware von Drittanbietern ist immer ärgerlich. Zum Glück lassen sich diese vorinstallierten Apps problemlos entfernen. Motorolas eigene Apps sind dezent gehalten und meist nützlich – darunter Moto Secure für zusätzliche Sicherheit und Moto Display für eine praktische Anzeige von Benachrichtigungen. Leider ist das Engagement für den Software-Support eher dürftig. Motorola verspricht nur ein Betriebssystem-Update (auf das aktuelle Android 15) und drei Jahre lang zweimonatliche Sicherheitspatches. Das ist enttäuschend, vor allem wenn Samsung sechs Jahre lang beides für das Galaxy A26 5G anbietet und sogar Xiaomi und One Plus ihre Update-Politik in dieser Preisklasse verbessern. Es gibt kein Always-on-Display und keine wichtigen KI-Funktionen. Preis und Verfügbarkeit Motorola bietet das Moto G85 5G derzeit für 299,99 Euro an (12 GB/256 GB). Zu den Farboptionen gehören Kobaltblau, Olivgrün (beide mit veganer Lederoberfläche) und Urban Grey mit einer matten Kunststoffrückseite. Connor Jewiss / Foundry Sollten Sie das Motorola Moto G85 5G kaufen? Das Motorola Moto G85 5G ist ein attraktives Mittelklasse-Smartphone mit einem hervorragenden Display und einer soliden Akkulaufzeit. Sein schlankes Design, das gebogene POLED-Panel und die leichte Bauweise lassen es teurer erscheinen als es ist. Für Gelegenheitsnutzer, die eine zuverlässige Leistung im Alltag benötigen, ist es eine solide Wahl. Allerdings ist die Konkurrenz groß. Smartphones wie das Poco X7 bieten bessere Leistung, Kameras und Ladegeschwindigkeiten für weniger Geld. Das Galaxy A26 5G von Samsung bietet ein helleres Display, mehr Leistung und eine weitaus bessere Softwareunterstützung. Das Moto G85 5G ist kein schlechtes Handy, aber es ist schwer zu empfehlen, es sei denn, Sie fühlen sich von seinem Design besonders angezogen oder sind der Marke treu. Spezifikationen Bildschirm: 6,67 Zoll POLED, 2400 × 1080 Pixel Auflösung, 120 Hertz Bildwiederholrate Prozessor: Qualcomm Snapdragon 6s Gen 3 Speicher: 8 GB / 12 GB RAM Speicher: 128 GB / 256 GB, erweiterbar über Micro-SD Rückseitige Kameras: 50 Megapixel (f/1.8), 8 Megapixel Ultraweitwinkel (f/2.2) Frontkamera: 32 Megapixel (f/2.4) Akku: 5000 mAh, 30 Watt kabelgebundenes Laden Software: Android 14 mit My UX Abmessungen: 161,9 × 73,1 × 7,6 Millimeter Gewicht: 172 Gramm Wasserbeständigkeit: IP52 (spritzwassergeschützt) Konnektivität: 5G (sub-6GHz), Dual-SIM, eSIM, NFC, Bluetooth 5.1 Audio: Stereolautsprecher (Dolby Atmos), kein Kopfhöreranschluss (PC-Welt) 

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​ Connor Jewiss / Foundry

Auf einen Blick

Pro

Wunderschönes Curved-Edge-POLED-Display

Schlankes und leichtes Design

Zuverlässige Akkulaufzeit

Beeindruckende Schnellladefunktion

Kontra

Mittelmäßige Kameraleistung, insbesondere bei schlechten Lichtverhältnissen

Softwareunterstützung hinkt der Konkurrenz hinterher

Leistung bleibt hinter ähnlich teuren Konkurrenten zurück

Fazit

Das Moto G85 5G punktet mit ansprechendem Design und hochwertiger Haptik, kann jedoch in puncto Leistung, Kameraqualität und Softwareunterstützung nicht vollends überzeugen. Ein solides Mittelklasse-Smartphone, aber kein Klassenbester.

Das Moto G85 5G ist eines der neuesten Mittelklasse-Smartphones von Motorola (Stand: Zeitpunkt der Erstellung dieses Artikels). Mit seinem eleganten Design und dem gebogenen POLED-Display vermittelt es eine hochwertige Anmutung, die über seinen Preis hinausgeht.

Das Moto G85 5G bietet eine solide Akkulaufzeit, eine reibungslose Leistung im Alltag und ein sauberes Software-Erlebnis. Die Kameraqualität ist jedoch nur mittelmäßig, in der Leistung bleibt das Moto hinter den wichtigsten Konkurrenten, und dazu kommt die enttäuschende Software-Update-Politik von Motorola.

Wenn Sie mehr Wert auf Design und Displayqualität als auf reine Leistung legen, ist das Moto G85 G5 einen Blick wert. Allerdings gibt es bessere Allrounder zu einem ähnlichen Preis.

Design & Verarbeitung

Hochwertiges Design mit gebogenem Display

Veganes Leder oder matte Kunststoffoberflächen

Schlank und leicht, aber nur IP52 wasserdicht

Motorola hat schon immer attraktive, erschwingliche Mobiltelefone auf den Markt gebracht. Mit dem Moto G85 5G orientiert sich Motorola am Design der Flaggschiff-Serie Edge und bietet mit 7,6 Millimetern ein ultraschlankes Profil und eine gebogene Frontscheibe, was sich in der Hand erstklassig anfühlt. Mit 172 Gramm ist es außerdem bemerkenswert leicht, wenn man die Größe des Displays und des Akkus bedenkt.

Connor Jewiss / Foundry

Die veganen Lederoptionen (Kobaltblau und Olivgrün) verleihen dem Gerät eine strukturierte, griffige Oberfläche. Sie werden feststellen, dass es sich nicht um Leder handelt – es fühlt sich eher wie Wildleder an. Wenn Sie eine konventionellere Oberfläche bevorzugen, bietet das Modell Urban Grey eine glatte, matte Kunststoffrückseite, die Fingerabdrücke und Flecken gut verbirgt.

Ergonomisch gesehen liegt das Telefon gut in der Hand, und die sanften Kurven machen die einhändige Bedienung weniger schwierig als bei flacheren Geräten wie dem Poco X7. Die Tasten sind gut platziert, wobei die Einschalttaste gleichzeitig als schneller und zuverlässiger Fingerabdruckscanner dient. Es gibt keine Option für das Display, aber bei diesem Preisniveau würde ich auch keine erwarten.

Bei der Widerstandsfähigkeit zeigt das Moto G85 5G seine Grenzen. Die IP52-Einstufung bietet Schutz gegen leichte Spritzer und Staub, aber nicht gegen Untertauchen. Das ist besser als nichts, aber Konkurrenten wie das Samsung Galaxy A36 5G bieten eine IP67-Zertifizierung.

Display & Sound

Beeindruckendes 6,67-Zoll-POLED-Display

Glatte 120 Hertz Bildwiederholrate und ordentliche Helligkeit

Laute Stereolautsprecher, aber zu wenig Bass

Das 6,67-Zoll-POLED-Display des Moto G85 ist sein größtes Verkaufsargument.

Gebogene Displays zu diesem Preis sind heutzutage praktisch unbekannt, und ich bin normalerweise kein Fan davon, aber Motorola hat es ausgezeichnet gemacht. Die Wölbungen sind subtil und minimieren versehentliche Berührungen, ein häufiges Problem bei früheren gebogenen Bildschirmen. Das Ergebnis ist ein Display, das viel hochwertiger aussieht, als es der Preis vermuten lässt.

Connor Jewiss / Foundry

Mit einer Auflösung von 2.400 × 1.080 Pixeln und einer Bildwiederholfrequenz von 120 Hertz ist das Scrollen butterweich und die Darstellung scharf. Die Farben sind lebendig und das Display bietet eine gute Kalibrierung, auch wenn manche es etwas zu kräftig finden mögen. Es gibt einen manuellen Farbbalance-Modus in den Einstellungen, wenn Sie einen natürlicheren Ton bevorzugen.

Die Helligkeit erreicht bei direktem Sonnenlicht einen Spitzenwert von 1.600 Nits. Das genügt für die meisten Außenbedingungen, reicht aber nicht ganz an die Helligkeit des Panels von Konkurrenten wie dem Poco X7 heran, das über 1.800 Nits hinausgeht. Die Betrachtungswinkel sind dank der POLED-Technologie ausgezeichnet, und die Farbverschiebung bei schrägen Blickwinkeln ist minimal.

Die Stereolautsprecher sind laut und liefern klaren Klang für Podcasts und gelegentliches Videoschauen. Sie sind Dolby-Atmos-zertifiziert, was ihnen eine gewisse virtuelle Surround-Tiefe verleiht, aber es fehlt ihnen an Wärme und Bass, insbesondere bei höheren Lautstärken. Es gibt keinen Kopfhöreranschluss, was enttäuschend ist, da dies bei günstigen Handys immer noch üblich ist.

Spezifikationen & Leistung

Snapdragon 6s Gen 3 liefert eine reibungslose Alltagsleistung

Bleibt in Hinblick auf Leistung hinter Konkurrenten wie dem Poco X6 und dem Galaxy A35 zurück

UFS-2.2-Speicher begrenzt die Geschwindigkeit

Bei der Leistung liegt das Moto G85 5G definitiv in der Mittelklasse. Es wird vom Snapdragon 6s Gen 3 angetrieben, einem relativ neuen, aber bescheidenen 6-nm-Chipsatz mit acht Kernen (zwei Cortex-A78 und sechs Cortex-A55). Die Grafikaufgaben werden von der Adreno-619-GPU übernommen.

Connor Jewiss / Foundry

Bei normaler Nutzung wie dem Scrollen in sozialen Medien, dem Surfen im Internet und leichtem Multitasking hält das Moto G85 5G gut mit. Die leichtgewichtige “My UX”-Oberfläche von Motorola sorgt dafür, dass alles flott funktioniert, und die Animationen flüssig sind. Apps werden schnell geöffnet, und das Smartphone hält mit den meisten täglichen Aufgaben problemlos mit.

Bei stärkerer Belastung treten jedoch Einschränkungen auf. Einfache Spiele können problemlos laufen, aber bei 3D-Spielen kann es bei mehr Details problematisch werden. Große Spiele sollten Sie am besten vermeiden, es sei denn, Sie setzen die Einstellungen auf die niedrigste Stufe herab.

Das Wärmemanagement ist anständig und das Moto G85 5G erwärmt sich nur nach längeren Spielesessions. Allerdings ist mir aufgefallen, dass das Handy besonders warm wird, wenn Sie es während des Ladevorgangs benutzen.

Benchmarks

Im Vergleich zu ähnlich teuren Konkurrenten schneidet das Moto G85 5G nicht so gut ab, wie Sie in den Benchmarks unten sehen können:

Kameras

50-Megapixel-Hauptkamera auf der Rückseite

8-Megapixel-Ultraweitwinkelkamera

32-Megapixel-Selfiekamera

Motorola hat das Moto G85 5G mit einer Dual-Rückkamera ausgestattet: einem 50-Megapixel-Hauptsensor (f/1.8) und einem 8-Megapixel-Ultraweitwinkelobjektiv (f/2.2). Auf der Vorderseite befindet sich eine 32-Megapixel-Selfiekamera.

Connor Jewiss / Foundry

Bei guter Beleuchtung macht die 50-Megapixel-Hauptkamera solide Fotos. Die Farben sind lebendig, ohne übersättigt zu wirken, und die Detailgenauigkeit ist für diese Preisklasse anständig. Der Dynamikbereich ist allerdings etwas eingeschränkt und die Lichter können an hellen Tagen leicht überstrahlen.

Nahaufnahmen und Porträts sind einigermaßen scharf, aber die Kantenerkennung ist im Porträtmodus nicht immer optimal. Bei anspruchsvolleren Objekten in Porträtaufnahmen hat das Moto G85 5G definitiv Probleme mit der Kantenerkennung.

Die 8-Megapixel-Ultraweitwinkelkamera hat noch größere Probleme. Die Bilder sind spürbar weicher, insbesondere an den Rändern, und die Farbkonsistenz des Hauptsensors ist nicht besonders gut. Fotos bei schlechten Lichtverhältnissen weisen ein deutliches Rauschen auf, auch wenn der Nachtmodus aktiviert ist.

Die 32-Megapixel-Selfiekamera ist bei Tageslicht gut und liefert scharfe, detaillierte Bilder mit akkuraten Hauttönen. Bei schwachem Licht schleicht sich jedoch erneut Rauschen ein. Das Fehlen eines Autofokus bedeutet, dass Selfies nur dann gelingen, wenn Sie das Handy ruhig halten.

Die Videoaufzeichnung erreicht eine Höchstgeschwindigkeit von 1080p 60 fps (frames per second). Die Bildstabilisierung ist elektronisch (EIS) und funktioniert gut für den gelegentlichen Gebrauch, aber das Fehlen von 4K-Aufnahmen und optischer Bildstabilisierung (OIS) schränkt die Attraktivität des G85 für Videofilmer ein.

Akkulaufzeit & Aufladen

5.000-mAh-Akku

30 Watt kabelgebundenes Laden (kein Ladegerät in der Verpackung)

Kein kabelloses Laden

Kompetente Ladegeschwindigkeiten, aber nicht klassenführend

Der Akku des Moto G85 5G hat eine Kapazität von 5.000 mAh, was für Mittelklassegeräte Standard ist.

Die Akkulaufzeit ist im täglichen Gebrauch ausgezeichnet. Bei leichter bis mittlerer Nutzung (soziale Medien, Anrufe, gelegentliches Streaming) hält das Moto G85 5G eineinhalb Tage durch. Bei anspruchsvoller Nutzung kommen Sie immer noch problemlos durch einen Tag.

Connor Jewiss / Foundry

Meine Tests ergaben eine Betriebszeit von etwa sieben Stunden, wobei das Streaming von Videos etwa sechs Prozent pro Stunde verbraucht. Bei anspruchsvollen Spielen liegt der Verbrauch bei etwa 15 Prozent pro Stunde, Gelegenheitsspiele wirken sich weit weniger aus.

Das Aufladen erfolgt über ein kabelgebundenes 30-Watt-Ladegerät, aber Motorola legt kein Ladegerät bei, sondern nur ein Kabel USB-A zu USB-C. Mit einem kompatiblen 30-Watt-Ladegerät erreicht das Handy in etwa 30 Minuten 50 Prozent und ist in etwa 80 Minuten vollständig aufgeladen.

Es gibt keine kabellose Ladefunktion, was bei einem Handy dieses Preises nicht mehr die Norm ist. Außerdem bieten Konkurrenten wie das Poco X7 schnelleres kabelgebundenes Laden (45 Watt). Trotzdem sollte die Ladegeschwindigkeit des Moto G85 für die meisten Leute ausreichen.

Software & Funktionen

Sauberes Android 14 mit minimalem Ballast

Die nützlichen Moto-Gesten von Motorola sind zurück

Nur ein Betriebssystem-Update, drei Jahre lang Sicherheitspatches

Motorolas “My UX”-Skin über Android 14 ist ein weiteres Highlight. Es ist sauber, nahe am sogenannten Stock-Android und frei von unnötigen Animationen und Unordnung. Die Moto-Gesten-Funktionen (drehen Sie Ihre Hand, um die Kamera zu öffnen, tippen Sie, um die Taschenlampe zu aktivieren) sind intuitiv, obwohl ich nicht sicher bin, ob sie für die meisten so nützlich sein werden.

Connor Jewiss / Foundry

Das Moto G85 5G wird mit vorinstallierten Drittanbieter-Apps wie Booking.com und Facebook geliefert. Das ist nicht so schlimm wie ich es schon bei anderen Handys gesehen habe, aber Bloatware von Drittanbietern ist immer ärgerlich.

Zum Glück lassen sich diese vorinstallierten Apps problemlos entfernen. Motorolas eigene Apps sind dezent gehalten und meist nützlich – darunter Moto Secure für zusätzliche Sicherheit und Moto Display für eine praktische Anzeige von Benachrichtigungen.

Leider ist das Engagement für den Software-Support eher dürftig. Motorola verspricht nur ein Betriebssystem-Update (auf das aktuelle Android 15) und drei Jahre lang zweimonatliche Sicherheitspatches. Das ist enttäuschend, vor allem wenn Samsung sechs Jahre lang beides für das Galaxy A26 5G anbietet und sogar Xiaomi und One Plus ihre Update-Politik in dieser Preisklasse verbessern.

Es gibt kein Always-on-Display und keine wichtigen KI-Funktionen.

Preis und Verfügbarkeit

Motorola bietet das Moto G85 5G derzeit für 299,99 Euro an (12 GB/256 GB).

Zu den Farboptionen gehören Kobaltblau, Olivgrün (beide mit veganer Lederoberfläche) und Urban Grey mit einer matten Kunststoffrückseite.

Connor Jewiss / Foundry

Sollten Sie das Motorola Moto G85 5G kaufen?

Das Motorola Moto G85 5G ist ein attraktives Mittelklasse-Smartphone mit einem hervorragenden Display und einer soliden Akkulaufzeit. Sein schlankes Design, das gebogene POLED-Panel und die leichte Bauweise lassen es teurer erscheinen als es ist. Für Gelegenheitsnutzer, die eine zuverlässige Leistung im Alltag benötigen, ist es eine solide Wahl.

Allerdings ist die Konkurrenz groß. Smartphones wie das Poco X7 bieten bessere Leistung, Kameras und Ladegeschwindigkeiten für weniger Geld. Das Galaxy A26 5G von Samsung bietet ein helleres Display, mehr Leistung und eine weitaus bessere Softwareunterstützung.

Das Moto G85 5G ist kein schlechtes Handy, aber es ist schwer zu empfehlen, es sei denn, Sie fühlen sich von seinem Design besonders angezogen oder sind der Marke treu.

Spezifikationen

Bildschirm: 6,67 Zoll POLED, 2400 × 1080 Pixel Auflösung, 120 Hertz Bildwiederholrate

Prozessor: Qualcomm Snapdragon 6s Gen 3

Speicher: 8 GB / 12 GB RAM

Speicher: 128 GB / 256 GB, erweiterbar über Micro-SD

Rückseitige Kameras: 50 Megapixel (f/1.8), 8 Megapixel Ultraweitwinkel (f/2.2)

Frontkamera: 32 Megapixel (f/2.4)

Akku: 5000 mAh, 30 Watt kabelgebundenes Laden

Software: Android 14 mit My UX

Abmessungen: 161,9 × 73,1 × 7,6 Millimeter

Gewicht: 172 Gramm

Wasserbeständigkeit: IP52 (spritzwassergeschützt)

Konnektivität: 5G (sub-6GHz), Dual-SIM, eSIM, NFC, Bluetooth 5.1

Audio: Stereolautsprecher (Dolby Atmos), kein Kopfhöreranschluss

(PC-Welt)

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​ Weiterlesen »

Nach oben scrollen
×