Computerhaus Quickborn

Dezember 2024

Die 5 größten KI Fails 2024​

Allgemein

Künstliche Intelligenz kann viel Positives bewirken, zum Beispiel Routine-Aufgaben übernehmen und damit gestresste Individuen entlasten. Doch was passiert, wenn das Programm nicht mitspielt oder man sich zu sehr auf seine Aufgaben verlässt? Corona Borealis Studio/shutterstock.com Hier sind fünf der größten KI-Fails des Jahres. Diese Fälle zeigen, wie KI progressiv zugleich besser aber auch schlimmer wird. Dabei beeinflusst sie das Leben von immer mehr Menschen nachhaltig, immer häufiger zum schlechteren. KI als Anwaltsgehilfe 1. Vertrauen ist gut, doch Kontrolle ist besser. Dieser Satz lässt sich vielfältig anwenden und sollte definitiv zum Repertoire eines jeden KI-Anwenders zählen. Was passiert, wenn dem nicht so ist, hat ein New Yorker Anwalt im Juni eindrucksvoll demonstriert. Der Rechtsbeistand ließ ChatGPT Vergleichsfälle für eine Klage raussuchen, bei der sein Mandant gegen eine Fluggesellschaft vorgehen wollte. Ein Servierwagen hatte ihn auf einem Flug am Knie verletzt. Die KI lieferte prompt Beispiele wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“, sogar Aktenzeichen lieferte der Chatbot mit. Neue Technologie mit Macken Vor Gericht stellte sich dann heraus, dass alle Fälle frei erfunden sind, OpenAIs Produkt hatte halluziniert. Richter und Experten gleichermaßen bezeichnen den Fall als beispiellos und gefährlich. Zugleich gab der Klägeranwalt unter Eid an, dass er das Gericht nicht täuschen wollte. Er habe sich vielmehr nur auf die Künstliche Intelligenz verlassen. Bruce Green, Leiter des Instituts für Jura und Ethik an der Fordham-Universität in New York, bezeichnet das Vorgehen des Rechtsanwaltes als nachlässig, vielleicht sogar leichtsinnig. Er stellt zudem fest, dass US-amerikanische Anwälte souverän mit neuen technischen Werkzeugen umgehen müssen, die sie benutzen. Zugleich müssen sie sich aber auch etwaiger Gefahren und Probleme bewusst sein. Wer klug genug sei, ChatGPT für seine Recherche einzusetzen, der hätte auch „so klug sein müssen zu wissen, dass die Recherche, die die Künstliche Intelligenz macht, gegengecheckt werden muss.” Das heißt aber nicht, dass man KI in der Juristerei komplett abschreiben sollte. KI pfuscht in Open-Source-Sicherheitsberichten herum 2. Ein weiteres Beispiel für blindes Vertrauen in KI sind Fehlermeldungen, die an Open-Source-Entwickler gesendet werden. Diese werden immer häufiger automatisiert erstellt und auch verschickt, insbesondere im Open-Source-Bereich. Das Ergebnis sind überlastete und gefrustete Freiwillige, die sich mit auf den ersten Blick glaubwürdigen Reports rumschlagen dürfen. Python-Projekte scheinen davon stark betroffen sein, sagt Python-Sicherheitsentwickler Seth Larson. Diskussionen mit der KI Als abschreckendes Beispiel führte er das Curl-Projekt an, wo der Maintainer Daniel Stenberg fast ein Jahr mit einer KI-generierten Fehlermeldung kämpfte. Das Schlimme an der Sache war dabei nicht nur, dass die Fehlermeldung automatisiert und auch noch falsch war. Vielmehr machte die Kommunikation mit dem Einsender die Situation noch untragbarer, da dieser sehr wahrscheinlich ein Bot war, mit dem kein sinnvoller Austausch möglich war. Larsons vorgeschlagene Lösung für dieses Problem ist, maschinell erstellte Massen-Spamberichte wie bösartige Aktivitäten zu behandeln. Zudem sollten keine Fehlerberichte mehr mit KI erstellt werden, sondern nur von Menschen. Der Grund ist seiner Aussage zufolge denkbar einfach: KI-Systeme können derzeit keinen Code wirklich verstehen. KI diskriminiert bei der Wohnungssuche 3. Das nächste Beispiel zeigt, was passiert, wenn sich Unternehmen blind auf KI verlassen, ohne deren Ergebnisse zu überprüfen. Berichte zu erstellen ist sicherlich für die meisten nicht aufregend, aber dennoch regelmäßig nötig. Das hat das Beispiel im Open-Source-Bereich bereits gezeigt. Aber auch Wohnungsgesellschaften nutzen KI-Tools, wenn es zum Beispiel darum geht, Bewerbungen auf freistehende Objekte zu sichten und zu bewerten. Im Falle von Mary Lois, einer Sicherheitsfrau aus dem US-amerikanischen Bundesstaat Massachusetts, hatte es spürbare Konsequenzen: Die KI verwehrte ihr im Mai 2021eine Wohnung, ohne Möglichkeit die Entscheidung anzufechten. Der Vermieter nutzte hierfür die Software SafeRent. KI sagt „zu niedrig“ Die Begründung: Ihr ermittelter Wert von 324 wurde als „zu niedrig“ eingestuft. Wie die KI zu dieser Zahl kam, lässt sich trotz eines mehrseitigen Berichtes nicht ermitteln. Es stellte sich aber heraus, dass sie nicht die einzige potenzielle Mieterin war, der auf diese Art und Weise eine Wohnung verwehrt wurde. Über 400 afro-amerikanische und hispanische Mieter wurden in Massachusetts aufgrund niedriger SafeRent-Scores abgelehnt. Sie alle hatten gemein, dass sie Wohngutscheine nutzen. 2022 reichten Louis und eine weitere abgelehnte Bewerberin, Monica Douglas, eine Klage wegen Diskriminierung nach dem Fair Housing Act ein. Sie warfen dem SafeRent-Algorithmus vor, Minderheiten mit Wohngutscheinen schlechter zu bewerten als weiße Bewerber. Die Software berücksichtigte zudem irrelevante Kriterien wie Kreditwürdigkeit, ignoriere jedoch die garantierte Zahlung durch Wohngutscheine. Des Weiteren kritisierte Louis die Ablehnung, da ihre zuverlässige Mietzahlungshistorie nicht berücksichtigt wurde. Keine strukturellen Fehler SafeRent darf laut einem Vergleich vom 20. November 2024 fünf Jahre lang keine Bewertungssysteme oder Empfehlungen für Wohngutschein-Nutzer einsetzen. Neue Systeme müssen von unabhängiger Stelle geprüft werden. Kaplan erklärte, dies ermögliche individuellere Entscheidungen und mehr Chancen für Mieter. SafeRent zahlte 2,3 Millionen Dollar, räumte jedoch kein Fehlverhalten ein. KI fordert zum Selbstmord ​4. Das auch einem Chatbot die sprichwörtliche Sicherung durchbrennen kann, zeigt dieser Fail des Jahres. Grundsätzlich können Chatbots einen großen Teil der an sie gerichteten Fragen ordentlich beantworten. Selbst die immer wieder auftretenden Halluzinationen sind dem nur bedingt abträglich. Dass eine KI den Nutzer aber als „Schandfleck des Universums“ bezeichnet, der „bitte sterben“ möge, ist neu. Das KI-Modell Gemini von Google hat sich in einem belegten Fall genau diesen Aussetzer geleistet. „Frust“ bricht sich Bahn Eigentlich sollte die KI nur bei den Hausaufgaben für die Universität helfen. Konkret hatte der Nutzer Richtig/Falsch-Fragen bezüglich der Pflege älterer Menschen gestellt. Die letzte Antwort hatte es in sich: Der Chatbot nannte den Fragenden unmissverständlich und unumwunden „eine Verschwendung von Zeit und Ressourcen“ neben anderen Dingen. Spekulationen wie es zu dieser extremen Reaktion hatte kommen können, ließen nicht lange auf sich warten: Auf X, ehemals Twitter, wurde unter anderem eine fehlende, sorgfältig formulierte Eingabe-Aufforderung für die verbale Entgleisung vermutet. Das war 2024 jedoch nicht das einzige Mal, in dem eine KI mit Gewaltphantasien spielte. KI fordert Nutzer auf Eltern zu töten 5. Ein Jugendlicher in den USA nahm die Antworten einer KI für bare Münze und veränderte sich infolgedessen deutlich. Die Eltern eines 17-jährigen Nutzers erlebten mit, wie ihr Sohn depressiv wurde und deutlich abmagerte. Alarmiert über diesen Wandel untersuchten sie sein Smartphone und fanden nach ihren Angaben verstörende Chatverläufe, die sie zuerst echten Menschen zuschrieben. So hieß es dort im Dezember, dass der Teenager sich selbst verletzten solle und seine Eltern ihn nicht verdient hätten. Mit dem Jungen unterhielt sich allerdings kein Mensch, sondern ein Chatbot von Character.ai. Die besorgten Erziehungsberechtigten versuchten dem Treiben mit Computerentzug entgegenzuwirken. Prompt wandte der Jugendlich sich an einen anderen Chatbot, der feststellte, dass die Erwachsenen es nicht verdienen würden, Kinder zu haben. Weitere Chatbots brachten die Möglichkeit ins Spiel, dass er seine Eltern töten können. Character.ai macht nicht zum ersten Mal Probleme Die Eltern des Betroffenen haben gegen die Betreiber von Character.ai Klage eingereicht, ein Unterfangen, bei dem sie nicht allein sind. Die Chatbots des Unternehmens scheinen eine Historie verschiedener Vorfälle zu haben, denn weitere Eltern reichten ebenfalls Klage ein. Dabei ging es darum, dass eine Elfjährige nach Aussage der Mutter zwei Jahre lang stark sexualisierten Inhalten ausgesetzt gewesen sei. Nach diesen Vorfällen wurde Character.ai vorgeworfen, gegen die Produktsicherheit verstoßen zu haben. Am 12. Dezember reagierte Character.ai mit einer Stellungnahme, in der es heißt, dass man die Sicherheit für Jugendliche erhöht habe. Leider ist es 2024 nicht bei Fällen dieser Art geblieben: Bereits im Oktober sah sich ein anderer Chatbot mit dem Vorwurf konfrontiert für den Selbstmord eines 14-Jährigen verantwortlich zu sein. 

Die 5 größten KI Fails 2024​ Künstliche Intelligenz kann viel Positives bewirken, zum Beispiel Routine-Aufgaben übernehmen und damit gestresste Individuen entlasten. Doch was passiert, wenn das Programm nicht mitspielt oder man sich zu sehr auf seine Aufgaben verlässt?
Corona Borealis Studio/shutterstock.com

Hier sind fünf der größten KI-Fails des Jahres. Diese Fälle zeigen, wie KI progressiv zugleich besser aber auch schlimmer wird. Dabei beeinflusst sie das Leben von immer mehr Menschen nachhaltig, immer häufiger zum schlechteren.

KI als Anwaltsgehilfe

1. Vertrauen ist gut, doch Kontrolle ist besser. Dieser Satz lässt sich vielfältig anwenden und sollte definitiv zum Repertoire eines jeden KI-Anwenders zählen. Was passiert, wenn dem nicht so ist, hat ein New Yorker Anwalt im Juni eindrucksvoll demonstriert.

Der Rechtsbeistand ließ ChatGPT Vergleichsfälle für eine Klage raussuchen, bei der sein Mandant gegen eine Fluggesellschaft vorgehen wollte. Ein Servierwagen hatte ihn auf einem Flug am Knie verletzt. Die KI lieferte prompt Beispiele wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“, sogar Aktenzeichen lieferte der Chatbot mit.

Neue Technologie mit Macken

Vor Gericht stellte sich dann heraus, dass alle Fälle frei erfunden sind, OpenAIs Produkt hatte halluziniert. Richter und Experten gleichermaßen bezeichnen den Fall als beispiellos und gefährlich. Zugleich gab der Klägeranwalt unter Eid an, dass er das Gericht nicht täuschen wollte. Er habe sich vielmehr nur auf die Künstliche Intelligenz verlassen.

Bruce Green, Leiter des Instituts für Jura und Ethik an der Fordham-Universität in New York, bezeichnet das Vorgehen des Rechtsanwaltes als nachlässig, vielleicht sogar leichtsinnig. Er stellt zudem fest, dass US-amerikanische Anwälte souverän mit neuen technischen Werkzeugen umgehen müssen, die sie benutzen. Zugleich müssen sie sich aber auch etwaiger Gefahren und Probleme bewusst sein.

Wer klug genug sei, ChatGPT für seine Recherche einzusetzen, der hätte auch „so klug sein müssen zu wissen, dass die Recherche, die die Künstliche Intelligenz macht, gegengecheckt werden muss.”

Das heißt aber nicht, dass man KI in der Juristerei komplett abschreiben sollte.

KI pfuscht in Open-Source-Sicherheitsberichten herum

2. Ein weiteres Beispiel für blindes Vertrauen in KI sind Fehlermeldungen, die an Open-Source-Entwickler gesendet werden. Diese werden immer häufiger automatisiert erstellt und auch verschickt, insbesondere im Open-Source-Bereich.

Das Ergebnis sind überlastete und gefrustete Freiwillige, die sich mit auf den ersten Blick glaubwürdigen Reports rumschlagen dürfen. Python-Projekte scheinen davon stark betroffen sein, sagt Python-Sicherheitsentwickler Seth Larson.

Diskussionen mit der KI

Als abschreckendes Beispiel führte er das Curl-Projekt an, wo der Maintainer Daniel Stenberg fast ein Jahr mit einer KI-generierten Fehlermeldung kämpfte. Das Schlimme an der Sache war dabei nicht nur, dass die Fehlermeldung automatisiert und auch noch falsch war. Vielmehr machte die Kommunikation mit dem Einsender die Situation noch untragbarer, da dieser sehr wahrscheinlich ein Bot war, mit dem kein sinnvoller Austausch möglich war.

Larsons vorgeschlagene Lösung für dieses Problem ist, maschinell erstellte Massen-Spamberichte wie bösartige Aktivitäten zu behandeln. Zudem sollten keine Fehlerberichte mehr mit KI erstellt werden, sondern nur von Menschen.

Der Grund ist seiner Aussage zufolge denkbar einfach: KI-Systeme können derzeit keinen Code wirklich verstehen.

KI diskriminiert bei der Wohnungssuche

3. Das nächste Beispiel zeigt, was passiert, wenn sich Unternehmen blind auf KI verlassen, ohne deren Ergebnisse zu überprüfen. Berichte zu erstellen ist sicherlich für die meisten nicht aufregend, aber dennoch regelmäßig nötig. Das hat das Beispiel im Open-Source-Bereich bereits gezeigt. Aber auch Wohnungsgesellschaften nutzen KI-Tools, wenn es zum Beispiel darum geht, Bewerbungen auf freistehende Objekte zu sichten und zu bewerten.

Im Falle von Mary Lois, einer Sicherheitsfrau aus dem US-amerikanischen Bundesstaat Massachusetts, hatte es spürbare Konsequenzen: Die KI verwehrte ihr im Mai 2021eine Wohnung, ohne Möglichkeit die Entscheidung anzufechten. Der Vermieter nutzte hierfür die Software SafeRent.

KI sagt „zu niedrig“

Die Begründung: Ihr ermittelter Wert von 324 wurde als „zu niedrig“ eingestuft. Wie die KI zu dieser Zahl kam, lässt sich trotz eines mehrseitigen Berichtes nicht ermitteln. Es stellte sich aber heraus, dass sie nicht die einzige potenzielle Mieterin war, der auf diese Art und Weise eine Wohnung verwehrt wurde.

Über 400 afro-amerikanische und hispanische Mieter wurden in Massachusetts aufgrund niedriger SafeRent-Scores abgelehnt. Sie alle hatten gemein, dass sie Wohngutscheine nutzen. 2022 reichten Louis und eine weitere abgelehnte Bewerberin, Monica Douglas, eine Klage wegen Diskriminierung nach dem Fair Housing Act ein. Sie warfen dem SafeRent-Algorithmus vor, Minderheiten mit Wohngutscheinen schlechter zu bewerten als weiße Bewerber.

Die Software berücksichtigte zudem irrelevante Kriterien wie Kreditwürdigkeit, ignoriere jedoch die garantierte Zahlung durch Wohngutscheine. Des Weiteren kritisierte Louis die Ablehnung, da ihre zuverlässige Mietzahlungshistorie nicht berücksichtigt wurde.

Keine strukturellen Fehler

SafeRent darf laut einem Vergleich vom 20. November 2024 fünf Jahre lang keine Bewertungssysteme oder Empfehlungen für Wohngutschein-Nutzer einsetzen. Neue Systeme müssen von unabhängiger Stelle geprüft werden. Kaplan erklärte, dies ermögliche individuellere Entscheidungen und mehr Chancen für Mieter.

SafeRent zahlte 2,3 Millionen Dollar, räumte jedoch kein Fehlverhalten ein.

KI fordert zum Selbstmord

​4. Das auch einem Chatbot die sprichwörtliche Sicherung durchbrennen kann, zeigt dieser Fail des Jahres. Grundsätzlich können Chatbots einen großen Teil der an sie gerichteten Fragen ordentlich beantworten. Selbst die immer wieder auftretenden Halluzinationen sind dem nur bedingt abträglich.

Dass eine KI den Nutzer aber als „Schandfleck des Universums“ bezeichnet, der „bitte sterben“ möge, ist neu. Das KI-Modell Gemini von Google hat sich in einem belegten Fall genau diesen Aussetzer geleistet.

„Frust“ bricht sich Bahn

Eigentlich sollte die KI nur bei den Hausaufgaben für die Universität helfen. Konkret hatte der Nutzer Richtig/Falsch-Fragen bezüglich der Pflege älterer Menschen gestellt. Die letzte Antwort hatte es in sich: Der Chatbot nannte den Fragenden unmissverständlich und unumwunden „eine Verschwendung von Zeit und Ressourcen“ neben anderen Dingen.

Spekulationen wie es zu dieser extremen Reaktion hatte kommen können, ließen nicht lange auf sich warten: Auf X, ehemals Twitter, wurde unter anderem eine fehlende, sorgfältig formulierte Eingabe-Aufforderung für die verbale Entgleisung vermutet.

Das war 2024 jedoch nicht das einzige Mal, in dem eine KI mit Gewaltphantasien spielte.

KI fordert Nutzer auf Eltern zu töten

5. Ein Jugendlicher in den USA nahm die Antworten einer KI für bare Münze und veränderte sich infolgedessen deutlich. Die Eltern eines 17-jährigen Nutzers erlebten mit, wie ihr Sohn depressiv wurde und deutlich abmagerte.

Alarmiert über diesen Wandel untersuchten sie sein Smartphone und fanden nach ihren Angaben verstörende Chatverläufe, die sie zuerst echten Menschen zuschrieben. So hieß es dort im Dezember, dass der Teenager sich selbst verletzten solle und seine Eltern ihn nicht verdient hätten. Mit dem Jungen unterhielt sich allerdings kein Mensch, sondern ein Chatbot von Character.ai.

Die besorgten Erziehungsberechtigten versuchten dem Treiben mit Computerentzug entgegenzuwirken. Prompt wandte der Jugendlich sich an einen anderen Chatbot, der feststellte, dass die Erwachsenen es nicht verdienen würden, Kinder zu haben. Weitere Chatbots brachten die Möglichkeit ins Spiel, dass er seine Eltern töten können.

Character.ai macht nicht zum ersten Mal Probleme

Die Eltern des Betroffenen haben gegen die Betreiber von Character.ai Klage eingereicht, ein Unterfangen, bei dem sie nicht allein sind. Die Chatbots des Unternehmens scheinen eine Historie verschiedener Vorfälle zu haben, denn weitere Eltern reichten ebenfalls Klage ein.

Dabei ging es darum, dass eine Elfjährige nach Aussage der Mutter zwei Jahre lang stark sexualisierten Inhalten ausgesetzt gewesen sei. Nach diesen Vorfällen wurde Character.ai vorgeworfen, gegen die Produktsicherheit verstoßen zu haben.

Am 12. Dezember reagierte Character.ai mit einer Stellungnahme, in der es heißt, dass man die Sicherheit für Jugendliche erhöht habe.

Leider ist es 2024 nicht bei Fällen dieser Art geblieben: Bereits im Oktober sah sich ein anderer Chatbot mit dem Vorwurf konfrontiert für den Selbstmord eines 14-Jährigen verantwortlich zu sein.

Die 5 größten KI Fails 2024​ Weiterlesen »

7 Anzeichen: Zeit, Ihr IT-Investment abzuschreiben?​

Allgemein

Ist es Zeit, den Geldhahn für Ihr IT Investment abzudrehen? Diese sieben Anzeichen deuten darauf hin. Foto: Gts – shutterstock.comDer Business Case machte einen soliden Eindruck, die Investition schien auch aus der Perspektive der Management-Kollegen Sinn zu geben. Doch inzwischen ist klar, dass alle Beteiligten auf dem Holzweg waren: Das Projekt wird nicht nur die Erwartungen verfehlen, sondern nähert sich dem Status “Total Fuckup“. Und nun?IT-Vorhaben rechtzeitig einzustellen, bevor sie unnötig Zeit und Geld fressen und langfristige Wettbewerbsvorteile vollends außer Sicht geraten, ist eine mutige Entscheidung. Gute CIOs müssen dazu fähig sein. Dazu braucht es die richtige Kombination aus Erfahrung, Insights und dem Willen, die entsprechenden Warnsignale richtig zu erfassen und einzuordnen. Wir haben sieben dieser Anzeichen für Sie zusammengefasst, die signalisieren, dass sich Initiativen mit einst rosigen Aussichten auf dem absteigenden Ast befinden.1. Der Zeitrahmen wird gesprengtWie jede Investition ist auch eine strategische IT Investition zukunftsgerichtet, also eine Wette auf einen potenziellen Vorteil. Hier sollen proaktiv neue digitale Möglichkeiten für das Unternehmen erschlossen werden, meint T. Ravichandran, Professor für Supply Chain Management am Rensselaer Polytechnic Institute. Wenn das Investment allerdings in ein Projekt mündet, das innerhalb eines vorher abgesteckten Zeitrahmens (zirka sechs bis zwölf Monate) nicht in Gang gebracht werden kann, könnte es an der Zeit sein, Strategie und Zielsetzung zu überarbeiten – oder das Projekt zu beerdigen.“Commitment Escalation” ist nach den Erfahrungen des Wissenschaftlers eines der Hauptprobleme in vielen Unternehmen: “Weil wir schon investiert haben, müssen wir es jetzt auch durchziehen”, laute dabei das Motto der Verantwortlichen. Deshalb sollten die Gelder schrittweise fließen und an Erfolge geknüpft sein. “Erst wenn Key Milestones erreicht werden, wird die nächste Stufe finanziert. In einem solchen Kontext werden Fortschritte in der Regel schneller und sicherer erzielt”, sagt Ravichandran.Wenn die Zeichen hingegen auf Misserfolg stehen, empfiehlt der Supply-Chain-Experte zunächst ein Gespräch mit allen Verantwortlichen. Es gelte nun zu prüfen, ob sich einige funktionale Elemente retten lassen oder ob Rahmen und Ziel des Vorhaben angepasst werden müssen.2. Die Rahmenbedingungen ändern sichUnter Umständen durchkreuzt eine neue Realität alle Pläne – die Corona-Pandemie war ein gutes Beispiel. Wurden wichtige Entscheidungen etwa zu Technik oder Vorgehensweisen vor einem solchen Ereignis getroffen, empfiehlt sich eine Neubewertung. Wie sinnhaft sind diese Vorgaben noch angesichts der neuen Faktenlage?Ebenso kritisch sind Missverständnisse und Fehlannahmen gleich zu Beginn eines Vorhabens. Sie können den Wert, die Kosten oder die Benefits eines Investments betreffen und das Projekt gefährden, noch bevor es richtig losgeht. 3. Warnzeichen übersehenWenn sich abzeichnet, dass ein Projekt die vorgegebenen Ziele weit verfehlt, sollte das alle Alarmglocken schrillen lassen, warnt Paul Rohmeyer, Director am Stevens Institute of Technology. Schließlich sollten IT Investments die Erreichung spezifischer Geschäftsziele unterstützen – oder diese erst ermöglichen. “Jeder Hinweis darauf, dass Projektziele verfehlt werden, sollte genau examiniert und das Projekt reevaluiert werden”, empfiehlt der Experte. Die Entscheidung darüber, ein Projekt zu beenden, solle jedoch mit Bedacht und Transparenz angegangen werden. Wenn die Entscheidung jedoch einmal gefallen sei, so Rohmeyer, sollte die Abwicklung so schnell wie möglich erfolgen, um weitere Ausgaben zu verhindern, und Ressourcen neu verteilen zu können.4. Stakeholder treten leisen Rückzug anWenn Key Stakeholder nahezu unbemerkt die Flucht ergreifen, ist das ein starkes Signal dafür, dass das Investment ins Leere läuft. Schwindenden Rückhalt zu erkennen, ist glücklicherweise nicht schwer: in Meetings und Konferenzen ist plötzlich keine Rede mehr von der Initiative Update Requests werden immer dringlicher Teammitglieder mit Schlüsselrollen werden plötzlich abgezogen“Das was vom Team übrigbleibt, soll das Projekt dann mit unzureichenden Ressourcen fortführen, um das Investment zu rechtfertigen”, weiß Greg Stam, Managing Director beim Digitalberatungsunternehmen Ahead, aus Erfahrung. “Beliebt ist auch eine Neujustierung des Projektinhalts.”5. Verführte ProjektmanagerEin Projekt kann wie ein Uhrwerk laufen, jedes angestrebte Ziel erreichen oder gar übererfüllen – und dennoch weit davon entfernt sein, die erhofften Vorteile etwa in Sachen Kosten, Time to market oder Produktivität zu bringen. Viele CIOs erkennen den verpassten Return on Investment RoI aber erst spät – im Regelfall ist dann bereits eine Menge Geld geflossen.Die Gründe für enttäuschende Ergebnisse sind vielfältig, wie Sebastian Grady vom Softwareanbieter Rimini Street weiß: “Manchmal handelt sich um das Lieblingsprojekt eines Einzelnen. Oder das Management will eine neue Technologie ausprobieren, weil es die anderen auch machen. Noch schlimmer ist es, wenn CIOs der Roadmap von Herstellern folgen. Solche Projekte bringen im Regelfall weder Ertrag noch Kostenreduktion oder Wettbewerbsvorteile”, konstatiert der Experte.Bei der Vorbereitung großer Projekte mit entsprechender Kostenstruktur, sei ein unbestechlicher, klarer Blick notwendig, so Grady: “Seien Sie hart zu sich selbst, widerstehen Sie den Versuchungen der großen IT-Anbieter und leiten Sie keinen Change ein, der nicht mit strategischen Prioritäten und einem klaren RoI verknüpft ist.”6. Die Nutzer senken den DaumenEin Projekt muss den betroffenen Anwendern einen Mehrwert bieten. Wenn ein einst vielversprechendes Vorhaben kein oder nur ein geringes User-Interesse erzeugt, wird es irgendwann zu einer nutzlosen Belastung für das Unternehmen. Um das zu verhindern, hilft nur eine genaue Beobachtung und die Bereitschaft zu einer zwischenzeitlichen Kurskorrektur.7. Aus der Zeit gefallenWeil Zeit und Technologieentwicklung nicht stehen bleiben, kann ein einst erfolgversprechendes Projekt relativ plötzlich nutzlos werden. Deswegen sollte jedes IT-Investment in regelmäßigen Zeitabständen daraufhin abgeklopft werden, ob es noch planmäßig den vorgesehenen Business Case unterstützt. Nur so lässt sich ermitteln, ob die Ziele noch realistisch sind. Wenn nicht, heißt es Abschied nehmen und das Vorhaben abschreiben – auch wenn es schwerfällt. (fm)15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

7 Anzeichen: Zeit, Ihr IT-Investment abzuschreiben?​ Ist es Zeit, den Geldhahn für Ihr IT Investment abzudrehen? Diese sieben Anzeichen deuten darauf hin.
Foto: Gts – shutterstock.comDer Business Case machte einen soliden Eindruck, die Investition schien auch aus der Perspektive der Management-Kollegen Sinn zu geben. Doch inzwischen ist klar, dass alle Beteiligten auf dem Holzweg waren: Das Projekt wird nicht nur die Erwartungen verfehlen, sondern nähert sich dem Status “Total Fuckup“. Und nun?IT-Vorhaben rechtzeitig einzustellen, bevor sie unnötig Zeit und Geld fressen und langfristige Wettbewerbsvorteile vollends außer Sicht geraten, ist eine mutige Entscheidung. Gute CIOs müssen dazu fähig sein. Dazu braucht es die richtige Kombination aus Erfahrung, Insights und dem Willen, die entsprechenden Warnsignale richtig zu erfassen und einzuordnen. Wir haben sieben dieser Anzeichen für Sie zusammengefasst, die signalisieren, dass sich Initiativen mit einst rosigen Aussichten auf dem absteigenden Ast befinden.1. Der Zeitrahmen wird gesprengtWie jede Investition ist auch eine strategische IT Investition zukunftsgerichtet, also eine Wette auf einen potenziellen Vorteil. Hier sollen proaktiv neue digitale Möglichkeiten für das Unternehmen erschlossen werden, meint T. Ravichandran, Professor für Supply Chain Management am Rensselaer Polytechnic Institute. Wenn das Investment allerdings in ein Projekt mündet, das innerhalb eines vorher abgesteckten Zeitrahmens (zirka sechs bis zwölf Monate) nicht in Gang gebracht werden kann, könnte es an der Zeit sein, Strategie und Zielsetzung zu überarbeiten – oder das Projekt zu beerdigen.“Commitment Escalation” ist nach den Erfahrungen des Wissenschaftlers eines der Hauptprobleme in vielen Unternehmen: “Weil wir schon investiert haben, müssen wir es jetzt auch durchziehen”, laute dabei das Motto der Verantwortlichen. Deshalb sollten die Gelder schrittweise fließen und an Erfolge geknüpft sein. “Erst wenn Key Milestones erreicht werden, wird die nächste Stufe finanziert. In einem solchen Kontext werden Fortschritte in der Regel schneller und sicherer erzielt”, sagt Ravichandran.Wenn die Zeichen hingegen auf Misserfolg stehen, empfiehlt der Supply-Chain-Experte zunächst ein Gespräch mit allen Verantwortlichen. Es gelte nun zu prüfen, ob sich einige funktionale Elemente retten lassen oder ob Rahmen und Ziel des Vorhaben angepasst werden müssen.2. Die Rahmenbedingungen ändern sichUnter Umständen durchkreuzt eine neue Realität alle Pläne – die Corona-Pandemie war ein gutes Beispiel. Wurden wichtige Entscheidungen etwa zu Technik oder Vorgehensweisen vor einem solchen Ereignis getroffen, empfiehlt sich eine Neubewertung. Wie sinnhaft sind diese Vorgaben noch angesichts der neuen Faktenlage?Ebenso kritisch sind Missverständnisse und Fehlannahmen gleich zu Beginn eines Vorhabens. Sie können den Wert, die Kosten oder die Benefits eines Investments betreffen und das Projekt gefährden, noch bevor es richtig losgeht. 3. Warnzeichen übersehenWenn sich abzeichnet, dass ein Projekt die vorgegebenen Ziele weit verfehlt, sollte das alle Alarmglocken schrillen lassen, warnt Paul Rohmeyer, Director am Stevens Institute of Technology. Schließlich sollten IT Investments die Erreichung spezifischer Geschäftsziele unterstützen – oder diese erst ermöglichen. “Jeder Hinweis darauf, dass Projektziele verfehlt werden, sollte genau examiniert und das Projekt reevaluiert werden”, empfiehlt der Experte. Die Entscheidung darüber, ein Projekt zu beenden, solle jedoch mit Bedacht und Transparenz angegangen werden. Wenn die Entscheidung jedoch einmal gefallen sei, so Rohmeyer, sollte die Abwicklung so schnell wie möglich erfolgen, um weitere Ausgaben zu verhindern, und Ressourcen neu verteilen zu können.4. Stakeholder treten leisen Rückzug anWenn Key Stakeholder nahezu unbemerkt die Flucht ergreifen, ist das ein starkes Signal dafür, dass das Investment ins Leere läuft. Schwindenden Rückhalt zu erkennen, ist glücklicherweise nicht schwer: in Meetings und Konferenzen ist plötzlich keine Rede mehr von der Initiative Update Requests werden immer dringlicher Teammitglieder mit Schlüsselrollen werden plötzlich abgezogen“Das was vom Team übrigbleibt, soll das Projekt dann mit unzureichenden Ressourcen fortführen, um das Investment zu rechtfertigen”, weiß Greg Stam, Managing Director beim Digitalberatungsunternehmen Ahead, aus Erfahrung. “Beliebt ist auch eine Neujustierung des Projektinhalts.”5. Verführte ProjektmanagerEin Projekt kann wie ein Uhrwerk laufen, jedes angestrebte Ziel erreichen oder gar übererfüllen – und dennoch weit davon entfernt sein, die erhofften Vorteile etwa in Sachen Kosten, Time to market oder Produktivität zu bringen. Viele CIOs erkennen den verpassten Return on Investment RoI aber erst spät – im Regelfall ist dann bereits eine Menge Geld geflossen.Die Gründe für enttäuschende Ergebnisse sind vielfältig, wie Sebastian Grady vom Softwareanbieter Rimini Street weiß: “Manchmal handelt sich um das Lieblingsprojekt eines Einzelnen. Oder das Management will eine neue Technologie ausprobieren, weil es die anderen auch machen. Noch schlimmer ist es, wenn CIOs der Roadmap von Herstellern folgen. Solche Projekte bringen im Regelfall weder Ertrag noch Kostenreduktion oder Wettbewerbsvorteile”, konstatiert der Experte.Bei der Vorbereitung großer Projekte mit entsprechender Kostenstruktur, sei ein unbestechlicher, klarer Blick notwendig, so Grady: “Seien Sie hart zu sich selbst, widerstehen Sie den Versuchungen der großen IT-Anbieter und leiten Sie keinen Change ein, der nicht mit strategischen Prioritäten und einem klaren RoI verknüpft ist.”6. Die Nutzer senken den DaumenEin Projekt muss den betroffenen Anwendern einen Mehrwert bieten. Wenn ein einst vielversprechendes Vorhaben kein oder nur ein geringes User-Interesse erzeugt, wird es irgendwann zu einer nutzlosen Belastung für das Unternehmen. Um das zu verhindern, hilft nur eine genaue Beobachtung und die Bereitschaft zu einer zwischenzeitlichen Kurskorrektur.7. Aus der Zeit gefallenWeil Zeit und Technologieentwicklung nicht stehen bleiben, kann ein einst erfolgversprechendes Projekt relativ plötzlich nutzlos werden. Deswegen sollte jedes IT-Investment in regelmäßigen Zeitabständen daraufhin abgeklopft werden, ob es noch planmäßig den vorgesehenen Business Case unterstützt. Nur so lässt sich ermitteln, ob die Ziele noch realistisch sind. Wenn nicht, heißt es Abschied nehmen und das Vorhaben abschreiben – auch wenn es schwerfällt. (fm)15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

7 Anzeichen: Zeit, Ihr IT-Investment abzuschreiben?​ Weiterlesen »

Zehn Technologietrends, die 2025 prägen werden​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?quality=50&strip=all 6500w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=300%2C185&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=768%2C473&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1024%2C630&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1536%2C945&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=2048%2C1260&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1133%2C697&quality=50&strip=all 1133w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=273%2C168&quality=50&strip=all 273w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=137%2C84&quality=50&strip=all 137w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=780%2C480&quality=50&strip=all 780w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=585%2C360&quality=50&strip=all 585w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=406%2C250&quality=50&strip=all 406w” width=”1024″ height=”630″ sizes=”(max-width: 1024px) 100vw, 1024px”>IT-Technik entwickelt sich rasend schnell und wird viele Aspekte unseres Lebens und Arbeitens massiv verändern.Shutterstock Fraglos werden die technologischen Entwicklungen der nächsten Jahre unsere Welt verändern – mit neuen Chancen, aber auch erheblichen Herausforderungen. Das Spektrum reicht von weiteren disruptiven Entwicklungen im Bereich Künstlicher Intelligenz bis hin zu einer noch intensiveren Verflechtung von Mensch und Maschine. Die Analysten von Gartner haben zehn Trends identifiziert, die in den nächsten fünf Jahren und darüber hinaus den größten Einfluss haben werden. 1. Agentic AI Agentic AI wird der künstlichen Intelligenz mehr Eigenständigkeit verleihen, um selbstständig Ziele zu setzen und entsprechende Maßnahmen zu ergreifen. Anstatt wie bisher nur auf Nutzeranfragen zu reagieren, kann Agentic AI eigenständig komplexe Daten analysieren, Entscheidungen treffen und diese umsetzen. Ein Beispiel für Agentic AI ist die Automatisierung von Kundenerfahrungen: Nach einem Produktkauf kann die KI automatisch die Bestellhistorie analysieren, die Kommunikation überprüfen und auf Basis des Kundenverhaltens eine Folgeaktion planen. Wie zum Beispiel das Versenden einer Dankeschön-E-Mail. Dieser Prozess kann teilweise oder auch ganz ohne menschliches Eingreifen ablaufen. Was bringen KI-Agenten als Schwarm? Agentic AI wird Aufgaben und Prozesse effizienter machen, da die Technik Entscheidungen ohne menschliches Eingreifen trifft. Diese Autonomie erfordert aber auch strikte Leitplanken und eine klare Governance, um sicherzustellen, dass die KI-Agenten nur innerhalb festgelegter Grenzen agieren und damit potenzielle Risiken für Sicherheit und Datenschutz minimiert werden. Analyse von Tom Coshow und Gary Olliffe 2. AI-Governance-Plattformen Unternehmen werden zunehmend AI-Governance-Plattformen benötigen, um ihre KI-Systeme verantwortungsvoll zu steuern und zu überwachen. Diese Plattformen stellen sicher, dass KI-Systeme robust, transparent und fair arbeiten sowie die ethischen und rechtlichen Anforderungen erfüllen. Ein positives Beispiel dafür ist die Bank HSBC, die eine Governance-Struktur verwendet, um Transparenz und Rechenschaftspflicht bei der Nutzung von KI sicherzustellen. Sie überprüft regelmäßig ihre KI-Systeme auf Fairness und Datenschutz, um den gesetzlichen Regularien gerecht zu werden. GenAI schafft Datenherausforderungen: Wie Governance im KI-Zeitalter geht Mit der Einführung von AI-Governance-Plattformen sind aber auch Herausforderungen verbunden: Die schnelle Entwicklung innerhalb der KI-Technologie und das Fehlen einheitlicher Standards machen es schwer, eine zukunftssichere Governance zu etablieren. Bei der Schnelllebigkeit der Entwicklungen müssen Organisationen ihre Strategien fortlaufend anpassen, um technische und gesellschaftliche Anforderungen zu erfüllen, und so den Missbrauch von KI zu verhindern. Analyse von Jasleen Kaur Sindhu, Moutusi Sau, Svetlana Sicular 3. Disinformation Security Disinformation Security stärkt Vertrauen in digitale Kommunikation, Identität und Reputation. Da Fehlinformationen und generative KI immer verbreiteter werden, wird der Schutz vor solchen Bedrohungen zunehmend wichtiger. Gelegen kommen da Technologien zur Desinformationssicherheit, da sie Methoden zur Sicherstellung der Integrität, Prüfung der Authentizität und Verhinderung von Identitätsdiebstahl bieten. Ein Beispiel dafür ist der Einsatz von Deepfake-Erkennung in Verifizierungsprozessen, um Betrug zu verhindern. Die Folgen dieses Trends sind erheblich: Unternehmen müssen Strategien entwickeln, um Desinformationen zu bekämpfen. Am besten gelingt das mit dem Aufbau von Teams zur Bedrohungserkennung, sowie dem Einsatz von Technologien zur Risikobewertung. Betriebe müssen ihre Markenreputation besser schützen, indem schädliche Narrative früh erkannt und Gegenmaßnahmen eingeleitet werden. Dabei sind technologische und organisatorische Maßnahmen entscheidend, um Unternehmen zu schützen. Analyse von Dan Ayoub und Akif Khan 4. Postquanten-Kryptografie Postquantum-Kryptographie (PQC) erlangt eine immer größer werdende Bedeutung, da die derzeitigen herkömmlichen Verschlüsselungsmethoden bis 2029 durch Quantencomputer unsicher werden. Quantencomputer können Mechanismen wie RSA und ECC knacken. Die Folge: die Datensicherheit ist gefährdet. Unternehmen müssen deshalb auf quantensichere Algorithmen umstellen, um ihre Daten zu schützen. Dabei sollen die Algorithmen den Angriffen von klassischen und Quantencomputern standhalten. Allerdings ist der Wechsel mit einem großen Aufwand verbunden, er erfordert Zeit und Planung. Ein Beispiel ist die Umstellung auf NIST-standardisierte Algorithmen wie CRYSTALS-Kyber und SPHINCS+. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4tgPAtbBoDbbMgQbQ6beWB?utm_source=oembed”> Die Umstellung auf Postquantum-Kryptographie bringt Herausforderungen mit sich. Unternehmen müssen ihre Verschlüsselungssysteme anpassen, da die neuen Algorithmen größere Schlüsselgrößen und längere Verschlüsselungszeiten haben. Da der Übergang Jahre dauern kann, sollte frühzeitig mit der entsprechenden Planung begonnen werden. Analyse von Mark Horvath und Bart Willemsen 5. Ambient Invisible Intelligence Ambient Invisible Intelligence verwendet kleine, günstige Tags und Sensoren, um Objekte großflächig und kostengünstig zu verfolgen. Dadurch erhalten Unternehmen neue Einblicke in Geschäftsprozesse. Ein Beispiel: Die Erfassung von Inventar in Echtzeit, um Kosten zu senken und die Effizienz zu steigern. Auch Produktverifizierung und digitale Produktpässe werden dadurch möglich. Intelligente Verpackungen könnten mit Haushaltsgeräten kommunizieren, Kleidung die Infos für die perfekte Pflege direkt an Waschmaschinen senden. Eine große Herausforderung ist allerdings der Datenschutz. So könnten getrackte Objekte in den Besitz von Endnutzern übergehen, wodurch eine unbemerkte Weiterverfolgung möglich wäre. Unternehmen müssen sicherstellen, dass die Technologie bei Bedarf deaktiviert werden kann. Auch die damit verbundene langfristige Speicherung von Daten muss kritisch geprüft, hinterfragt und reguliert werden. Analyse von Nick Jones 6. Energieeffizientes Computing Nachhaltige IT ist möglich. Aber um das zu erreichen, muss die Energieeffizienz von IT-Anwendungen verbessert werden – besonders bei energieintensiven Aufgaben wie KI-Training. Dabei reicht es nicht, bestehende Infrastrukturen zu optimieren – neue, energieeffiziente Technologien sind nötig. Ein Beispiel ist der Einsatz von optischen oder neuromorphen Systemen, die den Energieverbrauch deutlich senken können. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7BIW9sHJFkP7rKCnTjwvrO?utm_source=oembed”> Wie können Unternehmen IT nachhaltiger gestalten? Die Antwort: mit Hilfe von Cloud-Migration, energieeffizienter Hardware und grüneren Energiequellen. Langfristig sind jedoch radikale Ansätze wie optisches oder DNA-basiertes Computing erforderlich. Mögliche Herausforderungen sind dabei hohe Einführungskosten, eine komplexere IT-Landschaft und die Sicherstellung von Datenschutz und Sicherheit. Analyse von Nick Jones 7. Hybrid Computing Hybrid Computing bezeichnet die Kombination verschiedener Rechenmechanismen, um die Stärken jedes Systems optimal zu nutzen. Durch die Verbindung von Technologien wie CPUs, GPUs, quantenbasierten, neuromorphen und photonischen Computern eröffnen sich Unternehmen neue Möglichkeiten, Rechenaufgaben effizienter zu bewältigen. Ein Beispiel: die Synthese von photonischen und klassischen Rechenmechanismen, um komplexe Optimierungsprobleme zu lösen, die mit herkömmlicher Technik nicht möglich wären. Auch die Nutzung von Quantencomputing für die Entdeckung neuer Medikamente oder in der Materialforschung zeigt das Potenzial dieser Technologie. Die Integration von Technologien wie biobasiertem Computing oder neuromorphen Systemen ermöglicht es, den Nutzen von Rechenlösungen noch weiter auszubauen. Die Einführung von Hybrid Computing ist komplex und erfordert spezielle Kenntnisse, da viele der verwendeten Technologien noch im Entwicklungsstadium stecken. Zudem benötigen hybride Umgebungen eine starke Orchestrierung, um die verschiedenen Recheneinheiten effektiv zu steuern. Dabei fallen häufig Probleme im Bereich der Sicherheit und des Datenschutzes an, da hybride Systeme aus vielen miteinander kommunizierenden Komponenten bestehen. Diese Herausforderung müssen Unternehmen leisten. Analyse von Soyeb Barot und Frank Buytendijk 8. Spatial Computing Spatial Computing erweitert die physische Welt durch digitale Inhalte, die in der realen Umgebung verankert werden. Auf diese Weise ermöglicht es die Technologie den Nutzern, mit digitalen Elementen in einer realistischen und intuitiven Weise zu interagieren. Dadurch können immersive Erlebnisse geschaffen werden, die besonders für Bereiche wie Forschung und Entwicklung, Produktdesign, Fertigung, Gesundheitswesen und Bildung revolutionär sein können. So etwa die Nutzung von Augmented Reality (AR) in der Ausbildung, bei der medizinische Studierende komplexe Eingriffe an virtuellen Patienten üben können. Die Einführung von Spatial Computing ist allerdings komplex und teuer, da spezielle Geräte wie Head-Mounted Displays (HMDs) benötigt werden, die schwer sind und viel Energie benötigen.  Zudem zeichnet Spatial Computing Nutzerinformationen auf, die sicher verarbeitet werden müssen. Auch die Entwicklung von Standards und Protokollen ist notwendig, um eine einheitliche Nutzung und Integration dieser Technologie zu ermöglichen. Analyse von Marty Resnick 9. Polyfunktionale Roboter Polyfunktionale Roboter sind Maschinen, die in der Lage sind, mehrere Aufgaben zu übernehmen, indem sie menschlichen Anweisungen oder Beispielen folgen. Ihre Vielseitigkeit sowie neuartige Bauformen ermöglichen eine schnelle und kostengünstige Einführung. Diese Roboter können Aufgaben übernehmen, die bisher menschlichen Arbeitskräften vorbehalten waren, und sie sind darüber hinaus flexibel einsetzbar, was die Rentabilität steigert. Ein Beispiel ist der Flughafeninspektionsroboter von Roboxi, der die Start- und Landebahnen überwacht. Er kann etwa die Beleuchtung überprüfen, Fremdkörper entfernen und Tiere vertreiben. Einsatz bei BMW und Mercedes-Benz: Humanoide Roboter kommen 2025 Die Nutzung in menschlichen Umgebungen erfordert allerdings hohe Sicherheitsstandards, damit der Einsatz von Robotern kein Risiko darstellt. Da die Technologie komplex ist und besondere Fähigkeiten erfordert, müssen Unternehmen ihre Mitarbeitenden schulen, um das volle Potenzial der Roboter zu nutzen. Analyse von Bill Ray und Nick Jones 10. Neurologische Verbesserungen Neurologische Verbesserung nutzt bidirektionale Gehirn-Maschine-Schnittstellen. Auf diese Weise können Signale zwischen dem menschlichen Gehirn und Maschinen übertragen werden. Damit kann das Gehirn „gelesen“ und auch „beschrieben“ werden. Diese Technologie hat das Potenzial, sowohl die Leistung von Mitarbeitenden zu steigern als auch neue medizinische Behandlungsmöglichkeiten zu schaffen. Augmented Connected Workforce: Wir werden alle Cyborgs Denn mit neurologischer Verbesserung lassen sich die kognitiven Fähigkeiten steigern, wie zum Beispiel die Gedächtniskraft, die Konzentration und das Lernen. Ein Anwendungsbeispiel hierfür: Geräte, die Hirnströme messen und elektrische Impulse zur Entspannung senden, um Stress zu reduzieren. Auch Menschen mit körperlichen Einschränkungen, wie etwa Lähmungen, können von dieser Technologie profitieren. Denn die Technik kann helfen, verlorene Fähigkeiten wiederherzustellen. Die Einführung neurologischer Verbesserungen bringt jedoch große Herausforderungen mit sich: Da diese Technologie direkt mit dem menschlichen Gehirn verbunden ist, ergeben sich große Sicherheits- und Datenschutzrisiken. Zudem könnte der Einsatz von Implantaten und Hirnschnittstellen ethische Bedenken hervorrufen, insbesondere im Hinblick auf die Veränderung von Gedanken und Persönlichkeiten. Analyse von Sylvain Fabre und Frank Buytendijk Fazit Ob die zunehmende Integration von KI, neue Rechenmethoden oder die immer engere Mensch-Maschine-Verknüpfung – die neuen Trendtechnologien eröffnen Organisationen zusätzliche Möglichkeiten, bringen aber auch neue Herausforderungen mit sich. Insbesondere in Bezug auf Ethik und Datenschutz bergen die Technologien einige Risiken. Wer hier Erfolg haben möchte, der muss diese Trends nicht nur verstehen, sondern auch äußerst verantwortungsvoll mit den neuen Technologien umgehen. Diese Balance zwischen Fortschritt und verantwortungsvollem Handeln wird entscheidend für die weitere technische Entwicklung in einer sich rasch verändernden Welt sein. Um zukunftsfähig zu bleiben, sollten Unternehmen nicht nur in die Technologie selbst, sondern auch in die Schulung ihrer Mitarbeitenden, die Entwicklung ethischer Leitlinien und den Aufbau einer nachhaltigen Infrastruktur investieren. Nur so werden sie das volle Potenzial dieser Trends ausschöpfen können. 

Zehn Technologietrends, die 2025 prägen werden​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?quality=50&strip=all 6500w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=300%2C185&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=768%2C473&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1024%2C630&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1536%2C945&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=2048%2C1260&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=1133%2C697&quality=50&strip=all 1133w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=273%2C168&quality=50&strip=all 273w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=137%2C84&quality=50&strip=all 137w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=780%2C480&quality=50&strip=all 780w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=585%2C360&quality=50&strip=all 585w, https://b2b-contenthub.com/wp-content/uploads/2024/09/shutterstock_1451498966-1.jpg?resize=406%2C250&quality=50&strip=all 406w” width=”1024″ height=”630″ sizes=”(max-width: 1024px) 100vw, 1024px”>IT-Technik entwickelt sich rasend schnell und wird viele Aspekte unseres Lebens und Arbeitens massiv verändern.Shutterstock

Fraglos werden die technologischen Entwicklungen der nächsten Jahre unsere Welt verändern – mit neuen Chancen, aber auch erheblichen Herausforderungen. Das Spektrum reicht von weiteren disruptiven Entwicklungen im Bereich Künstlicher Intelligenz bis hin zu einer noch intensiveren Verflechtung von Mensch und Maschine. Die Analysten von Gartner haben zehn Trends identifiziert, die in den nächsten fünf Jahren und darüber hinaus den größten Einfluss haben werden.

1. Agentic AI

Agentic AI wird der künstlichen Intelligenz mehr Eigenständigkeit verleihen, um selbstständig Ziele zu setzen und entsprechende Maßnahmen zu ergreifen. Anstatt wie bisher nur auf Nutzeranfragen zu reagieren, kann Agentic AI eigenständig komplexe Daten analysieren, Entscheidungen treffen und diese umsetzen. Ein Beispiel für Agentic AI ist die Automatisierung von Kundenerfahrungen: Nach einem Produktkauf kann die KI automatisch die Bestellhistorie analysieren, die Kommunikation überprüfen und auf Basis des Kundenverhaltens eine Folgeaktion planen. Wie zum Beispiel das Versenden einer Dankeschön-E-Mail. Dieser Prozess kann teilweise oder auch ganz ohne menschliches Eingreifen ablaufen.

Was bringen KI-Agenten als Schwarm?

Agentic AI wird Aufgaben und Prozesse effizienter machen, da die Technik Entscheidungen ohne menschliches Eingreifen trifft. Diese Autonomie erfordert aber auch strikte Leitplanken und eine klare Governance, um sicherzustellen, dass die KI-Agenten nur innerhalb festgelegter Grenzen agieren und damit potenzielle Risiken für Sicherheit und Datenschutz minimiert werden.

Analyse von Tom Coshow und Gary Olliffe

2. AI-Governance-Plattformen

Unternehmen werden zunehmend AI-Governance-Plattformen benötigen, um ihre KI-Systeme verantwortungsvoll zu steuern und zu überwachen. Diese Plattformen stellen sicher, dass KI-Systeme robust, transparent und fair arbeiten sowie die ethischen und rechtlichen Anforderungen erfüllen. Ein positives Beispiel dafür ist die Bank HSBC, die eine Governance-Struktur verwendet, um Transparenz und Rechenschaftspflicht bei der Nutzung von KI sicherzustellen. Sie überprüft regelmäßig ihre KI-Systeme auf Fairness und Datenschutz, um den gesetzlichen Regularien gerecht zu werden.

GenAI schafft Datenherausforderungen: Wie Governance im KI-Zeitalter geht

Mit der Einführung von AI-Governance-Plattformen sind aber auch Herausforderungen verbunden: Die schnelle Entwicklung innerhalb der KI-Technologie und das Fehlen einheitlicher Standards machen es schwer, eine zukunftssichere Governance zu etablieren. Bei der Schnelllebigkeit der Entwicklungen müssen Organisationen ihre Strategien fortlaufend anpassen, um technische und gesellschaftliche Anforderungen zu erfüllen, und so den Missbrauch von KI zu verhindern.

Analyse von Jasleen Kaur Sindhu, Moutusi Sau, Svetlana Sicular

3. Disinformation Security

Disinformation Security stärkt Vertrauen in digitale Kommunikation, Identität und Reputation. Da Fehlinformationen und generative KI immer verbreiteter werden, wird der Schutz vor solchen Bedrohungen zunehmend wichtiger. Gelegen kommen da Technologien zur Desinformationssicherheit, da sie Methoden zur Sicherstellung der Integrität, Prüfung der Authentizität und Verhinderung von Identitätsdiebstahl bieten. Ein Beispiel dafür ist der Einsatz von Deepfake-Erkennung in Verifizierungsprozessen, um Betrug zu verhindern.

Die Folgen dieses Trends sind erheblich: Unternehmen müssen Strategien entwickeln, um Desinformationen zu bekämpfen. Am besten gelingt das mit dem Aufbau von Teams zur Bedrohungserkennung, sowie dem Einsatz von Technologien zur Risikobewertung. Betriebe müssen ihre Markenreputation besser schützen, indem schädliche Narrative früh erkannt und Gegenmaßnahmen eingeleitet werden. Dabei sind technologische und organisatorische Maßnahmen entscheidend, um Unternehmen zu schützen.

Analyse von Dan Ayoub und Akif Khan

4. Postquanten-Kryptografie

Postquantum-Kryptographie (PQC) erlangt eine immer größer werdende Bedeutung, da die derzeitigen herkömmlichen Verschlüsselungsmethoden bis 2029 durch Quantencomputer unsicher werden. Quantencomputer können Mechanismen wie RSA und ECC knacken. Die Folge: die Datensicherheit ist gefährdet. Unternehmen müssen deshalb auf quantensichere Algorithmen umstellen, um ihre Daten zu schützen. Dabei sollen die Algorithmen den Angriffen von klassischen und Quantencomputern standhalten. Allerdings ist der Wechsel mit einem großen Aufwand verbunden, er erfordert Zeit und Planung. Ein Beispiel ist die Umstellung auf NIST-standardisierte Algorithmen wie CRYSTALS-Kyber und SPHINCS+.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4tgPAtbBoDbbMgQbQ6beWB?utm_source=oembed”>

Die Umstellung auf Postquantum-Kryptographie bringt Herausforderungen mit sich. Unternehmen müssen ihre Verschlüsselungssysteme anpassen, da die neuen Algorithmen größere Schlüsselgrößen und längere Verschlüsselungszeiten haben. Da der Übergang Jahre dauern kann, sollte frühzeitig mit der entsprechenden Planung begonnen werden.

Analyse von Mark Horvath und Bart Willemsen

5. Ambient Invisible Intelligence

Ambient Invisible Intelligence verwendet kleine, günstige Tags und Sensoren, um Objekte großflächig und kostengünstig zu verfolgen. Dadurch erhalten Unternehmen neue Einblicke in Geschäftsprozesse. Ein Beispiel: Die Erfassung von Inventar in Echtzeit, um Kosten zu senken und die Effizienz zu steigern. Auch Produktverifizierung und digitale Produktpässe werden dadurch möglich. Intelligente Verpackungen könnten mit Haushaltsgeräten kommunizieren, Kleidung die Infos für die perfekte Pflege direkt an Waschmaschinen senden.

Eine große Herausforderung ist allerdings der Datenschutz. So könnten getrackte Objekte in den Besitz von Endnutzern übergehen, wodurch eine unbemerkte Weiterverfolgung möglich wäre. Unternehmen müssen sicherstellen, dass die Technologie bei Bedarf deaktiviert werden kann. Auch die damit verbundene langfristige Speicherung von Daten muss kritisch geprüft, hinterfragt und reguliert werden.

Analyse von Nick Jones

6. Energieeffizientes Computing

Nachhaltige IT ist möglich. Aber um das zu erreichen, muss die Energieeffizienz von IT-Anwendungen verbessert werden – besonders bei energieintensiven Aufgaben wie KI-Training. Dabei reicht es nicht, bestehende Infrastrukturen zu optimieren – neue, energieeffiziente Technologien sind nötig. Ein Beispiel ist der Einsatz von optischen oder neuromorphen Systemen, die den Energieverbrauch deutlich senken können.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7BIW9sHJFkP7rKCnTjwvrO?utm_source=oembed”>

Wie können Unternehmen IT nachhaltiger gestalten? Die Antwort: mit Hilfe von Cloud-Migration, energieeffizienter Hardware und grüneren Energiequellen. Langfristig sind jedoch radikale Ansätze wie optisches oder DNA-basiertes Computing erforderlich. Mögliche Herausforderungen sind dabei hohe Einführungskosten, eine komplexere IT-Landschaft und die Sicherstellung von Datenschutz und Sicherheit.

Analyse von Nick Jones

7. Hybrid Computing

Hybrid Computing bezeichnet die Kombination verschiedener Rechenmechanismen, um die Stärken jedes Systems optimal zu nutzen. Durch die Verbindung von Technologien wie CPUs, GPUs, quantenbasierten, neuromorphen und photonischen Computern eröffnen sich Unternehmen neue Möglichkeiten, Rechenaufgaben effizienter zu bewältigen.

Ein Beispiel: die Synthese von photonischen und klassischen Rechenmechanismen, um komplexe Optimierungsprobleme zu lösen, die mit herkömmlicher Technik nicht möglich wären. Auch die Nutzung von Quantencomputing für die Entdeckung neuer Medikamente oder in der Materialforschung zeigt das Potenzial dieser Technologie. Die Integration von Technologien wie biobasiertem Computing oder neuromorphen Systemen ermöglicht es, den Nutzen von Rechenlösungen noch weiter auszubauen.

Die Einführung von Hybrid Computing ist komplex und erfordert spezielle Kenntnisse, da viele der verwendeten Technologien noch im Entwicklungsstadium stecken. Zudem benötigen hybride Umgebungen eine starke Orchestrierung, um die verschiedenen Recheneinheiten effektiv zu steuern. Dabei fallen häufig Probleme im Bereich der Sicherheit und des Datenschutzes an, da hybride Systeme aus vielen miteinander kommunizierenden Komponenten bestehen. Diese Herausforderung müssen Unternehmen leisten.

Analyse von Soyeb Barot und Frank Buytendijk

8. Spatial Computing

Spatial Computing erweitert die physische Welt durch digitale Inhalte, die in der realen Umgebung verankert werden. Auf diese Weise ermöglicht es die Technologie den Nutzern, mit digitalen Elementen in einer realistischen und intuitiven Weise zu interagieren. Dadurch können immersive Erlebnisse geschaffen werden, die besonders für Bereiche wie Forschung und Entwicklung, Produktdesign, Fertigung, Gesundheitswesen und Bildung revolutionär sein können. So etwa die Nutzung von Augmented Reality (AR) in der Ausbildung, bei der medizinische Studierende komplexe Eingriffe an virtuellen Patienten üben können.

Die Einführung von Spatial Computing ist allerdings komplex und teuer, da spezielle Geräte wie Head-Mounted Displays (HMDs) benötigt werden, die schwer sind und viel Energie benötigen.  Zudem zeichnet Spatial Computing Nutzerinformationen auf, die sicher verarbeitet werden müssen. Auch die Entwicklung von Standards und Protokollen ist notwendig, um eine einheitliche Nutzung und Integration dieser Technologie zu ermöglichen.

Analyse von Marty Resnick

9. Polyfunktionale Roboter

Polyfunktionale Roboter sind Maschinen, die in der Lage sind, mehrere Aufgaben zu übernehmen, indem sie menschlichen Anweisungen oder Beispielen folgen. Ihre Vielseitigkeit sowie neuartige Bauformen ermöglichen eine schnelle und kostengünstige Einführung. Diese Roboter können Aufgaben übernehmen, die bisher menschlichen Arbeitskräften vorbehalten waren, und sie sind darüber hinaus flexibel einsetzbar, was die Rentabilität steigert. Ein Beispiel ist der Flughafeninspektionsroboter von Roboxi, der die Start- und Landebahnen überwacht. Er kann etwa die Beleuchtung überprüfen, Fremdkörper entfernen und Tiere vertreiben.

Einsatz bei BMW und Mercedes-Benz: Humanoide Roboter kommen 2025

Die Nutzung in menschlichen Umgebungen erfordert allerdings hohe Sicherheitsstandards, damit der Einsatz von Robotern kein Risiko darstellt. Da die Technologie komplex ist und besondere Fähigkeiten erfordert, müssen Unternehmen ihre Mitarbeitenden schulen, um das volle Potenzial der Roboter zu nutzen.

Analyse von Bill Ray und Nick Jones

10. Neurologische Verbesserungen

Neurologische Verbesserung nutzt bidirektionale Gehirn-Maschine-Schnittstellen. Auf diese Weise können Signale zwischen dem menschlichen Gehirn und Maschinen übertragen werden. Damit kann das Gehirn „gelesen“ und auch „beschrieben“ werden. Diese Technologie hat das Potenzial, sowohl die Leistung von Mitarbeitenden zu steigern als auch neue medizinische Behandlungsmöglichkeiten zu schaffen.

Augmented Connected Workforce: Wir werden alle Cyborgs

Denn mit neurologischer Verbesserung lassen sich die kognitiven Fähigkeiten steigern, wie zum Beispiel die Gedächtniskraft, die Konzentration und das Lernen. Ein Anwendungsbeispiel hierfür: Geräte, die Hirnströme messen und elektrische Impulse zur Entspannung senden, um Stress zu reduzieren. Auch Menschen mit körperlichen Einschränkungen, wie etwa Lähmungen, können von dieser Technologie profitieren. Denn die Technik kann helfen, verlorene Fähigkeiten wiederherzustellen.

Die Einführung neurologischer Verbesserungen bringt jedoch große Herausforderungen mit sich: Da diese Technologie direkt mit dem menschlichen Gehirn verbunden ist, ergeben sich große Sicherheits- und Datenschutzrisiken. Zudem könnte der Einsatz von Implantaten und Hirnschnittstellen ethische Bedenken hervorrufen, insbesondere im Hinblick auf die Veränderung von Gedanken und Persönlichkeiten.

Analyse von Sylvain Fabre und Frank Buytendijk

Fazit

Ob die zunehmende Integration von KI, neue Rechenmethoden oder die immer engere Mensch-Maschine-Verknüpfung – die neuen Trendtechnologien eröffnen Organisationen zusätzliche Möglichkeiten, bringen aber auch neue Herausforderungen mit sich. Insbesondere in Bezug auf Ethik und Datenschutz bergen die Technologien einige Risiken. Wer hier Erfolg haben möchte, der muss diese Trends nicht nur verstehen, sondern auch äußerst verantwortungsvoll mit den neuen Technologien umgehen. Diese Balance zwischen Fortschritt und verantwortungsvollem Handeln wird entscheidend für die weitere technische Entwicklung in einer sich rasch verändernden Welt sein.

Um zukunftsfähig zu bleiben, sollten Unternehmen nicht nur in die Technologie selbst, sondern auch in die Schulung ihrer Mitarbeitenden, die Entwicklung ethischer Leitlinien und den Aufbau einer nachhaltigen Infrastruktur investieren. Nur so werden sie das volle Potenzial dieser Trends ausschöpfen können.

Zehn Technologietrends, die 2025 prägen werden​ Weiterlesen »

Schreibtisch-Fitness für zwischendurch​

Allgemein

Übung für die Halswirbelsäule.Bundesministerium für Gesundheit Wenn man wieder den ganzen Tag am Schreibtisch verbracht hat, sind Verspannungen häufig programmiert. Zu wenig Bewegung und eine falsche Sitzhaltung machen alles noch viel schlimmer. Das Bundesministerium für Gesundheit hat mit “Pauls Schreibtischübungen” ein Bewegungsprogramm entworfen, das Sie während der Arbeit am Schreibtisch durchführen können. Der Zeitaufwand beträgt nur wenige Minuten. Diese Übung stärkt die Halswirbelsäule. Sitzen Sie gerade und legen Sie Ihre Hände entspannt auf die Oberschenkel. Beim Einatmen den Kopf nach rechts drehen und das Kinn anheben. Beim Ausatmen den Kopf geradeaus und nach vorne beugen. Beim Einatmen den Kopf nach links drehen und das Kinn wieder anheben. Fünf Wiederholungen. Übung für den Schultergürtel.Bundesministerium für Gesundheit Diese Übung trainiert den Schultergürtel. Sitzen Sie gerade und legen Sie Ihre Hände entspannt auf die Oberschenkel. Nehmen Sie die Schultern nach vorne. Heben Sie sie dann beim Einatmen an und bewegen Sie sie nach hinten. Lassen Sie die Schultern beim Ausatmen fallen. Fünf Wiederholungen. Übung für den Schultergürtel und die Brustwirbelsäule.Bundesministerium für Gesundheit Diese Übung stärkt den Schultergürtel und die Brustwirbelsäule. Lassen Sie Ihre Arme entspannt neben den Oberschenkeln hängen. Beim Ausatmen die Schultern nach vorne fallen lassen und dabei die Daumen nach innen drehen. Beim Einatmen die Schultern nach hinten nehmen und dabei die Daumen nach außen drehen. Beim Einatmen die Schultern nach vorne fallen lassen und dabei die Daumen nach innen drehen. Fünf Wiederholungen. Übungen als Film und Bildschirmschoner Übung für die Lendenwirbelsäule.Bundesministerium für Gesundheit Diese Übung zielt auf die Lendenwirbelsäule. Sitzen Sie gerade auf dem Schreibtischstuhl und legen Sie die Hände hinter dem Rücken übereinander. Beim Einatmen die Hände durch Anspannung der Bauch- und Gesäßmuskeln mit dem Körper gegen die Lehne drücken. Beim Ausatmen die Muskeln entspannen und den Druck lösen. Fünf Wiederholungen. Übung für Arme, Hände und Finger.Bundesministerium für Gesundheit Diese Übung trainiert Arme, Hände und Finger. Strecken Sie die Arme lang nach vorne. Nun abwechselnd die Finger weit auseinander spreizen und die Hände zu einer Faust schließen. Während dieser Bewegung die Arme abwechselnd heben. Fünf Wiederholungen. (cio.de) 

Schreibtisch-Fitness für zwischendurch​ Übung für die Halswirbelsäule.Bundesministerium für Gesundheit

Wenn man wieder den ganzen Tag am Schreibtisch verbracht hat, sind Verspannungen häufig programmiert. Zu wenig Bewegung und eine falsche Sitzhaltung machen alles noch viel schlimmer. Das Bundesministerium für Gesundheit hat mit “Pauls Schreibtischübungen” ein Bewegungsprogramm entworfen, das Sie während der Arbeit am Schreibtisch durchführen können. Der Zeitaufwand beträgt nur wenige Minuten.

Diese Übung stärkt die Halswirbelsäule. Sitzen Sie gerade und legen Sie Ihre Hände entspannt auf die Oberschenkel. Beim Einatmen den Kopf nach rechts drehen und das Kinn anheben. Beim Ausatmen den Kopf geradeaus und nach vorne beugen. Beim Einatmen den Kopf nach links drehen und das Kinn wieder anheben. Fünf Wiederholungen.

Übung für den Schultergürtel.Bundesministerium für Gesundheit

Diese Übung trainiert den Schultergürtel. Sitzen Sie gerade und legen Sie Ihre Hände entspannt auf die Oberschenkel. Nehmen Sie die Schultern nach vorne. Heben Sie sie dann beim Einatmen an und bewegen Sie sie nach hinten. Lassen Sie die Schultern beim Ausatmen fallen. Fünf Wiederholungen.

Übung für den Schultergürtel und die Brustwirbelsäule.Bundesministerium für Gesundheit

Diese Übung stärkt den Schultergürtel und die Brustwirbelsäule. Lassen Sie Ihre Arme entspannt neben den Oberschenkeln hängen. Beim Ausatmen die Schultern nach vorne fallen lassen und dabei die Daumen nach innen drehen. Beim Einatmen die Schultern nach hinten nehmen und dabei die Daumen nach außen drehen. Beim Einatmen die Schultern nach vorne fallen lassen und dabei die Daumen nach innen drehen. Fünf Wiederholungen.

Übungen als Film und Bildschirmschoner

Übung für die Lendenwirbelsäule.Bundesministerium für Gesundheit

Diese Übung zielt auf die Lendenwirbelsäule. Sitzen Sie gerade auf dem Schreibtischstuhl und legen Sie die Hände hinter dem Rücken übereinander. Beim Einatmen die Hände durch Anspannung der Bauch- und Gesäßmuskeln mit dem Körper gegen die Lehne drücken. Beim Ausatmen die Muskeln entspannen und den Druck lösen. Fünf Wiederholungen.

Übung für Arme, Hände und Finger.Bundesministerium für Gesundheit

Diese Übung trainiert Arme, Hände und Finger. Strecken Sie die Arme lang nach vorne. Nun abwechselnd die Finger weit auseinander spreizen und die Hände zu einer Faust schließen. Während dieser Bewegung die Arme abwechselnd heben. Fünf Wiederholungen.

(cio.de)

Schreibtisch-Fitness für zwischendurch​ Weiterlesen »

Schlimme IT-Unsitten im Büro​

Allgemein

oneinchpunch – shutterstock.com Jeder hat irgendeine schlechte Angewohnheit. Der eine ist ein notorischer Zuspätkommer, der andere kaut Nägel und ein Dritter räumt nie auf. Auch IT sorgt für zahlreiche unangenehme Eigenarten: Über laute Telefonierer in Bus oder Bahn oder den SMS-Junkie beim gemeinsamen Bar- oder Kantinenbesuch hat sich sicher jeder schon einmal geärgert. Oder muss sich selbst eingestehen, dass man sich mit dem Smartphone auch solche schlechten Manieren angewöhnt hat.In unserer Bildergalerie finden Sie einen Überblick über die 18 schlimmsten IT-Unsitten. Sie reichen vom schmutzigen Equipment über schlechte Haltung bei der Arbeit an PC oder Laptop bis zum lausigen Umgang mit Backups und Passwörtern. Am Esstisch SMS schreiben Egal ob zuhause, in der Kantine oder im Restaurant: Es ist den Begleitern gegenüber unhöflich, sich nicht mit ihnen sondern mit dem Smartphone zu beschäftigen. Wer dringend einen Anruf beantworten muss, steht auf und geht nach nebenan oder vor die Tür. Equipment achtlos liegenlassen Wer im Café am Laptop arbeitet, sollte nicht mal eben aufstehen, um sich noch ein Getränk zu holen oder zur Toilette zu gehen. Damit spricht man eine Einladung an Diebe aus. Auch an den Sicherheitsschleusen an Flughäfen sollte man Laptop oder iPad nicht aus den Augen lassen. Man sollte sein Equipment nie unbeaufsichtigt lassen. Alles ausdrucken Täglich bekommt man so viele E-Mails mit dem Hinweis, dass man sich der Umwelt zuliebe gut überlegen soll, ob man die Nachricht nun druckt oder nicht. Trotzdem gibt es Unverbesserliche, die sich täglich stapelweise Dokumente ausdrucken. Wer dazugehört, sollte für eine Woche versuchen, so wenig zu drucken wie möglich. Vielleicht merkt man dann, dass es das viele Papier überhaupt nicht braucht. Updates vernachlässigen Software-Updates werden stets aus gutem Grund veröffentlicht, etwa zum Schließen von Sicherheitslücken. Deshalb sollte man sie auch installieren und darauf achten, aktuelle Versionen zu nutzen. Man könnte zum Beispiel einmal wöchentlich zu einem festen Termin prüfen, ob Updates installiert werden müssen und dies dann direkt erledigen. Geräte mit schmutzigen Fingern benutzen Wer sein iPhone schon einmal einem Kleinkind in die Hand gedrückt hat, hat es vielleicht feucht, angekrümelt oder mit Schokoladenflecken zurückbekommen. Doch viele erwachsene Smartphone-Nutzer machen es nicht besser. Manche behaupten, Tastaturen und Smartphones wären verschmutzter als Toiletten. Deshalb sollte man sie auch regelmäßig, am besten täglich, reinigen. Zu mitteilsam in sozialen Netzwerken Berufliches und Privates verschwimmen mittlerweile so sehr, dass man sich ganz genau überlegen sollte, welche Fotos und Neuigkeiten man bei Facebook und Twitter mit wem teilt. Mit dem Laptop auf dem Schoß arbeiten Das Wort Laptop sollte man im täglichen Gebrauch nicht wörtlich nehmen und das Gerät immer direkt auf dem Schoß platzieren. Denn die Erwärmung kann unerwünschte Folgen haben. Die Strahlungswärme der Mobilrechner kann zum Beispiel die Fruchtbarkeit von Männern beeinträchtigen, wenn diese ihr Gerät regelmäßig direkt auf dem Schoß benutzen, zeigen Studienergebnisse. Helfen kann zum Beispiel eine spezielle Laptop-Unterlage. Das Smartphone nicht stumm schalten Heutzutage beginnen fast alle Vorträge, Theater- oder Kinovorstellungen mit einem Appell an das Publikum, die Handys lautlos zu schalten. Man kann nicht das Verhalten anderer beeinflussen aber zumindest dafür sorgen, dass man nicht selbst derjenige ist, der während einer Veranstaltung hektisch in der Tasche nach seinem klingelnden Smartphone sucht. Die FAQs nicht lesen Bei PC-Problemen ist man oft versucht, sich direkt den Telefonhörer zu schnappen und den Support anzurufen oder per Mail oder Chat seine Anfrage an die IT zu richten. Bevor man viel Zeit und Nerven mit der Warteschleife verschwendet, liest man aber lieber erst einmal die FAQs, die der Arbeitgeber häufig zu IT-Themen bereitstellt. Oft lässt sich das Problem so ganz ohne die Hilfe des IT-Supports lösen. Keine Pausen machen 40 Prozent der Deutschen lassen für den Job oft ihre Pause ausfallen. Dabei belegen mehrere Studien die positiven Effekte schon kleiner Unterbrechungen. Deshalb sollte man auch bei viel Arbeit an regelmäßige Bildschirmpausen denken und kurz pausieren. Minipausen zwischen einer halben Minute und fünf Minuten sollen die geistige Aktivität um durchschnittlich 13 Prozent verbessern. Einen Account mit mehreren Nutzern teilen Teilt man den PC daheim mit der Familie und nutzt nur einen einzigen Account, kann es schon mal vorkommen, dass die Kinder eine E-Mail an den Chef schicken. Lieber sollte man mehrere Accounts einrichten und darauf achten, den Kindern keine Administratorenrechte einzuräumen. So lässt sich vermeiden, dass unerwünschte Software installiert wird. Keine Backups durchführen Der Datengau kann ganz unterschiedliche Ursachen haben: einen Hardwarefehler, Malware oder vielleicht einen gestohlenen Laptop. Egal was es ist, man ist froh, wenn man an regelmäßige Backups gedacht hat. Viele Backup-Systeme laufen nach ersten Einstellungen automatisiert, was den zeitlichen Aufwand stark begrenzt. Schlampig mit Passwörtern umgehen Viele gehen bei der Vergabe von Passwörtern den Weg der Bequemlichkeit und nutzen Passwörter mehrfach. Das bereut man spätestens dann, wenn man Opfer eines Hacker-Angriffs wurde. Deshalb sollte man sich immer die Mühe machen, Passwörter nur einmal zu nutzen. IT-Equipment im Hausmüll entsorgen Immer wieder kommt es vor, dass ausgemusterte Laptops, Smartphones oder Kabel im Hausmüll landen. Dabei nehmen zahlreiche Händler die Altgeräte zurück und in den Städten ist der nächste Wertstoffhof meist nicht weit entfernt. Bevor man ein Gerät entsorgt, sollte man penibel darauf achten, dass sich darauf keine persönlichen Daten mehr befinden. Smartphone oder Tablet ohne Schutzhülle benutzen Seine mobilen Geräte nicht mit einer Hülle zu schützen bereut man spätestens dann, wenn sie auf den Boden gefallen sind und nicht mehr richtig funktionieren. Es spielt keine Rolle, wie sorgsam man mit seinen Dingen umgeht, sie können wirklich jedem aus der Hand fallen. Deshalb sollte man Smartphone und Tablet in stabile Hüllen stecken und diese – wie bei Fahrradhelmen auch – ersetzen, wenn sie kaputt gehen. Geräte nicht reinigen Nicht nur Touchscreens bei Smartphones und Tablets sollten regelmäßig gereinigt werden. Staub und Schmutz schaden auch PCs, Laptops und Druckern – besonders der Belüftung. Genauso wie man regelmäßig das Öl im Auto überprüft, sollte man es sich zur Regel machen, die Geräte zu entstauben. Krumm am Schreibtisch sitzen Mit insgesamt 73 Prozent beklagen fast drei von vier Arbeitnehmern Gesundheitsprobleme. Dringendstes Problem sind Rückenschmerzen. Außerdem sprechen die Befragten von Kopf- und Nackenschmerzen oder verspannten Schultern. Um dem entgegenzuwirken, sollten Stuhl, Tisch und Monitor richtig eingestellt sein und man sollte über der Arbeit regelmäßige (Bewegungs-)Pausen nicht vergessen. (cio.de) 

Schlimme IT-Unsitten im Büro​ oneinchpunch – shutterstock.com

Jeder hat irgendeine schlechte Angewohnheit. Der eine ist ein notorischer Zuspätkommer, der andere kaut Nägel und ein Dritter räumt nie auf. Auch IT sorgt für zahlreiche unangenehme Eigenarten: Über laute Telefonierer in Bus oder Bahn oder den SMS-Junkie beim gemeinsamen Bar- oder Kantinenbesuch hat sich sicher jeder schon einmal geärgert. Oder muss sich selbst eingestehen, dass man sich mit dem Smartphone auch solche schlechten Manieren angewöhnt hat.In unserer Bildergalerie finden Sie einen Überblick über die 18 schlimmsten IT-Unsitten. Sie reichen vom schmutzigen Equipment über schlechte Haltung bei der Arbeit an PC oder Laptop bis zum lausigen Umgang mit Backups und Passwörtern.

Am Esstisch SMS schreiben

Egal ob zuhause, in der Kantine oder im Restaurant: Es ist den Begleitern gegenüber unhöflich, sich nicht mit ihnen sondern mit dem Smartphone zu beschäftigen. Wer dringend einen Anruf beantworten muss, steht auf und geht nach nebenan oder vor die Tür.

Equipment achtlos liegenlassen

Wer im Café am Laptop arbeitet, sollte nicht mal eben aufstehen, um sich noch ein Getränk zu holen oder zur Toilette zu gehen. Damit spricht man eine Einladung an Diebe aus. Auch an den Sicherheitsschleusen an Flughäfen sollte man Laptop oder iPad nicht aus den Augen lassen. Man sollte sein Equipment nie unbeaufsichtigt lassen.

Alles ausdrucken

Täglich bekommt man so viele E-Mails mit dem Hinweis, dass man sich der Umwelt zuliebe gut überlegen soll, ob man die Nachricht nun druckt oder nicht. Trotzdem gibt es Unverbesserliche, die sich täglich stapelweise Dokumente ausdrucken. Wer dazugehört, sollte für eine Woche versuchen, so wenig zu drucken wie möglich. Vielleicht merkt man dann, dass es das viele Papier überhaupt nicht braucht.

Updates vernachlässigen

Software-Updates werden stets aus gutem Grund veröffentlicht, etwa zum Schließen von Sicherheitslücken. Deshalb sollte man sie auch installieren und darauf achten, aktuelle Versionen zu nutzen. Man könnte zum Beispiel einmal wöchentlich zu einem festen Termin prüfen, ob Updates installiert werden müssen und dies dann direkt erledigen.

Geräte mit schmutzigen Fingern benutzen

Wer sein iPhone schon einmal einem Kleinkind in die Hand gedrückt hat, hat es vielleicht feucht, angekrümelt oder mit Schokoladenflecken zurückbekommen. Doch viele erwachsene Smartphone-Nutzer machen es nicht besser. Manche behaupten, Tastaturen und Smartphones wären verschmutzter als Toiletten. Deshalb sollte man sie auch regelmäßig, am besten täglich, reinigen.

Zu mitteilsam in sozialen Netzwerken

Berufliches und Privates verschwimmen mittlerweile so sehr, dass man sich ganz genau überlegen sollte, welche Fotos und Neuigkeiten man bei Facebook und Twitter mit wem teilt.

Mit dem Laptop auf dem Schoß arbeiten

Das Wort Laptop sollte man im täglichen Gebrauch nicht wörtlich nehmen und das Gerät immer direkt auf dem Schoß platzieren. Denn die Erwärmung kann unerwünschte Folgen haben. Die Strahlungswärme der Mobilrechner kann zum Beispiel die Fruchtbarkeit von Männern beeinträchtigen, wenn diese ihr Gerät regelmäßig direkt auf dem Schoß benutzen, zeigen Studienergebnisse. Helfen kann zum Beispiel eine spezielle Laptop-Unterlage.

Das Smartphone nicht stumm schalten

Heutzutage beginnen fast alle Vorträge, Theater- oder Kinovorstellungen mit einem Appell an das Publikum, die Handys lautlos zu schalten. Man kann nicht das Verhalten anderer beeinflussen aber zumindest dafür sorgen, dass man nicht selbst derjenige ist, der während einer Veranstaltung hektisch in der Tasche nach seinem klingelnden Smartphone sucht.

Die FAQs nicht lesen

Bei PC-Problemen ist man oft versucht, sich direkt den Telefonhörer zu schnappen und den Support anzurufen oder per Mail oder Chat seine Anfrage an die IT zu richten. Bevor man viel Zeit und Nerven mit der Warteschleife verschwendet, liest man aber lieber erst einmal die FAQs, die der Arbeitgeber häufig zu IT-Themen bereitstellt. Oft lässt sich das Problem so ganz ohne die Hilfe des IT-Supports lösen.

Keine Pausen machen

40 Prozent der Deutschen lassen für den Job oft ihre Pause ausfallen. Dabei belegen mehrere Studien die positiven Effekte schon kleiner Unterbrechungen. Deshalb sollte man auch bei viel Arbeit an regelmäßige Bildschirmpausen denken und kurz pausieren. Minipausen zwischen einer halben Minute und fünf Minuten sollen die geistige Aktivität um durchschnittlich 13 Prozent verbessern.

Einen Account mit mehreren Nutzern teilen

Teilt man den PC daheim mit der Familie und nutzt nur einen einzigen Account, kann es schon mal vorkommen, dass die Kinder eine E-Mail an den Chef schicken. Lieber sollte man mehrere Accounts einrichten und darauf achten, den Kindern keine Administratorenrechte einzuräumen. So lässt sich vermeiden, dass unerwünschte Software installiert wird.

Keine Backups durchführen

Der Datengau kann ganz unterschiedliche Ursachen haben: einen Hardwarefehler, Malware oder vielleicht einen gestohlenen Laptop. Egal was es ist, man ist froh, wenn man an regelmäßige Backups gedacht hat. Viele Backup-Systeme laufen nach ersten Einstellungen automatisiert, was den zeitlichen Aufwand stark begrenzt.

Schlampig mit Passwörtern umgehen

Viele gehen bei der Vergabe von Passwörtern den Weg der Bequemlichkeit und nutzen Passwörter mehrfach. Das bereut man spätestens dann, wenn man Opfer eines Hacker-Angriffs wurde. Deshalb sollte man sich immer die Mühe machen, Passwörter nur einmal zu nutzen.

IT-Equipment im Hausmüll entsorgen

Immer wieder kommt es vor, dass ausgemusterte Laptops, Smartphones oder Kabel im Hausmüll landen. Dabei nehmen zahlreiche Händler die Altgeräte zurück und in den Städten ist der nächste Wertstoffhof meist nicht weit entfernt. Bevor man ein Gerät entsorgt, sollte man penibel darauf achten, dass sich darauf keine persönlichen Daten mehr befinden.

Smartphone oder Tablet ohne Schutzhülle benutzen

Seine mobilen Geräte nicht mit einer Hülle zu schützen bereut man spätestens dann, wenn sie auf den Boden gefallen sind und nicht mehr richtig funktionieren. Es spielt keine Rolle, wie sorgsam man mit seinen Dingen umgeht, sie können wirklich jedem aus der Hand fallen. Deshalb sollte man Smartphone und Tablet in stabile Hüllen stecken und diese – wie bei Fahrradhelmen auch – ersetzen, wenn sie kaputt gehen.

Geräte nicht reinigen

Nicht nur Touchscreens bei Smartphones und Tablets sollten regelmäßig gereinigt werden. Staub und Schmutz schaden auch PCs, Laptops und Druckern – besonders der Belüftung. Genauso wie man regelmäßig das Öl im Auto überprüft, sollte man es sich zur Regel machen, die Geräte zu entstauben.

Krumm am Schreibtisch sitzen

Mit insgesamt 73 Prozent beklagen fast drei von vier Arbeitnehmern Gesundheitsprobleme. Dringendstes Problem sind Rückenschmerzen. Außerdem sprechen die Befragten von Kopf- und Nackenschmerzen oder verspannten Schultern. Um dem entgegenzuwirken, sollten Stuhl, Tisch und Monitor richtig eingestellt sein und man sollte über der Arbeit regelmäßige (Bewegungs-)Pausen nicht vergessen.

(cio.de)

Schlimme IT-Unsitten im Büro​ Weiterlesen »

Wie viele Keime leben auf meinem Smartphone – Plus: So wird man sie los​

Allgemein

Crazy Lady/Shutterstock.com Keime sind allgegenwärtig – auf manchen Smartphones tummeln sich aber regelrechte Bazillenparaden. Werden die Geräte nicht regelmäßig gereinigt und angemessen desinfiziert (Tipps unten beachten), dann können sich auf Touchscreens allerlei ausdauernde Krankheitserreger niederlassen. Eine aktuelle Untersuchung zeigt: Viele Handys sind stärker kontaminiert als ein Toilettensitz. Smartphones schmutziger als Toilettensitze Wenig appetitlich: Die britische Versicherungsfirma Insurance2go hat nach Keimen auf Smartphones gesucht – und ist auf reichlich Schimmel und Bakterien gestoßen.Foundry Eine Untersuchung des britischen Versicherers Insurance2Go kommt zu einem besonders unappetitlichen Ergebnis. Im Rahmen einer Gesundheitsstudie rund ums Smartphone hat das Unternehmen 1.000 Mobilgeräte unter die Lupe genommen und deren Besitzer nach ihrer Handy-Hygiene befragt. Die Ergebnisse waren bemerkenswert: Ein Drittel der Befragten gab an, das eigene Mobiltelefon noch nie gereinigt zu haben – und das erklärt vielleicht auch die folgenden Laborergebnisse. Mit Abstrichen haben die Forscher auf den Geräten ihrer Probanden nach Keimen und Bakterien gesucht, dabei hat man die Proben für 48 Stunden bei 30 Grad “gedeihen” lassen. Das Ergebnis sehen Sie im Screenshot oben oder auf der Homepage von Insurance2go: Die getesteten Geräte hatten mehr Krankheitserreger eingefangen als Toilettensitze, die man zum Vergleich mit derselben Methode untersucht hatte. Zu den Testgeräten gehörten iPhones von Apple, Galaxy-Geräte von Samsung oder Google-Pixel-Modelle. Die Bazillenlast war bei allen Geräten ähnlich und lag im Schnitt bei 254,9 Erregern – pro Quadratzentimeter Bildschirmfläche. Diese Viren tummeln sich auf Ihrem Smartphone: von Covid bis Coli Ein Vergleich aktueller Studien- und Untersuchungsergebnisse zeigt, welche Bakterien und Krankheitserreger sich auf unseren Smartphones niederlassen. Nach einer Studien-Review meldet etwa das Onlineportal Dr. Schumacher, welches sich mit Hygiene in Gesundheitseinrichtungen beschäftigt, dass SARS-CoV-2 bis zu 28 Tage lang auf gläsernen Oberflächen überleben kann – dazu gehört auch das Smartphone-Display. Das Risiko einer sogenannten “Schmierinfektion” ist damit fast einen ganzen Monat lang vorhanden, sofern die Viren es sich bei 20 Grad Celsius gemütlich machen können. Die ausgewertete Studie von Ridell et al kann jeder nachlesen, der der englischen Sprache mächtig ist. Für die Viren ist aber nicht nur das Handy attraktiv, sie können auch auf Oberflächen wie Stahl (Türklinken) oder auf Geldnoten fast einen Monat lang ausharren. Auch das Hartmann Science Center hat die Keimlast auf unseren Smartphones gemessen. Das Kompetenzzentrum für Infektionsprävention hat für seine Untersuchungen zwar Krankenhauspersonal herangezogen, die Ergebnisse dürften aber repräsentativ sein. Das klare Fazit aktueller Studienauswertungen: Mit der Digitalisierung steigt auch das Risiko der Übertragung von Erregern – zumindest im klinischen Bereich. Bei den Untersuchungen von Hartmann waren fast alle getesteten Handys kontaminiert (bis zu 99 Prozent), auf 32,4 Prozent wurde dabei Staphylococcus aureus gefunden. Dieses Bakterium ist meistens harmlos – solange man gesund ist und das Immunsystem zuverlässig arbeitet. Ist die Körperabwehr geschwächt, kann der Erreger Wundinfektionen oder sogar eine Sepsis verursachen. Problematisch dabei: Viele Stämme des Bakteriums sind inzwischen gegen Antibiotika resistent und entsprechend schwerer zu behandeln. Eine antibiotikaresistente Variante des Virus konnte bei rund einem Drittel der gefundenen Krankheitserreger festgestellt werden. Viren wurden immerhin auf 38,5 der untersuchten Smartphones gefunden (zur Studie). Auch in anderen Untersuchungen: Keimvielfalt am Touchscreen Eine weitere Untersuchung des US-amerikanischen Unternehmens sellcell fand zwar im kleineren Rahmen statt, die Ergebnisse waren aber ähnlich unappetitlich: Sellcell sammelte Abstrichproben von den Telefonbildschirmen bei zehn Personen im Alter zwischen 22 und 62 Jahren (vier männlich, 6 weiblich). Bei einer Laboruntersuchung konnten auf den Displays Kolibakterien und fäkale Enterokokken (Enterococcus faecalis) nachgewiesen werden, wie sie in menschlichen oder tierischen Ausscheidungen zu finden sind. Die Hälfte der untersuchten Smartphones hatte sogar Kot von Kakerlaken an Bord. Alle getesteten Handys waren zudem mit Pseudomilzbrandbazillen kontaminiert. Ebenfalls auf allen Geräten zu finden: Clostridium perfringens, ein stäbchenförmiges Bakterium der Gattung Clostridium. Davon fand man rund zehn Kolonien pro getestetem Display, was in der Welt von Viren und Bakterien aber keine besonders große Menge ist. Solche Erreger können allerlei Krankheiten auslösen: Kolibakterien: Kann beim Menschen Erbrechen, Durchfall oder Atemwegsinfektionen auslösen und in schweren Fällen zu einer Blutvergiftung führen. Enterococcus faecalis: Solche fäkale Enterokokken verursachen Erkrankungen der Haut, Augen oder der Ohren und Atemwege. Sie gelten als häufige Ursache für Harnwegerkrankungen und können das Herz angreifen. Beim Eindringen in eine Wunde droht Wundinfektion. Pseudomilzbrandbazillen: Diese Bazillen werden oft durch Lebensmittel übertragen und können krank machen, weil sie beim Stoffwechsel Toxine produzieren. Sie können Magen-Darm-Krankheiten wie Durchfall oder Brechreiz verursachen. Clostridium perfringens: Ein typischer Verursacher von Lebensmittelvergiftungen, die zu Erbrechen, Fieber oder Durchfall führen können. Mehr Erreger in den Wintermonaten Ob Grippe- oder Coronawelle: In den Wintermonaten grassieren besonders viele Krankheiten und Erreger, denn die kalte Luft stellt unser Immunsystem dann vor besondere Herausforderungen. Kein Wunder, dass sich das dann auch auf den Displays unserer Handys widerspiegelt. Wird es draußen nass, kalt und ungemütlich, dann treten auch Coronaviren, Influenza oder Noroviren verstärkt auf, die man mit den Händen unweigerlich auch auf dem Touchscreen verteilt. Smartphones richtig reinigen: So geht’s Tipps für den Infektionsschutz am Smartphone gibt es beispielsweise beim Hartmann Science Center, einem Kompetenzzentrum für Desinfektion, Hygiene und InfektionspräventionHartmann Science Center Häufig genutzte Geräte wie Smartphones sollte man regelmäßig reinigen. Davon profitiert nicht nur die Optik der Alltagsbegleiter: Die Verwendung bleibt damit hygienisch unbedenklich und sogar die Lebensdauer der mitunter kostspieligen Technik wird erhöht. Diese Tipps helfen bei der richtigen Gerätereinigung: Mikrofasertücher nutzen: Mikrofasertücher sind optimal geeignet, um verschmutzte Displays mit einer Handbewegung sauberzumachen. Die kleinen Wischer passen in jede Tasche, sind preiswert und kommen auch mit kleineren Fettspuren gut zurecht. Wichtig dabei: Die Tücher sollten regelmäßig gewaschen werden und gelegentlich sollte man Geräte auch gründlicher reinigen, zum Beispiel mit Hygienesprays (siehe unten). Keine Glasreiniger, hochprozentigen Alkohol oder Spülmittel verwenden: Auch wenn man solche Reinigungsmittel zu Hause oft griffbereit hat, auf dem empfindlichen Touchscreen haben sie nichts verloren. Besser nutzt man Reinigungssprays, die speziell für solche Bildschirme entwickelt wurden und höchstens geringe Mengen Alkohol enthalten. Solche Mittel bekommen Sie in Drogerien und Apotheken – oder Sie sehen sich unsere Empfehlungen am Beitragsende an. Display schonen: Das Handydisplay sollte man schützen und nicht verkratzen lassen. Aber nicht nur, weil das besser aussieht: In Kratzspuren können sich Schmutz und Keime besonders gut festsetzen und die Gerätereinigung wird zusätzlich erschwert. Auf Wasserdichtigkeit achten: Viele moderne Smartphones sind zumindest gegen Spritzwasser gut geschützt, das trifft aber nicht auf alle Modelle zu. Werfen Sie vor der Reinigung deswegen einen Blick ins Handbuch oder erfragen Sie beim Hersteller, wie viel Feuchtigkeit Ihr Mobilgerät verträgt, bevor Sie es mit flüssigen Reinigungsmitteln behandeln. Auch Nischen sauber machen: In den Vertiefungen der Hülle verbirgt sich bei Mobilgeräten oft der hartnäckigste Schmutz. Um festsitzende Verunreinigungen in den Aussparungen von Knöpfen oder in schwer zugänglichen Bereichen des Gehäuses zu beseitigen, können Sie feuchte Wattestäbchen oder eine alte Zahnbürste benutzen. Dabei sollten Sie aber darauf achten, den vorhandenen Schmutz nicht versehentlich noch weiter ins Gehäuse zu drücken. Hier kann Reinigungsknete (siehe unten) sehr hilfreich sein: Die drückt man einfach in die Fugen und zieht sie anschließend mitsamt dem anhaftenden Schmutz wieder heraus. Keine Chance für Keime: Mit diesen Pflegeprodukten bleiben Smartphones und Co. hygienisch und sauber Mobilgeräte wie Smartphones, Tablets oder Smartwatches sind täglich im Gebrauch. Dabei sammeln die Alltagsbegleiter schnell Schmutz und Keime ein. Die Reinigung gelingt mit der passenden Ausrüstung zum Glück kinderleicht: Hier finden Sie nützliches Werkzeug zur regelmäßigen Gerätereinigung. Vexil Bildschirmreiniger Spray – speziell fürs Smartphone Vexil Preis: 9 Euro Dieser Displayreiniger wurde speziell für empfindliche Oberflächen wie Smartphone-Touchscreens entwickelt und kann dort bedenkenlos zur Keimbekämpfung eingesetzt werden. Fett, Staub, Fingerabdrücke und Co. lassen sich mit nach ein- oder zweimaligem Sprühen sofort restlos abwischen, dabei kommen keine Lösemittel oder aggressive Chemikalien zum Einsatz. Das Spray ist ph-neutral, biologisch abbaubar und wird in Deutschland hergestellt. Mikrofaser Reinigungstücher MR.SIGA Preis: 9 Euro Klare Sicht mit einer Handbewegung: Weiche Mikrofasertücher sind gut geeignet, um Displays von Staub, Fuseln oder kleineren Fettspuren zu befreien. Die Tücher sind waschbar, handlich (15 mal 18 cm) und werden im praktischen 6er-Pack geliefert. Bildschirmreiniger – All in one Screen Cleaner Generisch Preis: 6 Euro Handliche Hygienelösung für unterwegs: Im Inneren dieses Mikrofaser-Sticks ist eine kleine Sprühflasche verborgen, die man mit Reinigungsmittel- oder Desinfektionsspray füllen kann. Damit sprühen wir dann einfach aufs schmutzige Display und ziehen die Lösung anschließend mit dem Stick wieder ab. Einfache könnte die Anwendung kaum sein, geschützt durch eine Kunststoffhülle kann man Zwerg-Reiniger in jede Tasche stecken. Reinigungsknete STIKKI Preis: 14 Euro Nischen, Ritzen und Vertiefungen sind an Smartphones und Co. besonders schmutzanfällig. Bei häufigem Gebrauch sieht das Gehäuse dann nicht nur unappetitlich aus, die fettigen Reste sind auch ein willkommener Nährboden für Keime und Bakterien. Mit dieser cleveren Reinigungsknete lässt sich auch hartnäckiger Schmutz leicht entfernen: Kleine Stücke der Masse drücken Sie dazu einfach in die verschmutzten Vertiefungen, der Dreck bleibt kleben und lässt sich anschließend mitsamt der Reinigungsknete wieder herausziehen. Eine Bürste und ein zusätzliches Schabwerkzeug werden mitgeliefert. Zeiss Display-Reinigungstücher alkoholfrei 120 Stück Zeiss Preis: 17 Euro Wer keine Displayfolie nutzt, sollte bei der Gerätereinigung besonders vorsichtig sein: Aggressive Reinigungsmittel oder alkoholhaltige Tücher sind für den empfindlichen Touchscreen nämlich nicht ungefährlich. Mikrofasertücher oder diese alkoholfreien Wischtücher von Zeiss sind fürs Abwischen besser geeignet. Die Packung ist mit 120 oder mit 30 Stück (ca. 4 Euro) zu haben. 

Wie viele Keime leben auf meinem Smartphone – Plus: So wird man sie los​ Crazy Lady/Shutterstock.com

Keime sind allgegenwärtig – auf manchen Smartphones tummeln sich aber regelrechte Bazillenparaden. Werden die Geräte nicht regelmäßig gereinigt und angemessen desinfiziert (Tipps unten beachten), dann können sich auf Touchscreens allerlei ausdauernde Krankheitserreger niederlassen. Eine aktuelle Untersuchung zeigt: Viele Handys sind stärker kontaminiert als ein Toilettensitz.

Smartphones schmutziger als Toilettensitze

Wenig appetitlich: Die britische Versicherungsfirma Insurance2go hat nach Keimen auf Smartphones gesucht – und ist auf reichlich Schimmel und Bakterien gestoßen.Foundry

Eine Untersuchung des britischen Versicherers Insurance2Go kommt zu einem besonders unappetitlichen Ergebnis. Im Rahmen einer Gesundheitsstudie rund ums Smartphone hat das Unternehmen 1.000 Mobilgeräte unter die Lupe genommen und deren Besitzer nach ihrer Handy-Hygiene befragt.

Die Ergebnisse waren bemerkenswert: Ein Drittel der Befragten gab an, das eigene Mobiltelefon noch nie gereinigt zu haben – und das erklärt vielleicht auch die folgenden Laborergebnisse.

Mit Abstrichen haben die Forscher auf den Geräten ihrer Probanden nach Keimen und Bakterien gesucht, dabei hat man die Proben für 48 Stunden bei 30 Grad “gedeihen” lassen. Das Ergebnis sehen Sie im Screenshot oben oder auf der Homepage von Insurance2go: Die getesteten Geräte hatten mehr Krankheitserreger eingefangen als Toilettensitze, die man zum Vergleich mit derselben Methode untersucht hatte.

Zu den Testgeräten gehörten iPhones von Apple, Galaxy-Geräte von Samsung oder Google-Pixel-Modelle. Die Bazillenlast war bei allen Geräten ähnlich und lag im Schnitt bei 254,9 Erregern – pro Quadratzentimeter Bildschirmfläche.

Diese Viren tummeln sich auf Ihrem Smartphone: von Covid bis Coli

Ein Vergleich aktueller Studien- und Untersuchungsergebnisse zeigt, welche Bakterien und Krankheitserreger sich auf unseren Smartphones niederlassen.

Nach einer Studien-Review meldet etwa das Onlineportal Dr. Schumacher, welches sich mit Hygiene in Gesundheitseinrichtungen beschäftigt, dass SARS-CoV-2 bis zu 28 Tage lang auf gläsernen Oberflächen überleben kann – dazu gehört auch das Smartphone-Display. Das Risiko einer sogenannten “Schmierinfektion” ist damit fast einen ganzen Monat lang vorhanden, sofern die Viren es sich bei 20 Grad Celsius gemütlich machen können.

Die ausgewertete Studie von Ridell et al kann jeder nachlesen, der der englischen Sprache mächtig ist. Für die Viren ist aber nicht nur das Handy attraktiv, sie können auch auf Oberflächen wie Stahl (Türklinken) oder auf Geldnoten fast einen Monat lang ausharren.

Auch das Hartmann Science Center hat die Keimlast auf unseren Smartphones gemessen. Das Kompetenzzentrum für Infektionsprävention hat für seine Untersuchungen zwar Krankenhauspersonal herangezogen, die Ergebnisse dürften aber repräsentativ sein. Das klare Fazit aktueller Studienauswertungen: Mit der Digitalisierung steigt auch das Risiko der Übertragung von Erregern – zumindest im klinischen Bereich.

Bei den Untersuchungen von Hartmann waren fast alle getesteten Handys kontaminiert (bis zu 99 Prozent), auf 32,4 Prozent wurde dabei Staphylococcus aureus gefunden. Dieses Bakterium ist meistens harmlos – solange man gesund ist und das Immunsystem zuverlässig arbeitet. Ist die Körperabwehr geschwächt, kann der Erreger Wundinfektionen oder sogar eine Sepsis verursachen.

Problematisch dabei: Viele Stämme des Bakteriums sind inzwischen gegen Antibiotika resistent und entsprechend schwerer zu behandeln. Eine antibiotikaresistente Variante des Virus konnte bei rund einem Drittel der gefundenen Krankheitserreger festgestellt werden. Viren wurden immerhin auf 38,5 der untersuchten Smartphones gefunden (zur Studie).

Auch in anderen Untersuchungen: Keimvielfalt am Touchscreen

Eine weitere Untersuchung des US-amerikanischen Unternehmens sellcell fand zwar im kleineren Rahmen statt, die Ergebnisse waren aber ähnlich unappetitlich: Sellcell sammelte Abstrichproben von den Telefonbildschirmen bei zehn Personen im Alter zwischen 22 und 62 Jahren (vier männlich, 6 weiblich).

Bei einer Laboruntersuchung konnten auf den Displays Kolibakterien und fäkale Enterokokken (Enterococcus faecalis) nachgewiesen werden, wie sie in menschlichen oder tierischen Ausscheidungen zu finden sind. Die Hälfte der untersuchten Smartphones hatte sogar Kot von Kakerlaken an Bord. Alle getesteten Handys waren zudem mit Pseudomilzbrandbazillen kontaminiert.

Ebenfalls auf allen Geräten zu finden: Clostridium perfringens, ein stäbchenförmiges Bakterium der Gattung Clostridium. Davon fand man rund zehn Kolonien pro getestetem Display, was in der Welt von Viren und Bakterien aber keine besonders große Menge ist. Solche Erreger können allerlei Krankheiten auslösen:

Kolibakterien: Kann beim Menschen Erbrechen, Durchfall oder Atemwegsinfektionen auslösen und in schweren Fällen zu einer Blutvergiftung führen.

Enterococcus faecalis: Solche fäkale Enterokokken verursachen Erkrankungen der Haut, Augen oder der Ohren und Atemwege. Sie gelten als häufige Ursache für Harnwegerkrankungen und können das Herz angreifen. Beim Eindringen in eine Wunde droht Wundinfektion.

Pseudomilzbrandbazillen: Diese Bazillen werden oft durch Lebensmittel übertragen und können krank machen, weil sie beim Stoffwechsel Toxine produzieren. Sie können Magen-Darm-Krankheiten wie Durchfall oder Brechreiz verursachen.

Clostridium perfringens: Ein typischer Verursacher von Lebensmittelvergiftungen, die zu Erbrechen, Fieber oder Durchfall führen können.

Mehr Erreger in den Wintermonaten

Ob Grippe- oder Coronawelle: In den Wintermonaten grassieren besonders viele Krankheiten und Erreger, denn die kalte Luft stellt unser Immunsystem dann vor besondere Herausforderungen. Kein Wunder, dass sich das dann auch auf den Displays unserer Handys widerspiegelt. Wird es draußen nass, kalt und ungemütlich, dann treten auch Coronaviren, Influenza oder Noroviren verstärkt auf, die man mit den Händen unweigerlich auch auf dem Touchscreen verteilt.

Smartphones richtig reinigen: So geht’s

Tipps für den Infektionsschutz am Smartphone gibt es beispielsweise beim Hartmann Science Center, einem Kompetenzzentrum für Desinfektion, Hygiene und InfektionspräventionHartmann Science Center

Häufig genutzte Geräte wie Smartphones sollte man regelmäßig reinigen. Davon profitiert nicht nur die Optik der Alltagsbegleiter: Die Verwendung bleibt damit hygienisch unbedenklich und sogar die Lebensdauer der mitunter kostspieligen Technik wird erhöht. Diese Tipps helfen bei der richtigen Gerätereinigung:

Mikrofasertücher nutzen: Mikrofasertücher sind optimal geeignet, um verschmutzte Displays mit einer Handbewegung sauberzumachen. Die kleinen Wischer passen in jede Tasche, sind preiswert und kommen auch mit kleineren Fettspuren gut zurecht. Wichtig dabei: Die Tücher sollten regelmäßig gewaschen werden und gelegentlich sollte man Geräte auch gründlicher reinigen, zum Beispiel mit Hygienesprays (siehe unten).

Keine Glasreiniger, hochprozentigen Alkohol oder Spülmittel verwenden: Auch wenn man solche Reinigungsmittel zu Hause oft griffbereit hat, auf dem empfindlichen Touchscreen haben sie nichts verloren. Besser nutzt man Reinigungssprays, die speziell für solche Bildschirme entwickelt wurden und höchstens geringe Mengen Alkohol enthalten. Solche Mittel bekommen Sie in Drogerien und Apotheken – oder Sie sehen sich unsere Empfehlungen am Beitragsende an.

Display schonen: Das Handydisplay sollte man schützen und nicht verkratzen lassen. Aber nicht nur, weil das besser aussieht: In Kratzspuren können sich Schmutz und Keime besonders gut festsetzen und die Gerätereinigung wird zusätzlich erschwert.

Auf Wasserdichtigkeit achten: Viele moderne Smartphones sind zumindest gegen Spritzwasser gut geschützt, das trifft aber nicht auf alle Modelle zu. Werfen Sie vor der Reinigung deswegen einen Blick ins Handbuch oder erfragen Sie beim Hersteller, wie viel Feuchtigkeit Ihr Mobilgerät verträgt, bevor Sie es mit flüssigen Reinigungsmitteln behandeln.

Auch Nischen sauber machen: In den Vertiefungen der Hülle verbirgt sich bei Mobilgeräten oft der hartnäckigste Schmutz. Um festsitzende Verunreinigungen in den Aussparungen von Knöpfen oder in schwer zugänglichen Bereichen des Gehäuses zu beseitigen, können Sie feuchte Wattestäbchen oder eine alte Zahnbürste benutzen. Dabei sollten Sie aber darauf achten, den vorhandenen Schmutz nicht versehentlich noch weiter ins Gehäuse zu drücken. Hier kann Reinigungsknete (siehe unten) sehr hilfreich sein: Die drückt man einfach in die Fugen und zieht sie anschließend mitsamt dem anhaftenden Schmutz wieder heraus.

Keine Chance für Keime: Mit diesen Pflegeprodukten bleiben Smartphones und Co. hygienisch und sauber

Mobilgeräte wie Smartphones, Tablets oder Smartwatches sind täglich im Gebrauch. Dabei sammeln die Alltagsbegleiter schnell Schmutz und Keime ein. Die Reinigung gelingt mit der passenden Ausrüstung zum Glück kinderleicht: Hier finden Sie nützliches Werkzeug zur regelmäßigen Gerätereinigung.

Vexil Bildschirmreiniger Spray – speziell fürs Smartphone

Vexil

Preis: 9 Euro

Dieser Displayreiniger wurde speziell für empfindliche Oberflächen wie Smartphone-Touchscreens entwickelt und kann dort bedenkenlos zur Keimbekämpfung eingesetzt werden.

Fett, Staub, Fingerabdrücke und Co. lassen sich mit nach ein- oder zweimaligem Sprühen sofort restlos abwischen, dabei kommen keine Lösemittel oder aggressive Chemikalien zum Einsatz. Das Spray ist ph-neutral, biologisch abbaubar und wird in Deutschland hergestellt.

Mikrofaser Reinigungstücher

MR.SIGA

Preis: 9 Euro

Klare Sicht mit einer Handbewegung: Weiche Mikrofasertücher sind gut geeignet, um Displays von Staub, Fuseln oder kleineren Fettspuren zu befreien. Die Tücher sind waschbar, handlich (15 mal 18 cm) und werden im praktischen 6er-Pack geliefert.

Bildschirmreiniger – All in one Screen Cleaner

Generisch

Preis: 6 Euro

Handliche Hygienelösung für unterwegs: Im Inneren dieses Mikrofaser-Sticks ist eine kleine Sprühflasche verborgen, die man mit Reinigungsmittel- oder Desinfektionsspray füllen kann. Damit sprühen wir dann einfach aufs schmutzige Display und ziehen die Lösung anschließend mit dem Stick wieder ab. Einfache könnte die Anwendung kaum sein, geschützt durch eine Kunststoffhülle kann man Zwerg-Reiniger in jede Tasche stecken.

Reinigungsknete

STIKKI

Preis: 14 Euro

Nischen, Ritzen und Vertiefungen sind an Smartphones und Co. besonders schmutzanfällig. Bei häufigem Gebrauch sieht das Gehäuse dann nicht nur unappetitlich aus, die fettigen Reste sind auch ein willkommener Nährboden für Keime und Bakterien.

Mit dieser cleveren Reinigungsknete lässt sich auch hartnäckiger Schmutz leicht entfernen: Kleine Stücke der Masse drücken Sie dazu einfach in die verschmutzten Vertiefungen, der Dreck bleibt kleben und lässt sich anschließend mitsamt der Reinigungsknete wieder herausziehen. Eine Bürste und ein zusätzliches Schabwerkzeug werden mitgeliefert.

Zeiss Display-Reinigungstücher alkoholfrei 120 Stück

Zeiss

Preis: 17 Euro

Wer keine Displayfolie nutzt, sollte bei der Gerätereinigung besonders vorsichtig sein: Aggressive Reinigungsmittel oder alkoholhaltige Tücher sind für den empfindlichen Touchscreen nämlich nicht ungefährlich. Mikrofasertücher oder diese alkoholfreien Wischtücher von Zeiss sind fürs Abwischen besser geeignet. Die Packung ist mit 120 oder mit 30 Stück (ca. 4 Euro) zu haben.

Wie viele Keime leben auf meinem Smartphone – Plus: So wird man sie los​ Weiterlesen »

Wenn ChatGPT die Bewerbung schreibt​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?quality=50&strip=all 4211w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es ist für Bewerber derzeit nicht ratsam, sich bei der Erstellung eines Bewerbungsschreibens allein auf ChatGPT zu verlassen, weil das KI-Tool die Persönlichkeit des Bewerbers nur unzureichend abbildet. 3rdtimeluckystudio – Shutterstock Die Fortschritte in der KI-Technologie ermöglichen es mittlerweile, viele Aufgaben in viel kürzerer Zeit zu bewältigen. Das betrifft auch das Erstellen von Bewerbungsunterlagen. Immer mehr Jobsuchende nutzen Programme wie ChatGPT, um sich den Aufwand für ein persönliches Bewerbungsschreiben zu sparen. Doch häufig landen diese Bewerbungen direkt im Papierkorb.   Ein KI-generiertes Bewerbungsschreiben wird nur die wenigsten Arbeitgeber beeindrucken. Kandidaten, die so auf Jobsuche gehen, laufen Gefahr, als austauschbar, unauthentisch und oberflächlich wahrgenommen zu werden. Eine Bewerbung sollte immer die eigene Persönlichkeit widerspiegeln und nicht nur vorgefertigte Phrasen wiedergeben. Technologische Hilfsmittel können den Bewerbungsprozess erleichtern, allerdings nur, wenn der Kandidat sie mit Bedacht einsetzt.     Der richtige Einsatz von KI Viele Bewerber finden es nach wie vor schwierig, ein überzeugendes Schreiben zu verfassen. Programme wie ChatGPT bieten hier eine Lösung, denn sie können innerhalb kürzester Zeit professionelle Texte generieren. Im zweiten Schritt können sie den Grundtext an ihre eigenen Vorstellungen anpassen. Wichtig ist dabei, die eigene Note in den Text einfließen zu lassen. Denn KI-generierte Texte neigen dazu, generisch, wenig emotional und oberflächlich zu klingen. Im Bewerbungsverfahren, in dem es nicht nur um Qualifikationen, sondern vor allem um Persönlichkeit geht, stellt das zweifellos ein erhebliches Manko dar.  Gleichzeitig sollten die Kandidaten den Stellenwert ihres Bewerbungsschreibens auch nicht überbewerten, denn heutzutage nimmt es meist nur noch eine sekundäre Rolle ein. In vielen Unternehmen wird das dieses Schreiben inzwischen sogar ganz weggelassen.   Viel wichtiger ist der Lebenslauf, den digitale Tools wie ChatGPT noch nicht verfassen können. Und auch Aspekte wie Integrität, Soft Skills und Kommunikationsfähigkeit, die nach der Einladung zum Vorstellungsgespräch wirklich zählen, kann eine KI nicht ersetzen. Vor allem sollte die Frage nach Soft Skills an authentischen Beispielen beantwortet werden und nicht generisch durch KI.     ChatGPT als Organisationshilfe Dennoch gibt es eine Reihe interessanter Einsatzzwecke von ChatGPT, die Bewerbern das Leben leichter machen können. So kann die KI zum Beispiel beim Organisieren und Strukturieren des gesamten Bewerbungsverfahrens helfen, indem sie Zeitpläne entwickelt, To-do-Listen erstellt oder Aufgaben priorisiert. Das spart nicht nur Zeit, sondern hilft, den Überblick bei mehreren laufenden Bewerbungen zu behalten.   Auch das automatisierte Sortieren und Katalogisieren von Unterlagen, so zum Beispiel durch die KI-gesteuerte Erstellung von Ordnern und Dateinamen, erleichtert die Übersichtlichkeit und Zugänglichkeit wichtiger Dokumente. Diese organisatorischen Features unterstützen Bewerber bei der Vorbereitung auf Bewerbungsgespräche und bei der Koordination ihrer Bewerbungen.    Von der Recherche bis zum Vorstellungsgespräch Darüber hinaus kann ChatGPT als hilfreiches Werkzeug zur Recherche über potenzielle Arbeitgeber dienen, denn seine Funktionen gehen weit über die Möglichkeiten einer herkömmlichen Suchmaschine hinaus. Ebenfalls vorteilhaft ist die Möglichkeit, sich auf typische Interviewfragen vorzubereiten.   Ob es um den Grund für die Bewerbung, individuelle Stärken und Schwächen oder die Motivation für den Jobwechsel geht – ChatGPT kann potenzielle Antworten vorschlagen, um Bewerbern dabei zu helfen, sich gezielt auf das Vorstellungsgespräch vorzubereiten.  Trotzdem sollten Bewerber vorsichtig sein. Denn KI-generierte Antworten, die zu unpersönlich oder unnatürlich wirken, können schnell den Eindruck erwecken, der Bewerber habe sich nicht genug Gedanken gemacht. Entsprechend wichtig ist es, den von der KI vorgeschlagenen Antworten eine persönliche Note zu verleihen. Zudem sollten Bewerber im Hinterkopf behalten, dass KI-basierte Tools nicht vorhersehen können, wie die Fragen im Interview vorgetragen werden. Sie dienen also eher dazu, Ideen für Antworten zu sammeln und eine größere Sicherheit zu erlangen.  Im Bewerbungsgespräch selbst geht es schließlich um weit mehr als das, was gesagt wird – viel wichtiger ist die Art, wie es gesagt wird. Erfolgreiche Bewerber verstehen es, Geschichten zu erzählen, an die sich der Interviewer später erinnert. Sei es die Darstellung abgeschlossener Projekte oder die Vermittlung persönlicher Werte: Die Fähigkeit, das Gegenüber mit einer lebendigen Erzählung zu beeindrucken, ist eine Fähigkeit, die keine KI der Welt leisten kann.   Ähnliches gilt für Aspekte wie Individualität, proaktives Handeln und Teamfähigkeit. Am Ende sind es diese Qualitäten, die den Bewerber für ein Unternehmen unverzichtbar machen. Entsprechend wichtig ist es, KI-basierte Technologien nicht als alleinige Lösung zu betrachten. Viel wichtiger sind die persönlichen Eigenschaften. Bewerber, die kontinuierlich an ihren Soft Skills arbeiten, haben noch immer die besten Chancen, ihren gewünschten Job zu ergattern.  

Wenn ChatGPT die Bewerbung schreibt​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?quality=50&strip=all 4211w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/ChatGPTshutterstock_2248440139.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es ist für Bewerber derzeit nicht ratsam, sich bei der Erstellung eines Bewerbungsschreibens allein auf ChatGPT zu verlassen, weil das KI-Tool die Persönlichkeit des Bewerbers nur unzureichend abbildet. 3rdtimeluckystudio – Shutterstock

Die Fortschritte in der KI-Technologie ermöglichen es mittlerweile, viele Aufgaben in viel kürzerer Zeit zu bewältigen. Das betrifft auch das Erstellen von Bewerbungsunterlagen. Immer mehr Jobsuchende nutzen Programme wie ChatGPT, um sich den Aufwand für ein persönliches Bewerbungsschreiben zu sparen. Doch häufig landen diese Bewerbungen direkt im Papierkorb.  

Ein KI-generiertes Bewerbungsschreiben wird nur die wenigsten Arbeitgeber beeindrucken. Kandidaten, die so auf Jobsuche gehen, laufen Gefahr, als austauschbar, unauthentisch und oberflächlich wahrgenommen zu werden. Eine Bewerbung sollte immer die eigene Persönlichkeit widerspiegeln und nicht nur vorgefertigte Phrasen wiedergeben. Technologische Hilfsmittel können den Bewerbungsprozess erleichtern, allerdings nur, wenn der Kandidat sie mit Bedacht einsetzt.  

 

Der richtige Einsatz von KI

Viele Bewerber finden es nach wie vor schwierig, ein überzeugendes Schreiben zu verfassen. Programme wie ChatGPT bieten hier eine Lösung, denn sie können innerhalb kürzester Zeit professionelle Texte generieren. Im zweiten Schritt können sie den Grundtext an ihre eigenen Vorstellungen anpassen. Wichtig ist dabei, die eigene Note in den Text einfließen zu lassen. Denn KI-generierte Texte neigen dazu, generisch, wenig emotional und oberflächlich zu klingen. Im Bewerbungsverfahren, in dem es nicht nur um Qualifikationen, sondern vor allem um Persönlichkeit geht, stellt das zweifellos ein erhebliches Manko dar. 

Gleichzeitig sollten die Kandidaten den Stellenwert ihres Bewerbungsschreibens auch nicht überbewerten, denn heutzutage nimmt es meist nur noch eine sekundäre Rolle ein. In vielen Unternehmen wird das dieses Schreiben inzwischen sogar ganz weggelassen.  

Viel wichtiger ist der Lebenslauf, den digitale Tools wie ChatGPT noch nicht verfassen können. Und auch Aspekte wie Integrität, Soft Skills und Kommunikationsfähigkeit, die nach der Einladung zum Vorstellungsgespräch wirklich zählen, kann eine KI nicht ersetzen. Vor allem sollte die Frage nach Soft Skills an authentischen Beispielen beantwortet werden und nicht generisch durch KI.  

 

ChatGPT als Organisationshilfe

Dennoch gibt es eine Reihe interessanter Einsatzzwecke von ChatGPT, die Bewerbern das Leben leichter machen können. So kann die KI zum Beispiel beim Organisieren und Strukturieren des gesamten Bewerbungsverfahrens helfen, indem sie Zeitpläne entwickelt, To-do-Listen erstellt oder Aufgaben priorisiert. Das spart nicht nur Zeit, sondern hilft, den Überblick bei mehreren laufenden Bewerbungen zu behalten.  

Auch das automatisierte Sortieren und Katalogisieren von Unterlagen, so zum Beispiel durch die KI-gesteuerte Erstellung von Ordnern und Dateinamen, erleichtert die Übersichtlichkeit und Zugänglichkeit wichtiger Dokumente. Diese organisatorischen Features unterstützen Bewerber bei der Vorbereitung auf Bewerbungsgespräche und bei der Koordination ihrer Bewerbungen. 

 

Von der Recherche bis zum Vorstellungsgespräch

Darüber hinaus kann ChatGPT als hilfreiches Werkzeug zur Recherche über potenzielle Arbeitgeber dienen, denn seine Funktionen gehen weit über die Möglichkeiten einer herkömmlichen Suchmaschine hinaus. Ebenfalls vorteilhaft ist die Möglichkeit, sich auf typische Interviewfragen vorzubereiten.  

Ob es um den Grund für die Bewerbung, individuelle Stärken und Schwächen oder die Motivation für den Jobwechsel geht – ChatGPT kann potenzielle Antworten vorschlagen, um Bewerbern dabei zu helfen, sich gezielt auf das Vorstellungsgespräch vorzubereiten. 

Trotzdem sollten Bewerber vorsichtig sein. Denn KI-generierte Antworten, die zu unpersönlich oder unnatürlich wirken, können schnell den Eindruck erwecken, der Bewerber habe sich nicht genug Gedanken gemacht. Entsprechend wichtig ist es, den von der KI vorgeschlagenen Antworten eine persönliche Note zu verleihen. Zudem sollten Bewerber im Hinterkopf behalten, dass KI-basierte Tools nicht vorhersehen können, wie die Fragen im Interview vorgetragen werden. Sie dienen also eher dazu, Ideen für Antworten zu sammeln und eine größere Sicherheit zu erlangen. 

Im Bewerbungsgespräch selbst geht es schließlich um weit mehr als das, was gesagt wird – viel wichtiger ist die Art, wie es gesagt wird. Erfolgreiche Bewerber verstehen es, Geschichten zu erzählen, an die sich der Interviewer später erinnert. Sei es die Darstellung abgeschlossener Projekte oder die Vermittlung persönlicher Werte: Die Fähigkeit, das Gegenüber mit einer lebendigen Erzählung zu beeindrucken, ist eine Fähigkeit, die keine KI der Welt leisten kann.  

Ähnliches gilt für Aspekte wie Individualität, proaktives Handeln und Teamfähigkeit. Am Ende sind es diese Qualitäten, die den Bewerber für ein Unternehmen unverzichtbar machen. Entsprechend wichtig ist es, KI-basierte Technologien nicht als alleinige Lösung zu betrachten. Viel wichtiger sind die persönlichen Eigenschaften. Bewerber, die kontinuierlich an ihren Soft Skills arbeiten, haben noch immer die besten Chancen, ihren gewünschten Job zu ergattern. 

Wenn ChatGPT die Bewerbung schreibt​ Weiterlesen »

CIOs brauchen neue Führungsqualitäten​

Allgemein

Die Piloten voran und die Flugbegleiterinnen hinterher. Ein Bild, das den Führungsanspruch symbolisiert. Moderne Führung geht heute anders.Svitlana Hulko – shutterstock.com Fachkräftemangel, Expertenmangel, War for Talents – Begriffe, die die aktuelle Situation am Arbeitsmarkt plakativ beschreiben, gibt es genauso viele wie Studien, die unterstreichen, dass die Situation für Unternehmen wohl auch in den kommenden Jahren nicht besser wird. Die geburtenstarken Jahrgänge verabschieden sich nach und nach in die Rente, was die nachrückenden Generationen rein zahlenmäßig nicht auffangen können. Hinzu kommt noch eine gänzlich andere Erwartungshaltung der Generationen Y und Z, auf die sich die Arbeitgebenden bislang noch nicht in Gänze eingestellt haben.Besonders gut sind die tektonischen Verwerfungen auf dem Arbeitsmarkt derzeit im IT-Umfeld zu beobachten. Hier tritt der Expertenmangel besonders deutlich zu Tage. Alle Welt digitalisiert, weshalb die deutsche Wirtschaft und damit auch die Gesellschaft vor einer großen Herausforderung steht. Goodbye zum alten Führungsstil In erster Linie bedeutet das für die IT-Verantwortlichen: umdenken! Während Lehrjahre “früher” keine Herrenjahre waren, gilt es heute, auf die neuen Prioritäten der nachwachsenden Generationen einzugehen. Fördern und fordern, Leistung muss sich lohnen – beides keine guten Ratgeber mehr. Übersetzt heißt das dieser Tage, dass die Work Life Balance deutlich ausgewogener sein muss, die Arbeitszeiten flexibel sowie die Inhalte möglichst “cool” und idealerweise auch noch sinnstiftend. Dem gegenüber stehen oftmals die Unternehmensziele, die es zu erreichen gilt. Auch die Anforderungen von Kundschaft und Partnern werden immer individueller, was letztendlich das “Matching” der Bedürfnisse aller zur Hauptaufgabe des Senior Managements macht. So viel sei vorab verraten: Mit Druck funktioniert hier gar nichts. Wobei Druck durchaus vorhanden ist – allen voran mit Blick auf die Zeit. Produkte und Services haben immer kürzere Halbwertszeiten, der technologische Fortschritt schreitet unbarmherzig voran, ob ein Unternehmen bereit ist oder nicht. Wer diesem Zeitdruck nicht standhält und mit den immer kürzeren Entwicklungszyklen nicht mitgehen kann, bleibt quasi auf der Strecke. Agilität ist gefragt IT-Verantwortliche müssen demnach vor allem Strukturen anpassen. Nur wer es schafft, seine Organisation flexibel und agil zu führen, kann sich den beschriebenen Herausforderungen stellen. Das heißt insbesondere auch, Verantwortung abzugeben. Gerade Projekte mit einer hohen Technik- oder Digitalisierungskomponente können schon lange nicht mehr hierarchisch gesteuert werden. Der oder die CIO muss also die Sprints so gestalten, dass Projektteams eigenverantwortlich arbeiten können, und gleichzeitig aus der Vogelperspektive die langfristige Strategie im Blick haben. Das kann mitunter zu einer Gratwanderung werden, weil einerseits Orientierung von “oben” nötig ist, die andererseits dabei allerdings nie von “oben herab” aufgefasst werden darf. Führung in einer neuen Arbeitswelt ist also vor allem die Verantwortung für das Wie. Wie wird zusammengearbeitet, wie werden Ziele definiert, wie Prioritäten gesetzt und warum. Daraus ergibt sich automatisch ein hoher Stellenwert einer offenen, transparenten und wertschätzenden Kommunikation. Unsicherheit ist das Damoklesschwert, dass dieser Tage über allem zu hängen scheint. Umso wichtiger wird die Transparenz, damit die Belegschaft überhaupt ein Wir-Gefühl entwickeln kann, mit dem alle im selben Boot sitzen und im Gleichschlag in dieselbe Richtung rudern. Emotionen und Empathie Gerade für erfahrene Managerinnen und Manager kann diese Art der transparenten Kommunikation zunächst eine große Hürde darstellen, weil es schlicht und einfach konträr zu dem ist, was sie bisher selbst erlebt haben. Umso wichtiger ist es, hier offen zu bleiben und sich auf die Ressourcen und Bedingungen einzustellen. Denn ändern können wir sie nicht, das ist Fakt. Dazu gehört beispielsweise auch, Emotionen und Empathie stärker in die Führung einfließen zu lassen. Das heißt konkret: Führung bedeutet zunächst einmal, sich selbst zu kennen, sich über die eigenen Stärken, Schwächen und Bedürfnisse klar zu werden, daraus aber keinesfalls auf andere zu schließen. Nur wer weiß, wie er oder sie in einer bestimmten Situation reagiert – beispielsweise unter Stress – kann die Signale erkennen und den Automatismus bremsen, der in der Regel folgt. Selbstreflektion ist eine der großen Tugenden, die für Führungskräfte heute und morgen immer wichtiger wird. Raum für Fachlichkeit? Bei all diesen Führungskomponenten auf menschlicher und emotionaler Ebene darf dann natürlich die Fachlichkeit nicht fehlen. Wie schon erwähnt steigen auch die Anforderungen der Kunden und Kundinnen, während sich das Entwicklungs- und Innovationsrad immer schneller dreht. Wettbewerbsvorteile sichern sich diejenigen IT-Verantwortlichen, die Trends antizipieren und vorausschauend agieren. Der Fachlichkeit kommt also auch in der modernen Führungskultur eine hohe Bedeutung zu – auch weil der Respekt der Belegschaft gegenüber einer Führungskraft maßgeblich von ihr abhängt. Sie erinnern sich: Das Wie und das Warum – Stichwort Sinnhaftigkeit – werden ständig hinterfragt, weshalb Führung sich dann eben doch auf die fachliche Kompetenz stützen können muss. Um es mit anderen Worten zu sagen: Führung heute bedeutet wesentlich mehr Verantwortung als noch vor ein einigen Jahren. Vermutlich ist das auch einer der Gründe, warum immer weniger Menschen aus den jüngeren Generationen wirklich scharf auf diese Art von Karriere Umso wichtiger ist es, dass sich eine Führungskraft von heute auch der eigenen Vorbildfunktion bewusst ist. Ansonsten haben wir in Zukunft nur noch Matrosinnen und Matrosen und keine Kapitäninnen und Kapitäne mehr – und das kann weder in der IT- noch in der Geschäftswelt insgesamt ein erstrebenswertes Ziel sein. (cio.de) 

CIOs brauchen neue Führungsqualitäten​ Die Piloten voran und die Flugbegleiterinnen hinterher. Ein Bild, das den Führungsanspruch symbolisiert. Moderne Führung geht heute anders.Svitlana Hulko – shutterstock.com

Fachkräftemangel, Expertenmangel, War for Talents – Begriffe, die die aktuelle Situation am Arbeitsmarkt plakativ beschreiben, gibt es genauso viele wie Studien, die unterstreichen, dass die Situation für Unternehmen wohl auch in den kommenden Jahren nicht besser wird. Die geburtenstarken Jahrgänge verabschieden sich nach und nach in die Rente, was die nachrückenden Generationen rein zahlenmäßig nicht auffangen können. Hinzu kommt noch eine gänzlich andere Erwartungshaltung der Generationen Y und Z, auf die sich die Arbeitgebenden bislang noch nicht in Gänze eingestellt haben.Besonders gut sind die tektonischen Verwerfungen auf dem Arbeitsmarkt derzeit im IT-Umfeld zu beobachten. Hier tritt der Expertenmangel besonders deutlich zu Tage. Alle Welt digitalisiert, weshalb die deutsche Wirtschaft und damit auch die Gesellschaft vor einer großen Herausforderung steht.

Goodbye zum alten Führungsstil

In erster Linie bedeutet das für die IT-Verantwortlichen: umdenken! Während Lehrjahre “früher” keine Herrenjahre waren, gilt es heute, auf die neuen Prioritäten der nachwachsenden Generationen einzugehen. Fördern und fordern, Leistung muss sich lohnen – beides keine guten Ratgeber mehr. Übersetzt heißt das dieser Tage, dass die Work Life Balance deutlich ausgewogener sein muss, die Arbeitszeiten flexibel sowie die Inhalte möglichst “cool” und idealerweise auch noch sinnstiftend.

Dem gegenüber stehen oftmals die Unternehmensziele, die es zu erreichen gilt. Auch die Anforderungen von Kundschaft und Partnern werden immer individueller, was letztendlich das “Matching” der Bedürfnisse aller zur Hauptaufgabe des Senior Managements macht. So viel sei vorab verraten: Mit Druck funktioniert hier gar nichts.

Wobei Druck durchaus vorhanden ist – allen voran mit Blick auf die Zeit. Produkte und Services haben immer kürzere Halbwertszeiten, der technologische Fortschritt schreitet unbarmherzig voran, ob ein Unternehmen bereit ist oder nicht. Wer diesem Zeitdruck nicht standhält und mit den immer kürzeren Entwicklungszyklen nicht mitgehen kann, bleibt quasi auf der Strecke.

Agilität ist gefragt

IT-Verantwortliche müssen demnach vor allem Strukturen anpassen. Nur wer es schafft, seine Organisation flexibel und agil zu führen, kann sich den beschriebenen Herausforderungen stellen.

Das heißt insbesondere auch, Verantwortung abzugeben. Gerade Projekte mit einer hohen Technik- oder Digitalisierungskomponente können schon lange nicht mehr hierarchisch gesteuert werden. Der oder die CIO muss also die Sprints so gestalten, dass Projektteams eigenverantwortlich arbeiten können, und gleichzeitig aus der Vogelperspektive die langfristige Strategie im Blick haben. Das kann mitunter zu einer Gratwanderung werden, weil einerseits Orientierung von “oben” nötig ist, die andererseits dabei allerdings nie von “oben herab” aufgefasst werden darf.

Führung in einer neuen Arbeitswelt ist also vor allem die Verantwortung für das Wie. Wie wird zusammengearbeitet, wie werden Ziele definiert, wie Prioritäten gesetzt und warum. Daraus ergibt sich automatisch ein hoher Stellenwert einer offenen, transparenten und wertschätzenden Kommunikation.

Unsicherheit ist das Damoklesschwert, dass dieser Tage über allem zu hängen scheint. Umso wichtiger wird die Transparenz, damit die Belegschaft überhaupt ein Wir-Gefühl entwickeln kann, mit dem alle im selben Boot sitzen und im Gleichschlag in dieselbe Richtung rudern.

Emotionen und Empathie

Gerade für erfahrene Managerinnen und Manager kann diese Art der transparenten Kommunikation zunächst eine große Hürde darstellen, weil es schlicht und einfach konträr zu dem ist, was sie bisher selbst erlebt haben. Umso wichtiger ist es, hier offen zu bleiben und sich auf die Ressourcen und Bedingungen einzustellen. Denn ändern können wir sie nicht, das ist Fakt.

Dazu gehört beispielsweise auch, Emotionen und Empathie stärker in die Führung einfließen zu lassen. Das heißt konkret: Führung bedeutet zunächst einmal, sich selbst zu kennen, sich über die eigenen Stärken, Schwächen und Bedürfnisse klar zu werden, daraus aber keinesfalls auf andere zu schließen.

Nur wer weiß, wie er oder sie in einer bestimmten Situation reagiert – beispielsweise unter Stress – kann die Signale erkennen und den Automatismus bremsen, der in der Regel folgt. Selbstreflektion ist eine der großen Tugenden, die für Führungskräfte heute und morgen immer wichtiger wird.

Raum für Fachlichkeit?

Bei all diesen Führungskomponenten auf menschlicher und emotionaler Ebene darf dann natürlich die Fachlichkeit nicht fehlen. Wie schon erwähnt steigen auch die Anforderungen der Kunden und Kundinnen, während sich das Entwicklungs- und Innovationsrad immer schneller dreht.

Wettbewerbsvorteile sichern sich diejenigen IT-Verantwortlichen, die Trends antizipieren und vorausschauend agieren. Der Fachlichkeit kommt also auch in der modernen Führungskultur eine hohe Bedeutung zu – auch weil der Respekt der Belegschaft gegenüber einer Führungskraft maßgeblich von ihr abhängt. Sie erinnern sich: Das Wie und das Warum – Stichwort Sinnhaftigkeit – werden ständig hinterfragt, weshalb Führung sich dann eben doch auf die fachliche Kompetenz stützen können muss.

Um es mit anderen Worten zu sagen: Führung heute bedeutet wesentlich mehr Verantwortung als noch vor ein einigen Jahren. Vermutlich ist das auch einer der Gründe, warum immer weniger Menschen aus den jüngeren Generationen wirklich scharf auf diese Art von Karriere

Umso wichtiger ist es, dass sich eine Führungskraft von heute auch der eigenen Vorbildfunktion bewusst ist. Ansonsten haben wir in Zukunft nur noch Matrosinnen und Matrosen und keine Kapitäninnen und Kapitäne mehr – und das kann weder in der IT- noch in der Geschäftswelt insgesamt ein erstrebenswertes Ziel sein.

(cio.de)

CIOs brauchen neue Führungsqualitäten​ Weiterlesen »

IT-Paradox – deutsche Firmen schwanken zwischen Vertrauen und Zweifeln​

Allgemein

Fast alle Unternehmen sehen technologische Erneuerung als Priorität. Viele IT-Systeme nähern sich dem Ende ihrer Lebensdauer – ein immer dringenderes Problem, besonders in der EU.Pixels Hunter – shutterstock.com In der heutigen, von Unsicherheiten geprägten Welt stehen Unternehmen vor der doppelten Herausforderung, eine robuste IT-Infrastruktur aufrechtzuerhalten und sich gleichzeitig auf zukünftige Unwägbarkeiten vorzubereiten. Der Kyndryl Readiness Report 2024 beleuchtet diese Problematik und zeigt ein Paradoxon auf: Führungskräfte haben zwar Vertrauen in ihre aktuellen IT-Systeme, zweifeln aber an deren Fähigkeiten, zukünftige Risiken und Herausforderungen zu meistern. Gut gerüstet und doch unsicher So sind laut dem Bericht 90 Prozent der Unternehmensleiter weltweit der Meinung, dass ihre IT-Infrastruktur mit zu den besten ihrer Branche gehört. Allerdings sind nur 39 Prozent der Meinung, dass sie auch für die Bewältigung künftiger Risiken gerüstet ist. Besonders deutlich tritt dieses Paradoxon in Deutschland und der EU zutage: So fühlen sich nur etwas mehr als ein Viertel der Befragten In Deutschland für die Bewältigung externer Risiken wie Cyberangriffe und gesetzliche Änderungen gewappnet. Für die Studie griff Kyndryl auf eine Kombination aus exklusiven Einblicken von Kyndryl Bridge und Umfragedaten von 3.200 Führungskräften zurück. Diese C-Suite Leaders waren in 25 verschiedenen Branchen, beschäftigt, darunter der Finanz- und der Gesundheitssektor sowie die Telekommunikation. Erhoben wurden die Daten zwischen Juli und September 2024 in 18 Ländern, darunter Deutschland, den USA, Japan und China. Technologische Modernisierung und End-of-Life-Herausforderungen Ein wichtiger Schwerpunkt des Berichts liegt auf der Notwendigkeit einer technologischen Modernisierung: 94 Prozent der Betriebe weltweit sehen eine solche Modernisierung als vorrangig an. Dazu kommt, dass 44 Prozent der Befragten einräumen, ihre kritische IT-Infrastruktur nähere sich dem Ende ihres Lebenszyklus. Dieses Problem ist in Deutschland und der EU besonders dringlich. Veraltete Technologie behindert Innovation und Risikomanagement. Der Bericht hebt zudem hervor, dass zwei Drittel der CEOs besorgt darüber sind, dass ihre IT-Systeme veraltet sind. Die Folge: Schwachstellen reißen Lücken in die IT-Security und Modernisierungsproblemen werden immer größer. Risiken und Herausforderungen Darüber hinaus identifiziert der Bericht mehrere große Sorgen von Führungskräften in Deutschland und der EU, darunter Cyberangriffe, Immer mehr Vorschriften und wirtschaftliche Unsicherheit. Während 65 Prozent der Befragten über Cyberangriffe besorgt sind, fühlen sich nur drei von zehn Befragten darauf vorbereitet, damit adäquat umgehen zu können. Eine weitere große Herausforderung sind regulatorische Änderungen, insbesondere in Ländern wie Luxemburg, Frankreich und den Niederlanden sehen die Befragten darin ein Problem. Studienteilnehmer aus diesen Ländern empfinden das Tempo, mit dem neue Vorschriften erlassen werden, als zu hoch, um damit Schritt halten zu können. Die Menschen müssen im Mittelpunkt stehen In dem Bericht wird auch betont, dass die technologische Entwicklung die davon betroffenen Menschen nicht abhängen darf. Unternehmen sollten deshalb sicherstellen, dass ihre Mitarbeiter über die erforderlichen Fähigkeiten verfügen, die sie benötigen. Zusätzlich müssten Firmen gewährleisten, dass neue Technologien mit der Unternehmenskultur sowie den Geschäftszielen in Einklang stehen. Dies ist besonders wichtig in Deutschland und der EU, wo Qualifikationsdefizite in Bereichen wie Künstliche Intelligenz und Cybersicherheit ein großes Problem darstellen. So gibt mehr als jede vierte befragte Führungskraft an, dass die Einführung digitaler Lösungen viele Mitarbeiterinnen und Mitarbeiter überfordert. Das unterstreicht dem Bericht zufolge die Notwendigkeit, Kompetenzen kontinuierlich weiterzuentwickeln. Unternehmen zwischen Innovation und Qualifikation Die Experten von Kyndryl kommen zu dem Schluss, dass Unternehmen am besten durch technologische Modernisierungen und Mitarbeiterschulungen wettbewerbsfähig bleiben. Ein ganzheitlicher Ansatz, der Technik und Mensch berücksichtigt, sei hierfür entscheidend. Nur so könnten Betriebe die Komplexität der modernen IT-Welt meistern und sich auf zukünftige Herausforderungen vorbereiten.​​ 

IT-Paradox – deutsche Firmen schwanken zwischen Vertrauen und Zweifeln​ Fast alle Unternehmen sehen technologische Erneuerung als Priorität. Viele IT-Systeme nähern sich dem Ende ihrer Lebensdauer – ein immer dringenderes Problem, besonders in der EU.Pixels Hunter – shutterstock.com

In der heutigen, von Unsicherheiten geprägten Welt stehen Unternehmen vor der doppelten Herausforderung, eine robuste IT-Infrastruktur aufrechtzuerhalten und sich gleichzeitig auf zukünftige Unwägbarkeiten vorzubereiten.

Der Kyndryl Readiness Report 2024 beleuchtet diese Problematik und zeigt ein Paradoxon auf: Führungskräfte haben zwar Vertrauen in ihre aktuellen IT-Systeme, zweifeln aber an deren Fähigkeiten, zukünftige Risiken und Herausforderungen zu meistern.

Gut gerüstet und doch unsicher

So sind laut dem Bericht 90 Prozent der Unternehmensleiter weltweit der Meinung, dass ihre IT-Infrastruktur mit zu den besten ihrer Branche gehört. Allerdings sind nur 39 Prozent der Meinung, dass sie auch für die Bewältigung künftiger Risiken gerüstet ist.

Besonders deutlich tritt dieses Paradoxon in Deutschland und der EU zutage: So fühlen sich nur etwas mehr als ein Viertel der Befragten In Deutschland für die Bewältigung externer Risiken wie Cyberangriffe und gesetzliche Änderungen gewappnet.

Für die Studie griff Kyndryl auf eine Kombination aus exklusiven Einblicken von Kyndryl Bridge und Umfragedaten von 3.200 Führungskräften zurück. Diese C-Suite Leaders waren in 25 verschiedenen Branchen, beschäftigt, darunter der Finanz- und der Gesundheitssektor sowie die Telekommunikation. Erhoben wurden die Daten zwischen Juli und September 2024 in 18 Ländern, darunter Deutschland, den USA, Japan und China.

Technologische Modernisierung und End-of-Life-Herausforderungen

Ein wichtiger Schwerpunkt des Berichts liegt auf der Notwendigkeit einer technologischen Modernisierung: 94 Prozent der Betriebe weltweit sehen eine solche Modernisierung als vorrangig an. Dazu kommt, dass 44 Prozent der Befragten einräumen, ihre kritische IT-Infrastruktur nähere sich dem Ende ihres Lebenszyklus. Dieses Problem ist in Deutschland und der EU besonders dringlich. Veraltete Technologie behindert Innovation und Risikomanagement.

Der Bericht hebt zudem hervor, dass zwei Drittel der CEOs besorgt darüber sind, dass ihre IT-Systeme veraltet sind. Die Folge: Schwachstellen reißen Lücken in die IT-Security und Modernisierungsproblemen werden immer größer.

Risiken und Herausforderungen

Darüber hinaus identifiziert der Bericht mehrere große Sorgen von Führungskräften in Deutschland und der EU, darunter

Cyberangriffe,

Immer mehr Vorschriften und

wirtschaftliche Unsicherheit.

Während 65 Prozent der Befragten über Cyberangriffe besorgt sind, fühlen sich nur drei von zehn Befragten darauf vorbereitet, damit adäquat umgehen zu können.

Eine weitere große Herausforderung sind regulatorische Änderungen, insbesondere in Ländern wie Luxemburg, Frankreich und den Niederlanden sehen die Befragten darin ein Problem. Studienteilnehmer aus diesen Ländern empfinden das Tempo, mit dem neue Vorschriften erlassen werden, als zu hoch, um damit Schritt halten zu können.

Die Menschen müssen im Mittelpunkt stehen

In dem Bericht wird auch betont, dass die technologische Entwicklung die davon betroffenen Menschen nicht abhängen darf.

Unternehmen sollten deshalb sicherstellen, dass ihre Mitarbeiter über die erforderlichen Fähigkeiten verfügen, die sie benötigen. Zusätzlich müssten Firmen gewährleisten, dass neue Technologien mit der Unternehmenskultur sowie den Geschäftszielen in Einklang stehen.

Dies ist besonders wichtig in Deutschland und der EU, wo Qualifikationsdefizite in Bereichen wie Künstliche Intelligenz und Cybersicherheit ein großes Problem darstellen.

So gibt mehr als jede vierte befragte Führungskraft an, dass die Einführung digitaler Lösungen viele Mitarbeiterinnen und Mitarbeiter überfordert. Das unterstreicht dem Bericht zufolge die Notwendigkeit, Kompetenzen kontinuierlich weiterzuentwickeln.

Unternehmen zwischen Innovation und Qualifikation

Die Experten von Kyndryl kommen zu dem Schluss, dass Unternehmen am besten durch technologische Modernisierungen und Mitarbeiterschulungen wettbewerbsfähig bleiben. Ein ganzheitlicher Ansatz, der Technik und Mensch berücksichtigt, sei hierfür entscheidend. Nur so könnten Betriebe die Komplexität der modernen IT-Welt meistern und sich auf zukünftige Herausforderungen vorbereiten.​​

IT-Paradox – deutsche Firmen schwanken zwischen Vertrauen und Zweifeln​ Weiterlesen »

Darum ist Software verbuggt​

Allgemein

Weil wir Softwarebugs so schnell nicht loswerden, ist wenigstens das Symbolbild hübsch.atartusi / Shutterstock Physische Produkte zu produzieren, ist meist ein geordneter, wiederholbarer und unter Umständen sogar perfektionierbarer Prozess. Software zu entwickeln, ist hingegen etwas völlig anderes: Jedes Projekt ist – unabhängig von seinem Umfang – einzigartig und wird erstmalig umgesetzt. Wie dabei der optimale Weg zum Ziel aussieht, daran scheiden sich die Geister. Möglicherweise gibt es mit Blick auf die Softwareentwicklung überhaupt keinen „besten Weg“ – der „unknown Unknowns“ sei Dank. Die Kristallkugel im schwarzen Loch Das erschwert es erheblich, einzuschätzen, wie lange ein Softwareprojekt dauern wird. Selbst nach Jahren hat dafür bislang niemand eine zuverlässige Methode gefunden. Und dazu wird es meiner Meinung nach auch nicht mehr kommen. Auch wenn diverse Softwareanbieter vollmundig versprechen, dieses Problem längst gelöst zu haben – sie lügen. Natürlich ist das nichts, was CEOs gerne hören. Einem Kunden zu vermitteln, dass weder feststeht, wann seine Software genau fertig ist, noch, wie oder ob sie funktioniert, ist kein gangbarer Weg. Das wäre zwar im Grunde nur ehrlich – in den meisten Unternehmen traut man sich aber nicht einmal, sich diese Wahrheit selbst einzugestehen. Oder ignoriert sie geflissentlich. Das führt zwangsläufig zu Spannungen zwischen denjenigen, die neue Software und ihre Funktionen entwickeln – und denjenigen, die sie verkaufen wollen. Weil Software formbar ist, treffen viele Kunden ihre Kaufentscheidungen oft auf der Grundlage künftiger Features – den nächsten großen Trend stets im Blick. Das wiederum veranlasst die Verkäufer, mit Funktionen zu werben, die noch gar nicht existieren. Die Kunden wollen selbstverständlich wissen, wann diese verfügbar sein werden – was die Verkäufer dann dazu verleitet, Versprechen abzugeben, die sich nur schwer, respektive nicht, halten lassen. Die Entwickler würden den Business- und Sales-Menschen nur allzu gerne genau sagen, wann die Software oder bestimmte Funktionen ausgeliefert werden. Aber sie können im besten Fall auch nur Vermutungen dazu abgeben. Dennoch lassen sich viele Devs in so einem Setting unter Druck setzen und fühlen sich genötigt, eine konkrete Deadline in den Raum zu werfen. Zwar wird in der Regel viel Aufwand betrieben, um diese vorab zu „ermitteln“. Leider liegen diese Schätzungen aber fast durch die Bank daneben. Der Kompromiss, der keiner ist Um Schlamassel dieser Art zu bewältigen, könnten Softwareentwickler – und ihre Manager – an mehreren Stellschrauben drehen: Alle könnten mehr arbeiten. Allerdings würde das den Druck auf das Dev-Team erhöhen – und damit die Wahrscheinlichkeit, dass Abkürzungen genommen und Fehler gemacht werden. Statt einer pünktlichen Delivery, winken dann meist nur wachsende, technische Schulden. Führungskräfte könnten auch versuchen, mehr Menschen einzustellen, um die geleisteten Arbeitsstunden zu erhöhen. Dann greift allerdings das Brooks`sche Gesetz – und alles wird nur noch schlimmer.   Der Funktionsumfang der Software zur Delivery könnte reduziert werden. Das dürfte den Kunden nicht gefallen. Die Qualität könnte heruntergeschraubt werden – etwa durch minimiertes Bugfixing und weniger Aufwand für das User Interface. Die Endbenutzer werden das nicht zu schätzen wissen. Der Zeitplan ließe sich verschieben. Das führt allerdings wieder dazu, dass die zahlenden Kunden vor den Kopf gestoßen werden. In der Praxis führen diese Auswahlmöglichkeiten in der Regel dazu, dass die Qualität auf der Strecke bleibt. Auf fehlerbehaftete Applikationen legt zwar auch niemand wirklich Wert, aber immerhin lassen sich qualitative Mängel ganz gut hinter scheinbar funktionsfähigen Features verstecken. Aus Kundenperspektive ist es inzwischen bereits üblich, eine solche „funktionierende“ Software zu erhalten. Nur um anschließend nach und nach den qualitativen Verfehlungen auf die Schliche zu kommen. Diese werden dann vom Entwicklungsteam mit einem „Point Release“ behoben. Im Grunde ist dieses Vorgehen also nur eine raffiniertere Methode, den Zeitplan anzupassen – indem das Bugfixing auf die Zeit nach der Delivery verschoben wird. Es ist nicht damit zu rechnen, dass dieses Gebaren auf absehbare Zeit abgestellt wird. Software wird also weiterhin Bugs aufweisen – und der schwarze Peter bei den Entwicklern und/oder den QA-Experten landen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Darum ist Software verbuggt​ Weil wir Softwarebugs so schnell nicht loswerden, ist wenigstens das Symbolbild hübsch.atartusi / Shutterstock

Physische Produkte zu produzieren, ist meist ein geordneter, wiederholbarer und unter Umständen sogar perfektionierbarer Prozess. Software zu entwickeln, ist hingegen etwas völlig anderes: Jedes Projekt ist – unabhängig von seinem Umfang – einzigartig und wird erstmalig umgesetzt. Wie dabei der optimale Weg zum Ziel aussieht, daran scheiden sich die Geister. Möglicherweise gibt es mit Blick auf die Softwareentwicklung überhaupt keinen „besten Weg“ – der „unknown Unknowns“ sei Dank.

Die Kristallkugel im schwarzen Loch

Das erschwert es erheblich, einzuschätzen, wie lange ein Softwareprojekt dauern wird. Selbst nach Jahren hat dafür bislang niemand eine zuverlässige Methode gefunden. Und dazu wird es meiner Meinung nach auch nicht mehr kommen. Auch wenn diverse Softwareanbieter vollmundig versprechen, dieses Problem längst gelöst zu haben – sie lügen.

Natürlich ist das nichts, was CEOs gerne hören. Einem Kunden zu vermitteln, dass weder feststeht, wann seine Software genau fertig ist, noch, wie oder ob sie funktioniert, ist kein gangbarer Weg. Das wäre zwar im Grunde nur ehrlich – in den meisten Unternehmen traut man sich aber nicht einmal, sich diese Wahrheit selbst einzugestehen. Oder ignoriert sie geflissentlich.

Das führt zwangsläufig zu Spannungen zwischen denjenigen, die neue Software und ihre Funktionen entwickeln – und denjenigen, die sie verkaufen wollen. Weil Software formbar ist, treffen viele Kunden ihre Kaufentscheidungen oft auf der Grundlage künftiger Features – den nächsten großen Trend stets im Blick. Das wiederum veranlasst die Verkäufer, mit Funktionen zu werben, die noch gar nicht existieren. Die Kunden wollen selbstverständlich wissen, wann diese verfügbar sein werden – was die Verkäufer dann dazu verleitet, Versprechen abzugeben, die sich nur schwer, respektive nicht, halten lassen.

Die Entwickler würden den Business- und Sales-Menschen nur allzu gerne genau sagen, wann die Software oder bestimmte Funktionen ausgeliefert werden. Aber sie können im besten Fall auch nur Vermutungen dazu abgeben. Dennoch lassen sich viele Devs in so einem Setting unter Druck setzen und fühlen sich genötigt, eine konkrete Deadline in den Raum zu werfen. Zwar wird in der Regel viel Aufwand betrieben, um diese vorab zu „ermitteln“. Leider liegen diese Schätzungen aber fast durch die Bank daneben.

Der Kompromiss, der keiner ist

Um Schlamassel dieser Art zu bewältigen, könnten Softwareentwickler – und ihre Manager – an mehreren Stellschrauben drehen:

Alle könnten mehr arbeiten. Allerdings würde das den Druck auf das Dev-Team erhöhen – und damit die Wahrscheinlichkeit, dass Abkürzungen genommen und Fehler gemacht werden. Statt einer pünktlichen Delivery, winken dann meist nur wachsende, technische Schulden.

Führungskräfte könnten auch versuchen, mehr Menschen einzustellen, um die geleisteten Arbeitsstunden zu erhöhen. Dann greift allerdings das Brooks`sche Gesetz – und alles wird nur noch schlimmer.  

Der Funktionsumfang der Software zur Delivery könnte reduziert werden. Das dürfte den Kunden nicht gefallen.

Die Qualität könnte heruntergeschraubt werden – etwa durch minimiertes Bugfixing und weniger Aufwand für das User Interface. Die Endbenutzer werden das nicht zu schätzen wissen.

Der Zeitplan ließe sich verschieben. Das führt allerdings wieder dazu, dass die zahlenden Kunden vor den Kopf gestoßen werden.

In der Praxis führen diese Auswahlmöglichkeiten in der Regel dazu, dass die Qualität auf der Strecke bleibt. Auf fehlerbehaftete Applikationen legt zwar auch niemand wirklich Wert, aber immerhin lassen sich qualitative Mängel ganz gut hinter scheinbar funktionsfähigen Features verstecken. Aus Kundenperspektive ist es inzwischen bereits üblich, eine solche „funktionierende“ Software zu erhalten. Nur um anschließend nach und nach den qualitativen Verfehlungen auf die Schliche zu kommen. Diese werden dann vom Entwicklungsteam mit einem „Point Release“ behoben. Im Grunde ist dieses Vorgehen also nur eine raffiniertere Methode, den Zeitplan anzupassen – indem das Bugfixing auf die Zeit nach der Delivery verschoben wird.

Es ist nicht damit zu rechnen, dass dieses Gebaren auf absehbare Zeit abgestellt wird. Software wird also weiterhin Bugs aufweisen – und der schwarze Peter bei den Entwicklern und/oder den QA-Experten landen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Darum ist Software verbuggt​ Weiterlesen »

Die 10 wichtigsten Cybersecurity-Unternehmen​

Allgemein

Das Who is who der Cybersecurity: Diese zehn Unternehmen bilden die (momentane) Speerspitze der Branche. Foto: Accogliente Design | shutterstock.com Unternehmenskunden haben die Nase voll von punktuellen Sicherheitslösungen. Sie wollen eine Plattform, die alles schützt – Endanwender, Devices, Entwicklungsumgebungen und Daten. Und Sie streben danach, ihre Cybersecurity-Bemühungen zu automatisieren, zu analysieren sowie mit GenAI-Funktionen zu erweitern. Bei den führenden Unternehmen im Bereich Cybersecurity ist diese Botschaft angekommen: Sie entwickeln Plattformen, die Cloud-basiertes Management mit fortschrittlichen Datenanalysen sowie künstlicher Intelligenz kombinieren, um Sicherheitsprofis in Echtzeit mit Informationen zu versorgen. In diesem Rahmen fand im Jahr 2023 eine umfassende Konsolidierung des Marktes statt – zudem wurden neue, strategische Allianzen geschmiedet. In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten Cybersecurity-Player. 1. Cisco Der Netzwerkriese Cisco hat sich – insbesondere durch Übernahmen – ein breites Portfolio von Sicherheitsprodukten “erarbeitet”: Viptela für SD-WAN, Meraki für Cloud Management, Duo für Authentifizierung, Thousand Eyes für Digital Experience Monitoring und AppDynamics für Observability. Angesichts der funktionellen Überschneidungen seiner Produktlinien musste sich Cisco zuletzt Kritik gefallen lassen – und hat darauf reagiert, indem es im Rahmen des jüngsten Security Cloud Release Einzelprodukte durch Suiten ersetzt hat. Power Moves: Mit der Akquise des SIEM– und Analytics-Spezialisten Splunk hat Cisco einen großen Wurf gelandet. Die Übernahme eröffnet dem Konzern die Möglichkeit, seine Netzwerk-, Security- und Observability-Angebote mit den KI-basierten Analytics-Fähigkeiten von Splunk anzureichern. In Zahlen ausgedrückt: 28 Milliarden Dollar – der Betrag, den Cisco für Splunk auf den Tisch gelegt hat. Ausblick: Cisco konnte im Bereich Security im dritten Quartal 2024 satte 1,3 Milliarden Dollar umsetzen (inklusive Splunk-Revenue). Angesichts der Tatsache, dass das lediglich sieben Prozent des gesamten Umsatzes von Cisco sind, ist hier aber noch Luft nach oben. Dabei dürfte auch das Cross-Selling-Potenzial mit Blick auf Splunk eine Rolle spielen: Cisco hat diesbezüglich nach eigenen Angaben rund 5.000 mögliche Kunden identifiziert. 2. Broadcom Als Broadcom im Jahr 2022 ankündigte, VMware übernehmen zu wollen, lag der Fokus dabei vor allem auf den Virtualisierungs- und Hybrid-Cloud-Management-Plattformen des Unternehmens. Allerdings ergab sich durch die Möglichkeit, die IT-Sicherheits-Ressourcen von VMware mit denen von Symantec, das bereits 2019 von Broadcom übernommen worden war, zu kombinieren. Diese Chance erkannte der Technologieriese und entschied sich letztlich dagegen, VMwares Endpoint-Security-Sparte Carbon Black zu veräußern. Stattdessen sollen die Angebote von Symantec und VMware nun integriert werden. Das ist aufgrund zahlreicher funktionaler Überschneidungen – etwa in den Bereichen SSE und SASE – keine leichte Aufgabe. Falls es gelingt, dürfte Broadcom davon jedoch massiv profitieren. Power Moves: Die Entscheidung, Carbon Black nicht zu verkaufen. In Zahlen ausgedrückt: 49 Milliarden Dollar – der Betrag, den Broadcom für VMware hingelegt hat. Ausblick: Auf dem Mobile World Congress 2024 kündigte Broadcom seine erste Integration an – ein SASE-Offering, das VMware VeloCloud SD-WAN und Symantec SSE kombiniert. Es dürfte nur der Anfang sein: Broadcom hat bekundet, erhebliche Ressourcen für Innovation und Integration bereitstellen zu wollen. 3. Palo Alto Networks Palo Alto Networks zählt zu den etablierten Playern im Bereich Cybersecurity und ist ein Leader im Magic Quadrant von Gartner für SSE sowie im Forrester-Wave-Report für XDR. Dabei ist Palo Alto nicht nur wegen seiner Rolle als “Erfinder” der “App-aware” Firewall gefragt, sondern auch wegen seines Platformization-Ansatzes, der darauf abstellt, den Kunden eine integrierte Sicherheitsplattform zur Verfügung zu stellen. Power Moves: Im Mai 2024 kündigte Palo Alto eine weitreichende Partnerschaft mit IBM an, die diverse Aspekte umfasst. Demnach wird Palo Alto künftig bevorzugter Sicherheitspartner von Big Blue. Im Gegensatz verpflichtet sich IBM, rund 1.000 seiner Security-Berater in Sachen Migration, Adoption und Deployment von Palo-Alto-Netzwerkprodukten zu schulen. Darüber hinaus sieht die Kooperation vor, dass Palo Alto IBMs Large Language Model (LLM) watsonx in sein Cortex-XSIAM-Produkt integriert. Zudem soll IBMs QRadar-SIEM-Produkt künftig unter dem Dach von Palo Alto laufen und die Kunden auf die SOC-Plattform des Sicherheitsspezialisten migriert werden. In Zahlen ausgedrückt: 15 Prozent – um diesen Wert konnte Palo Alto in Q3 2024 seinen Umsatz (1,98 Milliarden Dollar) im Jahresvergleich steigern. Ausblick: Palo Alto wettet darauf, dass die Enterprise-Kunden auf die Vision einer KI-basierten All-in-One-Security-Plattform anspringen. Die Chancen auf Erfolg stehen alles andere als schlecht. 4. Microsoft Auch Microsoft hat den Weg der Plattform eingeschlagen und eine Vielzahl von Standalone-Tools in sechs Produktlinien konsolidiert: Defender, Sentinel, ntra, Purview, Priva und Intune. Durch seine enge Verflechtung mit ChatGPT-Entwickler OpenAI hat sich Microsoft zudem eine führende Position im Bereich Generative AI erarbeitet. Das wesentliche Produkt in diesem Bereich ist Copilot for Security. Darüber hinaus verfügen die Redmonder auch über ein umfassendes SSE-Angebot und werden im Forrester-Wave-Report 2024 als Leader im Bereich der XDR-Plattformen geführt. Power Moves: Im März 2024 gab Microsoft bekannt, die Mitbegründer des KI-Startups Inflection eingestellt zu haben. Mustafa Suleyman und Karen Simonyan sollen künftig Microsofts KI-Aktivitäten steuern. Zudem kündigte der Windows-Konzern eine vereinheitlichte SOC-Plattform an, die SIEM-, XDR-, SOAR- und weitere Funktionen bündeln soll. In Zahlen ausgedrückt: 20 Milliarden Dollar – das ist der Umsatz, den die Security-Sparte von Microsoft (nach eigenen Angaben) pro Jahr erwirtschaftet. Die jährliche Wachstumsrate seines Cybersecurity-Geschäfts beziffern die Redmondern auf über 30 Prozent. Ausblick: Microsoft hatte in jüngster Vergangenheit aufgrund von staatlich gelenkten Hackangriffen mit schlechter Presse zu kämpfen. Der Konzern reagierte darauf, indem CEO Satya Nadella bekräftigte, dass Security für sein Unternehmen höchste Priorität genieße. 5. Fortinet Der Security-Anbieter Fortinet hat zwei wesentliche Vorteile auf seiner Seite: Zum einen ist das Unternehmen in der Lage, Netzwerk und Security in einer einheitlichen Plattform zu bündeln. Zum anderen entwickelt Fortinet seine eigenen Chips und verfügt mit FortiOS zudem über ein proprietäres Betriebssystem. Deshalb ist der Anbieter in der Lage, seine Produkte größtenteils selbst zu entwickeln – und vollständig zu integrieren, vom Netzwerk-Switch bis hin zur SASE-Lösung. Power Moves: Anfang Juni 2024 gab Fortinet bekannt, den Cloud-Security-Spezialisten Lacework übernehmen zu wollen. Dessen Cloud Native Application Protection Platform (CNAPP) soll künftig in das Unified-SASE-Offering von Fortinet integriert werden. In Zahlen ausgedrückt: Sieben Prozent – der Wert, um den das Unternehmen seinen Umsatz im ersten Quartal 2024 steigern konnte (im Vergleich zum Vorjahr). Ausblick: Fortinet unternimmt große Anstrengungen, um im Bereich (Unified-) SASE zum Maß der Dinge zu werden. Dabei versucht das Unternehmen, eine Art goldenen Mittelweg zu finden für Kunden, die zwar auf eine konsolidierte Plattform Wert legen, sich aber nicht an einen bestimmten Anbieter binden wollen. 6. Crowdstrike Auch Crowdstrike wird von Analysten gelobt und gilt sowohl bei Gartner (Endpoint Protection Platforms) als auch bei IDC (Managed Detection and Response) und Forrester (Extended Detection and Response) als führend. Laut IDC verfüge Crowdstrike dabei über eine ausgeprägte funktionale Breite und Tiefe, die in seine Falcon-Plattform integriert sei. Power Moves: Im März 2024 kündigte Crowdstrike die Übernahme des israelischen Startups Flow Security an – einem Spezialisten im Bereich Data Security Posture Management (DSPM). In Zahlen ausgedrückt: 33 Prozent – diese Umsatzsteigerung konnte Crowdstrike im dritten Quartal 2024 (im Jahresvergleich) erzielen und näherte sich damit weiter der Eine-Milliarde-Dollar-Marke (921 Millionen Dollar). Ausblick: Crowdstrike wird nicht müde, neue Innovationen auf den Markt zu bringen: Kürzlich hat das Unternehmen mit Falcon Next-Gen SIEM und Falcon ASPM neue Produkte vorgestellt. Die umfassendere Strategie des Anbieters besteht darin, ein Komplettpaket für Datenschutz zu liefern, das vom Code über die Anwendung bis hin zum Device in der Cloud reicht. 7. Cloudflare Cloudflare ist ein führender Anbieter in Sachen Content Delivery Network Services. Diese Dienste stellt das Unternehmen über seine vereinheitlichte “Cloudflare One”-Plattform zur Verfügung. Während Cloudflare bei IDC als “Leader” im Bereich Zero Trust Network Access gilt, sieht Forrester das Unternehmen im Bereich SSE als “Strong Performer”. Power Moves: Ende Mai 2024 verkündete Cloudflare, den Zero-Trust-Spezialisten BastionZero zu übernehmen. Das Ziel: Die Remote-Access-Erfahrung für Cloudflare-One-Kunden weiter zu optimieren. In Zahlen ausgedrückt: 30 Prozent – um diesen Wert stieg der Umsatz von Cloudflare im ersten Quartal 2024 (im Vergleich zum Vorjahr) auf rund 379 Millionen Dollar. Ausblick: Ende Mai 2024 gab Cloudflare eine strategische Partnerschaft mit Crowdstrike bekannt. Das Ziel besteht dabei darin, die Plattformen beider Unternehmen zu kombinieren, um die Kunden dabei zu unterstützen, ihre Security-Infrastruktur zu konsolidieren. Um Kunden mit globaler Ausrichtung eine vollständig integrierte Lösung über eine API liefern zu können, nutzen Crowdstrike und Cloudflare Channel-Partnerschaften. 8. Zscaler Laut Gartners aktuellem Magic Quadrant im Bereich Secure Service Edge gehört Zscaler hier zu den führenden Anbietern. Zwar entwickelt Zscaler keine eigenen Firewalls – es bietet aber eine Cloud-basierte Plattform, um den Unternehmens-Traffic zu schützen. Dabei schützt der Zero-Trust-Ansatz von Zscaler Benutzer, Workloads und Devices – unter Einbeziehung von Machine Learning und künstlicher Intelligenz. Inzwischen deckt die Plattform von Zscaler auch IoT-Devices und OT-Systeme ab. Power Moves: Mitte März kündigte Zscaler die Übernahme des Security-Startups Avalor an. Die Data-Fabric-Technologie des Jungunternehmens soll Sicherheitsteams künftig dazu befähigen, Risikodaten zu aggregieren, zu normalisieren und zu deduplizieren – sowie zu tracken. Einen weiteren, nennenswerten Zukauf tätigte Zscaler darüber hinaus Anfang April 2024 mit AirGap Networks. In Zahlen ausgedrückt: Zwei Milliarden – die Anzahl der Phishing-Versuche, die die Zscaler-Plattform im Kalenderjahr 2023 insgesamt blockiert hat. Ausblick: Auch Zscaler entwickelt sein Angebotsportfolio beständig weiter. Zum Beispiel mit einer Zero-Trust-SD-WAN-Lösung, die Generative AI und Application Security zusammenbringt. Darüber hinaus plant der Anbieter, in Zukunft weitere KI-Funktionen in den Bereichen risikobasierte Business Insights sowie Unified Vulnerability Management einzuführen. 9. Netskope IDC sieht Netskope als führend in den Bereichen Network Edge Security as a Service (NESaaS) sowie ZTNA an. Auch Forrester stuft das Unternehmen als “Leader” unter den Anbietern von Security-Service-Edge-Plattformen ein. Laut IDC nutzt Netskope seine umfassende Cloud-Architektur, um ein ubiquitäres, leistungsfähiges und Edge-gestütztes Zero-Trust-Zugriffsmodell für alle Benutzer und Geräte anzubieten. Als wichtiges Differenzierungsmerkmal sehen die Analysten dabei Netskops Knowhow in Sachen CASB und API-Schutz. Power Moves: Anfang September 2023 hat Netskope den Digital-Monitoring-Spezialisten Kadiska aufgekauft. In Zahlen ausgedrückt: 500 Millionen Dollar – auf diese Summe beläuft sich inzwischen der jährliche, wiederkehrende Umsatz von Netskope. Ausblick: Netskope beansprucht für sich, der branchenweit erste SSE-Anbieter zu sein, der generative KI für SaaS-Sicherheit einsetzt. Auch in Sachen KI-basiertes CASB und DLP sieht sich das Unternehmen als Pionier. 10. Wiz Das Security-Startup Wiz adressiert einen zentralen Pain Point von Sicherheitsentscheidern: Daten im Rahmen einer Cloud-Migration abzusichern – und zwar bei maximaler Übersicht. Die Cloud-Sicherheitsplattform von Wiz beinhaltet Prevention-, Detection- sowie Response-Maßnahmen mit Blick auf Daten, Workloads, Entwicklungsumgebungen, Container- sowie Multi-Cloud-Umgebungen. Das Angebot des Startups hat dabei für viel Aufsehen gesorgt: Nur im angelaufenen Jahr 2024 konnte sich Wiz bereits Finanzierungskapital in Höhe von einer Milliarde Dollar sichern – bei einer Bewertung von 12 Milliarden Dollar. Power Moves: Anfang April akquirierte Wiz mit Gem Security ein anderes Startup-Unternehmen, das sich in Sachen Real Time Cloud Detection and Response einen Namen gemacht hatte. In Zahlen ausgedrückt: 350 Millionen Dollar – das ist der jährliche, wiederkehrende Umsatz von Wiz. Angesichts der Tatsache, dass das Unternehmen erst im Jahr 2020 gegründet wurde, ein beachtlicher Erfolg. Ausblick: Wiz ist heiß. Wie heiß, zeigte sich Mitte Juli 2024. Presseberichten zufolge soll die Google-Mutter Alphabet erwägen, Wiz Security für rund 23 Milliarden Dollar zu kaufen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die 10 wichtigsten Cybersecurity-Unternehmen​ Das Who is who der Cybersecurity: Diese zehn Unternehmen bilden die (momentane) Speerspitze der Branche.
Foto: Accogliente Design | shutterstock.com

Unternehmenskunden haben die Nase voll von punktuellen Sicherheitslösungen. Sie wollen eine Plattform, die alles schützt – Endanwender, Devices, Entwicklungsumgebungen und Daten. Und Sie streben danach, ihre Cybersecurity-Bemühungen zu automatisieren, zu analysieren sowie mit GenAI-Funktionen zu erweitern. Bei den führenden Unternehmen im Bereich Cybersecurity ist diese Botschaft angekommen: Sie entwickeln Plattformen, die Cloud-basiertes Management mit fortschrittlichen Datenanalysen sowie künstlicher Intelligenz kombinieren, um Sicherheitsprofis in Echtzeit mit Informationen zu versorgen.

In diesem Rahmen fand im Jahr 2023 eine umfassende Konsolidierung des Marktes statt – zudem wurden neue, strategische Allianzen geschmiedet. In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten Cybersecurity-Player.

1. Cisco

Der Netzwerkriese Cisco hat sich – insbesondere durch Übernahmen – ein breites Portfolio von Sicherheitsprodukten “erarbeitet”:

Viptela für SD-WAN,

Meraki für Cloud Management,

Duo für Authentifizierung,

Thousand Eyes für Digital Experience Monitoring und

AppDynamics für Observability.

Angesichts der funktionellen Überschneidungen seiner Produktlinien musste sich Cisco zuletzt Kritik gefallen lassen – und hat darauf reagiert, indem es im Rahmen des jüngsten Security Cloud Release Einzelprodukte durch Suiten ersetzt hat.

Power Moves: Mit der Akquise des SIEM– und Analytics-Spezialisten Splunk hat Cisco einen großen Wurf gelandet. Die Übernahme eröffnet dem Konzern die Möglichkeit, seine Netzwerk-, Security- und Observability-Angebote mit den KI-basierten Analytics-Fähigkeiten von Splunk anzureichern.

In Zahlen ausgedrückt: 28 Milliarden Dollar – der Betrag, den Cisco für Splunk auf den Tisch gelegt hat.

Ausblick: Cisco konnte im Bereich Security im dritten Quartal 2024 satte 1,3 Milliarden Dollar umsetzen (inklusive Splunk-Revenue). Angesichts der Tatsache, dass das lediglich sieben Prozent des gesamten Umsatzes von Cisco sind, ist hier aber noch Luft nach oben. Dabei dürfte auch das Cross-Selling-Potenzial mit Blick auf Splunk eine Rolle spielen: Cisco hat diesbezüglich nach eigenen Angaben rund 5.000 mögliche Kunden identifiziert.

2. Broadcom

Als Broadcom im Jahr 2022 ankündigte, VMware übernehmen zu wollen, lag der Fokus dabei vor allem auf den Virtualisierungs- und Hybrid-Cloud-Management-Plattformen des Unternehmens. Allerdings ergab sich durch die Möglichkeit, die IT-Sicherheits-Ressourcen von VMware mit denen von Symantec, das bereits 2019 von Broadcom übernommen worden war, zu kombinieren. Diese Chance erkannte der Technologieriese und entschied sich letztlich dagegen, VMwares Endpoint-Security-Sparte Carbon Black zu veräußern. Stattdessen sollen die Angebote von Symantec und VMware nun integriert werden. Das ist aufgrund zahlreicher funktionaler Überschneidungen – etwa in den Bereichen SSE und SASE – keine leichte Aufgabe. Falls es gelingt, dürfte Broadcom davon jedoch massiv profitieren.

Power Moves: Die Entscheidung, Carbon Black nicht zu verkaufen.

In Zahlen ausgedrückt: 49 Milliarden Dollar – der Betrag, den Broadcom für VMware hingelegt hat.

Ausblick: Auf dem Mobile World Congress 2024 kündigte Broadcom seine erste Integration an – ein SASE-Offering, das VMware VeloCloud SD-WAN und Symantec SSE kombiniert. Es dürfte nur der Anfang sein: Broadcom hat bekundet, erhebliche Ressourcen für Innovation und Integration bereitstellen zu wollen.

3. Palo Alto Networks

Palo Alto Networks zählt zu den etablierten Playern im Bereich Cybersecurity und ist ein Leader im Magic Quadrant von Gartner für SSE sowie im Forrester-Wave-Report für XDR. Dabei ist Palo Alto nicht nur wegen seiner Rolle als “Erfinder” der “App-aware” Firewall gefragt, sondern auch wegen seines Platformization-Ansatzes, der darauf abstellt, den Kunden eine integrierte Sicherheitsplattform zur Verfügung zu stellen.

Power Moves: Im Mai 2024 kündigte Palo Alto eine weitreichende Partnerschaft mit IBM an, die diverse Aspekte umfasst. Demnach wird Palo Alto künftig bevorzugter Sicherheitspartner von Big Blue. Im Gegensatz verpflichtet sich IBM, rund 1.000 seiner Security-Berater in Sachen Migration, Adoption und Deployment von Palo-Alto-Netzwerkprodukten zu schulen. Darüber hinaus sieht die Kooperation vor, dass Palo Alto IBMs Large Language Model (LLM) watsonx in sein Cortex-XSIAM-Produkt integriert. Zudem soll IBMs QRadar-SIEM-Produkt künftig unter dem Dach von Palo Alto laufen und die Kunden auf die SOC-Plattform des Sicherheitsspezialisten migriert werden.

In Zahlen ausgedrückt: 15 Prozent – um diesen Wert konnte Palo Alto in Q3 2024 seinen Umsatz (1,98 Milliarden Dollar) im Jahresvergleich steigern.

Ausblick: Palo Alto wettet darauf, dass die Enterprise-Kunden auf die Vision einer KI-basierten All-in-One-Security-Plattform anspringen. Die Chancen auf Erfolg stehen alles andere als schlecht.

4. Microsoft

Auch Microsoft hat den Weg der Plattform eingeschlagen und eine Vielzahl von Standalone-Tools in sechs Produktlinien konsolidiert:

Defender,

Sentinel,

ntra,

Purview,

Priva und

Intune.

Durch seine enge Verflechtung mit ChatGPT-Entwickler OpenAI hat sich Microsoft zudem eine führende Position im Bereich Generative AI erarbeitet. Das wesentliche Produkt in diesem Bereich ist Copilot for Security. Darüber hinaus verfügen die Redmonder auch über ein umfassendes SSE-Angebot und werden im Forrester-Wave-Report 2024 als Leader im Bereich der XDR-Plattformen geführt.

Power Moves: Im März 2024 gab Microsoft bekannt, die Mitbegründer des KI-Startups Inflection eingestellt zu haben. Mustafa Suleyman und Karen Simonyan sollen künftig Microsofts KI-Aktivitäten steuern. Zudem kündigte der Windows-Konzern eine vereinheitlichte SOC-Plattform an, die SIEM-, XDR-, SOAR- und weitere Funktionen bündeln soll.

In Zahlen ausgedrückt: 20 Milliarden Dollar – das ist der Umsatz, den die Security-Sparte von Microsoft (nach eigenen Angaben) pro Jahr erwirtschaftet. Die jährliche Wachstumsrate seines Cybersecurity-Geschäfts beziffern die Redmondern auf über 30 Prozent.

Ausblick: Microsoft hatte in jüngster Vergangenheit aufgrund von staatlich gelenkten Hackangriffen mit schlechter Presse zu kämpfen. Der Konzern reagierte darauf, indem CEO Satya Nadella bekräftigte, dass Security für sein Unternehmen höchste Priorität genieße.

5. Fortinet

Der Security-Anbieter Fortinet hat zwei wesentliche Vorteile auf seiner Seite: Zum einen ist das Unternehmen in der Lage, Netzwerk und Security in einer einheitlichen Plattform zu bündeln. Zum anderen entwickelt Fortinet seine eigenen Chips und verfügt mit FortiOS zudem über ein proprietäres Betriebssystem. Deshalb ist der Anbieter in der Lage, seine Produkte größtenteils selbst zu entwickeln – und vollständig zu integrieren, vom Netzwerk-Switch bis hin zur SASE-Lösung.

Power Moves: Anfang Juni 2024 gab Fortinet bekannt, den Cloud-Security-Spezialisten Lacework übernehmen zu wollen. Dessen Cloud Native Application Protection Platform (CNAPP) soll künftig in das Unified-SASE-Offering von Fortinet integriert werden.

In Zahlen ausgedrückt: Sieben Prozent – der Wert, um den das Unternehmen seinen Umsatz im ersten Quartal 2024 steigern konnte (im Vergleich zum Vorjahr).

Ausblick: Fortinet unternimmt große Anstrengungen, um im Bereich (Unified-) SASE zum Maß der Dinge zu werden. Dabei versucht das Unternehmen, eine Art goldenen Mittelweg zu finden für Kunden, die zwar auf eine konsolidierte Plattform Wert legen, sich aber nicht an einen bestimmten Anbieter binden wollen.

6. Crowdstrike

Auch Crowdstrike wird von Analysten gelobt und gilt sowohl bei Gartner (Endpoint Protection Platforms) als auch bei IDC (Managed Detection and Response) und Forrester (Extended Detection and Response) als führend. Laut IDC verfüge Crowdstrike dabei über eine ausgeprägte funktionale Breite und Tiefe, die in seine Falcon-Plattform integriert sei.

Power Moves: Im März 2024 kündigte Crowdstrike die Übernahme des israelischen Startups Flow Security an – einem Spezialisten im Bereich Data Security Posture Management (DSPM).

In Zahlen ausgedrückt: 33 Prozent – diese Umsatzsteigerung konnte Crowdstrike im dritten Quartal 2024 (im Jahresvergleich) erzielen und näherte sich damit weiter der Eine-Milliarde-Dollar-Marke (921 Millionen Dollar).

Ausblick: Crowdstrike wird nicht müde, neue Innovationen auf den Markt zu bringen: Kürzlich hat das Unternehmen mit Falcon Next-Gen SIEM und Falcon ASPM neue Produkte vorgestellt. Die umfassendere Strategie des Anbieters besteht darin, ein Komplettpaket für Datenschutz zu liefern, das vom Code über die Anwendung bis hin zum Device in der Cloud reicht.

7. Cloudflare

Cloudflare ist ein führender Anbieter in Sachen Content Delivery Network Services. Diese Dienste stellt das Unternehmen über seine vereinheitlichte “Cloudflare One”-Plattform zur Verfügung. Während Cloudflare bei IDC als “Leader” im Bereich Zero Trust Network Access gilt, sieht Forrester das Unternehmen im Bereich SSE als “Strong Performer”.

Power Moves: Ende Mai 2024 verkündete Cloudflare, den Zero-Trust-Spezialisten BastionZero zu übernehmen. Das Ziel: Die Remote-Access-Erfahrung für Cloudflare-One-Kunden weiter zu optimieren.

In Zahlen ausgedrückt: 30 Prozent – um diesen Wert stieg der Umsatz von Cloudflare im ersten Quartal 2024 (im Vergleich zum Vorjahr) auf rund 379 Millionen Dollar.

Ausblick: Ende Mai 2024 gab Cloudflare eine strategische Partnerschaft mit Crowdstrike bekannt. Das Ziel besteht dabei darin, die Plattformen beider Unternehmen zu kombinieren, um die Kunden dabei zu unterstützen, ihre Security-Infrastruktur zu konsolidieren. Um Kunden mit globaler Ausrichtung eine vollständig integrierte Lösung über eine API liefern zu können, nutzen Crowdstrike und Cloudflare Channel-Partnerschaften.

8. Zscaler

Laut Gartners aktuellem Magic Quadrant im Bereich Secure Service Edge gehört Zscaler hier zu den führenden Anbietern. Zwar entwickelt Zscaler keine eigenen Firewalls – es bietet aber eine Cloud-basierte Plattform, um den Unternehmens-Traffic zu schützen. Dabei schützt der Zero-Trust-Ansatz von Zscaler Benutzer, Workloads und Devices – unter Einbeziehung von Machine Learning und künstlicher Intelligenz. Inzwischen deckt die Plattform von Zscaler auch IoT-Devices und OT-Systeme ab.

Power Moves: Mitte März kündigte Zscaler die Übernahme des Security-Startups Avalor an. Die Data-Fabric-Technologie des Jungunternehmens soll Sicherheitsteams künftig dazu befähigen, Risikodaten zu aggregieren, zu normalisieren und zu deduplizieren – sowie zu tracken. Einen weiteren, nennenswerten Zukauf tätigte Zscaler darüber hinaus Anfang April 2024 mit AirGap Networks.

In Zahlen ausgedrückt: Zwei Milliarden – die Anzahl der Phishing-Versuche, die die Zscaler-Plattform im Kalenderjahr 2023 insgesamt blockiert hat.

Ausblick: Auch Zscaler entwickelt sein Angebotsportfolio beständig weiter. Zum Beispiel mit einer Zero-Trust-SD-WAN-Lösung, die Generative AI und Application Security zusammenbringt. Darüber hinaus plant der Anbieter, in Zukunft weitere KI-Funktionen in den Bereichen risikobasierte Business Insights sowie Unified Vulnerability Management einzuführen.

9. Netskope

IDC sieht Netskope als führend in den Bereichen Network Edge Security as a Service (NESaaS) sowie ZTNA an. Auch Forrester stuft das Unternehmen als “Leader” unter den Anbietern von Security-Service-Edge-Plattformen ein. Laut IDC nutzt Netskope seine umfassende Cloud-Architektur, um ein ubiquitäres, leistungsfähiges und Edge-gestütztes Zero-Trust-Zugriffsmodell für alle Benutzer und Geräte anzubieten. Als wichtiges Differenzierungsmerkmal sehen die Analysten dabei Netskops Knowhow in Sachen CASB und API-Schutz.

Power Moves: Anfang September 2023 hat Netskope den Digital-Monitoring-Spezialisten Kadiska aufgekauft.

In Zahlen ausgedrückt: 500 Millionen Dollar – auf diese Summe beläuft sich inzwischen der jährliche, wiederkehrende Umsatz von Netskope.

Ausblick: Netskope beansprucht für sich, der branchenweit erste SSE-Anbieter zu sein, der generative KI für SaaS-Sicherheit einsetzt. Auch in Sachen KI-basiertes CASB und DLP sieht sich das Unternehmen als Pionier.

10. Wiz

Das Security-Startup Wiz adressiert einen zentralen Pain Point von Sicherheitsentscheidern: Daten im Rahmen einer Cloud-Migration abzusichern – und zwar bei maximaler Übersicht. Die Cloud-Sicherheitsplattform von Wiz beinhaltet Prevention-, Detection- sowie Response-Maßnahmen mit Blick auf Daten, Workloads, Entwicklungsumgebungen, Container- sowie Multi-Cloud-Umgebungen. Das Angebot des Startups hat dabei für viel Aufsehen gesorgt: Nur im angelaufenen Jahr 2024 konnte sich Wiz bereits Finanzierungskapital in Höhe von einer Milliarde Dollar sichern – bei einer Bewertung von 12 Milliarden Dollar.

Power Moves: Anfang April akquirierte Wiz mit Gem Security ein anderes Startup-Unternehmen, das sich in Sachen Real Time Cloud Detection and Response einen Namen gemacht hatte.

In Zahlen ausgedrückt: 350 Millionen Dollar – das ist der jährliche, wiederkehrende Umsatz von Wiz. Angesichts der Tatsache, dass das Unternehmen erst im Jahr 2020 gegründet wurde, ein beachtlicher Erfolg.

Ausblick: Wiz ist heiß. Wie heiß, zeigte sich Mitte Juli 2024. Presseberichten zufolge soll die Google-Mutter Alphabet erwägen, Wiz Security für rund 23 Milliarden Dollar zu kaufen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die 10 wichtigsten Cybersecurity-Unternehmen​ Weiterlesen »

Homeoffice – weniger Gehalt und schlechtere Karriereaussichten?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?quality=50&strip=all 2088w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für Mitarbeiter, die bevorzugt im Homeoffice arbeiten, könnte sich die fehlende Präsenz vor Ort beim Arbeitgeber nachteilig auf die Einkommensentwicklung sowie Karrierechancen auswirken. Vision icon – Shutterstock 2555459003 Eine aktuelle Umfrage der HR-Unternehmensberatung Robert Half unter 500 Arbeitgebern verdeutlicht, dass regelmäßige Präsenz im Büro als bedeutender Vorteil für die Karriere wahrgenommen wird. 69 Prozent der befragten Unternehmen sind der Meinung, dass physische Anwesenheit die Chancen auf eine Beförderung erhöht – davon stimmen 21 Prozent „stark zu“ und 48 Prozent „etwas zu“. Nur neun Prozent der Arbeitgeber widersprechen dieser Ansicht.  Die Ergebnisse zeigen, dass viele Unternehmen die physische Nähe zwischen Mitarbeitenden und Vorgesetzten schätzen, da sie den spontanen Austausch und eine stärkere Sichtbarkeit im Arbeitsumfeld ermöglichen. Diese Faktoren gelten als entscheidend für den beruflichen Aufstieg. Besonders jüngere Mitarbeitende profitieren von der Expertise und Unterstützung erfahrener Kollegen, wenn diese regelmäßig vor Ort präsent sind.    Bessere Arbeitsergebnisse durch Büropräsenz Die Umfrage legt nahe, dass sich die Produktivität durch physische Zusammenarbeit verbessert. Spontane Absprachen, direkter Austausch und Teamarbeit im Büro beschleunigen das Lösen von Aufgaben und fördern kreative Prozesse. Arbeitgeber sehen die physische Anwesenheit daher als Schlüssel, um Arbeitsqualität und Ergebnisse zu verbessern. Dies ist besonders wichtig in Branchen, in denen Innovation und Teamarbeit entscheidend sind.    Große regionale Gehaltsunterschiede In Deutschland basieren Gehaltsunterschiede nicht nur auf regionalen Lebenshaltungskosten, sondern spiegeln auch Faktoren wie Expertise, Erfahrung und individuelle Leistung wider. Regionale Unterschiede spielen jedoch weiterhin eine zentrale Rolle, wie die folgenden Zahlen zeigen:  Höhere Gehälter in Städten mit hohen Lebenshaltungskosten: München (+14 Prozent), Hamburg (+15 Prozent), Frankfurt (+12 Prozent), Stuttgart (+6 Prozent).  Niedrigere Gehälter in Regionen mit geringeren Kosten: Leipzig (-6 Prozent), Hannover (-3 Prozent), Dortmund (-3 Prozent).  Zusätzlich orientieren sich viele Unternehmen an sogenannten Gehaltsbändern, die Positionen und Karrierestufen vorgeben, um Transparenz und Vergleichbarkeit zu gewährleisten. Diese berücksichtigen nicht nur den Arbeitsort, sondern auch Qualifikationen und die erbrachte Leistung der Mitarbeitenden. Anders als in den USA gibt es in Deutschland keine standardisierte Gehaltskürzung für Mitarbeitende, die ins Homeoffice wechseln oder in günstigere Regionen ziehen.  Mit der zunehmenden Verbreitung von Remote-Arbeit rückt die Frage in den Fokus, wie Gehälter künftig fair und transparent gestaltet werden können – insbesondere, wenn örtliche Lebenshaltungskosten weniger stark ins Gewicht fallen und die individuelle Performance an Bedeutung gewinnt.  Hybride Modelle für faire Vergütungs- und Karrierestrukturen Mit der zunehmenden Verbreitung hybrider Arbeitsmodelle stellt sich die Frage, wie Unternehmen langfristig eine faire Balance zwischen Flexibilität, Karrierechancen und Vergütung gewährleisten können. Unternehmen, die die Vorteile der Büropräsenz aktiv nutzen und gleichzeitig die Bedürfnisse von Mitarbeitenden im Homeoffice berücksichtigen, könnten im Wettbewerb um Fachkräfte im Vorteil sein.  Ein modernes Vergütungs- und Karrieremodell sollte nicht nur regionale Lebenshaltungskosten berücksichtigen, sondern auch die Bedeutung von physischer Präsenz berücksichtigen etwa für eine produktive Teamdynamik. Hier könnte ein Ansatz sein, hybride Arbeitsweisen mit klar definierten Leistungszielen und regelmäßigen Bürotreffen zu kombinieren, um sowohl die Qualität der Arbeit als auch die Sichtbarkeit der Mitarbeitenden zu gewährleisten.  

Homeoffice – weniger Gehalt und schlechtere Karriereaussichten?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?quality=50&strip=all 2088w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Karriereknick.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für Mitarbeiter, die bevorzugt im Homeoffice arbeiten, könnte sich die fehlende Präsenz vor Ort beim Arbeitgeber nachteilig auf die Einkommensentwicklung sowie Karrierechancen auswirken. Vision icon – Shutterstock 2555459003

Eine aktuelle Umfrage der HR-Unternehmensberatung Robert Half unter 500 Arbeitgebern verdeutlicht, dass regelmäßige Präsenz im Büro als bedeutender Vorteil für die Karriere wahrgenommen wird. 69 Prozent der befragten Unternehmen sind der Meinung, dass physische Anwesenheit die Chancen auf eine Beförderung erhöht – davon stimmen 21 Prozent „stark zu“ und 48 Prozent „etwas zu“. Nur neun Prozent der Arbeitgeber widersprechen dieser Ansicht. 

Die Ergebnisse zeigen, dass viele Unternehmen die physische Nähe zwischen Mitarbeitenden und Vorgesetzten schätzen, da sie den spontanen Austausch und eine stärkere Sichtbarkeit im Arbeitsumfeld ermöglichen. Diese Faktoren gelten als entscheidend für den beruflichen Aufstieg. Besonders jüngere Mitarbeitende profitieren von der Expertise und Unterstützung erfahrener Kollegen, wenn diese regelmäßig vor Ort präsent sind. 

 

Bessere Arbeitsergebnisse durch Büropräsenz

Die Umfrage legt nahe, dass sich die Produktivität durch physische Zusammenarbeit verbessert. Spontane Absprachen, direkter Austausch und Teamarbeit im Büro beschleunigen das Lösen von Aufgaben und fördern kreative Prozesse. Arbeitgeber sehen die physische Anwesenheit daher als Schlüssel, um Arbeitsqualität und Ergebnisse zu verbessern. Dies ist besonders wichtig in Branchen, in denen Innovation und Teamarbeit entscheidend sind. 

 

Große regionale Gehaltsunterschiede

In Deutschland basieren Gehaltsunterschiede nicht nur auf regionalen Lebenshaltungskosten, sondern spiegeln auch Faktoren wie Expertise, Erfahrung und individuelle Leistung wider. Regionale Unterschiede spielen jedoch weiterhin eine zentrale Rolle, wie die folgenden Zahlen zeigen: 

Höhere Gehälter in Städten mit hohen Lebenshaltungskosten: München (+14 Prozent), Hamburg (+15 Prozent), Frankfurt (+12 Prozent), Stuttgart (+6 Prozent). 

Niedrigere Gehälter in Regionen mit geringeren Kosten: Leipzig (-6 Prozent), Hannover (-3 Prozent), Dortmund (-3 Prozent). 

Zusätzlich orientieren sich viele Unternehmen an sogenannten Gehaltsbändern, die Positionen und Karrierestufen vorgeben, um Transparenz und Vergleichbarkeit zu gewährleisten. Diese berücksichtigen nicht nur den Arbeitsort, sondern auch Qualifikationen und die erbrachte Leistung der Mitarbeitenden. Anders als in den USA gibt es in Deutschland keine standardisierte Gehaltskürzung für Mitarbeitende, die ins Homeoffice wechseln oder in günstigere Regionen ziehen. 

Mit der zunehmenden Verbreitung von Remote-Arbeit rückt die Frage in den Fokus, wie Gehälter künftig fair und transparent gestaltet werden können – insbesondere, wenn örtliche Lebenshaltungskosten weniger stark ins Gewicht fallen und die individuelle Performance an Bedeutung gewinnt. 

Hybride Modelle für faire Vergütungs- und Karrierestrukturen

Mit der zunehmenden Verbreitung hybrider Arbeitsmodelle stellt sich die Frage, wie Unternehmen langfristig eine faire Balance zwischen Flexibilität, Karrierechancen und Vergütung gewährleisten können. Unternehmen, die die Vorteile der Büropräsenz aktiv nutzen und gleichzeitig die Bedürfnisse von Mitarbeitenden im Homeoffice berücksichtigen, könnten im Wettbewerb um Fachkräfte im Vorteil sein. 

Ein modernes Vergütungs- und Karrieremodell sollte nicht nur regionale Lebenshaltungskosten berücksichtigen, sondern auch die Bedeutung von physischer Präsenz berücksichtigen etwa für eine produktive Teamdynamik. Hier könnte ein Ansatz sein, hybride Arbeitsweisen mit klar definierten Leistungszielen und regelmäßigen Bürotreffen zu kombinieren, um sowohl die Qualität der Arbeit als auch die Sichtbarkeit der Mitarbeitenden zu gewährleisten. 

Homeoffice – weniger Gehalt und schlechtere Karriereaussichten?​ Weiterlesen »

HP OmniBook Ultra 14 im Test: Dank Ryzen AI 300 flott und mit langer Akku-Laufzeit​

Allgemein

Chris Hoffman Auf einen Blick Pro Hervorragende Akkulaufzeit unter realen Bedingungen Ausgezeichnete Leistung dank Ryzen AI 300 Solide Verarbeitungsqualität Kontra KI-Funktionen sind noch fraglich Keine Copilot+ PC KI-Funktionen zum Start Wenige Anschlüsse Ein OLED-Display würde besser aussehen Fazit Das HP OmniBook Ultra 14 beeindruckt als robustes und hochwertig verarbeitetes Notebook. Der AMD Ryzen AI 300-Prozessor übertrifft die Intel “Meteor Lake”-CPUs sowohl in Leistung als auch Akkulaufzeit. Kompatibilitätsprobleme, wie sie bei Qualcomm Snapdragon X Elite-Modellen auftreten könnten, entfallen.Trotz dieser Vorteile ist der HP-Laptop nicht für jeden die erste Wahl. Nutzer könnten ein OLED-Display, eine eigenständige Grafikkarte oder mehr Anschlüsse wünschen. Mit der Einführung der Lunar-Lake-Laptops, sind bald erweiterte Optionen zu erwarten. Dennoch bleibt das HP OmniBook Ultra 14 ein herausragendes Gerät zu einem fairen Preis, sofern es den eigenen Bedürfnissen entspricht. Das HP OmniBook Ultra 14 ist dank seines Prozessors AMD Ryzen AI 300 ein “KI-PC der nächsten Generation”. Aber obwohl dieses Gerät über eine neuronale Verarbeitungseinheit (NPU) für lokale KI-Anwendungen verfügt − und demnächst auch über Copilot+ PC-Funktionen − ist KI hier nicht das große Thema. Hinter den “KI”-Logos auf diesem Gerät verbirgt sich ein solides Notebook, das dank der neuesten AMD-Hardware eine lange Akkulaufzeit und eine hervorragende Leistung im realen Einsatz bietet. Zunächst ein Wort zum Namen: Im Mai 2024 kündigte HP eine Umbenennung seiner gesamten PC-Produktpalette an und ließ Namen wie “Spectre” und “Dragonfly” fallen Das Wort “OmniBook” bedeutet, dass es sich hier um ein Consumer-Notebook handelt. Wenn es für kommerzielle Nutzer gedacht wäre, würde HP es “EliteBook” oder “ProBook” nennen. (HP wird jedoch weiterhin die Bezeichnung “Omen” für Gaming-PCs verwenden. Design & Verarbeitung Das HP OmniBook Ultra 14 ist mit einem Prozessor der AMD Ryzen AI 300 Serie ausgestattet. Diese Hardware umfasst eine neuronale Verarbeitungseinheit (NPU) mit bis zu 55 TOPS für lokale KI-Anwendungen. Aus diesem Grund positioniert HP diesen PC als “KI-PC der nächsten Generation” − er wird bald mit den Funktionen von Copilot PC kompatibel sein, im Gegensatz zu den “KI-PCs” der vorherigen Generation mit Hardware wie Intels Meteor Lake. Von diesem PC gibt es mehrere Varianten. HP hat uns ein “Spitzenmodell” mit einer AMD Ryzen AI 9 HX 375 CPU, 32 GB RAM und 2 TB Solid-State-Speicher zur Verfügung gestellt. Es sind auch einige andere Varianten erhältlich. Die günstigste Variante ist ein AMD Ryzen AI 9 365 Prozessor, 16 GB RAM und eine SSD mit 512 GB Speicherkapazität. Das HP OmniBook Ultra 14 ist robust und gut verarbeitet − und, was am wichtigsten ist: Das Notebook besitzt einen AMD Ryzen AI 300 Prozessor. Dieser hat einfach eine bessere Leistung und eine längere Akkulaufzeit als die Meteor Lake-CPUs von Intel. Das HP OmniBook Ultra 14 ist ein gut durchdachtes, solides Gerät. Die Gehäuseteile sind überwiegend aus silberfarbenem Metall gefertigt. Es gibt nur wenige Kunststoffelemente, wie den Rahmen. HP hat zwar das Branding seiner Consumer-Notebooks geändert, aber die “Spectre”-Designsprache ist hier noch deutlich zu erkennen. Die kantigen Ecken, an denen das Display auf die Unterseite des Laptops trifft, sind unverkennbares HP-Design. Chris Hoffman Das 14-Zoll OmniBook Ultra 14 ist ein solides Gerät und mit 1,57 Kilogramm etwas schwerer als einige “dünne und leichte” Laptops. Das HP-Modell hat eine gute Gewichtsverteilung und eine sehr vernünftige Kombination aus Größe und Gewicht. Das Scharnier ist gut verarbeitet und leichtgängig. Das Ladegerät, das HP mitliefert, ist ebenfalls ungewöhnlich gut und kommt mit einem geflochtenen Kabel. Wie viele von uns schon bei Handys festgestellt haben, halten geflochtene USB-Ladekabel auf lange Sicht besser. HP wirbt zwar mit dem Begriff “KI-PC” − komplett mit einem “KI”-Logo unter der linken Seite der Tastatur und auf der Rückseite des Scharniers. Bedenken Sie allerdings, dass dieses Gerät erst mit dem Windows-Update auf Version 24H2 mit Copilot+ PC-Funktionen ausgestattet sein wird. Das Update wurde am 1. Oktober 2024 veröffentlich und wird nach und nach online ausgerollt. Allerdings sind diese Copilot PC-Funktionen noch nicht allzu interessant. HP liefert eine “HP AI Companion“-App mit diesem Gerät aus. Sie integriert eine Reihe von KI-Tools, die die NPU des Systems nutzen, um etwa Daten zu analysieren und Sie durch die Änderung verschiedener PC-Einstellungen zu führen. Es ist schön zu sehen, dass PC-Hersteller Tools anbieten, die die Leistungsfähigkeit der von ihnen angebotenen KI-Hardware demonstrieren. Allerdings ist das keine lebensverändernde Software, die Sie dazu bringen wird, sich einen KI-Laptop zuzulegen. Auf unserem Testgerät ist ein wenig Bloatware installiert. Die lästigste davon ist McAfee Antivirus, das Sie auffordert, das Programm einzurichten. Aber Sie können McAfee ganz einfach deinstallieren. Außerdem gibt es eine Dropbox-Werbung sowie Adobe-Angebote und Googles Essentials-Apps im Startmenü. Es ist nicht gerade die sauberste Einrichtung, aber was Sie nicht wollen, können Sie leicht deinstallieren. Tastatur & Trackpad Das HP OmniBook Ultra 14 hat eine Tastatur in voller Größe mit einer Hintergrundbeleuchtung, die Sie ein- und ausschalten können. Sie ist in der Mitte des Laptops platziert, und die Tasten fühlen sich gut an, um darauf zu tippen. Ich empfinde sie keineswegs als schwammig. Ich konnte auch bei hohen Geschwindigkeiten präzise tippen. Chris Hoffman Und da es sich um ein KI-Notebook handelt, hat es natürlich eine Copilot+-Taste rechts neben der rechten Alt-Taste auf der Tastatur. Das Gerät besitzt auch ein gut dimensioniertes Trackpad, das mittig unter der Tastatur sitzt. Es hat eine gute Größe für ein Notebook − nicht zu klein und nicht zu groß. Die Handballenabweisung funktionierte beim Tippen hervorragend. Die glatte Oberfläche ist reaktionsschnell, egal ob ich den Cursor mit einem Finger bewegte, mit zwei Fingern scrollte oder Multitouch-Gesten verwendete. Auch die Klickfunktion des Trackpads war angenehm reaktionsschnell, obwohl ich von haptischen Touchpads wie denen des Surface Laptop 7 verwöhnt bin und mir wünschen würde, dass mehr Laptops damit ausgestattet wären. Display & Lautsprecher Das HP OmniBook Ultra 14 verfügt über einen 14-Zoll-IPS-Bildschirm mit einer Auflösung von 2,2K − das sind 2.240 × 1.400 Pixel. Der Bildschirm hat eine Bildwiederholrate von 60 Hz und eine Helligkeit von bis zu 400 nits. Der Bildschirm sieht gut aus, könnte aber etwas heller sein. Für ein produktivitätsorientiertes Notebook wie dieses ist er gut geeignet. Für die Produktivität und das allgemeine Surfen im Internet und den Medienkonsum war ich damit vollkommen zufrieden. Dennoch sind die Einschränkungen offensichtlich, sogar auf dem Papier: Die Helligkeit ist mit 400 nits ziemlich niedrig und einige Leute würden sich vielleicht mehr wünschen. Auch eine Bildwiederholrate von mehr als 60 Hz ist immer besser. OLED-Bildschirme sind viel schöner. Sie sind aber auch teuer und verbrauchen tendenziell mehr Strom, was die Akkulaufzeit verkürzt. Außerdem glänzt der Bildschirm etwas. Eine Antireflexionsbeschichtung, eine höhere Helligkeit oder eine matte Oberfläche können besser sein. Das hängt ganz von Ihnen ab und davon, wie Sie Ihr Notebook verwenden möchten. Das Vierfach-Lautsprechersystem dieses Notebooks ist eine der besten Boxen-Sets, die ich bei einem 14-Zoll-Produktivitätsnotebook gehört habe. Es hat eine gute Lautstärke, eine ziemlich breite Klangbühne und mehr Bass als der durchschnittliche 14-Zoll-Laptop. Es handelt sich nicht um die billigen, blechernen Lautsprecher, die leider in vielen preisgünstigen Laptops zu finden sind. Webcam, Mikrofon, Biometrie Das HP OmniBook Ultra 14 hat eine bessere Webcam als die meisten Laptops − zumindest auf dem Papier. Es handelt sich um eine 9-Megapixel-Webcam mit 1440p. Die meisten Laptops, die ich teste, haben höchstens 1080p-Webcams. Das Bild ist bei verschiedenen Lichtverhältnissen klar, obwohl ich etwa mehr Schärfe erwartet hätte. Sie haben auch Zugriff auf eine Reihe von KI-Effekten, mit denen Sie Ihr Webcam-Video über Windows Studio Effects und die HP-Software optimieren können. Über der Webcam befindet sich außerdem eine Art Klappe, um die Linse zu verdecken. Diese Funktion ist immer gut zu gebrauchen. Das integrierte Mikrofon des OmniBook Ultra 14 hat meine Stimme gut aufgenommen, obwohl ich bei anderen Laptops gefühlt eine klarere Tonqualität wahrgenommen habe. Mit der Webcam und dem Mikrofon ist dieses Notebook gut für Online-Meetings geeignet. Die ProBook- und EliteBook-Notebooks, die HP für professionelle Nutzer anbietet, könnten jedoch über bessere Webcams und Mikrofone verfügen. Das HP-Notebook verfügt sowohl über eine IR-Kamera für die Gesichtserkennung als auch über einen Fingerabdrucksensor. Der ist in die blaue Power-Taste in der oberen rechten Ecke der Tastatur integriert. Sie können entweder einen oder beide biometrischen Merkmale mit Windows Hello verwenden. Sowohl die Gesichts- als auch die Fingerabdruckerkennung funktionierten gut und ermöglichten mir eine schnelle Anmeldung am Laptop. Konnektivität Die Auswahl an Anschlüssen des HP OmniBook Ultra 14 ist begrenzt. Auf der rechten Seite befinden sich zwei USB Typ-C (Thunderbolt 4 / USB4 40 GBit/s) Anschlüsse − einer davon an der abgeschrägten Kante. Er funktioniert sehr gut mit dem eigenen Stromkabel des Notebooks. Chris Hoffman HP war stolz darauf, mir mitzuteilen, dass dies das erste AMD-betriebene Consumer-Notebook ist, das das Unternehmen mit Thunderbolt 4-Anschlüssen herausgebracht hat. Denken Sie daran, dass Sie einen dieser Anschlüsse zum Aufladen des Notebooks verwenden werden, so dass nur ein Anschluss frei bleibt, während das Notebook geladen wird. Auf der linken Seite des Laptops finden Sie einen USB Typ-A-Anschluss (10 GBit/s) und eine Audio-Kombibuchse. Das ist keine schlechte Auswahl an Anschlüssen. Einige moderne Laptops verzichten auf USB Typ-A-Anschlüsse oder sogar auf die Audiobuchsen. Aber wenn Sie unbedingt mehr USB Typ-C-Anschlüsse, mehr USB Typ-A-Anschlüsse oder Funktionen wie einen MicroSD-Leser oder einen HDMI-Ausgang benötigen, müssen Sie sich anderweitig umsehen oder entsprechende Adapter kaufen. Da dieses Gerät die AMD-Hardware der Ryzen AI 300-Serie integriert, bietet es sowohl Wi-Fi 7 als auch Bluetooth 5.4 für drahtlose Verbindungen. Das ist eine zukunftssichere drahtlose Ausstattung. Leistung Das HP OmniBook Ultra 14 liefert dank seines modernen AMD Ryzen AI 9 HX 375 Prozessors in Kombination mit 32 GB RAM und der 2-TB-SSD eine hervorragende Leistung bei Desktop-Produktivitätsanwendungen. Die neue Hardware von AMD ist kein Spielverderber. Wie immer haben wir das HP OmniBook Ultra 14 durch unsere Standard-Benchmarks laufen lassen, um zu sehen, wie es im Detail abschneidet. Chris Hoffman Zunächst lassen wir den PCMark 10 laufen, um uns ein Bild von der Gesamtleistung des Systems zu machen. Dieser Benchmark wurde entwickelt, um die Gesamtleistung des Systems zu messen, aber er konzentriert sich besonders auf die CPU-Leistung. Das HP OmniBook Ultra 14 erzielte im PCMark 10 eine Gesamtpunktzahl von 7.801. Damit liegt es ein wenig hinter dem teureren, auf Entwickler ausgerichteten Asus ProArt PX13, das mit einer ähnlichen CPU der Ryzen AI 300 Serie ausgestattet ist. Aber es liegt deutlich vor den Laptops mit Intel Meteor Lake-Prozessor. Chris Hoffman Als nächstes führen wir Cinebench R20 aus. Dies ist ein Multithreading-Benchmark, der sich auf die Gesamtleistung der CPU konzentriert. Es handelt sich um einen schnellen Benchmark, so dass die Kühlung bei längerer Arbeitslast kein Thema ist. Aber da es sich um einen Multithreading-Benchmark handelt, haben CPUs mit mehr Kernen einen großen Vorteil. Mit einer Multithreading-Punktzahl von 7.582 im Cinebench R20 schneidet das HP OmniBook Ultra 14 gut ab. Es liegt etwas hinter dem Asus ProArt PX13 zurück. Aber auch hier liegt es deutlich vor den Intel Meteor Lake Laptops. Chris Hoffman Wir haben auch eine Kodierung mit Handbrake durchgeführt. Dies ist ein weiterer Multithreading-Benchmark, der jedoch über einen längeren Zeitraum läuft. Dabei muss die Kühlung des Laptops anspringen. Viele Laptops werden unter Last gedrosselt und verlangsamt. Das HP OmniBook Ultra 14 benötigte 896 Sekunden − das sind knapp fünfzehn Minuten. Das ist deutlich länger als das Asus ProArt PX13, aber es schlägt wieder einmal die Intel Meteor Lake-Laptops. Chris Hoffman Als nächstes führen wir einen grafischen Benchmark durch. Es handelt sich zwar nicht um ein Gaming-Notebook, aber es ist trotzdem gut, die Leistung der GPU zu überprüfen. Wir führen 3Dmark Time Spy aus, einen grafischen Benchmark, der sich auf die GPU-Leistung konzentriert. Das HP OmniBook Ultra 14 und seine Radon 890M-Grafikkarte erreichten im 3DMark Time Spy eine Punktzahl von 3.909. Die meisten anderen Laptops, mit denen wir dieses Gerät vergleichen, verfügen über diskrete Nvidia-Grafikkarten. Sie sehen also, wie wichtig diskrete Grafikkarten sind. Aber die Radeon 890M-Grafik ist ein Fortschritt gegenüber der älteren Radeon-Grafik in dem betagten Asus ZenBook 14 OLED-System, mit dem wir es hier vergleichen. Insgesamt liefert das HP OmniBook Ultra 14 eine hervorragende Leistung. Es ist nicht ganz so schnell wie das Asus ProArt PX13 in unseren Benchmarks, aber es schlägt ähnliche Systeme mit Intel Meteor Lake Prozessoren mit Leichtigkeit. Natürlich verfügt dieses System nicht über eine diskrete Grafikkarte. Es ist also nicht ideal für Gamer und Personen, die mehr 3D-Leistung für professionelle Anwendungen benötigen. Akkulaufzeit Das HP OmniBook Ultra 14 ist mit einem 68 Wattstunden-Akku und AMDs CPU Ryzen AI 300 Serie ausgestattet. Unsere Benchmarks zeigen zwar, dass sie nicht so ausdauernd ist wie die Intel Lunar Lake- oder Qualcomm Snapdragon X Elite-Hardware. Allerdings handelt es sich um AMDs neueste Hardware, die eine höhere Energieeffizienz bietet als die meisten Laptops, die Sie in den Regalen finden. Chris Hoffman Um die Akkulaufzeit zu testen, spielen wir eine 4K-Kopie von Tears of Steel in Wiederholung unter Windows 11 mit aktiviertem Flugzeugmodus ab, bis sich das Notebook von selbst ausschaltet. Für unsere Akku-Benchmarks haben wir den Bildschirm auf 250 nits Helligkeit eingestellt. Dies ist ein optimales Szenario für jedes Notebook, da die lokale Videowiedergabe so effizient ist und die tatsächliche Akkulaufzeit im täglichen Gebrauch immer unter diesem Wert liegen wird. Das HP OmniBook Ultra 14 hielt 1.091 Minuten durch, das sind etwas mehr als 18 Stunden. Das ist ein großartiges Ergebnis − und es schlägt das Asus ProArt PX13 zusammen mit den Intel Meteor Lake-basierten Systemen. Aber viele Laptops erreichen in diesem Benchmark hohe Werte, nur um im täglichen Gebrauch schneller leer zu werden. Abgesehen von den synthetischen Benchmarks habe ich festgestellt, dass die Laptops der Ryzen AI 300-Serie − sowohl dieses Gerät als auch das Asus ProArt PX13, das ich getestet habe − bei typischer Desktop-Nutzung mit den von mir verwendeten Produktivitätsanwendungen eine lange Akkulaufzeit bieten. Für mich bedeutet das Anwendungen wie Google Chrome, Microsoft Word, Slack, OneNote, Excel und andere Desktop-Anwendungen. Bei mir liegt das Gerät in der Größenordnung einer ganztägigen Akkulaufzeit − aber auch hier kommt es darauf an, welche Programme Sie verwenden, welche Bildschirmhelligkeit Sie wählen und so weiter. Fazit Das HP OmniBook Ultra 14 ist ein großartiges Notebook. Es ist robust und gut verarbeitet. Und, was am wichtigsten ist: Es hat einen Prozessor der AMD Ryzen AI 300 Serie. Diese haben einfach eine bessere Leistung und eine längere Akkulaufzeit als die Meteor Lake-CPUs von Intel. Außerdem müssen Sie sich, anders als bei einem Qualcomm Snapdragon X Elite-Notebook, keine Gedanken über Kompatibilitätsprobleme machen. Aus diesem Grund würde ich dieses Notebook gerne einem Intel Meteor Lake-Notebook vorziehen. Dennoch ist es nicht für jeden geeignet. Manche Leute werden sich zum Beispiel ein OLED-Display wünschen. Oder Sie suchen nach einer diskreten Grafikkarte, damit Sie spielen oder professionelle Tools verwenden können. Oder vielleicht brauchen Sie einfach mehr Anschlüsse. Sobald die Lunar Lake Laptops den Platz von Meteor Lake auf dem Markt angekommen sind, haben Sie vielleicht viel mehr Optionen für Geräte mit starker Leistung und hoher Energieeffizienz. Dennoch ist dies ein großartiges Notebook zu einem fairen Preis − wenn diese Hardware das ist, wonach Sie suchen. Technische Daten Modellnummer: HP OmniBook Ultra AI PC 14-fd0197ng Herstellernummer: AW0V1EA#ABD CPU: AMD Ryzen AI 9 HX 375 Arbeitsspeicher: 32 GB LPDDR5 RAM Grafik/GPU: AMD Radeon 890M Bildschirm: 14-Zoll IPS-Display mit 60Hz Bildwiederholrate und Touchscreen, 2.240 × 1.400 Pixel Speicher: 2 TB PCIe Gen 4 Solid-State-Laufwerk Webcam: 9MP 1440p mit physischem Privacy Shutter Konnektivität: 2 × USB Typ-C (Thunderbolt 4, USB4 40 GBit/s), 1 × USB Typ-A (10 GBit/s), 1 × Combo-Audioanschluss Vernetzung: Wi-Fi 7, Bluetooth 5.4 Biometrische Merkmale: IR-Kamera und Fingerabdruckleser Akku-Kapazität: 68 Wattstunden Abmessungen: 31,52 × 22,76 × 1,65 cm Gewicht: 1,579 kg (PC-Welt) 

HP OmniBook Ultra 14 im Test: Dank Ryzen AI 300 flott und mit langer Akku-Laufzeit​ Chris Hoffman

Auf einen Blick

Pro

Hervorragende Akkulaufzeit unter realen Bedingungen

Ausgezeichnete Leistung dank Ryzen AI 300

Solide Verarbeitungsqualität

Kontra

KI-Funktionen sind noch fraglich

Keine Copilot+ PC KI-Funktionen zum Start

Wenige Anschlüsse

Ein OLED-Display würde besser aussehen

Fazit

Das HP OmniBook Ultra 14 beeindruckt als robustes und hochwertig verarbeitetes Notebook. Der AMD Ryzen AI 300-Prozessor übertrifft die Intel “Meteor Lake”-CPUs sowohl in Leistung als auch Akkulaufzeit. Kompatibilitätsprobleme, wie sie bei Qualcomm Snapdragon X Elite-Modellen auftreten könnten, entfallen.Trotz dieser Vorteile ist der HP-Laptop nicht für jeden die erste Wahl. Nutzer könnten ein OLED-Display, eine eigenständige Grafikkarte oder mehr Anschlüsse wünschen. Mit der Einführung der Lunar-Lake-Laptops, sind bald erweiterte Optionen zu erwarten. Dennoch bleibt das HP OmniBook Ultra 14 ein herausragendes Gerät zu einem fairen Preis, sofern es den eigenen Bedürfnissen entspricht.

Das HP OmniBook Ultra 14 ist dank seines Prozessors AMD Ryzen AI 300 ein “KI-PC der nächsten Generation”. Aber obwohl dieses Gerät über eine neuronale Verarbeitungseinheit (NPU) für lokale KI-Anwendungen verfügt − und demnächst auch über Copilot+ PC-Funktionen − ist KI hier nicht das große Thema. Hinter den “KI”-Logos auf diesem Gerät verbirgt sich ein solides Notebook, das dank der neuesten AMD-Hardware eine lange Akkulaufzeit und eine hervorragende Leistung im realen Einsatz bietet.

Zunächst ein Wort zum Namen: Im Mai 2024 kündigte HP eine Umbenennung seiner gesamten PC-Produktpalette an und ließ Namen wie “Spectre” und “Dragonfly” fallen Das Wort “OmniBook” bedeutet, dass es sich hier um ein Consumer-Notebook handelt. Wenn es für kommerzielle Nutzer gedacht wäre, würde HP es “EliteBook” oder “ProBook” nennen. (HP wird jedoch weiterhin die Bezeichnung “Omen” für Gaming-PCs verwenden.

Design & Verarbeitung

Das HP OmniBook Ultra 14 ist mit einem Prozessor der AMD Ryzen AI 300 Serie ausgestattet. Diese Hardware umfasst eine neuronale Verarbeitungseinheit (NPU) mit bis zu 55 TOPS für lokale KI-Anwendungen. Aus diesem Grund positioniert HP diesen PC als “KI-PC der nächsten Generation” − er wird bald mit den Funktionen von Copilot PC kompatibel sein, im Gegensatz zu den “KI-PCs” der vorherigen Generation mit Hardware wie Intels Meteor Lake.

Von diesem PC gibt es mehrere Varianten. HP hat uns ein “Spitzenmodell” mit einer AMD Ryzen AI 9 HX 375 CPU, 32 GB RAM und 2 TB Solid-State-Speicher zur Verfügung gestellt.

Es sind auch einige andere Varianten erhältlich. Die günstigste Variante ist ein AMD Ryzen AI 9 365 Prozessor, 16 GB RAM und eine SSD mit 512 GB Speicherkapazität.

Das HP OmniBook Ultra 14 ist robust und gut verarbeitet − und, was am wichtigsten ist: Das Notebook besitzt einen AMD Ryzen AI 300 Prozessor. Dieser hat einfach eine bessere Leistung und eine längere Akkulaufzeit als die Meteor Lake-CPUs von Intel.

Das HP OmniBook Ultra 14 ist ein gut durchdachtes, solides Gerät. Die Gehäuseteile sind überwiegend aus silberfarbenem Metall gefertigt. Es gibt nur wenige Kunststoffelemente, wie den Rahmen. HP hat zwar das Branding seiner Consumer-Notebooks geändert, aber die “Spectre”-Designsprache ist hier noch deutlich zu erkennen. Die kantigen Ecken, an denen das Display auf die Unterseite des Laptops trifft, sind unverkennbares HP-Design.

Chris Hoffman

Das 14-Zoll OmniBook Ultra 14 ist ein solides Gerät und mit 1,57 Kilogramm etwas schwerer als einige “dünne und leichte” Laptops. Das HP-Modell hat eine gute Gewichtsverteilung und eine sehr vernünftige Kombination aus Größe und Gewicht. Das Scharnier ist gut verarbeitet und leichtgängig.

Das Ladegerät, das HP mitliefert, ist ebenfalls ungewöhnlich gut und kommt mit einem geflochtenen Kabel. Wie viele von uns schon bei Handys festgestellt haben, halten geflochtene USB-Ladekabel auf lange Sicht besser.

HP wirbt zwar mit dem Begriff “KI-PC” − komplett mit einem “KI”-Logo unter der linken Seite der Tastatur und auf der Rückseite des Scharniers. Bedenken Sie allerdings, dass dieses Gerät erst mit dem Windows-Update auf Version 24H2 mit Copilot+ PC-Funktionen ausgestattet sein wird. Das Update wurde am 1. Oktober 2024 veröffentlich und wird nach und nach online ausgerollt. Allerdings sind diese Copilot PC-Funktionen noch nicht allzu interessant.

HP liefert eine “HP AI Companion“-App mit diesem Gerät aus. Sie integriert eine Reihe von KI-Tools, die die NPU des Systems nutzen, um etwa Daten zu analysieren und Sie durch die Änderung verschiedener PC-Einstellungen zu führen. Es ist schön zu sehen, dass PC-Hersteller Tools anbieten, die die Leistungsfähigkeit der von ihnen angebotenen KI-Hardware demonstrieren. Allerdings ist das keine lebensverändernde Software, die Sie dazu bringen wird, sich einen KI-Laptop zuzulegen.

Auf unserem Testgerät ist ein wenig Bloatware installiert. Die lästigste davon ist McAfee Antivirus, das Sie auffordert, das Programm einzurichten. Aber Sie können McAfee ganz einfach deinstallieren. Außerdem gibt es eine Dropbox-Werbung sowie Adobe-Angebote und Googles Essentials-Apps im Startmenü. Es ist nicht gerade die sauberste Einrichtung, aber was Sie nicht wollen, können Sie leicht deinstallieren.

Tastatur & Trackpad

Das HP OmniBook Ultra 14 hat eine Tastatur in voller Größe mit einer Hintergrundbeleuchtung, die Sie ein- und ausschalten können. Sie ist in der Mitte des Laptops platziert, und die Tasten fühlen sich gut an, um darauf zu tippen. Ich empfinde sie keineswegs als schwammig. Ich konnte auch bei hohen Geschwindigkeiten präzise tippen.

Chris Hoffman

Und da es sich um ein KI-Notebook handelt, hat es natürlich eine Copilot+-Taste rechts neben der rechten Alt-Taste auf der Tastatur.

Das Gerät besitzt auch ein gut dimensioniertes Trackpad, das mittig unter der Tastatur sitzt. Es hat eine gute Größe für ein Notebook − nicht zu klein und nicht zu groß. Die Handballenabweisung funktionierte beim Tippen hervorragend. Die glatte Oberfläche ist reaktionsschnell, egal ob ich den Cursor mit einem Finger bewegte, mit zwei Fingern scrollte oder Multitouch-Gesten verwendete.

Auch die Klickfunktion des Trackpads war angenehm reaktionsschnell, obwohl ich von haptischen Touchpads wie denen des Surface Laptop 7 verwöhnt bin und mir wünschen würde, dass mehr Laptops damit ausgestattet wären.

Display & Lautsprecher

Das HP OmniBook Ultra 14 verfügt über einen 14-Zoll-IPS-Bildschirm mit einer Auflösung von 2,2K − das sind 2.240 × 1.400 Pixel. Der Bildschirm hat eine Bildwiederholrate von 60 Hz und eine Helligkeit von bis zu 400 nits. Der Bildschirm sieht gut aus, könnte aber etwas heller sein. Für ein produktivitätsorientiertes Notebook wie dieses ist er gut geeignet. Für die Produktivität und das allgemeine Surfen im Internet und den Medienkonsum war ich damit vollkommen zufrieden.

Dennoch sind die Einschränkungen offensichtlich, sogar auf dem Papier: Die Helligkeit ist mit 400 nits ziemlich niedrig und einige Leute würden sich vielleicht mehr wünschen. Auch eine Bildwiederholrate von mehr als 60 Hz ist immer besser. OLED-Bildschirme sind viel schöner. Sie sind aber auch teuer und verbrauchen tendenziell mehr Strom, was die Akkulaufzeit verkürzt. Außerdem glänzt der Bildschirm etwas. Eine Antireflexionsbeschichtung, eine höhere Helligkeit oder eine matte Oberfläche können besser sein. Das hängt ganz von Ihnen ab und davon, wie Sie Ihr Notebook verwenden möchten.

Das Vierfach-Lautsprechersystem dieses Notebooks ist eine der besten Boxen-Sets, die ich bei einem 14-Zoll-Produktivitätsnotebook gehört habe. Es hat eine gute Lautstärke, eine ziemlich breite Klangbühne und mehr Bass als der durchschnittliche 14-Zoll-Laptop. Es handelt sich nicht um die billigen, blechernen Lautsprecher, die leider in vielen preisgünstigen Laptops zu finden sind.

Webcam, Mikrofon, Biometrie

Das HP OmniBook Ultra 14 hat eine bessere Webcam als die meisten Laptops − zumindest auf dem Papier. Es handelt sich um eine 9-Megapixel-Webcam mit 1440p. Die meisten Laptops, die ich teste, haben höchstens 1080p-Webcams. Das Bild ist bei verschiedenen Lichtverhältnissen klar, obwohl ich etwa mehr Schärfe erwartet hätte. Sie haben auch Zugriff auf eine Reihe von KI-Effekten, mit denen Sie Ihr Webcam-Video über Windows Studio Effects und die HP-Software optimieren können.

Über der Webcam befindet sich außerdem eine Art Klappe, um die Linse zu verdecken. Diese Funktion ist immer gut zu gebrauchen.

Das integrierte Mikrofon des OmniBook Ultra 14 hat meine Stimme gut aufgenommen, obwohl ich bei anderen Laptops gefühlt eine klarere Tonqualität wahrgenommen habe. Mit der Webcam und dem Mikrofon ist dieses Notebook gut für Online-Meetings geeignet. Die ProBook- und EliteBook-Notebooks, die HP für professionelle Nutzer anbietet, könnten jedoch über bessere Webcams und Mikrofone verfügen.

Das HP-Notebook verfügt sowohl über eine IR-Kamera für die Gesichtserkennung als auch über einen Fingerabdrucksensor. Der ist in die blaue Power-Taste in der oberen rechten Ecke der Tastatur integriert. Sie können entweder einen oder beide biometrischen Merkmale mit Windows Hello verwenden. Sowohl die Gesichts- als auch die Fingerabdruckerkennung funktionierten gut und ermöglichten mir eine schnelle Anmeldung am Laptop.

Konnektivität

Die Auswahl an Anschlüssen des HP OmniBook Ultra 14 ist begrenzt. Auf der rechten Seite befinden sich zwei USB Typ-C (Thunderbolt 4 / USB4 40 GBit/s) Anschlüsse − einer davon an der abgeschrägten Kante. Er funktioniert sehr gut mit dem eigenen Stromkabel des Notebooks.

Chris Hoffman

HP war stolz darauf, mir mitzuteilen, dass dies das erste AMD-betriebene Consumer-Notebook ist, das das Unternehmen mit Thunderbolt 4-Anschlüssen herausgebracht hat. Denken Sie daran, dass Sie einen dieser Anschlüsse zum Aufladen des Notebooks verwenden werden, so dass nur ein Anschluss frei bleibt, während das Notebook geladen wird.

Auf der linken Seite des Laptops finden Sie einen USB Typ-A-Anschluss (10 GBit/s) und eine Audio-Kombibuchse. Das ist keine schlechte Auswahl an Anschlüssen. Einige moderne Laptops verzichten auf USB Typ-A-Anschlüsse oder sogar auf die Audiobuchsen. Aber wenn Sie unbedingt mehr USB Typ-C-Anschlüsse, mehr USB Typ-A-Anschlüsse oder Funktionen wie einen MicroSD-Leser oder einen HDMI-Ausgang benötigen, müssen Sie sich anderweitig umsehen oder entsprechende Adapter kaufen.

Da dieses Gerät die AMD-Hardware der Ryzen AI 300-Serie integriert, bietet es sowohl Wi-Fi 7 als auch Bluetooth 5.4 für drahtlose Verbindungen. Das ist eine zukunftssichere drahtlose Ausstattung.

Leistung

Das HP OmniBook Ultra 14 liefert dank seines modernen AMD Ryzen AI 9 HX 375 Prozessors in Kombination mit 32 GB RAM und der 2-TB-SSD eine hervorragende Leistung bei Desktop-Produktivitätsanwendungen. Die neue Hardware von AMD ist kein Spielverderber.

Wie immer haben wir das HP OmniBook Ultra 14 durch unsere Standard-Benchmarks laufen lassen, um zu sehen, wie es im Detail abschneidet.

Chris Hoffman

Zunächst lassen wir den PCMark 10 laufen, um uns ein Bild von der Gesamtleistung des Systems zu machen. Dieser Benchmark wurde entwickelt, um die Gesamtleistung des Systems zu messen, aber er konzentriert sich besonders auf die CPU-Leistung.

Das HP OmniBook Ultra 14 erzielte im PCMark 10 eine Gesamtpunktzahl von 7.801. Damit liegt es ein wenig hinter dem teureren, auf Entwickler ausgerichteten Asus ProArt PX13, das mit einer ähnlichen CPU der Ryzen AI 300 Serie ausgestattet ist. Aber es liegt deutlich vor den Laptops mit Intel Meteor Lake-Prozessor.

Chris Hoffman

Als nächstes führen wir Cinebench R20 aus. Dies ist ein Multithreading-Benchmark, der sich auf die Gesamtleistung der CPU konzentriert. Es handelt sich um einen schnellen Benchmark, so dass die Kühlung bei längerer Arbeitslast kein Thema ist. Aber da es sich um einen Multithreading-Benchmark handelt, haben CPUs mit mehr Kernen einen großen Vorteil.

Mit einer Multithreading-Punktzahl von 7.582 im Cinebench R20 schneidet das HP OmniBook Ultra 14 gut ab. Es liegt etwas hinter dem Asus ProArt PX13 zurück. Aber auch hier liegt es deutlich vor den Intel Meteor Lake Laptops.

Chris Hoffman

Wir haben auch eine Kodierung mit Handbrake durchgeführt. Dies ist ein weiterer Multithreading-Benchmark, der jedoch über einen längeren Zeitraum läuft. Dabei muss die Kühlung des Laptops anspringen. Viele Laptops werden unter Last gedrosselt und verlangsamt.

Das HP OmniBook Ultra 14 benötigte 896 Sekunden − das sind knapp fünfzehn Minuten. Das ist deutlich länger als das Asus ProArt PX13, aber es schlägt wieder einmal die Intel Meteor Lake-Laptops.

Chris Hoffman

Als nächstes führen wir einen grafischen Benchmark durch. Es handelt sich zwar nicht um ein Gaming-Notebook, aber es ist trotzdem gut, die Leistung der GPU zu überprüfen. Wir führen 3Dmark Time Spy aus, einen grafischen Benchmark, der sich auf die GPU-Leistung konzentriert.

Das HP OmniBook Ultra 14 und seine Radon 890M-Grafikkarte erreichten im 3DMark Time Spy eine Punktzahl von 3.909. Die meisten anderen Laptops, mit denen wir dieses Gerät vergleichen, verfügen über diskrete Nvidia-Grafikkarten. Sie sehen also, wie wichtig diskrete Grafikkarten sind. Aber die Radeon 890M-Grafik ist ein Fortschritt gegenüber der älteren Radeon-Grafik in dem betagten Asus ZenBook 14 OLED-System, mit dem wir es hier vergleichen.

Insgesamt liefert das HP OmniBook Ultra 14 eine hervorragende Leistung. Es ist nicht ganz so schnell wie das Asus ProArt PX13 in unseren Benchmarks, aber es schlägt ähnliche Systeme mit Intel Meteor Lake Prozessoren mit Leichtigkeit. Natürlich verfügt dieses System nicht über eine diskrete Grafikkarte. Es ist also nicht ideal für Gamer und Personen, die mehr 3D-Leistung für professionelle Anwendungen benötigen.

Akkulaufzeit

Das HP OmniBook Ultra 14 ist mit einem 68 Wattstunden-Akku und AMDs CPU Ryzen AI 300 Serie ausgestattet. Unsere Benchmarks zeigen zwar, dass sie nicht so ausdauernd ist wie die Intel Lunar Lake- oder Qualcomm Snapdragon X Elite-Hardware. Allerdings handelt es sich um AMDs neueste Hardware, die eine höhere Energieeffizienz bietet als die meisten Laptops, die Sie in den Regalen finden.

Chris Hoffman

Um die Akkulaufzeit zu testen, spielen wir eine 4K-Kopie von Tears of Steel in Wiederholung unter Windows 11 mit aktiviertem Flugzeugmodus ab, bis sich das Notebook von selbst ausschaltet. Für unsere Akku-Benchmarks haben wir den Bildschirm auf 250 nits Helligkeit eingestellt. Dies ist ein optimales Szenario für jedes Notebook, da die lokale Videowiedergabe so effizient ist und die tatsächliche Akkulaufzeit im täglichen Gebrauch immer unter diesem Wert liegen wird.

Das HP OmniBook Ultra 14 hielt 1.091 Minuten durch, das sind etwas mehr als 18 Stunden. Das ist ein großartiges Ergebnis − und es schlägt das Asus ProArt PX13 zusammen mit den Intel Meteor Lake-basierten Systemen. Aber viele Laptops erreichen in diesem Benchmark hohe Werte, nur um im täglichen Gebrauch schneller leer zu werden.

Abgesehen von den synthetischen Benchmarks habe ich festgestellt, dass die Laptops der Ryzen AI 300-Serie − sowohl dieses Gerät als auch das Asus ProArt PX13, das ich getestet habe − bei typischer Desktop-Nutzung mit den von mir verwendeten Produktivitätsanwendungen eine lange Akkulaufzeit bieten. Für mich bedeutet das Anwendungen wie Google Chrome, Microsoft Word, Slack, OneNote, Excel und andere Desktop-Anwendungen. Bei mir liegt das Gerät in der Größenordnung einer ganztägigen Akkulaufzeit − aber auch hier kommt es darauf an, welche Programme Sie verwenden, welche Bildschirmhelligkeit Sie wählen und so weiter.

Fazit

Das HP OmniBook Ultra 14 ist ein großartiges Notebook. Es ist robust und gut verarbeitet. Und, was am wichtigsten ist: Es hat einen Prozessor der AMD Ryzen AI 300 Serie. Diese haben einfach eine bessere Leistung und eine längere Akkulaufzeit als die Meteor Lake-CPUs von Intel. Außerdem müssen Sie sich, anders als bei einem Qualcomm Snapdragon X Elite-Notebook, keine Gedanken über Kompatibilitätsprobleme machen. Aus diesem Grund würde ich dieses Notebook gerne einem Intel Meteor Lake-Notebook vorziehen.

Dennoch ist es nicht für jeden geeignet. Manche Leute werden sich zum Beispiel ein OLED-Display wünschen. Oder Sie suchen nach einer diskreten Grafikkarte, damit Sie spielen oder professionelle Tools verwenden können. Oder vielleicht brauchen Sie einfach mehr Anschlüsse.

Sobald die Lunar Lake Laptops den Platz von Meteor Lake auf dem Markt angekommen sind, haben Sie vielleicht viel mehr Optionen für Geräte mit starker Leistung und hoher Energieeffizienz. Dennoch ist dies ein großartiges Notebook zu einem fairen Preis − wenn diese Hardware das ist, wonach Sie suchen.

Technische Daten

Modellnummer: HP OmniBook Ultra AI PC 14-fd0197ng

Herstellernummer: AW0V1EA#ABD

CPU: AMD Ryzen AI 9 HX 375

Arbeitsspeicher: 32 GB LPDDR5 RAM

Grafik/GPU: AMD Radeon 890M

Bildschirm: 14-Zoll IPS-Display mit 60Hz Bildwiederholrate und Touchscreen, 2.240 × 1.400 Pixel

Speicher: 2 TB PCIe Gen 4 Solid-State-Laufwerk

Webcam: 9MP 1440p mit physischem Privacy Shutter

Konnektivität: 2 × USB Typ-C (Thunderbolt 4, USB4 40 GBit/s), 1 × USB Typ-A (10 GBit/s), 1 × Combo-Audioanschluss

Vernetzung: Wi-Fi 7, Bluetooth 5.4

Biometrische Merkmale: IR-Kamera und Fingerabdruckleser

Akku-Kapazität: 68 Wattstunden

Abmessungen: 31,52 × 22,76 × 1,65 cm

Gewicht: 1,579 kg

(PC-Welt)

HP OmniBook Ultra 14 im Test: Dank Ryzen AI 300 flott und mit langer Akku-Laufzeit​ Weiterlesen »

Blick in die Zukunft: Die Evolution von Agentic AI​

Allgemein

Autonome Agenten sollen betriebliche Abläufe revolutionieren und eine neue Ära der Effizienz und Innovation einleiten. Poca Wander Stock/shutterstock.com Agentic AI soll sich in zunehmend komplexer werdenden digitalen Landschaften zu einer transformativen Kraft entwickeln und die Grenzen der Automatisierung neu definieren. Von der intelligenten Entscheidungsfindung bis hin zur Anpassungsfähigkeit in Echtzeit verändere diese Technologie diverse Branchen, glauben die Analysten von GlobalData, einem Daten- und Analyseunternehmen. Automatisierung durch Transformation Laut den Experten gehören zu den Merkmalen und Vorteilen von Agentischer KI, dass sie Aspekte wie Wahrnehmung, logisches Denken und autonomes Handeln integriert. Damit sei die Technik in der Lage, auch komplexe Aufgaben agil sowie präzise zu bewältigen. Darüber hinaus verbessern KI-Agenten Effizienz, Kosten und Kundenerfahrung, besonders in dynamischen Branchen wie dem Gesundheitswesen, im Finanzsektor und beim Energiemanagement.  Zusätzlich werde Agentic AI die Automatisierung in den Unternehmen vorantreiben. Die Analysten sprechen schon von einer Ära intelligenter, datengesteuerter Abläufe, die mit der neuen KI-Technik eingeleitet werde. Agentische KI gegen Generative KI Um diese Thesen zu untermauern, stellt GlobalData im gerade neu erschienenen Bericht „Automation 2.0: The Rise of Intelligent AI Agents“ die Agentische KI der Generativen KI gegenüber. Die Autoren merken an, dass es bei beiden zwar Überschneidungen gibt, wie zum Beispiel Retrieval-Augmented Generation (RAG) für den Ausbau der Datengrundlage. Die Agentische KI zeichne sich jedoch dadurch aus, das die Agenten autonom und in Echtzeit Entscheidungen treffen sowie sich kontinuierlich auch in komplexen Umgebungen neu an veränderte Bedingungen anpassen könnten. Laut den Experten verändere die Technologie schon jetzt die Geschäftsabläufe durch die Automatisierung von Prozessen, die Optimierung von Kundeninteraktionen, die Sicherstellung der Compliance und die Erfüllung spezieller betrieblicher Anforderungen mit adaptiven, KI-gesteuerten Lösungen. Mit dem Aufkommen von Agentic KI manifestiert sich aus Sicht der Marktforscher der Wandel von regelbasierten Systemen hin zu autonomen Agenten. Diese Agenten sollen, laut den Experten, durch Wahrnehmung, Denken, Handeln und Lernen, die betriebliche Effizienz und Entscheidungsfindung verbessern. Die Auswirkungen von Agentic AI auf die Wirtschaft sei bereits spürbar. In verschiedenen Sektoren unter anderem der Automobilbranche, dem Bankensektor, bei Finanzdienstleistungen, Versicherungen und in der Energiebranche seien bereits Anwendungen im Einsatz. Verbesserte Effizienz und höherer ROI GlobalData verweist auf Best Practices, die zeigen sollen, wie Agentic AI in verschiedenen Branchen messbare Ergebnisse liefert. So konnten laut dem Bericht, unterschiedliche Firmen aus verschiedenen Branchen Effizienz und Return of Investment (ROI) steigern: Medien: Die japanische Werbeagentur Dentsu nutzt Azure-basierte KI, um ihre Medienplanung zu optimieren, Insights-Zeiten um 90 Prozent zu verkürzen, Kosten zu senken und den ROI zu erhöhen. Telekommunikation: Das britische Telekommunikationsunternehmen BT setzt die KI-gestützte ServiceNow-Plattform ein. Hiermit reduziert sie die Lösungszeiten auf unter eine Minute, senkt den Papieraufwand um 55 Prozent und verbessert die Anfragebearbeitung um 80 Prozent. Gaststättengewerbe: Der US-amerikanische Online-Reservierungs-Anbieter OpenTable nutzt Salesforce-Lösungen zur Automatisierung und Datenintegration. Hierdurch spart das Unternehmen pro Anruf zwei Minuten und verbessert den Kundenservice sowie die Arbeitsabläufe. Anschauliche Innovationen, die Agentic AI vorantreiben Wichtige Player im Bereich der agentenbasierten KI sind Tech-Giganten wie Microsoft, Google, NVIDIA und Amazon, so der Bericht. Sie bauen Plattformen, auf denen verschiedene Tools zur Optimierung von Arbeitsabläufen miteinander verknüpft werden: Microsoft integriert Copilot Studio und Dynamics 365-Agenten in Microsoft 365, um den Echtzeit-Workflow in Vertrieb, Lieferkette und Kundenservice zu optimieren. SAPs Joule verbessert mithilfe von kollaborativen KI-Agenten und einem Knowledge Graph Streitfallmanagement, Finanzautomatisierung und betriebliche Prozesse. UiPaths Agent Builder und Autopilot kombinieren KI mit RPA und bieten Flexibilität für Finanzen, Gesundheitswesen sowie Logistik. Origami-Agents optimiert durch Echtzeitanalyse des Kundenverhaltens die Lead-Generierung und Vertriebsautomatisierung. Einführung benötigt Struktur und Technik KI-Agenten lassen sich laut den Experten am besten durch einen strukturierten Ansatz einführen. Dieser erfordert, dass die Anwender betriebliche Engpässe bewerten, Prototypen in priorisierten Bereichen erstellen, erfolgreiche Prototypen skalieren und die KI-Leistung kontinuierlich optimieren. In ihrem Bericht empfehlen die Analysten von GlobalData deshalb den Einsatz von Echtzeit-Feedback und einen modularen Implementierungsrahmen für eine nahtlose Integration und Anpassungsfähigkeit. Für die Zukunft erwarten die Marktbeobachter, dass sich agentenbasierte KI zu immersiven, adaptiven Systemen weiterentwickeln wird, die selbstständig lernen, Entscheidungen treffen und personalisierte Aufgaben automatisieren. Auf dem Weg dorthin müssten jedoch Herausforderungen wie die Komplexität der Integration, ethische Bedenken und wachsende Anforderungen an die Fähigkeiten der Systeme bewältigt werden. Nur so lasse sich das volle Potenzial dieser Technologie auszuschöpfen. Neue Konzepte nicht vernachlässigen GlobalData hebt in der Studie auch neue Konzepte wie BabyAGI und AutoGPT hervor. BabyAGI, entwickelt von Yohei Nakajima, ist ein Python-basiertes Open-Source-Framework. Das Besondere daran: Anwender müssen Aufgaben nicht mehr manuell definieren. BabyAGI erstellt autonom neue Aufgaben – ausgehend von bereits erledigten Aufgaben und einem zuvor beschrieben Ziel. Es automatisiert damit Arbeitsabläufe, indem Aufgaben dynamisch erstellt, priorisiert und ausgeführt werden. AutoGPT, von Toran Bruce Richards als Python-Script entwickelt, funktioniert ähnlich wie BabyAGI. Das Tool nutzt OpenAIs GPT-4, um autonom Aufgaben beziehungsweise ganze Aufgabenketten zu erledigen. AutoGPT arbeitet zielorientiert und entwickelt dafür eigene Strategien und Scripte. 

Blick in die Zukunft: Die Evolution von Agentic AI​ Autonome Agenten sollen betriebliche Abläufe revolutionieren und eine neue Ära der Effizienz und Innovation einleiten.
Poca Wander Stock/shutterstock.com

Agentic AI soll sich in zunehmend komplexer werdenden digitalen Landschaften zu einer transformativen Kraft entwickeln und die Grenzen der Automatisierung neu definieren. Von der intelligenten Entscheidungsfindung bis hin zur Anpassungsfähigkeit in Echtzeit verändere diese Technologie diverse Branchen, glauben die Analysten von GlobalData, einem Daten- und Analyseunternehmen.

Automatisierung durch Transformation

Laut den Experten gehören zu den Merkmalen und Vorteilen von Agentischer KI, dass sie Aspekte wie Wahrnehmung, logisches Denken und autonomes Handeln integriert. Damit sei die Technik in der Lage, auch komplexe Aufgaben agil sowie präzise zu bewältigen. Darüber hinaus verbessern KI-Agenten Effizienz, Kosten und Kundenerfahrung, besonders in dynamischen Branchen wie dem Gesundheitswesen, im Finanzsektor und beim Energiemanagement.

 Zusätzlich werde Agentic AI die Automatisierung in den Unternehmen vorantreiben. Die Analysten sprechen schon von einer Ära intelligenter, datengesteuerter Abläufe, die mit der neuen KI-Technik eingeleitet werde.

Agentische KI gegen Generative KI

Um diese Thesen zu untermauern, stellt GlobalData im gerade neu erschienenen Bericht „Automation 2.0: The Rise of Intelligent AI Agents“ die Agentische KI der Generativen KI gegenüber. Die Autoren merken an, dass es bei beiden zwar Überschneidungen gibt, wie zum Beispiel Retrieval-Augmented Generation (RAG) für den Ausbau der Datengrundlage. Die Agentische KI zeichne sich jedoch dadurch aus, das die Agenten autonom und in Echtzeit Entscheidungen treffen sowie sich kontinuierlich auch in komplexen Umgebungen neu an veränderte Bedingungen anpassen könnten.

Laut den Experten verändere die Technologie schon jetzt die Geschäftsabläufe durch

die Automatisierung von Prozessen,

die Optimierung von Kundeninteraktionen,

die Sicherstellung der Compliance und

die Erfüllung spezieller betrieblicher Anforderungen mit adaptiven, KI-gesteuerten Lösungen.

Mit dem Aufkommen von Agentic KI manifestiert sich aus Sicht der Marktforscher der Wandel von regelbasierten Systemen hin zu autonomen Agenten. Diese Agenten sollen, laut den Experten, durch

Wahrnehmung,

Denken,

Handeln und

Lernen,

die betriebliche Effizienz und Entscheidungsfindung verbessern.

Die Auswirkungen von Agentic AI auf die Wirtschaft sei bereits spürbar. In verschiedenen Sektoren unter anderem der Automobilbranche, dem Bankensektor, bei Finanzdienstleistungen, Versicherungen und in der Energiebranche seien bereits Anwendungen im Einsatz.

Verbesserte Effizienz und höherer ROI

GlobalData verweist auf Best Practices, die zeigen sollen, wie Agentic AI in verschiedenen Branchen messbare Ergebnisse liefert. So konnten laut dem Bericht, unterschiedliche Firmen aus verschiedenen Branchen Effizienz und Return of Investment (ROI) steigern:

Medien: Die japanische Werbeagentur Dentsu nutzt Azure-basierte KI, um ihre Medienplanung zu optimieren, Insights-Zeiten um 90 Prozent zu verkürzen, Kosten zu senken und den ROI zu erhöhen.

Telekommunikation: Das britische Telekommunikationsunternehmen BT setzt die KI-gestützte ServiceNow-Plattform ein. Hiermit reduziert sie die Lösungszeiten auf unter eine Minute, senkt den Papieraufwand um 55 Prozent und verbessert die Anfragebearbeitung um 80 Prozent.

Gaststättengewerbe: Der US-amerikanische Online-Reservierungs-Anbieter OpenTable nutzt Salesforce-Lösungen zur Automatisierung und Datenintegration. Hierdurch spart das Unternehmen pro Anruf zwei Minuten und verbessert den Kundenservice sowie die Arbeitsabläufe.

Anschauliche Innovationen, die Agentic AI vorantreiben

Wichtige Player im Bereich der agentenbasierten KI sind Tech-Giganten wie Microsoft, Google, NVIDIA und Amazon, so der Bericht. Sie bauen Plattformen, auf denen verschiedene Tools zur Optimierung von Arbeitsabläufen miteinander verknüpft werden:

Microsoft integriert Copilot Studio und Dynamics 365-Agenten in Microsoft 365, um den Echtzeit-Workflow in Vertrieb, Lieferkette und Kundenservice zu optimieren.

SAPs Joule verbessert mithilfe von kollaborativen KI-Agenten und einem Knowledge Graph Streitfallmanagement, Finanzautomatisierung und betriebliche Prozesse.

UiPaths Agent Builder und Autopilot kombinieren KI mit RPA und bieten Flexibilität für Finanzen, Gesundheitswesen sowie Logistik.

Origami-Agents optimiert durch Echtzeitanalyse des Kundenverhaltens die Lead-Generierung und Vertriebsautomatisierung.

Einführung benötigt Struktur und Technik

KI-Agenten lassen sich laut den Experten am besten durch einen strukturierten Ansatz einführen. Dieser erfordert, dass die Anwender

betriebliche Engpässe bewerten,

Prototypen in priorisierten Bereichen erstellen,

erfolgreiche Prototypen skalieren und

die KI-Leistung kontinuierlich optimieren.

In ihrem Bericht empfehlen die Analysten von GlobalData deshalb den Einsatz von Echtzeit-Feedback und einen modularen Implementierungsrahmen für eine nahtlose Integration und Anpassungsfähigkeit.

Für die Zukunft erwarten die Marktbeobachter, dass sich agentenbasierte KI zu immersiven, adaptiven Systemen weiterentwickeln wird, die selbstständig lernen, Entscheidungen treffen und personalisierte Aufgaben automatisieren. Auf dem Weg dorthin müssten jedoch Herausforderungen wie die Komplexität der Integration, ethische Bedenken und wachsende Anforderungen an die Fähigkeiten der Systeme bewältigt werden. Nur so lasse sich das volle Potenzial dieser Technologie auszuschöpfen.

Neue Konzepte nicht vernachlässigen

GlobalData hebt in der Studie auch neue Konzepte wie BabyAGI und AutoGPT hervor.

BabyAGI, entwickelt von Yohei Nakajima, ist ein Python-basiertes Open-Source-Framework. Das Besondere daran: Anwender müssen Aufgaben nicht mehr manuell definieren. BabyAGI erstellt autonom neue Aufgaben – ausgehend von bereits erledigten Aufgaben und einem zuvor beschrieben Ziel. Es automatisiert damit Arbeitsabläufe, indem Aufgaben dynamisch erstellt, priorisiert und ausgeführt werden.

AutoGPT, von Toran Bruce Richards als Python-Script entwickelt, funktioniert ähnlich wie BabyAGI. Das Tool nutzt OpenAIs GPT-4, um autonom Aufgaben beziehungsweise ganze Aufgabenketten zu erledigen. AutoGPT arbeitet zielorientiert und entwickelt dafür eigene Strategien und Scripte.

Blick in die Zukunft: Die Evolution von Agentic AI​ Weiterlesen »

Anschreiben: Was Sie beim Bewerbungsschreiben beachten müssen​

Allgemein

Das Anschreiben ist ein äußerst wichtiger Bestandteil der Bewerbung. Während Bewerber mit dem Lebenslauf lediglich überblicksartig nachweisen können, über welche Ausbildung sie verfügen und welche beruflichen Stationen sie bereits gemeistert haben, verfolgt das Anschreiben ein anders Ziel: Hier geht es für Bewerber darum, sich als Person zu präsentieren und den Personalverantwortlichen von ihren Stärken zu überzeugen. Das Anschreiben ist damit eine Chance vor allem für Berufseinsteiger und Personen mit einem eher ungewöhnlichen Lebenslauf. Mit dem Bewerbungsschreiben können Sie verdeutlichen, warum Sie genau in dieser Branche und vor allem genau bei diesem Arbeitgeber arbeiten möchten.Anschreiben auf MusterbasisDiese Elemente dürfen nicht fehlenUm die verschiedenen Vorlagen und Musteranschreiben, die es im Netz gibt, miteinander zu vergleichen, sind einige Anhaltspunkte, was in ein Anschreiben gehört, ganz nützlich. Die möchten wir Ihnen nicht vorenthalten:1. Absender: Der Aufbau eines Anschreibens orientiert sich in diesem Punkt an einem Briefkopf. Ganz oben links steht Ihre Adresse und Ihre Kontaktdaten, also Ihre Telefonnummer und E-Mail Adresse.2. Datum: Auf der gegenüberliegenden Seite sollten Sie das aktuelle Datum einfügen. Achtung: Wenn Sie Ihr Anschreiben für mehrere Bewerbungen nutzen und nur einige Sätze auf den jeweiligen Arbeitgeber anpassen, achten Sie darauf, das Datum korrekt abzuändern.3. Betreffzeile: Ebenfalls wichtig: Das Wort “Betreff” taucht in der Betreffzeile nicht auf. Stattdessen schreiben Sie lediglich “Ihr Stellenangebot auf XV”, “Ihre Suche in YZ” oder – etwas unkonventioneller – “Warum Ihre Personalsuche jetzt ein Ende hat”. Wenn Sie sich derart aus dem Fenster lehnen, müssen Ihre Qualifikationen und Fähigkeiten natürlich optimal auf die ausgeschriebene Position passen.4. Anrede: Unpersönliche Anreden wie “Sehr geehrte Damen und Herren” sind im Anschreiben absolut tabu. Wenn in der Stellenanzeige kein persönlicher Ansprechpartner genannt ist, rufen Sie im Unternehmen an und lassen sich einen Namen geben. Das nennen Personaler übrigens proaktiv – eine Eigenschaft, die sie gerne sehen wollen.5. Einleitung: Nun kommen die Textpassagen, die Sie eigenständig formulieren sollten. Natürlich können Sie sich von Vorlagen inspirieren lassen, hüten Sie sich jedoch davor, Textbausteine eins zu eins zu übernehmen. In der Einleitung entscheidet sich häufig, welchen Eindruck der Personaler von Ihnen gewinnt. Geben Sie sich daher ganz besonders viel Mühe, den Personalverantwortlichen davon zu überzeugen, dass Sie die richtige Person für den Job sind.6. Hauptteil: Im Hauptteil belegen Sie ihre Motivation für den Job anhand konkreter Beispiele und Ihrer Kenntnisse. Versuchen Sie an dieser Stelle die Anforderungen, die in der Stellenanzeige genannt sind, unterzubringen und mit Ihren Qualifikationen zu verknüpfen. Hier gilt: Weniger ist mehr. Besser eine oder zwei Anforderungen sehr gut erfüllen und das beweisen, statt zu zeigen, dass Sie nahezu alle Fähigkeiten besitzen – jedoch eher mittelmäßig.7. Bezug zum Arbeitgeber: Fehlen darf außerdem nicht, warum Sie sich gerade bei diesem Unternehmen bewerben. Das wird Sie der Personaler vermutlich ohnehin im Jobinterview fragen, daher können Sie sich auch jetzt schon auf diese Frage vorbereiten und einige Argumente präsentieren. Zeigen Sie dem Personalverantwortlichen außerdem, welche Vorteile Sie dem Unternehmen bringen können. Wo liegen Ihre besonderen Stärken und was hat der Arbeitgeber davon?8. Schluss: An dieser Stelle dürfen Sie sich schon wieder ein wenig mehr in Richtung Vorlagen und Musteranschreiben orientieren. Unter Umständen finden Sie im Netz gute Entwürfe für einen passenden Schluss. In jüngeren Unternehmen mit Start-up Atmosphäre nimmt man Ihnen eine eher unkonventionelle Verabschiedung meist nicht übel. Im Gegenteil, Sie können sich damit von der Konkurrenz abheben.9. Grußformal, Unterschrift und Anlagen: Das Anschreiben endet mit einer Verabschiedung samt eigenhändiger Unterschrift. Ganz am Schluss listen Sie die Anlagen (Lebenslauf, Arbeitsproben, Arbeitszeugnisse…) auf, die Sie ihrer Bewerbung beifügen.Mit dem Bewerbungsschreiben zeigen Sie, warum Sie besonders für die Stelle und Branche geeignet sind. Foto: Song_about_summer – shutterstock.comAuf der anderen Seite kann ein Muster aber auch wichtige Denkanstöße geben. Wenn Sie sich inspirieren lassen möchten, ist gegen eine Vorlage nicht viel einzuwenden. Allerdings sollten Sie dabei immer im Hinterkopf behalten, dass Sie das Anschreiben so individuell wie möglich formulieren müssen. Sie möchten schließlich nicht in der Vielzahl der Bewerber verschwinden, sondern erreichen, dass der Personalentscheider genau Sie zu einem Vorstellungsgespräch einlädt.Zu diesem Zweck können Sie sich auch verschiedene Bewerbungsschreiben Muster im Netz herunterladen und sich aus mehreren Vorlagen Ihr eigenes Anschreiben zusammenstellen.Bewerbungsschreiben – das sollte es beinhalten Um den Inhalt individuell zu gestalten sollten Sie sich folgende Fragen stellen:Warum passe ich sehr gut zu dem ausgeschriebenen Arbeitsplatz?Welche Kompetenzen und Fähigkeiten besitze ich, die nicht im Lebenslauf stehen? Wo könnte ich noch deutlicher werden?Was bringe ich mit, was mich von anderen Bewerbern unterscheidet? Gibt es vielleicht ein originelles Hobby oder eine interessante Begebenheit in meinem Werdegang, die ich erwähnen sollte?Motivationsschreiben – das gilt es zu vermeidenAuf der anderen Seite sollten Sie bestimmte Dinge vermeiden, die sehr häufig in Musteranschreiben zu finden sind. Achten Sie daher besonders auf:Floskeln und nichtssagenden AusdrückeDoppelte Informationen (Dinge, die bereits im Lebenslauf offensichtlich sind, müssen Sie im Anschreiben nicht noch einmal erwähnen)Sollten Sie diese in Ihrem Anschreiben finden, weil Sie sich zu sehr an der Vorlage orientiert haben, formulieren Sie diese Dinge um oder streichen Sie sie. Ein Motivationsschreiben sollte ohnehin nicht länger als eine DIN A 4-Seite sein. Daher sind großzügige Streichungen nicht ganz so aussagekräftiger Passagen häufig eine gute Idee.Anschreiben – Formulierungs-TippsWenn Sie Probleme haben sollten, die richtigen Worte zu finden, hat sich folgendes Vorgehen bewährt: Fangen Sie langsam an und bauen Sie die gefundenen Formulierungen und Stichworte nach und nach aus. Dazu fertigen Sie in einem ersten Schritt eine Liste von Eigenschaften und Qualifikationen an, die Sie in Ihrem Anschreiben erwähnen möchten. Hier gibt Ihnen ein Musteranschreiben schon einen ersten Anhaltspunkt. Typische Bewerbungs-Elemente Qualifikationen: (Hoch-) Schulabschlüsse, BerufsausbildungenWeiterbildungen: Fremdsprachen, SoftwareErfolge: große Projekte, erfolgreiche Akquise eines GroßkundenSoft Skills: Teamfähigkeit, Belastbarkeit, ZuverlässigkeitUnser Tipp: Fragen Sie Ihre Freunde und Bekannte nach einer Einschätzung, welche “weichen” Eigenschaften Sie auszeichnen. Unter Umständen erfahren Sie Dinge, mit denen Sie gar nicht gerechnet haben. Auch diese Eigenschaften und Einschätzungen sollten Sie unbedingt auf Ihrer Liste festhalten.Soft Skills und persönliche Erfolge sind bei Ihrer Bewerbung genauso wichtig. Fragen Sie Ihre Freunde oder Bekannte, welche Eigenschaften Sie besonders auszeichnen. Foto: Mangostar – shutterstock.comIm nächsten Schritt schauen Sie sich erst das Stellenangebot, auf das Sie sich bewerben möchten, genauer an. Welche Qualifikationen und Kenntnisse werden dort als Voraussetzung für den Arbeitsplatz genannt? Diese markieren Sie und gleichen Sie mit Ihrer Liste ab.Vergessen Sie dabei aber auch nicht diejenigen Anforderungen, die Sie nicht nachweisen können. Unter Umständen können Sie auch darauf im Anschreiben genauer eingehen. Werden beispielsweise Kenntnisse in einem bestimmten Software-Programm gefordert, die Sie (noch) nicht besitzen, können Sie folgenden Trick anwenden: Berichten Sie dem Personalverantwortlichen davon, dass Sie sich schon häufiger selbst in Programme eingearbeitet haben. Daher sollte Ihnen das auch erneut mit diesem bestimmten Programm gelingen. Oder Sie stellen in Aussicht, dass sie in naher Zukunft einen Kurs belegen möchten, in dem Sie den Umgang mit diesem Programm lernen. Das natürlich immer nur, wenn es auch der Realität entspricht.Das Bewerbungsschreiben bietet Ihnen außerdem die Gelegenheit, auf Erfolge, Qualifikationen, Auszeichnungen oder andere Dinge einzugehen, die im Lebenslauf keinen Platz finden. Wenn Sie Qualifikationen nachweisen können, die zwar nicht im Stellenangebot gefordert sind, die aber trotzdem zu dem Arbeitsplatz passen, auf den Sie sich bewerben, sollten Sie auch diese im Motivationsschreiben erwähnen. Allerdings sollten Sie dabei immer die formalen Anforderungen im Hinterkopf behalten, die ein Anschreiben erfüllen muss. Hier liefert Ihnen ein Muster wertvolle Anhaltspunkte.Motivationsschreiben folgen dem gleichen AufbauMotivationsschreiben bestehen in aller Regel aus den gleichen Bestandteilen. Da sich diese mittlerweile “eingebürgert” haben, könnten es Personalverantwortliche als Fehler betrachten, wenn sie in Ihrem Anschreiben fehlen. Verlassen Sie sich an dieser Stelle auf ein Musteranschreiben, wird Ihnen das vermutlich nicht passieren. Denn – von fehlerhaften Vorlagen einmal abgesehen – werden genau diese Elemente in den Vorlagen zu finden sein.Bevor Sie Ihr Anschreiben allerdings an Ihren Wunscharbeitgeber schicken, sollten Sie dieses sicherheitshalber noch einmal kontrollieren.Bewerbung – haben Sie an alles gedacht?Ihre komplette Anschrift: In aller Regel mit E-Mail-Adresse und TelefonnummerAktuelles DatumBetreff: Kennziffer (sofern angegeben) und Stellenbezeichnung aus dem AngebotAnrede: Vermeiden Sie die unpersönliche Anrede mit “Sehr geehrte Damen und Herren”Einleitung: Beschreiben Sie deutlich Ihre Motivation für Ihre BewerbungHauptteil: Welche Kompetenzen und Qualifikationen besitzen Sie, die dem Unternehmen nützlich sein können?Bezug zum Unternehmen: Stellen Sie die Vorteile Ihrer Kompetenzen für das Unternehmen darSchluss: Falls in der Stellenanzeige gefordert, gehen Sie an dieser Stelle auf Ihren Gehaltswunsch ein und nennen außerdem den frühestmöglichen EintrittsterminGrußformel und Unterschrift: Vorsicht, nach der Grußformel steht kein KommaAnlagen: Zeugnisse und Referenzen, die sich in der Bewerbungsmappe befinden, werden hier noch einmal aufgeführtZum Abschluss kontrollieren Sie Ihr Anschreiben noch einmal auf Rechtschreibung und Grammatik. Dabei hat es sich bewährt, entweder Freunde und Bekannte um eine Kontrolle zu bitten oder das Motivationsschreiben auszudrucken, eine Nacht liegen zu lassen und dann noch einmal zu lesen. Sind Sie mit dem Ergebnis zufrieden, steht Ihrer Bewerbung nichts mehr im Wege. (mp/fm) 

Anschreiben: Was Sie beim Bewerbungsschreiben beachten müssen​ Das Anschreiben ist ein äußerst wichtiger Bestandteil der Bewerbung. Während Bewerber mit dem Lebenslauf lediglich überblicksartig nachweisen können, über welche Ausbildung sie verfügen und welche beruflichen Stationen sie bereits gemeistert haben, verfolgt das Anschreiben ein anders Ziel: Hier geht es für Bewerber darum, sich als Person zu präsentieren und den Personalverantwortlichen von ihren Stärken zu überzeugen. Das Anschreiben ist damit eine Chance vor allem für Berufseinsteiger und Personen mit einem eher ungewöhnlichen Lebenslauf. Mit dem Bewerbungsschreiben können Sie verdeutlichen, warum Sie genau in dieser Branche und vor allem genau bei diesem Arbeitgeber arbeiten möchten.Anschreiben auf MusterbasisDiese Elemente dürfen nicht fehlenUm die verschiedenen Vorlagen und Musteranschreiben, die es im Netz gibt, miteinander zu vergleichen, sind einige Anhaltspunkte, was in ein Anschreiben gehört, ganz nützlich. Die möchten wir Ihnen nicht vorenthalten:1. Absender: Der Aufbau eines Anschreibens orientiert sich in diesem Punkt an einem Briefkopf. Ganz oben links steht Ihre Adresse und Ihre Kontaktdaten, also Ihre Telefonnummer und E-Mail Adresse.2. Datum: Auf der gegenüberliegenden Seite sollten Sie das aktuelle Datum einfügen. Achtung: Wenn Sie Ihr Anschreiben für mehrere Bewerbungen nutzen und nur einige Sätze auf den jeweiligen Arbeitgeber anpassen, achten Sie darauf, das Datum korrekt abzuändern.3. Betreffzeile: Ebenfalls wichtig: Das Wort “Betreff” taucht in der Betreffzeile nicht auf. Stattdessen schreiben Sie lediglich “Ihr Stellenangebot auf XV”, “Ihre Suche in YZ” oder – etwas unkonventioneller – “Warum Ihre Personalsuche jetzt ein Ende hat”. Wenn Sie sich derart aus dem Fenster lehnen, müssen Ihre Qualifikationen und Fähigkeiten natürlich optimal auf die ausgeschriebene Position passen.4. Anrede: Unpersönliche Anreden wie “Sehr geehrte Damen und Herren” sind im Anschreiben absolut tabu. Wenn in der Stellenanzeige kein persönlicher Ansprechpartner genannt ist, rufen Sie im Unternehmen an und lassen sich einen Namen geben. Das nennen Personaler übrigens proaktiv – eine Eigenschaft, die sie gerne sehen wollen.5. Einleitung: Nun kommen die Textpassagen, die Sie eigenständig formulieren sollten. Natürlich können Sie sich von Vorlagen inspirieren lassen, hüten Sie sich jedoch davor, Textbausteine eins zu eins zu übernehmen. In der Einleitung entscheidet sich häufig, welchen Eindruck der Personaler von Ihnen gewinnt. Geben Sie sich daher ganz besonders viel Mühe, den Personalverantwortlichen davon zu überzeugen, dass Sie die richtige Person für den Job sind.6. Hauptteil: Im Hauptteil belegen Sie ihre Motivation für den Job anhand konkreter Beispiele und Ihrer Kenntnisse. Versuchen Sie an dieser Stelle die Anforderungen, die in der Stellenanzeige genannt sind, unterzubringen und mit Ihren Qualifikationen zu verknüpfen. Hier gilt: Weniger ist mehr. Besser eine oder zwei Anforderungen sehr gut erfüllen und das beweisen, statt zu zeigen, dass Sie nahezu alle Fähigkeiten besitzen – jedoch eher mittelmäßig.7. Bezug zum Arbeitgeber: Fehlen darf außerdem nicht, warum Sie sich gerade bei diesem Unternehmen bewerben. Das wird Sie der Personaler vermutlich ohnehin im Jobinterview fragen, daher können Sie sich auch jetzt schon auf diese Frage vorbereiten und einige Argumente präsentieren. Zeigen Sie dem Personalverantwortlichen außerdem, welche Vorteile Sie dem Unternehmen bringen können. Wo liegen Ihre besonderen Stärken und was hat der Arbeitgeber davon?8. Schluss: An dieser Stelle dürfen Sie sich schon wieder ein wenig mehr in Richtung Vorlagen und Musteranschreiben orientieren. Unter Umständen finden Sie im Netz gute Entwürfe für einen passenden Schluss. In jüngeren Unternehmen mit Start-up Atmosphäre nimmt man Ihnen eine eher unkonventionelle Verabschiedung meist nicht übel. Im Gegenteil, Sie können sich damit von der Konkurrenz abheben.9. Grußformal, Unterschrift und Anlagen: Das Anschreiben endet mit einer Verabschiedung samt eigenhändiger Unterschrift. Ganz am Schluss listen Sie die Anlagen (Lebenslauf, Arbeitsproben, Arbeitszeugnisse…) auf, die Sie ihrer Bewerbung beifügen.Mit dem Bewerbungsschreiben zeigen Sie, warum Sie besonders für die Stelle und Branche geeignet sind.
Foto: Song_about_summer – shutterstock.comAuf der anderen Seite kann ein Muster aber auch wichtige Denkanstöße geben. Wenn Sie sich inspirieren lassen möchten, ist gegen eine Vorlage nicht viel einzuwenden. Allerdings sollten Sie dabei immer im Hinterkopf behalten, dass Sie das Anschreiben so individuell wie möglich formulieren müssen. Sie möchten schließlich nicht in der Vielzahl der Bewerber verschwinden, sondern erreichen, dass der Personalentscheider genau Sie zu einem Vorstellungsgespräch einlädt.Zu diesem Zweck können Sie sich auch verschiedene Bewerbungsschreiben Muster im Netz herunterladen und sich aus mehreren Vorlagen Ihr eigenes Anschreiben zusammenstellen.Bewerbungsschreiben – das sollte es beinhalten Um den Inhalt individuell zu gestalten sollten Sie sich folgende Fragen stellen:Warum passe ich sehr gut zu dem ausgeschriebenen Arbeitsplatz?Welche Kompetenzen und Fähigkeiten besitze ich, die nicht im Lebenslauf stehen? Wo könnte ich noch deutlicher werden?Was bringe ich mit, was mich von anderen Bewerbern unterscheidet? Gibt es vielleicht ein originelles Hobby oder eine interessante Begebenheit in meinem Werdegang, die ich erwähnen sollte?Motivationsschreiben – das gilt es zu vermeidenAuf der anderen Seite sollten Sie bestimmte Dinge vermeiden, die sehr häufig in Musteranschreiben zu finden sind. Achten Sie daher besonders auf:Floskeln und nichtssagenden AusdrückeDoppelte Informationen (Dinge, die bereits im Lebenslauf offensichtlich sind, müssen Sie im Anschreiben nicht noch einmal erwähnen)Sollten Sie diese in Ihrem Anschreiben finden, weil Sie sich zu sehr an der Vorlage orientiert haben, formulieren Sie diese Dinge um oder streichen Sie sie. Ein Motivationsschreiben sollte ohnehin nicht länger als eine DIN A 4-Seite sein. Daher sind großzügige Streichungen nicht ganz so aussagekräftiger Passagen häufig eine gute Idee.Anschreiben – Formulierungs-TippsWenn Sie Probleme haben sollten, die richtigen Worte zu finden, hat sich folgendes Vorgehen bewährt: Fangen Sie langsam an und bauen Sie die gefundenen Formulierungen und Stichworte nach und nach aus. Dazu fertigen Sie in einem ersten Schritt eine Liste von Eigenschaften und Qualifikationen an, die Sie in Ihrem Anschreiben erwähnen möchten. Hier gibt Ihnen ein Musteranschreiben schon einen ersten Anhaltspunkt. Typische Bewerbungs-Elemente Qualifikationen: (Hoch-) Schulabschlüsse, BerufsausbildungenWeiterbildungen: Fremdsprachen, SoftwareErfolge: große Projekte, erfolgreiche Akquise eines GroßkundenSoft Skills: Teamfähigkeit, Belastbarkeit, ZuverlässigkeitUnser Tipp: Fragen Sie Ihre Freunde und Bekannte nach einer Einschätzung, welche “weichen” Eigenschaften Sie auszeichnen. Unter Umständen erfahren Sie Dinge, mit denen Sie gar nicht gerechnet haben. Auch diese Eigenschaften und Einschätzungen sollten Sie unbedingt auf Ihrer Liste festhalten.Soft Skills und persönliche Erfolge sind bei Ihrer Bewerbung genauso wichtig. Fragen Sie Ihre Freunde oder Bekannte, welche Eigenschaften Sie besonders auszeichnen.
Foto: Mangostar – shutterstock.comIm nächsten Schritt schauen Sie sich erst das Stellenangebot, auf das Sie sich bewerben möchten, genauer an. Welche Qualifikationen und Kenntnisse werden dort als Voraussetzung für den Arbeitsplatz genannt? Diese markieren Sie und gleichen Sie mit Ihrer Liste ab.Vergessen Sie dabei aber auch nicht diejenigen Anforderungen, die Sie nicht nachweisen können. Unter Umständen können Sie auch darauf im Anschreiben genauer eingehen. Werden beispielsweise Kenntnisse in einem bestimmten Software-Programm gefordert, die Sie (noch) nicht besitzen, können Sie folgenden Trick anwenden: Berichten Sie dem Personalverantwortlichen davon, dass Sie sich schon häufiger selbst in Programme eingearbeitet haben. Daher sollte Ihnen das auch erneut mit diesem bestimmten Programm gelingen. Oder Sie stellen in Aussicht, dass sie in naher Zukunft einen Kurs belegen möchten, in dem Sie den Umgang mit diesem Programm lernen. Das natürlich immer nur, wenn es auch der Realität entspricht.Das Bewerbungsschreiben bietet Ihnen außerdem die Gelegenheit, auf Erfolge, Qualifikationen, Auszeichnungen oder andere Dinge einzugehen, die im Lebenslauf keinen Platz finden. Wenn Sie Qualifikationen nachweisen können, die zwar nicht im Stellenangebot gefordert sind, die aber trotzdem zu dem Arbeitsplatz passen, auf den Sie sich bewerben, sollten Sie auch diese im Motivationsschreiben erwähnen. Allerdings sollten Sie dabei immer die formalen Anforderungen im Hinterkopf behalten, die ein Anschreiben erfüllen muss. Hier liefert Ihnen ein Muster wertvolle Anhaltspunkte.Motivationsschreiben folgen dem gleichen AufbauMotivationsschreiben bestehen in aller Regel aus den gleichen Bestandteilen. Da sich diese mittlerweile “eingebürgert” haben, könnten es Personalverantwortliche als Fehler betrachten, wenn sie in Ihrem Anschreiben fehlen. Verlassen Sie sich an dieser Stelle auf ein Musteranschreiben, wird Ihnen das vermutlich nicht passieren. Denn – von fehlerhaften Vorlagen einmal abgesehen – werden genau diese Elemente in den Vorlagen zu finden sein.Bevor Sie Ihr Anschreiben allerdings an Ihren Wunscharbeitgeber schicken, sollten Sie dieses sicherheitshalber noch einmal kontrollieren.Bewerbung – haben Sie an alles gedacht?Ihre komplette Anschrift: In aller Regel mit E-Mail-Adresse und TelefonnummerAktuelles DatumBetreff: Kennziffer (sofern angegeben) und Stellenbezeichnung aus dem AngebotAnrede: Vermeiden Sie die unpersönliche Anrede mit “Sehr geehrte Damen und Herren”Einleitung: Beschreiben Sie deutlich Ihre Motivation für Ihre BewerbungHauptteil: Welche Kompetenzen und Qualifikationen besitzen Sie, die dem Unternehmen nützlich sein können?Bezug zum Unternehmen: Stellen Sie die Vorteile Ihrer Kompetenzen für das Unternehmen darSchluss: Falls in der Stellenanzeige gefordert, gehen Sie an dieser Stelle auf Ihren Gehaltswunsch ein und nennen außerdem den frühestmöglichen EintrittsterminGrußformel und Unterschrift: Vorsicht, nach der Grußformel steht kein KommaAnlagen: Zeugnisse und Referenzen, die sich in der Bewerbungsmappe befinden, werden hier noch einmal aufgeführtZum Abschluss kontrollieren Sie Ihr Anschreiben noch einmal auf Rechtschreibung und Grammatik. Dabei hat es sich bewährt, entweder Freunde und Bekannte um eine Kontrolle zu bitten oder das Motivationsschreiben auszudrucken, eine Nacht liegen zu lassen und dann noch einmal zu lesen. Sind Sie mit dem Ergebnis zufrieden, steht Ihrer Bewerbung nichts mehr im Wege. (mp/fm)

Anschreiben: Was Sie beim Bewerbungsschreiben beachten müssen​ Weiterlesen »

Was bringt das IT-Jahr 2025?​

Allgemein

Was bringt das IT-Jahr 2025? In dieser Podcast-Episode erfahren Sie mehr.alexkich/Shutterstock Das IT Jahr 2024 verlief turbulent. Vor allem das allgegenwärtige Thema KI schüttelte die Branche weltweit gehörig durch. Dazu kommen all die anderen Themen, die Anwender wie Anbieter auf Trab halten. In Sachen digitaler Transformation geht es ans Eingemachte, die IT muss endlich liefern und natürlich das allgegenwärtige Thema IT-Sicherheit, das den Verantwortlichen so manche schlaflose Nacht bereitet hat. Nichts deutet derzeit darauf hin, dass es im Jahr 2025 ruhiger oder entspannter in der globalen IT-Branche zugehen dürfte. Ähnlich wie viele Hersteller und Analysten haben auch die Redaktionen von CIO, Computerwoche und CSO einen Blick in die Glaskugel geworfen, um im „TechTalk“-Podcast die großen Trends und Entwicklungen für die kommenden Monate vorherzusagen. Alte Themen, neues Glück? Wenig überraschend spielen demnach Security, Digitalisierung und Künstliche Intelligenz auch 2025 eine wichtige Rolle. So sind sich die Experten unter anderem einig, dass der KI-Hype im kommenden Jahr einer Phase der Ernüchterung weichen wird. Nach der anfänglichen Euphorie werden Unternehmen die konkreten Ergebnisse und die Wirtschaftlichkeit von KI-Projekten kritischer hinterfragen, so die Prognose. Daneben sieht Digitalisierungsexperte Jürgen Hill aber auch Auswirkungen der Künstlichen Intelligenz auf die Arbeitswelt: Da klassische, repetitive Aufgaben zunehmend von KI übernommen würden, rückten Fähigkeiten wie Innovationskraft, Kreativität, KI-Ethik und Folgenabschätzung in den Vordergrund. Jens Dose von der CIO wiederum betont, dass die Einführung von KI auch ein großes Prozessthema ist. Unternehmen müssen sich die Frage stellen, wie sie die durch KI frei gewordenen Arbeitskapazitäten sinnvoll nutzen und ob die Automatisierung von Standardaufgaben tatsächlich zu mehr Zeit für werthaltigere Arbeit führt. Aber hören Sie selbst. Unseren Podcast finden Sie bei Spotify, Apple Podcasts, Deezer, Podigee oder in Ihrer Lieblings-Podcast-App. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7IC3mB3RDgWBuD4IldtrCm?utm_source=oembed”> 

Was bringt das IT-Jahr 2025?​ Was bringt das IT-Jahr 2025? In dieser Podcast-Episode erfahren Sie mehr.alexkich/Shutterstock

Das IT Jahr 2024 verlief turbulent. Vor allem das allgegenwärtige Thema KI schüttelte die Branche weltweit gehörig durch. Dazu kommen all die anderen Themen, die Anwender wie Anbieter auf Trab halten. In Sachen digitaler Transformation geht es ans Eingemachte, die IT muss endlich liefern und natürlich das allgegenwärtige Thema IT-Sicherheit, das den Verantwortlichen so manche schlaflose Nacht bereitet hat. Nichts deutet derzeit darauf hin, dass es im Jahr 2025 ruhiger oder entspannter in der globalen IT-Branche zugehen dürfte.

Ähnlich wie viele Hersteller und Analysten haben auch die Redaktionen von CIO, Computerwoche und CSO einen Blick in die Glaskugel geworfen, um im „TechTalk“-Podcast die großen Trends und Entwicklungen für die kommenden Monate vorherzusagen.

Alte Themen, neues Glück?

Wenig überraschend spielen demnach Security, Digitalisierung und Künstliche Intelligenz auch 2025 eine wichtige Rolle. So sind sich die Experten unter anderem einig, dass der KI-Hype im kommenden Jahr einer Phase der Ernüchterung weichen wird. Nach der anfänglichen Euphorie werden Unternehmen die konkreten Ergebnisse und die Wirtschaftlichkeit von KI-Projekten kritischer hinterfragen, so die Prognose.

Daneben sieht Digitalisierungsexperte Jürgen Hill aber auch Auswirkungen der Künstlichen Intelligenz auf die Arbeitswelt: Da klassische, repetitive Aufgaben zunehmend von KI übernommen würden, rückten Fähigkeiten wie Innovationskraft, Kreativität, KI-Ethik und Folgenabschätzung in den Vordergrund.

Jens Dose von der CIO wiederum betont, dass die Einführung von KI auch ein großes Prozessthema ist. Unternehmen müssen sich die Frage stellen, wie sie die durch KI frei gewordenen Arbeitskapazitäten sinnvoll nutzen und ob die Automatisierung von Standardaufgaben tatsächlich zu mehr Zeit für werthaltigere Arbeit führt.

Aber hören Sie selbst. Unseren Podcast finden Sie bei Spotify, Apple Podcasts, Deezer, Podigee oder in Ihrer Lieblings-Podcast-App.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7IC3mB3RDgWBuD4IldtrCm?utm_source=oembed”>

Was bringt das IT-Jahr 2025?​ Weiterlesen »

5 Ratschläge für Überqualifizierte​

Allgemein

Wie sieht die richtige Bewerbungsstrategie für Überqualifizierte aus?Photographee.eu – shutterstock.com Wenn ITler in ihrer Karriere auf eine Fülle von beruflichen Erfahrungen zurückblicken können, bieten Sie ihrem neuen Arbeitgeber eine Reihe von Vorteilen: Die Einarbeitung geht zum Beispiel schnell voran und als neuer Mitarbeiter bringen Sie viel Fachwissen mit. Trotzdem besteht bei der Jobsuche die Gefahr, wegen Überqualifikation abgelehnt zu werden. Personaler nehmen häufig an, dass der Kandidat in der Position unglücklich sein wird und sich bereits nach wenigen Monaten etwas Neues sucht. Sie gehen zudem davon aus, dass sie die Gehaltsvorstellungen des Kandidaten nicht erfüllen können. Deshalb müssen sich besonders gut Qualifizierte bei der Jobsuche richtig verkaufen. Unsere amerikanische Schwesterpublikation CIO.com erläutert, wie man in Bewerbungsunterlagen und während des Gesprächs erst gar keine Bedenken bei Personalern aufkommen lässt. 1. Verkaufen Sie sich gut in Ihrem Anschreiben Ein Anschreiben sollte immer zeigen, warum Sie sich für diese bestimmte Position in diesem Unternehmen bewerben und ruhig untermauern, dass man sich informiert hat. Wer überqualifiziert ist, erläutert im Anschreiben, warum seine Erfahrungen ihn zum idealen Kandidaten qualifizieren. Wer sich auf eine niedrigere Position bewirbt, sollte im Anschreiben einen Grund für das Down-Shifting nennen. Auf Zukunftsfragen im Bewerbungsgespräch vorbereiten 2. Spielen Sie Ihren Lebenslauf nicht herunter Streichen Sie keine Ihrer Qualifikationen aus dem Lebenslauf, um nicht als überqualifiziert zu gelten. Stehen Sie zu dem, was Sie können. Personaler wollen wissen, welche Fähigkeiten Sie mitbringen. 3. Rechnen Sie mit Fragen über Ihre Ziele Personaler sorgen sich bei Überqualifizierten vor allem darum, dass Sie bald wieder jemanden einstellen müssen. Darum bereiten Sie sich für ein Bewerbungsgespräch gezielt auf Fragen zu Ihrem Interesse an der Stelle, am Unternehmen und Ihren Karrierezielen vor. Wenn Sie den Job wollen, darf auf keinen Fall der Eindruck entstehen, dass Sie hier nur parken, um sich möglichst schnell etwas Besseres zu suchen. Wenn man gar keine Ziele für die Zukunft hat, kommt das auch nicht gut an. Experten raten deshalb, überzeugend zu erläutern, warum diese Stelle besonders gut zu den persönlichen Karrierezielen passt. 4. Nehmen Sie Managern die Angst, dass Sie Ihre Jobs wollen Manche Jobsuchende machen bei Bewerbungsgesprächen die Erfahrung, dass Manager bei überqualifizierten Kandidaten Angst haben, sie könnten auf seinen Job aus sein. Deshalb stellt man am besten klar, dass man die Perspektive und auch die Grenzen der ausgeschriebenen Position kenne und sich nicht darüber hinaus bewegen werde – außer es wird ausdrücklich verlangt. 5. Zeigen Sie, wie wertvoll Sie für den Arbeitgeber sind Wenn Sie bewusst eine Hierarchiestufe nach unten klettern möchten und die dazugehörige Bezahlung in Kauf nehmen, vermarkten Sie Ihren Wert fürs Unternehmen. Ohne verzweifelt zu erscheinen, müssen Sie dem Personaler klar machen, dass er bei Ihnen deutlich mehr für sein Geld bekommt als bei einem Durchschnittskandidaten. Wenn Sie die qualifizierteste Person für die gewünschten Tätigkeiten sind, kann Ihnen das durchaus den Zuschlag bringen. (cio.de) 

5 Ratschläge für Überqualifizierte​ Wie sieht die richtige Bewerbungsstrategie für Überqualifizierte aus?Photographee.eu – shutterstock.com

Wenn ITler in ihrer Karriere auf eine Fülle von beruflichen Erfahrungen zurückblicken können, bieten Sie ihrem neuen Arbeitgeber eine Reihe von Vorteilen: Die Einarbeitung geht zum Beispiel schnell voran und als neuer Mitarbeiter bringen Sie viel Fachwissen mit.

Trotzdem besteht bei der Jobsuche die Gefahr, wegen Überqualifikation abgelehnt zu werden. Personaler nehmen häufig an, dass der Kandidat in der Position unglücklich sein wird und sich bereits nach wenigen Monaten etwas Neues sucht. Sie gehen zudem davon aus, dass sie die Gehaltsvorstellungen des Kandidaten nicht erfüllen können.

Deshalb müssen sich besonders gut Qualifizierte bei der Jobsuche richtig verkaufen. Unsere amerikanische Schwesterpublikation CIO.com erläutert, wie man in Bewerbungsunterlagen und während des Gesprächs erst gar keine Bedenken bei Personalern aufkommen lässt.

1. Verkaufen Sie sich gut in Ihrem Anschreiben

Ein Anschreiben sollte immer zeigen, warum Sie sich für diese bestimmte Position in diesem Unternehmen bewerben und ruhig untermauern, dass man sich informiert hat. Wer überqualifiziert ist, erläutert im Anschreiben, warum seine Erfahrungen ihn zum idealen Kandidaten qualifizieren. Wer sich auf eine niedrigere Position bewirbt, sollte im Anschreiben einen Grund für das Down-Shifting nennen.

Auf Zukunftsfragen im Bewerbungsgespräch vorbereiten

2. Spielen Sie Ihren Lebenslauf nicht herunter

Streichen Sie keine Ihrer Qualifikationen aus dem Lebenslauf, um nicht als überqualifiziert zu gelten. Stehen Sie zu dem, was Sie können. Personaler wollen wissen, welche Fähigkeiten Sie mitbringen.

3. Rechnen Sie mit Fragen über Ihre Ziele

Personaler sorgen sich bei Überqualifizierten vor allem darum, dass Sie bald wieder jemanden einstellen müssen. Darum bereiten Sie sich für ein Bewerbungsgespräch gezielt auf Fragen zu Ihrem Interesse an der Stelle, am Unternehmen und Ihren Karrierezielen vor. Wenn Sie den Job wollen, darf auf keinen Fall der Eindruck entstehen, dass Sie hier nur parken, um sich möglichst schnell etwas Besseres zu suchen.

Wenn man gar keine Ziele für die Zukunft hat, kommt das auch nicht gut an. Experten raten deshalb, überzeugend zu erläutern, warum diese Stelle besonders gut zu den persönlichen Karrierezielen passt.

4. Nehmen Sie Managern die Angst, dass Sie Ihre Jobs wollen

Manche Jobsuchende machen bei Bewerbungsgesprächen die Erfahrung, dass Manager bei überqualifizierten Kandidaten Angst haben, sie könnten auf seinen Job aus sein. Deshalb stellt man am besten klar, dass man die Perspektive und auch die Grenzen der ausgeschriebenen Position kenne und sich nicht darüber hinaus bewegen werde – außer es wird ausdrücklich verlangt.

5. Zeigen Sie, wie wertvoll Sie für den Arbeitgeber sind

Wenn Sie bewusst eine Hierarchiestufe nach unten klettern möchten und die dazugehörige Bezahlung in Kauf nehmen, vermarkten Sie Ihren Wert fürs Unternehmen. Ohne verzweifelt zu erscheinen, müssen Sie dem Personaler klar machen, dass er bei Ihnen deutlich mehr für sein Geld bekommt als bei einem Durchschnittskandidaten. Wenn Sie die qualifizierteste Person für die gewünschten Tätigkeiten sind, kann Ihnen das durchaus den Zuschlag bringen.

(cio.de)

5 Ratschläge für Überqualifizierte​ Weiterlesen »

E-Rechnungspflicht 2025: Darauf ist zu achten​

Allgemein

Die rechtlichen Grundlagen für die elektronische Rechnung hat die Bundesregierung im März 2024 mit der Verabschiedung des Wachstumschancengesetz gelegt. Damit ist ab 1. Januar 2025 die E-Rechnung im B2B-Geschäftsverkehr verpflichtend. Dabei muss eine E-Rechnung, wie die IHK Darmstadt erklärt, in einem vorgegebenen strukturierten elektronischen Datenformat im Sinne der europäischen Normenreihe EN 16931 ausgestellt sein. Eine Rechnung im PDF-Format sowie andere nicht nach der genannten Norm strukturierte Formate wie beispielsweise “.tif”, “.jpeg” oder “.docx” erfüllen laut IHK diese Anforderungen nicht. Infos zur E-Rechnung Welche Übergangsfristen gelten und bis wann noch Papierrechnungen verschickt werden dürfen, erklärt die IHK Darmstadt ebenfalls auf ihrer Webseite. Zudem hat auch das Bundesministerium der Finanzen eine FAQ zur E-Rechnung veröffentlicht. Um Unternehmen beim Umgang mit der E-Rechnung zu helfen, hat die Berliner Unternehmensberatung Finatycs auf Grundlage der Software-Bewertungsplattformen Capterra und OMR Reviews ermittelt, welche Tools für die elektronische Rechnung besonders beliebt und kostengünstig sind. Tipps zur E-Rechnung-Tools Ferner hat die Unternehmensberatung zur Auswahl eines E-Rechnungs-Tools einige Tipps zusammengestellt. So empfiehlt Rudolf Vasil, Partner bei Finatycs, Unternehmen, folgende Punkte zu beachten: Relevanz der Funktionen prüfen Ein gutes E-Rechnung-Tool sollte mehr bieten als nur die gesetzeskonforme Rechnungserstellung. Dazu zählen Funktionen wie die Integration in bestehende Buchhaltungssysteme, automatische Steuerberechnungen oder Berichterstellungsoptionen. Diese zusätzlichen Features sparen langfristig Zeit und Kosten. Benutzerfreundlichkeit sicherstellen (Ferner ist auf eine intuitive Bedienung zu achten.) Komplexe Systeme, welche die Mitarbeiter überfordern, schaden im Zweifelsfall mehr als sie nutzen. Deshalb empfiehlt es sich, auf Tools zu achten, die Bewertungen besonders für ihre Benutzerfreundlichkeit gelobt werden. Skalierbarkeit berücksichtigen Das zur Wahl stehende Tool sollte auch mit dem Wachstum des Unternehmens Schritt halten können und nicht nur heute gerade noch ausreichen. Skalierbare Lösungen ermöglichen es, künftige Anforderungen ohne teure Systemwechsel abzudecken. Kunden-Support nicht unterschätzen Gerade bei zentralen Funktionen wie der Rechnungsstellung ist eine schnelle und kompetente Unterstützung entscheidend. Deshalb ist zu prüfen, ob es für das Tool einen verlässlichen Support gibt. Idealerweise beherrscht diese die eigene Sprache und ist in den für das eigene Unternehmen wichtigen Zeitzonen verfügbar. Kosten-Nutzen-Verhältnis prüfen Günstig ist nicht gleich gut. Deshalb gilt es, die monatlichen Kosten mit dem tatsächlichen Nutzen zu vergleichen, den das Tool für Ihr Unternehmen bietet. Es lohnt sich oft, etwas mehr zu investieren, um ein Produkt zu wählen, das die eigenen Prozesse nachhaltig optimiert. Beliebte Tools Auf den zwei Software-Bewertungsplattformen Capterra und OMR Reviews schaffen es laut Finatycs die Tools Acuity Schedulding, Karbon und TaxDome sowie GetMyInvoices.com auf die ersten Plätze. Die Software Acuity Schelding kann mit 5.667 Bewertungen und einer Punktzahl von 4,8 Punkten in der Untersuchung glänzen. Laut der Unternehmensberatung ist sie ideal für Dienstleistungsunternehmen, die ihre Terminplanung mit der Rechnungsstellung verbinden möchten. Wer die Software für sein Unternehmen nutzen möchte, zahlt monatlich umgerechnet 18,45 Euro. Compliance automatisieren Platz zwei teilen sich die Tools Karbon und Taxdome mit jeweils 4,7 von fünf möglichen Punkten – hier lag die Anzahl der Bewertungen bei 171 beziehungsweise 3.073 Bewertungen. TaxDome eignet sich vor allem für Steuerberater und Buchhaltungsbüros, da durch Automatisierung der Compliance-Aufgaben die Zusammenarbeit mit Mandanten erleichtert wird. Die Software gehört mit 79 Euro zu den teuersten Softwares unter den Top-3. Karbon hingegen kombiniert Aufgabenverwaltung mit Rechnungsstellung. Damit ist das Tool besonders für projektbasiertes Arbeiten geeignet. Hier fallen für Unternehmen Kosten von 59 Euro an. Tools fürs Enterprise GetMyInvoices.com folgt schließlich auf Platz drei mit 4,6 Punkten. Preislich liegt die Software bei 19 Euro im Monat. Insgesamt haben 270 Nutzer das Tool bewertet. Im Gegensatz zu obigen Produkten setzen größere Unternehmen häufig auf spezialisierte Programme wie SAP Document Compliance oder DATEV SmartTransfer, die eine tiefere Integration und erweiterte Funktionen bieten. Kostengünstig Preislich am besten schneidet unter den 15 untersuchten Tools Lexware Office ab. Das M-Paket, das unter anderem das Versenden von E-Rechnungen ermöglicht, gibt es bereits für 11,90 Euro im Monat. Damit bietet Lexware Office kleinen Unternehmen eine kosteneffiziente Lösung, um Rechnungen zu erstellen, Steuerprognosen zu erhalten und Belege unterwegs zu erfassen. WISO MeinBüro folgt im Preisranking auf Platz zwei: Hier fallen bei dem Basis-Paket monatlich Kosten in Höhe von 14,90 Euro an. Es folgt das Tool Easy Bill mit 15 Euro im Monat. Das Basis-Paket umfasst hier neben der elektronischen Rechnungsstellung auch die Auswertung von Daten für die Berichterstellung. Das Paket ist für einen Benutzer ausgelegt und ermöglicht zusätzlich einen Zugriff für den Steuerberater. 

E-Rechnungspflicht 2025: Darauf ist zu achten​ Die rechtlichen Grundlagen für die elektronische Rechnung hat die Bundesregierung im März 2024 mit der Verabschiedung des Wachstumschancengesetz gelegt. Damit ist ab 1. Januar 2025 die E-Rechnung im B2B-Geschäftsverkehr verpflichtend.

Dabei muss eine E-Rechnung, wie die IHK Darmstadt erklärt, in einem vorgegebenen strukturierten elektronischen Datenformat im Sinne der europäischen Normenreihe EN 16931 ausgestellt sein. Eine Rechnung im PDF-Format sowie andere nicht nach der genannten Norm strukturierte Formate wie beispielsweise “.tif”, “.jpeg” oder “.docx” erfüllen laut IHK diese Anforderungen nicht.

Infos zur E-Rechnung

Welche Übergangsfristen gelten und bis wann noch Papierrechnungen verschickt werden dürfen, erklärt die IHK Darmstadt ebenfalls auf ihrer Webseite. Zudem hat auch das Bundesministerium der Finanzen eine FAQ zur E-Rechnung veröffentlicht.

Um Unternehmen beim Umgang mit der E-Rechnung zu helfen, hat die Berliner Unternehmensberatung Finatycs auf Grundlage der Software-Bewertungsplattformen Capterra und OMR Reviews ermittelt, welche Tools für die elektronische Rechnung besonders beliebt und kostengünstig sind.

Tipps zur E-Rechnung-Tools

Ferner hat die Unternehmensberatung zur Auswahl eines E-Rechnungs-Tools einige Tipps zusammengestellt. So empfiehlt Rudolf Vasil, Partner bei Finatycs, Unternehmen, folgende Punkte zu beachten:

Relevanz der Funktionen prüfen

Ein gutes E-Rechnung-Tool sollte mehr bieten als nur die gesetzeskonforme Rechnungserstellung. Dazu zählen Funktionen wie die Integration in bestehende Buchhaltungssysteme, automatische Steuerberechnungen oder Berichterstellungsoptionen. Diese zusätzlichen Features sparen langfristig Zeit und Kosten.

Benutzerfreundlichkeit sicherstellen

(Ferner ist auf eine intuitive Bedienung zu achten.) Komplexe Systeme, welche die Mitarbeiter überfordern, schaden im Zweifelsfall mehr als sie nutzen. Deshalb empfiehlt es sich, auf Tools zu achten, die Bewertungen besonders für ihre Benutzerfreundlichkeit gelobt werden.

Skalierbarkeit berücksichtigen

Das zur Wahl stehende Tool sollte auch mit dem Wachstum des Unternehmens Schritt halten können und nicht nur heute gerade noch ausreichen. Skalierbare Lösungen ermöglichen es, künftige Anforderungen ohne teure Systemwechsel abzudecken.

Kunden-Support nicht unterschätzen

Gerade bei zentralen Funktionen wie der Rechnungsstellung ist eine schnelle und kompetente Unterstützung entscheidend. Deshalb ist zu prüfen, ob es für das Tool einen verlässlichen Support gibt. Idealerweise beherrscht diese die eigene Sprache und ist in den für das eigene Unternehmen wichtigen Zeitzonen verfügbar.

Kosten-Nutzen-Verhältnis prüfen

Günstig ist nicht gleich gut. Deshalb gilt es, die monatlichen Kosten mit dem tatsächlichen Nutzen zu vergleichen, den das Tool für Ihr Unternehmen bietet. Es lohnt sich oft, etwas mehr zu investieren, um ein Produkt zu wählen, das die eigenen Prozesse nachhaltig optimiert.

Beliebte Tools

Auf den zwei Software-Bewertungsplattformen Capterra und OMR Reviews schaffen es laut Finatycs die Tools Acuity Schedulding, Karbon und TaxDome sowie GetMyInvoices.com auf die ersten Plätze.

Die Software Acuity Schelding kann mit 5.667 Bewertungen und einer Punktzahl von 4,8 Punkten in der Untersuchung glänzen. Laut der Unternehmensberatung ist sie ideal für Dienstleistungsunternehmen, die ihre Terminplanung mit der Rechnungsstellung verbinden möchten. Wer die Software für sein Unternehmen nutzen möchte, zahlt monatlich umgerechnet 18,45 Euro.

Compliance automatisieren

Platz zwei teilen sich die Tools Karbon und Taxdome mit jeweils 4,7 von fünf möglichen Punkten – hier lag die Anzahl der Bewertungen bei 171 beziehungsweise 3.073 Bewertungen. TaxDome eignet sich vor allem für Steuerberater und Buchhaltungsbüros, da durch Automatisierung der Compliance-Aufgaben die Zusammenarbeit mit Mandanten erleichtert wird. Die Software gehört mit 79 Euro zu den teuersten Softwares unter den Top-3.

Karbon hingegen kombiniert Aufgabenverwaltung mit Rechnungsstellung. Damit ist das Tool besonders für projektbasiertes Arbeiten geeignet. Hier fallen für Unternehmen Kosten von 59 Euro an.

Tools fürs Enterprise

GetMyInvoices.com folgt schließlich auf Platz drei mit 4,6 Punkten. Preislich liegt die Software bei 19 Euro im Monat. Insgesamt haben 270 Nutzer das Tool bewertet.

Im Gegensatz zu obigen Produkten setzen größere Unternehmen häufig auf spezialisierte Programme wie SAP Document Compliance oder DATEV SmartTransfer, die eine tiefere Integration und erweiterte Funktionen bieten.

Kostengünstig

Preislich am besten schneidet unter den 15 untersuchten Tools Lexware Office ab. Das M-Paket, das unter anderem das Versenden von E-Rechnungen ermöglicht, gibt es bereits für 11,90 Euro im Monat. Damit bietet Lexware Office kleinen Unternehmen eine kosteneffiziente Lösung, um Rechnungen zu erstellen, Steuerprognosen zu erhalten und Belege unterwegs zu erfassen.

WISO MeinBüro folgt im Preisranking auf Platz zwei: Hier fallen bei dem Basis-Paket monatlich Kosten in Höhe von 14,90 Euro an. Es folgt das Tool Easy Bill mit 15 Euro im Monat. Das Basis-Paket umfasst hier neben der elektronischen Rechnungsstellung auch die Auswertung von Daten für die Berichterstellung. Das Paket ist für einen Benutzer ausgelegt und ermöglicht zusätzlich einen Zugriff für den Steuerberater.

E-Rechnungspflicht 2025: Darauf ist zu achten​ Weiterlesen »

Legacy-Modernisierung: Eine Frage des “Wie” – nicht des “Ob”​

Allgemein

Der Großrechner lebt. Und das entgegen der Einschätzung etlicher Business-Verantwortlicher und Mitarbeiterinnen und Mitarbeitern in den Fachbereichen. Denn in 56 Prozent der Unternehmen in Deutschland sind noch Mainframes und Midrange-Systeme im Einsatz. Das belegt die Studie “Legacy-Modernisierung 2024”, die das Custom Research Team von CIO, CSO und Computerwoche in Zusammenarbeit mit Hyland, T-Systems, SPIRIT/21 und Thinkwise erstellt hat. Insgesamt nutzt noch ein Drittel der Firmen Legacy-Systeme für wichtige Aufgaben. Dazu zählen allerdings nicht nur Großrechner beziehungsweise eine veraltete CRM- oder ERP-Software. Laut der Studie stuft mehr als die Hälfte der Befragten (55 Prozent) auch mindestens eine der instanzenbasierten Cloud-Ressourcen als veraltet ein. Dazu zählen beispielsweise Software-as-a-Service-Angebote (SaaS). “Legacy” wird auf unterschiedliche Weise definiert “In der Praxis zeigt sich, dass viele Unternehmen nach wie vor eine erhebliche Anzahl an Legacy-Applikationen nutzen. Dabei ist es schwierig, den Anteil wichtiger Unternehmensanwendungen zu bestimmen, auch für die Unternehmen selbst”, bestätigt Thomas Strigel, Leiter Geschäftsfeldentwicklung Managed Solutions & Consulting von SPIRIT/21. Der Grund: Diese Applikationen sind oft in umfassendere Prozesse eingebunden und daher bei einer ersten Analyse nicht sofort sichtbar. Thomas Strigel, Leiter Geschäftsfeldentwicklung Managed Solutions & Consulting von SPIRIT/21: “In der Praxis zeigt sich, dass viele Unternehmen nach wie vor eine erhebliche Anzahl an Legacy-Applikationen nutzen. Dabei ist es schwierig, den Anteil wichtiger Unternehmensanwendungen zu bestimmen, auch für die Unternehmen selbst.”SPIRIT/21 GmbH Hinzu kommt, dass Unternehmen den Begriff “Legacy” auf unterschiedliche Weise interpretieren: “Während für einige das Alter der Anwendung oder der verwendeten Technologien ausschlaggebend sind, bedeutet ‘Legacy’ für andere den Wegfall von Support beziehungsweise Updates”, so Strigel. “Weiter wie gehabt”, ist keine Option Fest steht allerdings, dass ein “Weiter so!” mit veralteten IT-Infrastrukturen und Anwendungen keine Lösung ist. Denn fast die Hälfte der Teilnehmer der Studie (46 Prozent) gab an, dass mit Legacy-Systemen hohe Betriebskosten verbunden sind. Und über 40 Prozent der Unternehmen verzeichnen dadurch Einschränkungen, die ihre Geschäftsaktivitäten beeinträchtigen. Höhere Ausgaben bei gleichzeitig sinkender Wettbewerbsfähigkeit sind Faktoren, die sich gerade in herausfordernden Zeiten kein Unternehmen leisten kann. Legacy-Modernisierung: Modernisierung braucht ein “Warum” | Computerwoche “T-Systems beobachtet außerdem, dass Unternehmen mit einem Mangel an Flexibilität, erhöhten Sicherheitsrisiken und fehlenden spezialisierten Fähigkeiten zur Wartung älterer Systeme zu kämpfen haben, was für Modernisierungsentscheidungen oft kritisch ist”, sagt Gundula Folkerts, PreSales Lead Legacy Application Modernization bei T-Systems. Eine Fülle von Herausforderungen Dass die Ablösung oder das Upgrade von Bestandssystemen kein Selbstläufer ist, betont auch Arsalan Minhas, Associate Vice President of Sales Engineering bei Hyland Software: “Bei IT-Modernisierungsprojekten sehen sich Unternehmen einer Vielzahl komplexer Herausforderungen gegenüber.” Eine ist das Konsolidieren und Konvertieren der Daten aus unterschiedlichen Altsystemen. “Daten sind das Herzblut jedes Unternehmens. Eine fehlerhafte Migration kann den gesamten Organismus lahmlegen”, warnt Minhas. Experten diskutieren Legacy-Modernisierung: IT-Verjüngungskur mit Nachdruck Eine solche Datenkonsolidierung ist umso wichtiger, als der Studie zufolge bereits 61 Prozent der Unternehmen über eine zentrale Datenplattform verfügen. Sie soll auch im Zusammenhang mit der Erneuerung geschäftskritischer Workloads eine zentrale Rolle spielen, inklusive der datenbasierten Steuerung von Geschäftsprozessen. Als weitere kritische Punkte stuft Hyland bei der Legacy-Modernisierung Bedenken in Bezug auf die Sicherheit und die komplexe Migration von Geschäftsprozessen ein. Zudem spielen nach den Erfahrungen von T-Systems betriebspolitische Faktoren eine Rolle bei der Legacy-Modernisierung, etwa “Interessenkonflikte zwischen den betroffenen Stakeholdern, das heißt IT und Anwendung sowie Geschäftsinhabern”, erläutert Gundula Folkerts. Gundula Folkerts, PreSales Lead Legacy Application Modernization bei T-Systems: “Die meisten Unternehmen möchten die Vorteile der Cloud nutzen, sowohl von Public als auch Private Clouds. Sie sind sich aber manchmal nicht sicher, wie sie diese Vorteile realisieren können.” T-Systems International GmbH Kosten schwer einzuschätzen Bei Projekten im Bereich Legacy-Modernisierung sieht SPIRIT/21 die Anwender daher in einer “Zwickmühle”, so Thomas Strigel. Zwar seien den Unternehmen die Nachteile von Bestandssystemen bewusst, doch würden sie die Risiken und Kosten scheuen, die mit einer Transformation verbunden sind. “Die Kosten für eine vollständige Ablösung größerer Legacy-Anwendungen lassen sich im Voraus nur schwer einschätzen, da häufig entweder keine oder nur unzureichende Dokumentationen zu den Anwendungen und den abgebildeten Prozessen vorliegen”, erläutert der Fachmann. Hinzu kommt, dass viele Mitarbeiter, welche die Systeme entwickelt oder konfiguriert haben, bereits in Rente sind oder das Unternehmen verlassen haben. Weg mit veralteten Systemen Die Frage ist allerdings, welchen Weg Unternehmen einschlagen sollen, wenn sie eine modernere IT-Umgebung einrichten möchten: eine Rundumerneuerung in einem Zug, eine schrittweise Vorgehensweise oder eine Mischung aus beiden Ansätzen. Für einen kompletten Neuaufbau plädiert beispielsweise Thinkwise, ein Anbieter von Plattformen und Tools im Bereich Low-Code. “Unternehmen tendieren häufig zu Ansätzen wie Rehost, Replatform, Refactor oder Rearchitect. Doch diese Strategien bieten oft nur kurzfristige Lösungen und schaffen potenziell zukünftige technologische Altlasten”, kritisiert Mark Knill, Chief Commercial Officer von Thinkwise. “Der Ansatz des vollständigen Neuaufbaus wird hingegen viel zu selten in Betracht gezogen, obwohl er langfristig die nachhaltigste Option ist.” Mark Knill, Chief Commercial Officer von Thinkwise: “Unternehmen tendieren häufig zu Ansätzen wie Rehost, Replatform, Refactor oder Rearchitect. Doch diese Strategien bieten oft nur kurzfristige Lösungen und schaffen potenziell zukünftige technologische Altlasten.” Thinkwise Software BV Eine Rebuild/Replace-Strategie auf Basis einer modellgetriebenen Low-Code-Entwicklung, wie sie Thinkwise empfiehlt, beseitigt Knill zufolge veralteten Code und ermöglicht es Unternehmen, die neusten Best Practices und Technologien zu verwenden. Ein weiterer Vorteil eines Neuanfangs: “Die Anwendung kann exakt auf die aktuellen und zukünftigen Geschäftsanforderungen zugeschnitten werden, was bei anderen Modernisierungsansätzen oft nur begrenzt möglich ist.” Mit Low-Code spezifische Anforderungen umsetzen Als Beispiel dafür, wie sich eine Low-Code-Plattform im Rahmen der Legacy-Modernisierung einsetzen lässt, führt Knill das niederländische Schifffahrtsunternehmen Wagenborg an. Es nutzte für die Modernisierung eines veralteten ERP-Systems auf Basis von AS/400-Rechnern das System von Thinkwise. Dadurch konnte Wagenborg spezifische Anforderungen an die ERP-Software umsetzen, ohne dass eine Individualentwicklung nötig war. “Das Unternehmen entwickelt und automatisiert heute viel schneller und gezielter genau die Funktionalität, die für die spezifischen Prozesse benötigt werden. Zudem können neue Technologien wie IoT und KI einfacher implementiert werden”, fasst Knill zusammen. Die Grundlage bildet eine grafische Modellierung von Software, die sich mit geringem Aufwand an individuelle Anforderungen anpassen lässt. Alternative: Iterativer Modernisierungsprozess Doch nicht alle Unternehmen wollen oder können einen radikalen Schnitt vornehmen: “Bei Hyland beobachten wir, dass unsere Kunden in der Regel einen phasenweisen oder iterativen Modernisierungsansatz bevorzugen, anstatt sich für eine umfassende ‘Big-Bang’-Umstellung zu entscheiden”, sagt Arsalan Minhas. Eine schrittweise Legacy-Modernisierung hat aus seiner Sicht drei Vorteile: Anwender erzielen schnell einen greifbaren Mehrwert (ROI), Kosten und Risiken lassen sich besser kontrollieren beziehungsweise minimieren und “Kunden können die Ergebnisse jeder Phase validieren und gegebenenfalls Anpassungen vornehmen. Dies fördert eine Kultur der kontinuierlichen Verbesserung und Anpassungsfähigkeit”, so der Experte. Egal, ob Iteration oder Big Bang: Wichtig ist Hyland zufolge, dass ein Spezialist für Legacy-Modernisierung Unternehmen maßgeschneiderte Lösungsansätze anbietet, die auf die Anforderungen der Nutzer abgestimmt sind. Arsalan Minhas, Associate Vice President of Sales Engineering bei Hyland Software: “Bei Hyland beobachten wir, dass unsere Kunden in der Regel einen phasenweisen oder iterativen Modernisierungsansatz bevorzugen, anstatt sich für eine umfassende ‘Big-Bang’-Umstellung zu entscheiden.”Hyland Software Germany GmbH Wichtigste Zielplattformen: Private und Public Cloud Eine zentrale Rolle beim Modernisieren von Bestandssysteme spielt die Cloud. An die 63 Prozent der Unternehmen gaben als Zielplattform von Modernisierungsprojekten eine Private Cloud an, knapp 49 Prozent Public Clouds. “Die meisten Unternehmen möchten die Vorteile der Cloud nutzen, sowohl von Public als auch Private Clouds. Sie sind sich aber manchmal nicht sicher, wie sie diese Vorteile realisieren können”, stellt Gundula Folkerts fest. Vor allem das Ausbalancieren von Cloud und Legacy-Workloads sei eine Herausforderung. Generell geht der Trend in Richtung Hybrid Cloud: “Die meisten Unternehmen bevorzugen einen Hybrid-Cloud-Ansatz, der Kontrolle mit Flexibilität und Compliance-Anforderungen in Einklang bringt”, betont Folkerts. Doch auch die Migration von Altsystemen und entsprechenden Anwendungen in eine Cloud erfordert Fachwissen, das speziell in kleineren und mittelständischen Firmen nur bedingt vorhanden ist, erläutert Thomas Strigel von SPIRIT/21: “Die größte Herausforderung besteht nach wie vor darin, den gesamten Funktions- und Prozessumfang sowie die Interaktionen mit anderen Anwendungen zu identifizieren und zu dokumentieren. An zweiter Stelle steht die Schwierigkeit, die Kosten für eine Ablösung realistisch abzuschätzen.” Legacy-Modernisierung: “Wer die Modernisierung verschläft, wird morgen von der Konkurrenz überholt!” Rolle von Managed Services Solche Faktoren und die Komplexität einer Legacy-Modernisierung per se führen dazu, dass laut der Studie von CIO, CSO und Computerwoche fast die Hälfte der Befragten (49 Prozent) auf die Hilfe von Dienstleistern zurückgreift. Neben Beratungsleistungen gewinnen Managed Services an Bedeutung. “Gerade die Neuentwicklung, insbesondere als Cloud-native Anwendung, ist ein zentrales Angebot von SPIRIT/21, das von Unternehmen im Rahmen ihrer Modernisierung häufig genutzt wird. Dabei wird oft ein komplettes Managed-Services-Angebot bevorzugt, das den Betrieb der Lösung einschließt”, bestätigt Thomas Strigel. Dieselbe Erfahrung hat T-Systems gemacht: “Managed Services können dazu beitragen, die Last der Modernisierung zu verringern, indem sie Ressourcenengpässe angehen und flexible, skalierbare Lösungen anbieten”, so Gundula Folkerts. T-Systems kann Unternehmen durch seine breite Expertise dabei unterstützen, die Modernisierung von Legacy-Umgebungen zu unterstützen, von der Beratung bis zur Ausführung.” Fazit: Eigenen Weg finden Die Studie “Legacy-Modernisierung 2024” und die Einschätzungen der Experten zeigen, dass für die Modernisierung von Bestandssystemen das Kostüm beziehungsweise der Anzug von der Stange keine tragfähige Lösung ist. Vielmehr muss jedes Unternehmen einen eigenen Weg hin zu einer moderneren IT- und Anwendungsumgebung finden. Ob dies der Umstieg auf eine Low-Code- oder Cloud-Plattform ist oder eine sanfte Migration, bei der auch Mainframes noch eine Rolle spielen, hängt von den individuellen Anforderungen eines Anwenders ab. Angesichts der elementaren Bedeutung und des oft hohen Komplexitätsgrads einer Legacy-Modernisierung dürfte es angeraten sein, die Unterstützung durch externe Fachleute in Betracht zu ziehen. Zum einen verfügen diese über das erforderliche Fachwissen. Zum anderen können diese eine neutrale Bewertung der vorhandenen IT-Umgebung durchführen und moderne Alternativen empfehlen, unabhängig von der Betriebspolitik. Doch der Aufwand lohnt sich, wie Arsalan Minhas von Hyland zusammenfasst: “Trotz der Herausforderungen bietet die IT-Modernisierung enorme Chancen. Sie ist der Schlüssel zur digitalen Transformation und damit zur langfristigen Wettbewerbsfähigkeit. Die Modernisierung von Legacy-Systemen ist daher keine Frage des ‘Ob’, sondern des ‘Wie’.” srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?quality=50&strip=all 1502w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die neue Studie “Legacy-Modernisierung 2024” von CIO Research ServicesResearch Services: Christine Plote Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Hyland Software Germany GmbH; T-Systems International GmbH; SPIRIT/21 GmbH; Thinkwise Software BV Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 320 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 23. bis 30. Juli 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Legacy-Modernisierung: Eine Frage des “Wie” – nicht des “Ob”​ Der Großrechner lebt. Und das entgegen der Einschätzung etlicher Business-Verantwortlicher und Mitarbeiterinnen und Mitarbeitern in den Fachbereichen. Denn in 56 Prozent der Unternehmen in Deutschland sind noch Mainframes und Midrange-Systeme im Einsatz. Das belegt die Studie “Legacy-Modernisierung 2024”, die das Custom Research Team von CIO, CSO und Computerwoche in Zusammenarbeit mit Hyland, T-Systems, SPIRIT/21 und Thinkwise erstellt hat.

Insgesamt nutzt noch ein Drittel der Firmen Legacy-Systeme für wichtige Aufgaben. Dazu zählen allerdings nicht nur Großrechner beziehungsweise eine veraltete CRM- oder ERP-Software. Laut der Studie stuft mehr als die Hälfte der Befragten (55 Prozent) auch mindestens eine der instanzenbasierten Cloud-Ressourcen als veraltet ein. Dazu zählen beispielsweise Software-as-a-Service-Angebote (SaaS).

“Legacy” wird auf unterschiedliche Weise definiert

“In der Praxis zeigt sich, dass viele Unternehmen nach wie vor eine erhebliche Anzahl an Legacy-Applikationen nutzen. Dabei ist es schwierig, den Anteil wichtiger Unternehmensanwendungen zu bestimmen, auch für die Unternehmen selbst”, bestätigt Thomas Strigel, Leiter Geschäftsfeldentwicklung Managed Solutions & Consulting von SPIRIT/21. Der Grund: Diese Applikationen sind oft in umfassendere Prozesse eingebunden und daher bei einer ersten Analyse nicht sofort sichtbar.

Thomas Strigel, Leiter Geschäftsfeldentwicklung Managed Solutions & Consulting von SPIRIT/21: “In der Praxis zeigt sich, dass viele Unternehmen nach wie vor eine erhebliche Anzahl an Legacy-Applikationen nutzen. Dabei ist es schwierig, den Anteil wichtiger Unternehmensanwendungen zu bestimmen, auch für die Unternehmen selbst.”SPIRIT/21 GmbH

Hinzu kommt, dass Unternehmen den Begriff “Legacy” auf unterschiedliche Weise interpretieren: “Während für einige das Alter der Anwendung oder der verwendeten Technologien ausschlaggebend sind, bedeutet ‘Legacy’ für andere den Wegfall von Support beziehungsweise Updates”, so Strigel.

“Weiter wie gehabt”, ist keine Option

Fest steht allerdings, dass ein “Weiter so!” mit veralteten IT-Infrastrukturen und Anwendungen keine Lösung ist. Denn fast die Hälfte der Teilnehmer der Studie (46 Prozent) gab an, dass mit Legacy-Systemen hohe Betriebskosten verbunden sind. Und über 40 Prozent der Unternehmen verzeichnen dadurch Einschränkungen, die ihre Geschäftsaktivitäten beeinträchtigen. Höhere Ausgaben bei gleichzeitig sinkender Wettbewerbsfähigkeit sind Faktoren, die sich gerade in herausfordernden Zeiten kein Unternehmen leisten kann.

Legacy-Modernisierung: Modernisierung braucht ein “Warum” | Computerwoche

“T-Systems beobachtet außerdem, dass Unternehmen mit einem Mangel an Flexibilität, erhöhten Sicherheitsrisiken und fehlenden spezialisierten Fähigkeiten zur Wartung älterer Systeme zu kämpfen haben, was für Modernisierungsentscheidungen oft kritisch ist”, sagt Gundula Folkerts, PreSales Lead Legacy Application Modernization bei T-Systems.

Eine Fülle von Herausforderungen

Dass die Ablösung oder das Upgrade von Bestandssystemen kein Selbstläufer ist, betont auch Arsalan Minhas, Associate Vice President of Sales Engineering bei Hyland Software: “Bei IT-Modernisierungsprojekten sehen sich Unternehmen einer Vielzahl komplexer Herausforderungen gegenüber.” Eine ist das Konsolidieren und Konvertieren der Daten aus unterschiedlichen Altsystemen. “Daten sind das Herzblut jedes Unternehmens. Eine fehlerhafte Migration kann den gesamten Organismus lahmlegen”, warnt Minhas.

Experten diskutieren Legacy-Modernisierung: IT-Verjüngungskur mit Nachdruck

Eine solche Datenkonsolidierung ist umso wichtiger, als der Studie zufolge bereits 61 Prozent der Unternehmen über eine zentrale Datenplattform verfügen. Sie soll auch im Zusammenhang mit der Erneuerung geschäftskritischer Workloads eine zentrale Rolle spielen, inklusive der datenbasierten Steuerung von Geschäftsprozessen. Als weitere kritische Punkte stuft Hyland bei der Legacy-Modernisierung Bedenken in Bezug auf die Sicherheit und die komplexe Migration von Geschäftsprozessen ein.

Zudem spielen nach den Erfahrungen von T-Systems betriebspolitische Faktoren eine Rolle bei der Legacy-Modernisierung, etwa “Interessenkonflikte zwischen den betroffenen Stakeholdern, das heißt IT und Anwendung sowie Geschäftsinhabern”, erläutert Gundula Folkerts.

Gundula Folkerts, PreSales Lead Legacy Application Modernization bei T-Systems: “Die meisten Unternehmen möchten die Vorteile der Cloud nutzen, sowohl von Public als auch Private Clouds. Sie sind sich aber manchmal nicht sicher, wie sie diese Vorteile realisieren können.”
T-Systems International GmbH

Kosten schwer einzuschätzen

Bei Projekten im Bereich Legacy-Modernisierung sieht SPIRIT/21 die Anwender daher in einer “Zwickmühle”, so Thomas Strigel. Zwar seien den Unternehmen die Nachteile von Bestandssystemen bewusst, doch würden sie die Risiken und Kosten scheuen, die mit einer Transformation verbunden sind.

“Die Kosten für eine vollständige Ablösung größerer Legacy-Anwendungen lassen sich im Voraus nur schwer einschätzen, da häufig entweder keine oder nur unzureichende Dokumentationen zu den Anwendungen und den abgebildeten Prozessen vorliegen”, erläutert der Fachmann. Hinzu kommt, dass viele Mitarbeiter, welche die Systeme entwickelt oder konfiguriert haben, bereits in Rente sind oder das Unternehmen verlassen haben.

Weg mit veralteten Systemen

Die Frage ist allerdings, welchen Weg Unternehmen einschlagen sollen, wenn sie eine modernere IT-Umgebung einrichten möchten: eine Rundumerneuerung in einem Zug, eine schrittweise Vorgehensweise oder eine Mischung aus beiden Ansätzen.

Für einen kompletten Neuaufbau plädiert beispielsweise Thinkwise, ein Anbieter von Plattformen und Tools im Bereich Low-Code. “Unternehmen tendieren häufig zu Ansätzen wie Rehost, Replatform, Refactor oder Rearchitect. Doch diese Strategien bieten oft nur kurzfristige Lösungen und schaffen potenziell zukünftige technologische Altlasten”, kritisiert Mark Knill, Chief Commercial Officer von Thinkwise. “Der Ansatz des vollständigen Neuaufbaus wird hingegen viel zu selten in Betracht gezogen, obwohl er langfristig die nachhaltigste Option ist.”

Mark Knill, Chief Commercial Officer von Thinkwise: “Unternehmen tendieren häufig zu Ansätzen wie Rehost, Replatform, Refactor oder Rearchitect. Doch diese Strategien bieten oft nur kurzfristige Lösungen und schaffen potenziell zukünftige technologische Altlasten.”
Thinkwise Software BV

Eine Rebuild/Replace-Strategie auf Basis einer modellgetriebenen Low-Code-Entwicklung, wie sie Thinkwise empfiehlt, beseitigt Knill zufolge veralteten Code und ermöglicht es Unternehmen, die neusten Best Practices und Technologien zu verwenden. Ein weiterer Vorteil eines Neuanfangs: “Die Anwendung kann exakt auf die aktuellen und zukünftigen Geschäftsanforderungen zugeschnitten werden, was bei anderen Modernisierungsansätzen oft nur begrenzt möglich ist.”

Mit Low-Code spezifische Anforderungen umsetzen

Als Beispiel dafür, wie sich eine Low-Code-Plattform im Rahmen der Legacy-Modernisierung einsetzen lässt, führt Knill das niederländische Schifffahrtsunternehmen Wagenborg an. Es nutzte für die Modernisierung eines veralteten ERP-Systems auf Basis von AS/400-Rechnern das System von Thinkwise. Dadurch konnte Wagenborg spezifische Anforderungen an die ERP-Software umsetzen, ohne dass eine Individualentwicklung nötig war.

“Das Unternehmen entwickelt und automatisiert heute viel schneller und gezielter genau die Funktionalität, die für die spezifischen Prozesse benötigt werden. Zudem können neue Technologien wie IoT und KI einfacher implementiert werden”, fasst Knill zusammen. Die Grundlage bildet eine grafische Modellierung von Software, die sich mit geringem Aufwand an individuelle Anforderungen anpassen lässt.

Alternative: Iterativer Modernisierungsprozess

Doch nicht alle Unternehmen wollen oder können einen radikalen Schnitt vornehmen: “Bei Hyland beobachten wir, dass unsere Kunden in der Regel einen phasenweisen oder iterativen Modernisierungsansatz bevorzugen, anstatt sich für eine umfassende ‘Big-Bang’-Umstellung zu entscheiden”, sagt Arsalan Minhas.

Eine schrittweise Legacy-Modernisierung hat aus seiner Sicht drei Vorteile:

Anwender erzielen schnell einen greifbaren Mehrwert (ROI),

Kosten und Risiken lassen sich besser kontrollieren beziehungsweise minimieren und

“Kunden können die Ergebnisse jeder Phase validieren und gegebenenfalls Anpassungen vornehmen. Dies fördert eine Kultur der kontinuierlichen Verbesserung und Anpassungsfähigkeit”, so der Experte.

Egal, ob Iteration oder Big Bang: Wichtig ist Hyland zufolge, dass ein Spezialist für Legacy-Modernisierung Unternehmen maßgeschneiderte Lösungsansätze anbietet, die auf die Anforderungen der Nutzer abgestimmt sind.

Arsalan Minhas, Associate Vice President of Sales Engineering bei Hyland Software: “Bei Hyland beobachten wir, dass unsere Kunden in der Regel einen phasenweisen oder iterativen Modernisierungsansatz bevorzugen, anstatt sich für eine umfassende ‘Big-Bang’-Umstellung zu entscheiden.”Hyland Software Germany GmbH

Wichtigste Zielplattformen: Private und Public Cloud

Eine zentrale Rolle beim Modernisieren von Bestandssysteme spielt die Cloud. An die 63 Prozent der Unternehmen gaben als Zielplattform von Modernisierungsprojekten eine Private Cloud an, knapp 49 Prozent Public Clouds.

“Die meisten Unternehmen möchten die Vorteile der Cloud nutzen, sowohl von Public als auch Private Clouds. Sie sind sich aber manchmal nicht sicher, wie sie diese Vorteile realisieren können”, stellt Gundula Folkerts fest. Vor allem das Ausbalancieren von Cloud und Legacy-Workloads sei eine Herausforderung. Generell geht der Trend in Richtung Hybrid Cloud: “Die meisten Unternehmen bevorzugen einen Hybrid-Cloud-Ansatz, der Kontrolle mit Flexibilität und Compliance-Anforderungen in Einklang bringt”, betont Folkerts.

Doch auch die Migration von Altsystemen und entsprechenden Anwendungen in eine Cloud erfordert Fachwissen, das speziell in kleineren und mittelständischen Firmen nur bedingt vorhanden ist, erläutert Thomas Strigel von SPIRIT/21: “Die größte Herausforderung besteht nach wie vor darin, den gesamten Funktions- und Prozessumfang sowie die Interaktionen mit anderen Anwendungen zu identifizieren und zu dokumentieren. An zweiter Stelle steht die Schwierigkeit, die Kosten für eine Ablösung realistisch abzuschätzen.”

Legacy-Modernisierung: “Wer die Modernisierung verschläft, wird morgen von der Konkurrenz überholt!”

Rolle von Managed Services

Solche Faktoren und die Komplexität einer Legacy-Modernisierung per se führen dazu, dass laut der Studie von CIO, CSO und Computerwoche fast die Hälfte der Befragten (49 Prozent) auf die Hilfe von Dienstleistern zurückgreift. Neben Beratungsleistungen gewinnen Managed Services an Bedeutung. “Gerade die Neuentwicklung, insbesondere als Cloud-native Anwendung, ist ein zentrales Angebot von SPIRIT/21, das von Unternehmen im Rahmen ihrer Modernisierung häufig genutzt wird. Dabei wird oft ein komplettes Managed-Services-Angebot bevorzugt, das den Betrieb der Lösung einschließt”, bestätigt Thomas Strigel.

Dieselbe Erfahrung hat T-Systems gemacht: “Managed Services können dazu beitragen, die Last der Modernisierung zu verringern, indem sie Ressourcenengpässe angehen und flexible, skalierbare Lösungen anbieten”, so Gundula Folkerts. T-Systems kann Unternehmen durch seine breite Expertise dabei unterstützen, die Modernisierung von Legacy-Umgebungen zu unterstützen, von der Beratung bis zur Ausführung.”

Fazit: Eigenen Weg finden

Die Studie “Legacy-Modernisierung 2024” und die Einschätzungen der Experten zeigen, dass für die Modernisierung von Bestandssystemen das Kostüm beziehungsweise der Anzug von der Stange keine tragfähige Lösung ist. Vielmehr muss jedes Unternehmen einen eigenen Weg hin zu einer moderneren IT- und Anwendungsumgebung finden. Ob dies der Umstieg auf eine Low-Code- oder Cloud-Plattform ist oder eine sanfte Migration, bei der auch Mainframes noch eine Rolle spielen, hängt von den individuellen Anforderungen eines Anwenders ab.

Angesichts der elementaren Bedeutung und des oft hohen Komplexitätsgrads einer Legacy-Modernisierung dürfte es angeraten sein, die Unterstützung durch externe Fachleute in Betracht zu ziehen. Zum einen verfügen diese über das erforderliche Fachwissen. Zum anderen können diese eine neutrale Bewertung der vorhandenen IT-Umgebung durchführen und moderne Alternativen empfehlen, unabhängig von der Betriebspolitik.

Doch der Aufwand lohnt sich, wie Arsalan Minhas von Hyland zusammenfasst: “Trotz der Herausforderungen bietet die IT-Modernisierung enorme Chancen. Sie ist der Schlüssel zur digitalen Transformation und damit zur langfristigen Wettbewerbsfähigkeit. Die Modernisierung von Legacy-Systemen ist daher keine Frage des ‘Ob’, sondern des ‘Wie’.”

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?quality=50&strip=all 1502w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/legacy_cover_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die neue Studie “Legacy-Modernisierung 2024” von CIO Research ServicesResearch Services: Christine Plote

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Hyland Software Germany GmbH; T-Systems International GmbH; SPIRIT/21 GmbH; Thinkwise Software BV

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 320 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 23. bis 30. Juli 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Legacy-Modernisierung: Eine Frage des “Wie” – nicht des “Ob”​ Weiterlesen »

Digitale Barrierefreiheit – Pflicht und Chance zugleich​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?quality=50&strip=all 2493w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen sind ab Mitte 2025 gesetzlich verpflichtet, für digitale Barrierefreiheit zu sorgen. Die Weichen dafür rechtzeitig zu stellen, kann sich nicht nur ethisch, sondern auch wirtschaftlich auszahlen. Blackboard – shutterstock 2159204803 Ab Juli 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Es verpflichtet Unternehmen, ihre digitalen Angebote so zu gestalten, dass sie für Menschen mit unterschiedlichen Beeinträchtigungen zugänglich sind. Doch aktuell gelten nur zehn Prozent der Websites weltweit als barrierefrei.   In den Geltungsbereich des BFSG fallen Unternehmen, die digitale Angebote wie Websites, Apps und Online-Shops bereitstellen. In Zeiten rasch fortschreitender Digitalisierung sind das praktisch alle. Betriebe sind nun aufgefordert, ihre digitalen Angebote an anerkannte Standards wie die “Web Content Accessibility Guidelines (WCAG) 2.1” anzupassen. In Deutschland ist die “Barrierefreie Informationstechnik-Verordnung (BITV 2.0)” der maßgebliche Ausführungsbeschluss.    Der Weg zur Barrierefreiheit ist lang Die Liste der Maßnahmen, die Unternehmen ergreifen müssen, um ihre Dienste barrierefrei und BSFG-konform zu gestalten, ist lang. Nach den vier Grundsätzen der Wahrnehmbarkeit, Benutzbarkeit, Verständlichkeit und Robustheit müssen sie beispielsweise Textalternativen anbieten, Erklärungen in einfacher Sprache weitergeben und die Kompatibilität mit unterstützenden Technologien wie Bildschirmlesegeräten sicherstellen. Das bedeutet etwa, dass alle Bilder und Grafiken mit erklärenden Texten und Videos mit Untertiteln versehen werden müssen.  Obwohl das BFSG bereits in einem halben Jahr in Kraft tritt, sind laut aktuellen Schätzungen 90 Prozent der Websites weltweit noch nicht barrierefrei. Viele Unternehmen unterschätzen die Komplexität der Umsetzung oder sind sich der gesetzlichen Anforderungen noch gar nicht bewusst. Unzureichende Ressourcen, fehlende Priorisierung der Barrierefreiheit, vor allem aber mangelndes Fachwissen sind für den massiven Rückstand verantwortlich.     Barrierefreiheit bietet Vorteile Die Folgen von Verstößen reichen von Bußgeldern über weitere rechtliche Schritte inklusive der Untersagung des Weiterbetriebes der beanstandeten Dienste bis hin zum Risiko eines Reputationsverlustes.   Gestalten Firmen ihre Dienstleistungen dagegen barrierefrei, können sie Menschen mit Behinderungen, ältere Kunden und Nutzer mit vorübergehenden Einschränkungen besser erreichen und so ihre Zielgruppe erweitern. Auch gegenüber anderen Kunden sowie beim Employer Branding können sie punkten, wenn sie sich für ein inklusives und barrierefreies Produkt und eine entsprechende Kultur einsetzen. Es zeigt, dass das Unternehmen Verantwortung übernimmt.    Sechs Schritte zur Barrierefreiheit  Um die praktische Umsetzung dieser Richtlinie zu bewerkstelligen, müssen Unternehmen das notwendige Fachwissen aufbauen und ihre Mitarbeiter – insbesondere ihre IT-Teams – ausreichend schulen. Ein Fahrplan zur Einhaltung der BFSG könnte dann so aussehen:  1. Schulung und Wissensaufbau: Schulen Sie alle beteiligten Abteilungen in den einschlägigen Regeln und Vorschriften. Auf technologischer Ebene benötigen IT-Teams Wissen zur Implementierung semantischer HTML, der richtigen Nutzung von ARIA-Tags (Accessible Rich Internet Applications; spezialisierte HTML-Attribute, die die Zugänglichkeit von Webanwendungen für Menschen mit Behinderungen verbessern) und dem Umgang mit Tools zur Überprüfung der Barrierefreiheit wie WAVE, Axe oder Lighthouse. Regelmäßige Fortbildungen helfen, Mitarbeiter auf dem neuesten Stand zu halten.  2. Bestandsaufnahme: Analysieren Sie Ihre digitalen Angebote mithilfe solcher spezialisierten Barrierefreiheits-Tools. Diese scannen Ihre Angebote auf Konformität mit den WCAG 2.1-Standards und identifizieren problematische Bereiche wie unzureichende Farbkontraste, fehlende Alternativtexte für Bilder oder unzugängliche Formularelemente.   3. Planung: Ein detaillierter Plan zur Implementierung von Barrierefreiheit legt die Behandlung, Kategorisierung und Priorisierung der festgestellten Probleme fest und weist die erforderlichen materiellen und personellen Ressourcen zu. Ziehen Sie die Durchführung eines jährlichen Voluntary Product Accessibility Template (VPAT) in Betracht, um zu sehen, wie Barrierefreiheitsstandards erfüllt werden und um die kritischsten Probleme anzugehen.  4. Umsetzung: Passen Sie Ihre digitalen Inhalte und Strukturen an die WCAG 2.1-Standards an. Achten Sie dabei darauf, dass sich die Anpassungen nicht nur auf visuelle, sondern auch auf interaktive Elemente auswirken, damit unterstützende Technologien den Inhalt richtig interpretieren können.  5. Nutzer-Feedback: Kein anderes Instrument ersetzt die frühzeitige Einbindung von Nutzern mit Beeinträchtigungen in den Entwicklungsprozess. Das direkte Feedback Betroffener hilft, Barrieren frühzeitig zu identifizieren und zu adressieren. Sammeln Sie außerdem kontinuierlich Informationen von Nutzern, um die praktische Relevanz der Barrierefreiheit sicherzustellen.   6. Überprüfung: Integrieren Sie regelmäßige manuelle und automatische Überprüfungen in den Entwicklungsprozess. Verwenden Sie Tools wie JAWS oder NVDA, um zu prüfen, wie Ihre Website von Nutzern mit Beeinträchtigungen wahrgenommen wird. Verstehen Sie Barrierefreiheit nicht als einmaliges Projekt, sondern als fortlaufenden Prozess, der regelmäßige Updates und Überprüfungen erfordert.    Fallstudie: Barrierefreies Lernen bei qBeyond Ein Beispiel für barrierefreies Lernen ist die Einführung der Udemy Business-Plattform des IT-Anbieters qBeyond. Hier musste die E-Learning-Plattform den Praxistest gemäß ihrer Selbstverpflichtung zur Barrierefreiheit bestehen. Der blinde Manuel Osswald, der bei qBeyond eine Ausbildung zum Fachinformatiker für Anwendungsentwicklung absolviert, nutzte sie, um sich in der Programmiersprache Python weiterzubilden. “Die Nutzung mit einem Screenreader verlief reibungslos”, berichtet Osswald. “Ich konnte durch die Kurse navigieren und alle Inhalte erfassen, da die Videos immer durch Begleitmaterialien wie Quellcode unterstützt werden.”   srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der blinde Manuel Osswald hat sich mit Hilfe eines Screenreader in der Programmiersprache Python weitergebildet. Osswald – qBeyond Für Osswald war auch entscheidend, dass die Plattform eine durchgängig barrierefreie Benutzeroberfläche bietet. So konnte er den Lernstoff nicht nur auditiv, sondern auch über Brailleschrift erfassen, was zum Beispiel bei Code-Beispielen relevant war. “Es ist uns wichtig, dass unsere Schulungen den Bedürfnissen aller Mitarbeiter entsprechen”, sagt Katrin Jesse, New Work Leader bei qBeyond. Sie ist mit dem Einsatz in der Schulungspraxis zufrieden: “Die Einführung von barrierefreien Lernpfaden unterstützt unsere Mitarbeiter bei der Weiterentwicklung ihrer Fähigkeiten – unabhängig von speziellen Bedürfnissen.”      Fazit Das BFSG stellt Unternehmen vor Herausforderungen, bietet ihnen aber auch die Möglichkeit, Vorreiter in Sachen Inklusion und Benutzerfreundlichkeit zu werden. Betriebe, die ihre digitalen Angebote barrierefrei gestalten, können ihre Reichweite und ihren Ruf verbessern und gleichzeitig zu einer integrativeren Gesellschaft beitragen. Die Umsetzung von Inklusion als Teil von ESG-Standards beeinflusst nicht nur zunehmend die Kaufentscheidungen von Kunden, sondern ist auch ein Förder- und Subventionskriterium. Das Engagement kann sich deshalb nicht nur ethisch, sondern auch wirtschaftlich auszahlen.  

Digitale Barrierefreiheit – Pflicht und Chance zugleich​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?quality=50&strip=all 2493w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Barrierefreiheit.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen sind ab Mitte 2025 gesetzlich verpflichtet, für digitale Barrierefreiheit zu sorgen. Die Weichen dafür rechtzeitig zu stellen, kann sich nicht nur ethisch, sondern auch wirtschaftlich auszahlen. Blackboard – shutterstock 2159204803

Ab Juli 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Es verpflichtet Unternehmen, ihre digitalen Angebote so zu gestalten, dass sie für Menschen mit unterschiedlichen Beeinträchtigungen zugänglich sind. Doch aktuell gelten nur zehn Prozent der Websites weltweit als barrierefrei.  

In den Geltungsbereich des BFSG fallen Unternehmen, die digitale Angebote wie Websites, Apps und Online-Shops bereitstellen. In Zeiten rasch fortschreitender Digitalisierung sind das praktisch alle. Betriebe sind nun aufgefordert, ihre digitalen Angebote an anerkannte Standards wie die “Web Content Accessibility Guidelines (WCAG) 2.1” anzupassen. In Deutschland ist die “Barrierefreie Informationstechnik-Verordnung (BITV 2.0)” der maßgebliche Ausführungsbeschluss. 

 

Der Weg zur Barrierefreiheit ist lang

Die Liste der Maßnahmen, die Unternehmen ergreifen müssen, um ihre Dienste barrierefrei und BSFG-konform zu gestalten, ist lang. Nach den vier Grundsätzen der Wahrnehmbarkeit, Benutzbarkeit, Verständlichkeit und Robustheit müssen sie beispielsweise Textalternativen anbieten, Erklärungen in einfacher Sprache weitergeben und die Kompatibilität mit unterstützenden Technologien wie Bildschirmlesegeräten sicherstellen. Das bedeutet etwa, dass alle Bilder und Grafiken mit erklärenden Texten und Videos mit Untertiteln versehen werden müssen. 

Obwohl das BFSG bereits in einem halben Jahr in Kraft tritt, sind laut aktuellen Schätzungen 90 Prozent der Websites weltweit noch nicht barrierefrei. Viele Unternehmen unterschätzen die Komplexität der Umsetzung oder sind sich der gesetzlichen Anforderungen noch gar nicht bewusst. Unzureichende Ressourcen, fehlende Priorisierung der Barrierefreiheit, vor allem aber mangelndes Fachwissen sind für den massiven Rückstand verantwortlich.  

 

Barrierefreiheit bietet Vorteile

Die Folgen von Verstößen reichen von Bußgeldern über weitere rechtliche Schritte inklusive der Untersagung des Weiterbetriebes der beanstandeten Dienste bis hin zum Risiko eines Reputationsverlustes.  

Gestalten Firmen ihre Dienstleistungen dagegen barrierefrei, können sie Menschen mit Behinderungen, ältere Kunden und Nutzer mit vorübergehenden Einschränkungen besser erreichen und so ihre Zielgruppe erweitern. Auch gegenüber anderen Kunden sowie beim Employer Branding können sie punkten, wenn sie sich für ein inklusives und barrierefreies Produkt und eine entsprechende Kultur einsetzen. Es zeigt, dass das Unternehmen Verantwortung übernimmt. 

 

Sechs Schritte zur Barrierefreiheit 

Um die praktische Umsetzung dieser Richtlinie zu bewerkstelligen, müssen Unternehmen das notwendige Fachwissen aufbauen und ihre Mitarbeiter – insbesondere ihre IT-Teams – ausreichend schulen. Ein Fahrplan zur Einhaltung der BFSG könnte dann so aussehen: 

1. Schulung und Wissensaufbau: Schulen Sie alle beteiligten Abteilungen in den einschlägigen Regeln und Vorschriften. Auf technologischer Ebene benötigen IT-Teams Wissen zur Implementierung semantischer HTML, der richtigen Nutzung von ARIA-Tags (Accessible Rich Internet Applications; spezialisierte HTML-Attribute, die die Zugänglichkeit von Webanwendungen für Menschen mit Behinderungen verbessern) und dem Umgang mit Tools zur Überprüfung der Barrierefreiheit wie WAVE, Axe oder Lighthouse. Regelmäßige Fortbildungen helfen, Mitarbeiter auf dem neuesten Stand zu halten. 

2. Bestandsaufnahme: Analysieren Sie Ihre digitalen Angebote mithilfe solcher spezialisierten Barrierefreiheits-Tools. Diese scannen Ihre Angebote auf Konformität mit den WCAG 2.1-Standards und identifizieren problematische Bereiche wie unzureichende Farbkontraste, fehlende Alternativtexte für Bilder oder unzugängliche Formularelemente.  

3. Planung: Ein detaillierter Plan zur Implementierung von Barrierefreiheit legt die Behandlung, Kategorisierung und Priorisierung der festgestellten Probleme fest und weist die erforderlichen materiellen und personellen Ressourcen zu. Ziehen Sie die Durchführung eines jährlichen Voluntary Product Accessibility Template (VPAT) in Betracht, um zu sehen, wie Barrierefreiheitsstandards erfüllt werden und um die kritischsten Probleme anzugehen. 

4. Umsetzung: Passen Sie Ihre digitalen Inhalte und Strukturen an die WCAG 2.1-Standards an. Achten Sie dabei darauf, dass sich die Anpassungen nicht nur auf visuelle, sondern auch auf interaktive Elemente auswirken, damit unterstützende Technologien den Inhalt richtig interpretieren können. 

5. Nutzer-Feedback: Kein anderes Instrument ersetzt die frühzeitige Einbindung von Nutzern mit Beeinträchtigungen in den Entwicklungsprozess. Das direkte Feedback Betroffener hilft, Barrieren frühzeitig zu identifizieren und zu adressieren. Sammeln Sie außerdem kontinuierlich Informationen von Nutzern, um die praktische Relevanz der Barrierefreiheit sicherzustellen.  

6. Überprüfung: Integrieren Sie regelmäßige manuelle und automatische Überprüfungen in den Entwicklungsprozess. Verwenden Sie Tools wie JAWS oder NVDA, um zu prüfen, wie Ihre Website von Nutzern mit Beeinträchtigungen wahrgenommen wird. Verstehen Sie Barrierefreiheit nicht als einmaliges Projekt, sondern als fortlaufenden Prozess, der regelmäßige Updates und Überprüfungen erfordert. 

 

Fallstudie: Barrierefreies Lernen bei qBeyond

Ein Beispiel für barrierefreies Lernen ist die Einführung der Udemy Business-Plattform des IT-Anbieters qBeyond. Hier musste die E-Learning-Plattform den Praxistest gemäß ihrer Selbstverpflichtung zur Barrierefreiheit bestehen. Der blinde Manuel Osswald, der bei qBeyond eine Ausbildung zum Fachinformatiker für Anwendungsentwicklung absolviert, nutzte sie, um sich in der Programmiersprache Python weiterzubilden. “Die Nutzung mit einem Screenreader verlief reibungslos”, berichtet Osswald. “Ich konnte durch die Kurse navigieren und alle Inhalte erfassen, da die Videos immer durch Begleitmaterialien wie Quellcode unterstützt werden.”  

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Manuel_Osswald_1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der blinde Manuel Osswald hat sich mit Hilfe eines Screenreader in der Programmiersprache Python weitergebildet. Osswald – qBeyond

Für Osswald war auch entscheidend, dass die Plattform eine durchgängig barrierefreie Benutzeroberfläche bietet. So konnte er den Lernstoff nicht nur auditiv, sondern auch über Brailleschrift erfassen, was zum Beispiel bei Code-Beispielen relevant war. “Es ist uns wichtig, dass unsere Schulungen den Bedürfnissen aller Mitarbeiter entsprechen”, sagt Katrin Jesse, New Work Leader bei qBeyond. Sie ist mit dem Einsatz in der Schulungspraxis zufrieden: “Die Einführung von barrierefreien Lernpfaden unterstützt unsere Mitarbeiter bei der Weiterentwicklung ihrer Fähigkeiten – unabhängig von speziellen Bedürfnissen.”   

 

Fazit

Das BFSG stellt Unternehmen vor Herausforderungen, bietet ihnen aber auch die Möglichkeit, Vorreiter in Sachen Inklusion und Benutzerfreundlichkeit zu werden. Betriebe, die ihre digitalen Angebote barrierefrei gestalten, können ihre Reichweite und ihren Ruf verbessern und gleichzeitig zu einer integrativeren Gesellschaft beitragen. Die Umsetzung von Inklusion als Teil von ESG-Standards beeinflusst nicht nur zunehmend die Kaufentscheidungen von Kunden, sondern ist auch ein Förder- und Subventionskriterium. Das Engagement kann sich deshalb nicht nur ethisch, sondern auch wirtschaftlich auszahlen. 

Digitale Barrierefreiheit – Pflicht und Chance zugleich​ Weiterlesen »

Nach oben scrollen
×