Computerhaus Quickborn

Januar 2025

Die Sorge vor Cybervorfällen wächst​

Allgemein

Cyber-Vorfälle bleiben aus Sicht der deutschen Manager das größte Risiko. shutterstock.com – Andrey_Popov Das Allianz Risk Barometer 2025 hat die größten Risiken für Unternehmen weltweit und in Deutschland identifiziert. Cybervorfälle wie Datenschutzverletzungen, Ransomware-Attacken und IT-Ausfälle, wie der Crowdstrike-Vorfall im Sommer, bleiben für die Betriebe hierzulande und weltweit im Jahr 2025 erneut das größte Risiko. Cyber-Angriffe als größte Bedrohung Auch aus globaler Perspektive sehen die befragten Manager und Sicherheitsexperten solche Attacken als größte Bedrohung an. Der technologische Fortschritt, insbesondere in der Künstlichen Intelligenz (KI), verschärft diese Risiken weiter. In Deutschland ist diese Sorge bei den Führungskräften mit 47 Prozent der Nennungen, ein Anstieg um drei Prozentpunkte gegenüber dem Vorjahr, sogar noch deutlich ausgeprägter. Cyberrisiken dürften sich durch die rasante Entwicklung der Künstlichen Intelligenz weiter verschärfen, prognostiziert Rishi Baviskar, Global Head of Cyber Risk Consulting bei Allianz Commercial: „Angesichts der zunehmenden Technologieabhängigkeit wird es wahrscheinlich auch in Zukunft ein Hauptrisiko für Unternehmen bleiben. Der CrowdStrike-Vorfall im Sommer 2024 hat uns vor Augen geführt, wie abhängig wir alle von sicheren IT-Systemen sind.“ Betriebsunterbrechungen und Naturkatastrophen Betriebsunterbrechungen, oft verursacht durch Cyberangriffe oder Naturkatastrophen, bleiben weltweit und in Deutschland das zweithöchste Risiko. Deutsche Unternehmen haben auch hier wieder größere Bedenken als ihre internationalen Kollegen. Vier von zehn der hierzulande Befragten – plus drei Prozentpunkte gegenüber 2024, gaben an, dass sie sich an diesem Punkt Sorgen machten. Naturkatastrophen, die 2024 weltweit und in Deutschland erhebliche Schäden verursachten, belegen hierzulande wie international den dritten Platz (29 Prozent). Gerade in Deutschland wird dieser Risikofaktor stärker gefürchtet. 2024 sorgte sich nur jeder Fünfte darum. Gesetzesänderungen und Feuer Platz vier in Deutschland, mit einem Anteil von 29 Prozent (2024: 23 Prozent), ist die Angst der Befragten vor Änderungen in der Gesetzgebung und Regulierung. Obwohl die Sorge wächst, verliert dieser Punkt im Vergleich zum Vorjahr einen Platz im Risiko-Ranking. Auch international rangiert dieses Risiko  auf dem vierten Platz, wie im Vorjahr. Auf Platz fünf in Deutschland mit 18 Prozent kommt das Feuer – beziehungsweise Explosionsrisiko, welches zwei Prozentpunkte zulegt und 2024 noch Platz 8 belegte. International rangiert dieses Risko auf dem sechsten Platz. Geopolitik und Klimawandel Der Allianz zufolge stufen große Unternehmen politische Risiken höher ein als kleinere. Sie belegen mit 17 Prozent den sechsten Platz, deutlich weiter vorne als im internationalen Vergleich mit Rang 9. Der Klimawandel rückt global von Platz 7 auf 5 vor, und erreicht damit seine höchste Platzierung seit Erstellung der Studie. In Deutschland verliert er allerdings einen Platz und rutscht auf Position 7 ab, bei einem geringen Verlust von 19 auf 17 Prozent der Nennungen.  Fachkräftemangel und Marktentwicklung Der vielbeschworene Mangel an Fachkräften, 2024 von jedem Fünften als Risiko eingestuft und nur knapp am Treppchen vorbeigeschrappt, wird aktuell nur noch von 15 Prozent der Befragten als Sorge empfunden. Damit fällt dieser Punkt in Deutschland auf den achten Platz, international ist er sogar ganz aus den Top 10 gefallen. Den vorletzten Platz des Top 10-Ranking nimmt die Sorge um die Marktentwicklung ein, mit 13 Prozent eine Sorge, die 2024 noch nicht in den Top 10 war. International rangiert dieser Risikofaktor auf dem achten Platz etwas höher. KRITIS und neue Technologien Die Angst vor dem Ausfall kritischer Infrastruktur teilt in Deutschland etwa jeder Achte und damit deutlich weniger als 2024, als noch jeder Sechste entsprechende Befürchtungen hegte. Damit verliert dieses Risiko drei Plätze zum Vorjahr und bildet das Schlusslicht der Top 10. Neue Technologien, einschließlich Künstlicher Intelligenz und vernetzter Maschinen, werden erstmals als potenzielle Gefahr für Unternehmen bewertet. International landen sie auf Platz 10 der Top-Risiken. ​Nicht mehr vertreten im Risiko-Ranking ist ein Thema, das noch vor wenigen Jahren eine große Rolle spielte: die Angst vor einer drohenden Pandemie. Aus Sicht von Vanessa Maxwell, Chief Underwriting Officer von Allianz Commercial, war 2024 ein außergewöhnliches Jahr für das Risikomanagement. „Die Ergebnisse unseres jährlichen Allianz Risk Barometer spiegeln die Unsicherheit wider, mit der viele Unternehmen weltweit konfrontiert sind.“ Maxwell verweist insbesondere auf die Vernetzung der Top-Risiken in diesem Jahr, denn „Klimawandel, neue Technologien, Regulierung und geopolitische Risiken sind zunehmend miteinander verflochten“. Dies führe aus Sicht der Allianz-Expertin zu komplexen Zusammenhängen von Ursache und Wirkung. „Unternehmen müssen Resilienz ganz oben auf ihre Agenda setzen, und sich konsequent um die Verbesserung ihres Risikomanagements und ihrer Widerstandsfähigkeit bemühen.“ Die Top 10 der globalen Unternehmensrisiken 2025 Allianz Commercial 

Die Sorge vor Cybervorfällen wächst​ Cyber-Vorfälle bleiben aus Sicht der deutschen Manager das größte Risiko. shutterstock.com – Andrey_Popov

Das Allianz Risk Barometer 2025 hat die größten Risiken für Unternehmen weltweit und in Deutschland identifiziert. Cybervorfälle wie Datenschutzverletzungen, Ransomware-Attacken und IT-Ausfälle, wie der Crowdstrike-Vorfall im Sommer, bleiben für die Betriebe hierzulande und weltweit im Jahr 2025 erneut das größte Risiko.

Cyber-Angriffe als größte Bedrohung

Auch aus globaler Perspektive sehen die befragten Manager und Sicherheitsexperten solche Attacken als größte Bedrohung an. Der technologische Fortschritt, insbesondere in der Künstlichen Intelligenz (KI), verschärft diese Risiken weiter. In Deutschland ist diese Sorge bei den Führungskräften mit 47 Prozent der Nennungen, ein Anstieg um drei Prozentpunkte gegenüber dem Vorjahr, sogar noch deutlich ausgeprägter.

Cyberrisiken dürften sich durch die rasante Entwicklung der Künstlichen Intelligenz weiter verschärfen, prognostiziert Rishi Baviskar, Global Head of Cyber Risk Consulting bei Allianz Commercial: „Angesichts der zunehmenden Technologieabhängigkeit wird es wahrscheinlich auch in Zukunft ein Hauptrisiko für Unternehmen bleiben. Der CrowdStrike-Vorfall im Sommer 2024 hat uns vor Augen geführt, wie abhängig wir alle von sicheren IT-Systemen sind.“

Betriebsunterbrechungen und Naturkatastrophen

Betriebsunterbrechungen, oft verursacht durch Cyberangriffe oder Naturkatastrophen, bleiben weltweit und in Deutschland das zweithöchste Risiko. Deutsche Unternehmen haben auch hier wieder größere Bedenken als ihre internationalen Kollegen. Vier von zehn der hierzulande Befragten – plus drei Prozentpunkte gegenüber 2024, gaben an, dass sie sich an diesem Punkt Sorgen machten.

Naturkatastrophen, die 2024 weltweit und in Deutschland erhebliche Schäden verursachten, belegen hierzulande wie international den dritten Platz (29 Prozent). Gerade in Deutschland wird dieser Risikofaktor stärker gefürchtet. 2024 sorgte sich nur jeder Fünfte darum.

Gesetzesänderungen und Feuer

Platz vier in Deutschland, mit einem Anteil von 29 Prozent (2024: 23 Prozent), ist die Angst der Befragten vor Änderungen in der Gesetzgebung und Regulierung. Obwohl die Sorge wächst, verliert dieser Punkt im Vergleich zum Vorjahr einen Platz im Risiko-Ranking. Auch international rangiert dieses Risiko  auf dem vierten Platz, wie im Vorjahr.

Auf Platz fünf in Deutschland mit 18 Prozent kommt das Feuer – beziehungsweise Explosionsrisiko, welches zwei Prozentpunkte zulegt und 2024 noch Platz 8 belegte. International rangiert dieses Risko auf dem sechsten Platz.

Geopolitik und Klimawandel

Der Allianz zufolge stufen große Unternehmen politische Risiken höher ein als kleinere. Sie belegen mit 17 Prozent den sechsten Platz, deutlich weiter vorne als im internationalen Vergleich mit Rang 9.

Der Klimawandel rückt global von Platz 7 auf 5 vor, und erreicht damit seine höchste Platzierung seit Erstellung der Studie. In Deutschland verliert er allerdings einen Platz und rutscht auf Position 7 ab, bei einem geringen Verlust von 19 auf 17 Prozent der Nennungen. 

Fachkräftemangel und Marktentwicklung

Der vielbeschworene Mangel an Fachkräften, 2024 von jedem Fünften als Risiko eingestuft und nur knapp am Treppchen vorbeigeschrappt, wird aktuell nur noch von 15 Prozent der Befragten als Sorge empfunden. Damit fällt dieser Punkt in Deutschland auf den achten Platz, international ist er sogar ganz aus den Top 10 gefallen.

Den vorletzten Platz des Top 10-Ranking nimmt die Sorge um die Marktentwicklung ein, mit 13 Prozent eine Sorge, die 2024 noch nicht in den Top 10 war. International rangiert dieser Risikofaktor auf dem achten Platz etwas höher.

KRITIS und neue Technologien

Die Angst vor dem Ausfall kritischer Infrastruktur teilt in Deutschland etwa jeder Achte und damit deutlich weniger als 2024, als noch jeder Sechste entsprechende Befürchtungen hegte. Damit verliert dieses Risiko drei Plätze zum Vorjahr und bildet das Schlusslicht der Top 10.

Neue Technologien, einschließlich Künstlicher Intelligenz und vernetzter Maschinen, werden erstmals als potenzielle Gefahr für Unternehmen bewertet. International landen sie auf Platz 10 der Top-Risiken.

​Nicht mehr vertreten im Risiko-Ranking ist ein Thema, das noch vor wenigen Jahren eine große Rolle spielte: die Angst vor einer drohenden Pandemie.

Aus Sicht von Vanessa Maxwell, Chief Underwriting Officer von Allianz Commercial, war 2024 ein außergewöhnliches Jahr für das Risikomanagement. „Die Ergebnisse unseres jährlichen Allianz Risk Barometer spiegeln die Unsicherheit wider, mit der viele Unternehmen weltweit konfrontiert sind.“ Maxwell verweist insbesondere auf die Vernetzung der Top-Risiken in diesem Jahr, denn „Klimawandel, neue Technologien, Regulierung und geopolitische Risiken sind zunehmend miteinander verflochten“.

Dies führe aus Sicht der Allianz-Expertin zu komplexen Zusammenhängen von Ursache und Wirkung. „Unternehmen müssen Resilienz ganz oben auf ihre Agenda setzen, und sich konsequent um die Verbesserung ihres Risikomanagements und ihrer Widerstandsfähigkeit bemühen.“

Die Top 10 der globalen Unternehmensrisiken 2025

Allianz Commercial

Die Sorge vor Cybervorfällen wächst​ Weiterlesen »

Microsoft schafft neue, interne KI-Entwicklungsabteilung​

Allgemein

Mithilfe einer neuen Abteilung will Microsoft bei der KI-Entwickung einen Zahn zulegen.Tada Images / Shutterstock.com Microsoft schafft eine neue Engineering-Gruppe, die sich auf künstliche Intelligenz (KI) konzentriert: Core AI – Platform and Tools. Die Gruppe vereint die Entwicklerabteilung des Unternehmens mit den KI-Plattform-Arbeitsteams und einigen Mitarbeitern, die bisher dem CTO von Microsoft unterstellt waren. Geleitet wird die Gruppe von Jay Parikh, dem ehemaligen CTO von Meta, der im Oktober 2024 zu Microsoft kam.  Ziel: Die KI-Entwicklung beschleunigen “Core AI – Platform and Tools soll sich auf den Aufbau einer KI-Plattform und von Tools konzentrieren – sowohl für Microsofts eigenen Gebrauch, als auch für die Kunden des Unternehmens. „KI erfordert künftig ein rekordverdächtiges Entwicklungstempo“, erklärte Microsoft-CEO Satya Nadella in einem Blogbeitrag zur Vorstellung der neuen Abteilung. Deswegen benötige Microsoft einen auf KI fokussierten Anwendungs-Stack, um in Zukunft KI-Apps und -Tools zu entwickeln.  „In dieser Welt muss Azure zur Infrastruktur für KI werden, während wir darauf unsere KI-Plattform und Entwickler-Tools aufbauen, die Azure AI Foundry, GitHub und VS Code umfassen“, so Nadella. „Mit anderen Worten, unsere KI-Plattform und unsere Tools werden zusammenarbeiten, um Agenten zu erstellen, und diese Agenten werden zusammenarbeiten, um jede Kategorie von SaaS-Anwendungen zu transformieren und benutzerdefinierte Anwendungen zu erstellen, die durch Software angetrieben werden (d. h. ‘Service als Software’).“  

Microsoft schafft neue, interne KI-Entwicklungsabteilung​ Mithilfe einer neuen Abteilung will Microsoft bei der KI-Entwickung einen Zahn zulegen.Tada Images / Shutterstock.com

Microsoft schafft eine neue Engineering-Gruppe, die sich auf künstliche Intelligenz (KI) konzentriert: Core AI – Platform and Tools. Die Gruppe vereint die Entwicklerabteilung des Unternehmens mit den KI-Plattform-Arbeitsteams und einigen Mitarbeitern, die bisher dem CTO von Microsoft unterstellt waren. Geleitet wird die Gruppe von Jay Parikh, dem ehemaligen CTO von Meta, der im Oktober 2024 zu Microsoft kam. 

Ziel: Die KI-Entwicklung beschleunigen

“Core AI – Platform and Tools soll sich auf den Aufbau einer KI-Plattform und von Tools konzentrieren – sowohl für Microsofts eigenen Gebrauch, als auch für die Kunden des Unternehmens. „KI erfordert künftig ein rekordverdächtiges Entwicklungstempo“, erklärte Microsoft-CEO Satya Nadella in einem Blogbeitrag zur Vorstellung der neuen Abteilung. Deswegen benötige Microsoft einen auf KI fokussierten Anwendungs-Stack, um in Zukunft KI-Apps und -Tools zu entwickeln. 

„In dieser Welt muss Azure zur Infrastruktur für KI werden, während wir darauf unsere KI-Plattform und Entwickler-Tools aufbauen, die Azure AI Foundry, GitHub und VS Code umfassen“, so Nadella. „Mit anderen Worten, unsere KI-Plattform und unsere Tools werden zusammenarbeiten, um Agenten zu erstellen, und diese Agenten werden zusammenarbeiten, um jede Kategorie von SaaS-Anwendungen zu transformieren und benutzerdefinierte Anwendungen zu erstellen, die durch Software angetrieben werden (d. h. ‘Service als Software’).“ 

Microsoft schafft neue, interne KI-Entwicklungsabteilung​ Weiterlesen »

Smishing: Wie Phishing per SMS funktioniert​

Allgemein

Phishing per SMS oder Textnachricht – auch Smishing genannt – stellt im Smartphone-Zeitalter zunehmend eine Bedrohung dar. Wir sagen Ihnen, was Sie zum Thema wissen müssen. Foto: NosorogUA – shutterstock.com Lassen Sie sich von der niedlich anmutenden Nomenklatur nicht täuschen: Smishing bezeichnet eine Art des Cyberangriffs, der Sie mit Hilfe irreführender SMS-Nachrichten dazu verleiten will, wertvolle Informationen preiszugeben, Malware auf Ihrem Gerät zu installieren oder kriminelle Hacker unfreiwillig monetär zu unterstützen. Wir sagen Ihnen, was Sie zum Thema Phishing per Textnachricht wissen sollten. Smishing – Definition Smishing bezeichnet eine Angriffsmethode krimineller Hacker, die SMS- beziehungsweise Textnachrichten benutzt, um ihre Opfer hinters Licht zu führen. Dabei soll die eingehende Nachricht den Anschein erwecken, von einer vertrauenswürdigen Person oder Organisation zu stammen. Die Zielsetzung besteht darin, sensible persönliche Daten (beispielsweise Onlinebanking-Zugangsdaten) abzugreifen oder Mobilgeräte zu kompromittieren. Smishing ist eine auf Textnachrichten zugeschnittene Variante traditioneller Phishing-Methoden. Dabei versuchen kriminelle Hacker auch den Umstand auszunutzen, dass viele Menschen mit ihrem Smartphone deutlich sorgloser agieren als mit ihren PCs. Verdächtige Nachrichten werden auf dem Handy eher geöffnet und mobile Devices sind oft auch nicht in gleichem Maße abgesichert wie beispielsweise die Rechner im Unternehmen. Smishing vs. Phishing vs. Vishing Traditionelles Phishing plagt Internetnutzer bereits seit den 1990er Jahren. Smishing hingegen ist ein Phänomen der späten 2000er-Jahre. Der Begriff stellt eine Kombination aus SMS und Phishing dar – allerdings versteht man darunter im Allgemeinen auch Betrugsversuche, die über Messenger-Dienste (wie beispielsweise iMessage oder WeChat) initiiert werden, die nicht auf dem Short-Message-System-Protokoll basieren. Ein lohnender Angriffsvektor für Cyberkriminelle ist Smishing insbesondere, seit Smartphones allgegenwärtig sind. Vishing (Phishing per Voice Call) bezeichnet ebenfalls eine Phishing-Variante – allerdings basiert diese Angriffsmethode auf Sprachanrufen. Smishing-Angriffe – Beispiele In der Praxis lassen sich Smishing-Angriffe in drei verschiedene Kategorien einordnen, die sich hinsichtlich ihrer kriminell motivierten Zielsetzung unterscheiden: 1. Versuche, Zugangsdaten abzugreifen Smishing-Angriffe können zum Ziel haben, Login-Daten für Onlinekonten abzugreifen. Insbesondere Onlinebanking-Zugänge sind für kriminelle Hacker von Interesse. Paradoxerweise versuchen die Cyberkriminellen regelmäßig, von der Angst gehackt zu werden, zu profitieren: Sie verschicken SMS- oder Textnachrichten, die vermeintlich von der Bank des Opfers stammen. Dieses Vorgehen wird auch als “Bank Smishing” bezeichnet. Diese Nachrichten “warnen” ihre Empfänger vor umfangreichen Abbuchungen oder unbekannten Zahlungsempfängern und stellen eine Telefonnummer oder einen Link zur Verfügung, um den potenziell unberechtigten Zugriff auf das Bankkonto zu verhindern. Der Link führt im Regelfall auf eine gefälschte Webseite, die Telefonnummer direkt zum Cyberkriminellen – in beiden Fällen ist das Ziel, die Opfer dazu zu bewegen, ihre Nutzernamen und Passwörter offenzulegen, um im Anschluss deren Konto zu plündern. Bank Smishing ist aus verschiedenen Gründen erfolgreich: Manche Finanzinstitutionen verschicken tatsächlich SMS- oder Textnachrichten, die vor verdächtigen Kontoaktivitäten warnen. Echte Nachrichten solcher Art sind in der Regel daran zu erkennen, dass sie im Regelfall dem Finanzinstitut bekannte Informationen (beispielsweise die letzten vier Ziffern ihrer Kreditkarten- oder Kontonummer) enthalten. Direkte Links und vage Verweise auf “Ihr Konto” sollten Sie hingegen misstrauisch werden lassen. Wenn Sie sich bezüglich der Echtheit der Nachricht nicht sicher sind: Loggen Sie sich auf normalem Weg per Browser oder App in Ihr Konto ein – klicken Sie in keinem Fall auf einen Link in einer SMS- oder Textnachricht. Ein weiterer Grund für die gute Erfolgsquote von Bank-Smishing-Angriffen liegt in den Verschleierungstaktiken der Cyberkriminellen: Die Telefonnummern der Absender lassen sich mit bestimmten Methoden verbergen oder fälschen – teilweise mit relativ einfachen Mitteln, etwa indem die Nachricht von einem Rechner aus versendet wird. Werden solche Nachrichten auf dem Smartphone automatisch der legitimen Absendernummer zugeordnet, steigt die Erfolgswahrscheinlichkeit eines Smishing-Angriffs um ein Vielfaches. 2. Versuche, Malware zu verbreiten Diese Smishing-Art orientiert sich am klassischen E-Mail-Phishing – adaptiert dafür aber Techniken, die speziell auf mobile Nutzer und Endgeräte zugeschnitten sind. In Tschechien grassierte vor einiger Zeit beispielsweise ein Smishing-Angriff, der seine Opfer dazu verleiten wollte, eine App – vermeintlich von der tschechischen Post – zu installieren. Tatsächlich handelte es sich um einen Trojaner, der Kreditkarteninformationen abgreifen und weitere App-Zugangsdaten kompromittieren sollte. Smishing-Angriffe mit dem Ziel der Verbreitung von Malware kommen seltener vor, da die Sicherheitsvorkehrungen auf Smartphones – insbesondere im Fall von Apples iOS – es inzwischen relativ schwierig gestalten, unsignierte beziehungsweise nicht verifizierte Apps zu installieren. Dennoch besteht speziell bei Android-Geräten die Möglichkeit, des App Sideloading – hier hilft nur gesundes Misstrauen, wenn Sie per SMS- oder Textnachricht dazu aufgefordert werden, eine App zu installieren. 3. Versuche, Geldbeträge einzuheimsen Diese Art des Smishing-Angriffs ist weniger Sache technisch versierter Cyberkrimineller – hier tummeln sich eher plump agierende Trickbetrüger. Dennoch stellen solche Versuche ein Risiko dar – insbesondere für Menschen, die weniger technikaffin veranlagt sind. In einem Fall wurde ein Opfer von Betrügern kontaktiert, die sich als persönliche Bekannte ausgaben (entsprechende Namen wurden sehr wahrscheinlich über soziale Medien in Erfahrung gebracht) und einen Geldbetrag in Form eines staatlichen Zuschusses in Aussicht stellten. In Wahrheit handelte es sich um einen klassischen Betrug: Das Opfer sollte vor der Auszahlung eine Gebühr in Höhe von einigen hundert Dollar bezahlen. Phishing per SMS verhindern Eine (zeitlose) Studie von Gartner kommt zu dem Ergebnis, dass 98 Prozent aller Text- und SMS-Nachrichten gelesen und 45 Prozent auch beantwortet werden. Weil viele User sich inzwischen der Gefahr von Spam-E-Mails bewusst sind, werden Textnachrichten zunehmend zum attraktiven Angriffsvektor für kriminelle Hacker, die vom höheren Trust-Level der Smartphone-Kommunikation profitieren wollen. Smishing ist zwar nicht allgegenwärtig – entwickelt sich aber zum gängigen Phänomen, auch im Unternehmensumfeld. Mit Blick auf Verizons “Mobile Security Index 2023” ist das nicht verwunderlich: Demnach ist es im Vergleich zum Angriffsvektor E-Mail um den Faktor 6 bis 10 wahrscheinlicher, dass Benutzer in Unternehmen auf Phishing-Versuche per SMS hereinfallen. Sicherheitsanbieter Proofpoint kommt in seinem Report “State of the Phish 2023” (PDF-Download im Austausch gegen Daten) hingegen zum Ergebnis, dass lediglich 35 Prozent der befragten Unternehmen entsprechende Phishing-Simulationen durchführen. Smishing-Simulationen sind für Unternehmen ein sinnvoller Weg, um ihre Mitarbeiter für die Gefahren von Phishing-Angriffen per SMS zu sensibilisieren. Security-Verantwortliche sind gut damit beraten, Smishing-Taktiken neben Phishing und Vishing in ihre Security-Awareness-Initiativen aufzunehmen – und sei es nur, um zu testen, welche Nutzer besonders anfällig für diese Angriffsart sind. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Smishing: Wie Phishing per SMS funktioniert​ Phishing per SMS oder Textnachricht – auch Smishing genannt – stellt im Smartphone-Zeitalter zunehmend eine Bedrohung dar. Wir sagen Ihnen, was Sie zum Thema wissen müssen.
Foto: NosorogUA – shutterstock.com

Lassen Sie sich von der niedlich anmutenden Nomenklatur nicht täuschen: Smishing bezeichnet eine Art des Cyberangriffs, der Sie mit Hilfe irreführender SMS-Nachrichten dazu verleiten will, wertvolle Informationen preiszugeben, Malware auf Ihrem Gerät zu installieren oder kriminelle Hacker unfreiwillig monetär zu unterstützen. Wir sagen Ihnen, was Sie zum Thema Phishing per Textnachricht wissen sollten.

Smishing – Definition

Smishing bezeichnet eine Angriffsmethode krimineller Hacker, die SMS- beziehungsweise Textnachrichten benutzt, um ihre Opfer hinters Licht zu führen. Dabei soll die eingehende Nachricht den Anschein erwecken, von einer vertrauenswürdigen Person oder Organisation zu stammen. Die Zielsetzung besteht darin, sensible persönliche Daten (beispielsweise Onlinebanking-Zugangsdaten) abzugreifen oder Mobilgeräte zu kompromittieren.

Smishing ist eine auf Textnachrichten zugeschnittene Variante traditioneller Phishing-Methoden. Dabei versuchen kriminelle Hacker auch den Umstand auszunutzen, dass viele Menschen mit ihrem Smartphone deutlich sorgloser agieren als mit ihren PCs. Verdächtige Nachrichten werden auf dem Handy eher geöffnet und mobile Devices sind oft auch nicht in gleichem Maße abgesichert wie beispielsweise die Rechner im Unternehmen.

Smishing vs. Phishing vs. Vishing

Traditionelles Phishing plagt Internetnutzer bereits seit den 1990er Jahren. Smishing hingegen ist ein Phänomen der späten 2000er-Jahre. Der Begriff stellt eine Kombination aus SMS und Phishing dar – allerdings versteht man darunter im Allgemeinen auch Betrugsversuche, die über Messenger-Dienste (wie beispielsweise iMessage oder WeChat) initiiert werden, die nicht auf dem Short-Message-System-Protokoll basieren. Ein lohnender Angriffsvektor für Cyberkriminelle ist Smishing insbesondere, seit Smartphones allgegenwärtig sind.

Vishing (Phishing per Voice Call) bezeichnet ebenfalls eine Phishing-Variante – allerdings basiert diese Angriffsmethode auf Sprachanrufen.

Smishing-Angriffe – Beispiele

In der Praxis lassen sich Smishing-Angriffe in drei verschiedene Kategorien einordnen, die sich hinsichtlich ihrer kriminell motivierten Zielsetzung unterscheiden:

1. Versuche, Zugangsdaten abzugreifen

Smishing-Angriffe können zum Ziel haben, Login-Daten für Onlinekonten abzugreifen. Insbesondere Onlinebanking-Zugänge sind für kriminelle Hacker von Interesse. Paradoxerweise versuchen die Cyberkriminellen regelmäßig, von der Angst gehackt zu werden, zu profitieren: Sie verschicken SMS- oder Textnachrichten, die vermeintlich von der Bank des Opfers stammen.

Dieses Vorgehen wird auch als “Bank Smishing” bezeichnet. Diese Nachrichten “warnen” ihre Empfänger vor umfangreichen Abbuchungen oder unbekannten Zahlungsempfängern und stellen eine Telefonnummer oder einen Link zur Verfügung, um den potenziell unberechtigten Zugriff auf das Bankkonto zu verhindern. Der Link führt im Regelfall auf eine gefälschte Webseite, die Telefonnummer direkt zum Cyberkriminellen – in beiden Fällen ist das Ziel, die Opfer dazu zu bewegen, ihre Nutzernamen und Passwörter offenzulegen, um im Anschluss deren Konto zu plündern.

Bank Smishing ist aus verschiedenen Gründen erfolgreich: Manche Finanzinstitutionen verschicken tatsächlich SMS- oder Textnachrichten, die vor verdächtigen Kontoaktivitäten warnen. Echte Nachrichten solcher Art sind in der Regel daran zu erkennen, dass sie im Regelfall dem Finanzinstitut bekannte Informationen (beispielsweise die letzten vier Ziffern ihrer Kreditkarten- oder Kontonummer) enthalten. Direkte Links und vage Verweise auf “Ihr Konto” sollten Sie hingegen misstrauisch werden lassen. Wenn Sie sich bezüglich der Echtheit der Nachricht nicht sicher sind: Loggen Sie sich auf normalem Weg per Browser oder App in Ihr Konto ein – klicken Sie in keinem Fall auf einen Link in einer SMS- oder Textnachricht.

Ein weiterer Grund für die gute Erfolgsquote von Bank-Smishing-Angriffen liegt in den Verschleierungstaktiken der Cyberkriminellen: Die Telefonnummern der Absender lassen sich mit bestimmten Methoden verbergen oder fälschen – teilweise mit relativ einfachen Mitteln, etwa indem die Nachricht von einem Rechner aus versendet wird. Werden solche Nachrichten auf dem Smartphone automatisch der legitimen Absendernummer zugeordnet, steigt die Erfolgswahrscheinlichkeit eines Smishing-Angriffs um ein Vielfaches.

2. Versuche, Malware zu verbreiten

Diese Smishing-Art orientiert sich am klassischen E-Mail-Phishing – adaptiert dafür aber Techniken, die speziell auf mobile Nutzer und Endgeräte zugeschnitten sind. In Tschechien grassierte vor einiger Zeit beispielsweise ein Smishing-Angriff, der seine Opfer dazu verleiten wollte, eine App – vermeintlich von der tschechischen Post – zu installieren. Tatsächlich handelte es sich um einen Trojaner, der Kreditkarteninformationen abgreifen und weitere App-Zugangsdaten kompromittieren sollte.

Smishing-Angriffe mit dem Ziel der Verbreitung von Malware kommen seltener vor, da die Sicherheitsvorkehrungen auf Smartphones – insbesondere im Fall von Apples iOS – es inzwischen relativ schwierig gestalten, unsignierte beziehungsweise nicht verifizierte Apps zu installieren. Dennoch besteht speziell bei Android-Geräten die Möglichkeit, des App Sideloading – hier hilft nur gesundes Misstrauen, wenn Sie per SMS- oder Textnachricht dazu aufgefordert werden, eine App zu installieren.

3. Versuche, Geldbeträge einzuheimsen

Diese Art des Smishing-Angriffs ist weniger Sache technisch versierter Cyberkrimineller – hier tummeln sich eher plump agierende Trickbetrüger. Dennoch stellen solche Versuche ein Risiko dar – insbesondere für Menschen, die weniger technikaffin veranlagt sind. In einem Fall wurde ein Opfer von Betrügern kontaktiert, die sich als persönliche Bekannte ausgaben (entsprechende Namen wurden sehr wahrscheinlich über soziale Medien in Erfahrung gebracht) und einen Geldbetrag in Form eines staatlichen Zuschusses in Aussicht stellten. In Wahrheit handelte es sich um einen klassischen Betrug: Das Opfer sollte vor der Auszahlung eine Gebühr in Höhe von einigen hundert Dollar bezahlen.

Phishing per SMS verhindern

Eine (zeitlose) Studie von Gartner kommt zu dem Ergebnis, dass 98 Prozent aller Text- und SMS-Nachrichten gelesen und 45 Prozent auch beantwortet werden. Weil viele User sich inzwischen der Gefahr von Spam-E-Mails bewusst sind, werden Textnachrichten zunehmend zum attraktiven Angriffsvektor für kriminelle Hacker, die vom höheren Trust-Level der Smartphone-Kommunikation profitieren wollen.

Smishing ist zwar nicht allgegenwärtig – entwickelt sich aber zum gängigen Phänomen, auch im Unternehmensumfeld. Mit Blick auf Verizons “Mobile Security Index 2023” ist das nicht verwunderlich: Demnach ist es im Vergleich zum Angriffsvektor E-Mail um den Faktor 6 bis 10 wahrscheinlicher, dass Benutzer in Unternehmen auf Phishing-Versuche per SMS hereinfallen. Sicherheitsanbieter Proofpoint kommt in seinem Report “State of the Phish 2023” (PDF-Download im Austausch gegen Daten) hingegen zum Ergebnis, dass lediglich 35 Prozent der befragten Unternehmen entsprechende Phishing-Simulationen durchführen.

Smishing-Simulationen sind für Unternehmen ein sinnvoller Weg, um ihre Mitarbeiter für die Gefahren von Phishing-Angriffen per SMS zu sensibilisieren. Security-Verantwortliche sind gut damit beraten, Smishing-Taktiken neben Phishing und Vishing in ihre Security-Awareness-Initiativen aufzunehmen – und sei es nur, um zu testen, welche Nutzer besonders anfällig für diese Angriffsart sind.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Smishing: Wie Phishing per SMS funktioniert​ Weiterlesen »

SAP S/4HANA – eine “Alles-in-die-Cloud-Strategie” ist keine Option​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für die Reise in Richtung S/4HANA braucht es die richtige Orientierung – vor allem wenn die Cloud mit ins Spiel kommen soll.Shutterstock SAP S/4HANA ist seit 2015 auf dem Markt und die Mainstream-Wartung für die Vorgänger-Releases von SAP ERP und der SAP Business Suite läuft Ende 2027 aus. Obwohl die Zeit drängt, hat eine große Zahl von SAP-Anwenderunternehmen die Umstellung auf die neue ERP-Suite SAP S/4HANA noch nicht vollzogen. Die Frage, die sich hier stellt, ist, ob diese Betriebe durch ihr Zögern die digitale Transformation “verschlafen”, für die der Walldorfer Softwarekonzern die SAP-S/4HANA-Suite als entscheidenden Treiber positioniert. Diesen und viele weitere Aspekte diskutierten die Teilnehmerinnen und Teilnehmer an der COMPUTERWOCHE-Expertenrunde zum Thema “SAP S/4HANA” differenziert und durchaus kontrovers. Zwar gilt SAP S/4HANA als eine moderne und technologisch hochentwickelte ERP-Lösung, die im SAP-Ökosystem von zentraler Bedeutung ist. Jedoch sehen einige Experten die ERP-Suite nicht per se als Treiber der digitalen Transformation. Andere hingegen vertreten die Ansicht, dass die aktuelle Produktgeneration von SAP einen wesentlichen Baustein für die Digitalisierung von Geschäftsprozessen über die gesamte IT-Landschaft hinweg darstellt, die sowohl aus SAP- als auch Non-SAP-Systemen besteht. Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP Wie SAP S/4HANA IT und Business transformiert Dass SAP-S/4HANA-Migrationsprojekte heute immer noch ein Diskussionsthema sind, hat verschiedene Gründe. Zum einen haben viele Unternehmen entsprechende Vorhaben während der Coronapandemie gestoppt. Hinzu kommt der Fachkräftemangel im IT-Bereich, der dazu führt, dass die für den Umstieg auf das aktuelle SAP-Release dringend benötigten SAP-Experten vielerorts fehlen. Darüber hinaus kann der Wechsel von SAP ERP oder der SAP Business Suite auf SAP S/4HANA für Bestandskunden rasch zu einer Kosten- und Komplexitätsfalle werden. SAP-Kunden müssen sich im Klaren darüber sein, dass ein Umsatteln auf SAP S/4HANA kein einfaches Upgrade oder ein Releasewechsel auf eine neue ERP-Version, sondern ein kompletter Technologiewechsel ist. Sofern bislang noch keine SAP-HANA-Datenbank im Einsatz ist, bedeutet allein der Umstieg auf die In-Memory-Datenbank einen technologischen Paradigmenwechsel, der ein Redesign der IT-Architektur erfordert. Allen voran beim Eins-zu-eins-Umstieg von SAP ERP auf SAP S/4HANA im Rahmen einer System Conversion (Brownfield-Ansatz) inklusive aller Eigenentwicklungen, die sich im Laufe der Jahre im ERP angesammelt haben, sind Komplexität und Kosten nicht zu unterschätzen. Da diese Eigenprogrammierungen die neue ERP-Suite nicht unerheblich belasten können, empfiehlt es sich, den Großteil der „alten Zöpfe“ abzuschneiden und SAP-Standardfunktionen zu nutzen, wo immer dies möglich ist. In der Regel müssen durch den Verzicht auf individuelle Anwendungen zum Teil nicht unerhebliche Anpassungen an den vorhandenen Prozessen und Organisationsstrukturen vorgenommen werden. S/4HANA in der Cloud: SAP lockt – die Anwender zögern All das verdeutlicht, dass es sich bei der Einführung von beziehungsweise dem Umstieg auf SAP S/4HANA nicht allein um eine IT-Transformation, sondern in erster Linie um eine Transformation der Geschäftsprozesse handelt. Um diese erfolgreich zu bewältigen, ist ein kluges und effizientes Changemanagement unerlässlich. Public-Cloud-Edition im Fokus in der Kritik Im weiteren Verlauf nahm die Diskussion die Cloud-Versionen von SAP S/4HANA in den Blick. SAP bietet mit der Public-Cloud- und der Private-Cloud-Edition zwei SaaS-Cloud-Varianten der neuen ERP-Suite an, die unterschiedliche Zielgruppen ansprechen. Kleinere und mittelgroße Unternehmen (KMU) mit weitgehend standardisierten Prozessen sind mit der Public-Cloud-Edition von SAP S/4HANA gut bedient, da diese bereits vorkonfigurierte End-to-End-Prozesse bereitstellt. SAP verspricht zudem eine schnelle Einführung dieser Edition mit dem GROW-with-SAP-Programm. Kritisiert wurde jedoch, dass SAP mit der stark standardisierten Public-Cloud-Edition versucht, die Prozessanforderungen aller Kunden abzudecken. Das funktioniert naturgemäß bei hochautomatisierten und stark individualisierten SAP-Systemen nicht, wie sie beispielsweise in der Energie- und Versicherungsbranche zu finden sind. Ein weiterer Kritikpunkt an der Public-Cloud-Edition von SAP S/4HANA ist, dass eine Migration von historischen Daten aus SAP ERP in diese Edition nicht möglich sei. Gerade im Hinblick auf den Einsatz von KI-Anwendungen sei das ein Riesenproblem, denn historische Daten sind unverzichtbar für das Training einer KI und für den Aufbau effektiver KI-Szenarien. Dass SAP die vollständige KI-Funktionalität zudem ausschließlich in der Public Cloud zur Verfügung stellt, stellt ein weiteres Ärgernis dar. Historische Daten stattdessen in einem Cloud Data Warehouse wie SAP Datasphere oder in einem Data Lake zu speichern sei nicht wirklich eine Option. Ein Teilnehmer beklagte in Bezug auf die Datenübernahme generell eine restriktive Strategie sowohl bei SAP als auch bei anderen Softwareherstellern. Die Public-Cloud-Version unterstützt auch weder Zusammenschlüsse und Übernahmen (Mergers & Akquisitions) noch umgekehrt einen Carve-out oder Buy-out. SAP verunsichert seine Kunden Die Private-Cloud-Edition von SAP S/4HANA (die Einführung erfolgt mit dem RISE-with-SAP-Programm) lässt sich im Unterschied dazu deutlich stärker an individuelle Prozessanforderungen anpassen. Allerdings sind der Individualisierung auch hier Grenzen gesetzt, besonders im Bereich der Logistik und Produktion. Die nötigen Anpassungen lassen sich entweder durch Side-by-Side-Anwendungen auf Basis der SAP Business Technology Platform (SAP BTP) oder durch Lösungen von Drittanbietern vornehmen, die an das ERP-Kernsystem von SAP “angeflanscht” werden. Composable Architecture statt ERP-Monolith Der Trend geht mit den Cloud-Editionen von SAP S/4HANA auch beim Walldorfer Softwarehersteller weg vom monolithischen ERP-System und hin zu einer weniger komplexen, flexiblen Composable IT-Architektur auf Basis eines cloud-nativen ERP-Kernsystems. Darüber herrschte weitgehend Einigkeit unter den Teilnehmenden. Eine solche Composable Architecture sorgt für die Agilität, die Unternehmen in der dynamischen und volatilen Geschäftswelt heute benötigen, um wettbewerbsfähig zu bleiben. Dass diese Architektur auch eine Anpassung der zugrunde liegenden IT-Infrastruktur erfordert, unter anderem im Hinblick auf Hochverfügbarkeit, Disaster Recovery oder automatisiertes SAP-Monitoring, versteht sich dabei von selbst. Ausgehend von diesem flexiblen Architekturansatz lässt sich der Faden dann in Richtung eines Process-as-a-Service-Konzepts weiterspinnen. Unternehmen kaufen dann keine IT-Applikationen mehr, sondern einen komplett integrierten End-to-end-Prozess – unabhängig von den darunterliegenden Anwendungen. SAP könnte hier möglicherweise Opfer des eigenen Erfolgs werden, da man mit SAP Cloud Integration beziehungsweise SAP Integration Suite als Teil von SAP BTP bereits entsprechende Integrationsplattformen im Programm hat. Doch bis die Vision eines “Process-as-a-Service” Realität wird, dürfte es noch einige Zeit dauern. Alles in die SAP-Cloud ist keine Option Dass eine “Alles-in-die-Cloud-Strategie” für SAP S/4HANA nicht der Königsweg ist, darüber herrschte ebenfalls Konsens. Gerade für größere Unternehmen mit zahlreichen SAP-Instanzen ist das aufgrund von Sicherheits- und Governance-Bedenken – etwa in Bezug auf DSGVO-konforme Datenspeicherung – nicht wirklich eine Option. Zukünftig werden Unternehmen auf eine hybride Architektur setzen, die On-premises- und Cloud-Lösungen kombiniert. Verabschieden sollte man sich auch von dem Gedanken, dass SAP S/4HANA Cloud automatisch günstiger ist als eine On-premises-Installation. Bei Cloud-Verträgen wie im Rahmen von „RISE with SAP“ ist die Kostenstruktur auch nicht immer transparent, und es ist oft unklar, welche SAP-Cloud-Services im Paket enthalten sind. Hinzu kommt die Sorge vor einer zu starken Abhängigkeit von SAP als Anbieter für ERP-Software, Cloud-Infrastruktur, Lizenzen und Support – Stichwort Vendor-Lock-in. Alles in allem sind solche Bedenken ein Hindernis für den umfassenden Cloud-Umstieg, da nicht jedes Unternehmen davon begeistert sein dürfte, die Verantwortung komplett an SAP abzugeben und sich möglicherweise in eine einseitige Abhängigkeit zu begeben. Services für S/4HANA-Migration: IBM klinkt sich in “RISE with SAP” ein Das Fazit der Expertenrunde: Bei SAP S/4HANA (sowohl On-premises als auch in der Cloud) handelt es sich um ein modernes ERP-System, das dem aktuellen Stand der Technik entspricht und besonders für SAP-Kunden ein wichtiger Baustein auf dem Weg zur digitalen Unternehmenstransformation ist. Die aktuelle ERP-Suite von SAP ist jedoch keine die „eierlegende Wollmilchsau“, die alle Probleme löst. Besonders bei der Public-Cloud-Edition besteht noch Optimierungsbedarf. Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP” Anke Frier, Lufthansa Industry Solutions: „Beim Wechsel auf SAP S/4HANA handelt es sich nicht nur um ein IT-Transformations-, sondern allen voran um ein Business-Transformationsprojekt, da die neue ERP-Suite bisherige Arbeitsweisen zum Teil massiv verändert. Das erfordert ein kluges und effizientes Changemanagement.“ Sonja Brüggemann / Lufthansa Industry Solutions GmbH & Co. KG Carl-Philipp Müller, Nagarro ES: „Der Umstieg auf SAP S/4HANA bedeutet einen Technologiewechsel. Statt eines starren ERP-Monolithen mit zahlreichen individuellen Anpassungen gibt es zukünftig ein schlankes ERP-Kernsystem, ergänzt durch Side-by-Side-Applikationen und -Services auf Basis von SAP BTP. Da sich Geschäftsprozesse dadurch massiv ändern, ist ein Redesign der vorhandenen IT-Architektur zwingend erforderlich.“ Nagarro SE Patric Dahse, Natuvion: „SAP S/4HANA ist aus meiner Sicht ein modernes ERP-System, das technologisch State of the Art ist. Problematisch finde ich, dass die Public-Cloud-Edition dieser ERP-Suite keine Migration historischer Daten erlaubt, die speziell für das Training einer KI und somit für effiziente KI-Szenarien unverzichtbar sind.“ Sandra Kühnapfel / Natuvion GmbH Michael Stedler, Softwaregini: „Der Umstieg auf SAP S/4HANA darf nicht standalone betrachtet und entschieden werden. Das ERP greift tief in Kerngeschäftsprozesse ein, womit dessen Modernisierung auf die ganze IT-Landschaft ausstrahlt. Angrenzende (Nicht-SAP-)Systeme müssen genauso auf den Prüfstand. Andernfalls entsteht das Risiko, dass die umliegende Legacy das Potenzial und den ROI limitiert. Ein starkes Enterprise Architecture Management ist hier gefordert.“ Softwaregini GmbH Christian Severin, Sopra Steria: „Der Eins-zu-Eins-Umstieg von SAP ERP auf SAP S/4HANA unter Mitnahme aller Eigenentwicklungen ist komplex und teuer. Die aktuelle ERP-Suite bedeutet einen Neubeginn, der die Möglichkeit bietet, sich von Altlasten zu befreien und von einem leistungsfähigeren ERP zu profitieren, das nur wettbewerbsdifferenzierende und geschäftskritische Erweiterungen enthält.“ Sopra Steria SE Caren Fröhling, Stibo Systems: „Stammdaten dienen als Grundlage von S/4HANA-Umgebungen und gewährleisten Konsistenz, Genauigkeit und Zuverlässigkeit über alle Prozesse hinweg. Ohne ein robustes Stammdatenmanagement besteht die Gefahr, dass das Potenzial von S/4HANA, intelligente Entscheidungen voranzutreiben, Abläufe zu rationalisieren und die digitale Transformation zu ermöglichen nicht vollständig verwirklicht werden kann.“ Stibo Systems GmbH Sabine Söllheim, SUSE: „Mit den Cloud-Editionen von SAP S/4HANA geht SAP einen wichtigen Schritt weg vom klassischen ERP-Monolithen und hin zu einer flexiblen cloud-nativen ERP-Architektur. Ein ‚Alles-in-die-Cloud-Ansatz‘ ist, vor allem im Hinblick auf Security- und Governance-Bedenken, jedoch nicht immer möglich. Das gilt vor allem für Firmen mit hochkomplexen Prozessen.“ SUSE Software Solutions Germany GmbH 

SAP S/4HANA – eine “Alles-in-die-Cloud-Strategie” ist keine Option​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_701864365.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für die Reise in Richtung S/4HANA braucht es die richtige Orientierung – vor allem wenn die Cloud mit ins Spiel kommen soll.Shutterstock

SAP S/4HANA ist seit 2015 auf dem Markt und die Mainstream-Wartung für die Vorgänger-Releases von SAP ERP und der SAP Business Suite läuft Ende 2027 aus. Obwohl die Zeit drängt, hat eine große Zahl von SAP-Anwenderunternehmen die Umstellung auf die neue ERP-Suite SAP S/4HANA noch nicht vollzogen. Die Frage, die sich hier stellt, ist, ob diese Betriebe durch ihr Zögern die digitale Transformation “verschlafen”, für die der Walldorfer Softwarekonzern die SAP-S/4HANA-Suite als entscheidenden Treiber positioniert.

Diesen und viele weitere Aspekte diskutierten die Teilnehmerinnen und Teilnehmer an der COMPUTERWOCHE-Expertenrunde zum Thema “SAP S/4HANA” differenziert und durchaus kontrovers. Zwar gilt SAP S/4HANA als eine moderne und technologisch hochentwickelte ERP-Lösung, die im SAP-Ökosystem von zentraler Bedeutung ist. Jedoch sehen einige Experten die ERP-Suite nicht per se als Treiber der digitalen Transformation. Andere hingegen vertreten die Ansicht, dass die aktuelle Produktgeneration von SAP einen wesentlichen Baustein für die Digitalisierung von Geschäftsprozessen über die gesamte IT-Landschaft hinweg darstellt, die sowohl aus SAP- als auch Non-SAP-Systemen besteht.

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP

Wie SAP S/4HANA IT und Business transformiert

Dass SAP-S/4HANA-Migrationsprojekte heute immer noch ein Diskussionsthema sind, hat verschiedene Gründe. Zum einen haben viele Unternehmen entsprechende Vorhaben während der Coronapandemie gestoppt. Hinzu kommt der Fachkräftemangel im IT-Bereich, der dazu führt, dass die für den Umstieg auf das aktuelle SAP-Release dringend benötigten SAP-Experten vielerorts fehlen.

Darüber hinaus kann der Wechsel von SAP ERP oder der SAP Business Suite auf SAP S/4HANA für Bestandskunden rasch zu einer Kosten- und Komplexitätsfalle werden. SAP-Kunden müssen sich im Klaren darüber sein, dass ein Umsatteln auf SAP S/4HANA kein einfaches Upgrade oder ein Releasewechsel auf eine neue ERP-Version, sondern ein kompletter Technologiewechsel ist. Sofern bislang noch keine SAP-HANA-Datenbank im Einsatz ist, bedeutet allein der Umstieg auf die In-Memory-Datenbank einen technologischen Paradigmenwechsel, der ein Redesign der IT-Architektur erfordert.

Allen voran beim Eins-zu-eins-Umstieg von SAP ERP auf SAP S/4HANA im Rahmen einer System Conversion (Brownfield-Ansatz) inklusive aller Eigenentwicklungen, die sich im Laufe der Jahre im ERP angesammelt haben, sind Komplexität und Kosten nicht zu unterschätzen. Da diese Eigenprogrammierungen die neue ERP-Suite nicht unerheblich belasten können, empfiehlt es sich, den Großteil der „alten Zöpfe“ abzuschneiden und SAP-Standardfunktionen zu nutzen, wo immer dies möglich ist. In der Regel müssen durch den Verzicht auf individuelle Anwendungen zum Teil nicht unerhebliche Anpassungen an den vorhandenen Prozessen und Organisationsstrukturen vorgenommen werden.

S/4HANA in der Cloud: SAP lockt – die Anwender zögern

All das verdeutlicht, dass es sich bei der Einführung von beziehungsweise dem Umstieg auf SAP S/4HANA nicht allein um eine IT-Transformation, sondern in erster Linie um eine Transformation der Geschäftsprozesse handelt. Um diese erfolgreich zu bewältigen, ist ein kluges und effizientes Changemanagement unerlässlich.

Public-Cloud-Edition im Fokus in der Kritik

Im weiteren Verlauf nahm die Diskussion die Cloud-Versionen von SAP S/4HANA in den Blick. SAP bietet mit der Public-Cloud- und der Private-Cloud-Edition zwei SaaS-Cloud-Varianten der neuen ERP-Suite an, die unterschiedliche Zielgruppen ansprechen. Kleinere und mittelgroße Unternehmen (KMU) mit weitgehend standardisierten Prozessen sind mit der Public-Cloud-Edition von SAP S/4HANA gut bedient, da diese bereits vorkonfigurierte End-to-End-Prozesse bereitstellt. SAP verspricht zudem eine schnelle Einführung dieser Edition mit dem GROW-with-SAP-Programm. Kritisiert wurde jedoch, dass SAP mit der stark standardisierten Public-Cloud-Edition versucht, die Prozessanforderungen aller Kunden abzudecken. Das funktioniert naturgemäß bei hochautomatisierten und stark individualisierten SAP-Systemen nicht, wie sie beispielsweise in der Energie- und Versicherungsbranche zu finden sind.

Ein weiterer Kritikpunkt an der Public-Cloud-Edition von SAP S/4HANA ist, dass eine Migration von historischen Daten aus SAP ERP in diese Edition nicht möglich sei. Gerade im Hinblick auf den Einsatz von KI-Anwendungen sei das ein Riesenproblem, denn historische Daten sind unverzichtbar für das Training einer KI und für den Aufbau effektiver KI-Szenarien. Dass SAP die vollständige KI-Funktionalität zudem ausschließlich in der Public Cloud zur Verfügung stellt, stellt ein weiteres Ärgernis dar. Historische Daten stattdessen in einem Cloud Data Warehouse wie SAP Datasphere oder in einem Data Lake zu speichern sei nicht wirklich eine Option. Ein Teilnehmer beklagte in Bezug auf die Datenübernahme generell eine restriktive Strategie sowohl bei SAP als auch bei anderen Softwareherstellern. Die Public-Cloud-Version unterstützt auch weder Zusammenschlüsse und Übernahmen (Mergers & Akquisitions) noch umgekehrt einen Carve-out oder Buy-out.

SAP verunsichert seine Kunden

Die Private-Cloud-Edition von SAP S/4HANA (die Einführung erfolgt mit dem RISE-with-SAP-Programm) lässt sich im Unterschied dazu deutlich stärker an individuelle Prozessanforderungen anpassen. Allerdings sind der Individualisierung auch hier Grenzen gesetzt, besonders im Bereich der Logistik und Produktion. Die nötigen Anpassungen lassen sich entweder durch Side-by-Side-Anwendungen auf Basis der SAP Business Technology Platform (SAP BTP) oder durch Lösungen von Drittanbietern vornehmen, die an das ERP-Kernsystem von SAP “angeflanscht” werden.

Composable Architecture statt ERP-Monolith

Der Trend geht mit den Cloud-Editionen von SAP S/4HANA auch beim Walldorfer Softwarehersteller weg vom monolithischen ERP-System und hin zu einer weniger komplexen, flexiblen Composable IT-Architektur auf Basis eines cloud-nativen ERP-Kernsystems. Darüber herrschte weitgehend Einigkeit unter den Teilnehmenden. Eine solche Composable Architecture sorgt für die Agilität, die Unternehmen in der dynamischen und volatilen Geschäftswelt heute benötigen, um wettbewerbsfähig zu bleiben. Dass diese Architektur auch eine Anpassung der zugrunde liegenden IT-Infrastruktur erfordert, unter anderem im Hinblick auf Hochverfügbarkeit, Disaster Recovery oder automatisiertes SAP-Monitoring, versteht sich dabei von selbst.

Ausgehend von diesem flexiblen Architekturansatz lässt sich der Faden dann in Richtung eines Process-as-a-Service-Konzepts weiterspinnen. Unternehmen kaufen dann keine IT-Applikationen mehr, sondern einen komplett integrierten End-to-end-Prozess – unabhängig von den darunterliegenden Anwendungen. SAP könnte hier möglicherweise Opfer des eigenen Erfolgs werden, da man mit SAP Cloud Integration beziehungsweise SAP Integration Suite als Teil von SAP BTP bereits entsprechende Integrationsplattformen im Programm hat. Doch bis die Vision eines “Process-as-a-Service” Realität wird, dürfte es noch einige Zeit dauern.

Alles in die SAP-Cloud ist keine Option

Dass eine “Alles-in-die-Cloud-Strategie” für SAP S/4HANA nicht der Königsweg ist, darüber herrschte ebenfalls Konsens. Gerade für größere Unternehmen mit zahlreichen SAP-Instanzen ist das aufgrund von Sicherheits- und Governance-Bedenken – etwa in Bezug auf DSGVO-konforme Datenspeicherung – nicht wirklich eine Option. Zukünftig werden Unternehmen auf eine hybride Architektur setzen, die On-premises- und Cloud-Lösungen kombiniert. Verabschieden sollte man sich auch von dem Gedanken, dass SAP S/4HANA Cloud automatisch günstiger ist als eine On-premises-Installation.

Bei Cloud-Verträgen wie im Rahmen von „RISE with SAP“ ist die Kostenstruktur auch nicht immer transparent, und es ist oft unklar, welche SAP-Cloud-Services im Paket enthalten sind. Hinzu kommt die Sorge vor einer zu starken Abhängigkeit von SAP als Anbieter für ERP-Software, Cloud-Infrastruktur, Lizenzen und Support – Stichwort Vendor-Lock-in. Alles in allem sind solche Bedenken ein Hindernis für den umfassenden Cloud-Umstieg, da nicht jedes Unternehmen davon begeistert sein dürfte, die Verantwortung komplett an SAP abzugeben und sich möglicherweise in eine einseitige Abhängigkeit zu begeben.

Services für S/4HANA-Migration: IBM klinkt sich in “RISE with SAP” ein

Das Fazit der Expertenrunde: Bei SAP S/4HANA (sowohl On-premises als auch in der Cloud) handelt es sich um ein modernes ERP-System, das dem aktuellen Stand der Technik entspricht und besonders für SAP-Kunden ein wichtiger Baustein auf dem Weg zur digitalen Unternehmenstransformation ist. Die aktuelle ERP-Suite von SAP ist jedoch keine die „eierlegende Wollmilchsau“, die alle Probleme löst. Besonders bei der Public-Cloud-Edition besteht noch Optimierungsbedarf.

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP

Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP”

Anke Frier, Lufthansa Industry Solutions:
„Beim Wechsel auf SAP S/4HANA handelt es sich nicht nur um ein IT-Transformations-, sondern allen voran um ein Business-Transformationsprojekt, da die neue ERP-Suite bisherige Arbeitsweisen zum Teil massiv verändert. Das erfordert ein kluges und effizientes Changemanagement.“
Sonja Brüggemann / Lufthansa Industry Solutions GmbH & Co. KG

Carl-Philipp Müller, Nagarro ES:
„Der Umstieg auf SAP S/4HANA bedeutet einen Technologiewechsel. Statt eines starren ERP-Monolithen mit zahlreichen individuellen Anpassungen gibt es zukünftig ein schlankes ERP-Kernsystem, ergänzt durch Side-by-Side-Applikationen und -Services auf Basis von SAP BTP. Da sich Geschäftsprozesse dadurch massiv ändern, ist ein Redesign der vorhandenen IT-Architektur zwingend erforderlich.“
Nagarro SE

Patric Dahse, Natuvion:
„SAP S/4HANA ist aus meiner Sicht ein modernes ERP-System, das technologisch State of the Art ist. Problematisch finde ich, dass die Public-Cloud-Edition dieser ERP-Suite keine Migration historischer Daten erlaubt, die speziell für das Training einer KI und somit für effiziente KI-Szenarien unverzichtbar sind.“
Sandra Kühnapfel / Natuvion GmbH

Michael Stedler, Softwaregini:
„Der Umstieg auf SAP S/4HANA darf nicht standalone betrachtet und entschieden werden. Das ERP greift tief in Kerngeschäftsprozesse ein, womit dessen Modernisierung auf die ganze IT-Landschaft ausstrahlt. Angrenzende (Nicht-SAP-)Systeme müssen genauso auf den Prüfstand. Andernfalls entsteht das Risiko, dass die umliegende Legacy das Potenzial und den ROI limitiert. Ein starkes Enterprise Architecture Management ist hier gefordert.“
Softwaregini GmbH

Christian Severin, Sopra Steria:
„Der Eins-zu-Eins-Umstieg von SAP ERP auf SAP S/4HANA unter Mitnahme aller Eigenentwicklungen ist komplex und teuer. Die aktuelle ERP-Suite bedeutet einen Neubeginn, der die Möglichkeit bietet, sich von Altlasten zu befreien und von einem leistungsfähigeren ERP zu profitieren, das nur wettbewerbsdifferenzierende und geschäftskritische Erweiterungen enthält.“
Sopra Steria SE

Caren Fröhling, Stibo Systems:
„Stammdaten dienen als Grundlage von S/4HANA-Umgebungen und gewährleisten Konsistenz, Genauigkeit und Zuverlässigkeit über alle Prozesse hinweg. Ohne ein robustes Stammdatenmanagement besteht die Gefahr, dass das Potenzial von S/4HANA, intelligente Entscheidungen voranzutreiben, Abläufe zu rationalisieren und die digitale Transformation zu ermöglichen nicht vollständig verwirklicht werden kann.“
Stibo Systems GmbH

Sabine Söllheim, SUSE:
„Mit den Cloud-Editionen von SAP S/4HANA geht SAP einen wichtigen Schritt weg vom klassischen ERP-Monolithen und hin zu einer flexiblen cloud-nativen ERP-Architektur. Ein ‚Alles-in-die-Cloud-Ansatz‘ ist, vor allem im Hinblick auf Security- und Governance-Bedenken, jedoch nicht immer möglich. Das gilt vor allem für Firmen mit hochkomplexen Prozessen.“
SUSE Software Solutions Germany GmbH

SAP S/4HANA – eine “Alles-in-die-Cloud-Strategie” ist keine Option​ Weiterlesen »

Microsoft bereitet Admins ein stressiges Jahr​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?quality=50&strip=all 5472w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Microsoft hält 2025 etliche Sonderaufgaben für Admins bereit. Thx4Stock team – Shutterstock.com Neben dem Support-Ende für Windows 10 und der erzwungenen Migration auf Windows 11 gibt es auch etliche weitere Produkte und Funktionen, die der Softwareriese aus Redmond zu Grabe trägt. Welche Sonderaufgaben Admins erwarten, wird in einem Blogbeitrag von AdminDroid ausführlich aufbereitet. Hier ein Überblick über die wichtigsten anstehenden Veränderungen. Wichtige Microsoft-Deadlines für Admins 2025 Bereits einiges an Arbeit braut sich dem Beitrag zufolge im Februar zusammen. In dem Monat werden – wie im November 2024 als Sicherheitsmaßnahme von Microsoft angekündigt – voraussichtlich die Exchange Online Token abgeschaltet. Microsoft 365 Admins haben zwar die Option, die Tokens via PowerShell wieder zu aktivieren. Diese Möglichkeit fällt jedoch schon im Juni weg. Ab Oktober werden die Token dann für alle Tenants abgeschaltet. Betroffen sind davon primär alte Outlook-Add-Ins, die häufig verwendet werden, um Unternehmensprozesse zu verknüpfen. Sie werden nach der Deaktivierung nicht mehr funktionieren. Nachdem es hier in der Vergangenheit zu Sicherheitsverletzungen gekommen war, will Microsoft, dass die Outlook-Add-ins mithilfe von Nested App Authentication (NAA) und Microsoft Graph auf Entra ID-Tokens migriert werden.Die Role-Based Access Control (RBAC) Application Impersonation-Rolle läuft im Februar ebenfalls aus. Die Rolle war eine praktische Möglichkeit, den Zugriff auf mehrere Postfächer zu gewähren, aber künftig möchte Microsoft lieber, dass Apps bei Entra registriert werden. Die nächste Deadline ist der 30. März. Obwohl sie noch funktionsfähig sind und wichtige Sicherheitsupdates erhalten, werden die PowerShell-Module Azure AD, Azure AD Preview und MSOnline ab diesem Zeitpunkt nicht mehr offiziell unterstützt. Admins sollten entsprechend proaktiv PowerShell-Skripts identifizieren, die die Legacy-Module verwenden, und auf Microsoft Graph PowerShell aktualisieren. Das sollte möglichst proaktiv passieren, denn am 2. April lauert potenziell schon das nächste relevante Support-Ende: Die Funktion „Domain Isolated Web Parts“ in SharePoint Framework wird schrittweise deaktiviert. Domänenisolierte Webparts ermöglichen es Entwicklern, Webparts zu erstellen, die in einer von der Hauptseite getrennten Domäne funktionieren, was die Sicherheit erhöht. Wegen des damit verbundenen Aufwands hielt sich die Nutzung dieser Funktion jedoch in Grenzen, weshalb Microsoft beschlossen hat, domänenisolierte Webparts im SharePoint-Framework einzustellen. Ab dem 2. April 2025 hinzukommende Nutzer können die Funktionen nicht mehr verwenden. Für bestehende Nutzer werden die domänenisolierten Webparts bis zum 2. April 2026 abgeschaltet. Auch in der zweiten Jahreshälfte legt Microsoft die Axt bei einigen Produkten und Services an. Zum Auftakt wird am 1. Juli der „klassische“ Desktop-Client von Teams abgeschaltet, nachdem der Support bereits 2024 eingestellt wurde. Der damit verbunden Aufwand für Microsoft-365-Admins hält sich dabei allerdings in Grenzen: In der Konsequenz müssen die Anwender lediglich auf die neue Teams-App umsteigen oder als Alternative die Web-App in einem unterstützten Browser nutzen. Ende September wird dann die Basisauthentifizierung für die Client-Übermittlung in Exchange Online endgültig eingestellt, bevor im Oktober die ganz großen Geschütze aufgefahren werden. Neben dem Ende des Supports für viele Windows-10-Versionen wird auch der Support für Office 2016 und 2019 eingestellt und Microsoft OneNote für Windows 10 läuft aus. Damit nicht genug werden Microsoft 365-Apps ab diesem Zeitpunkt auch auf Windows Server 2016 und 2019 nicht mehr unterstützt. Die SendMail-API in SharePoint wird ebenfalls eingestellt – hier muss spätestens ab Anfang November die user: SendMail API verwendet werden, um E-Mails mithilfe von Microsoft Graph zu versenden. Ende 2025 (der genaue Termin wurde noch nicht genannt) sollen dann auch die Office-365-Konnektoren in Teams abgeschafft werden. Sie ermöglichen es den Benutzern, Updates von anderen Diensten wie Trello, GitHub oder Twitter direkt in den Chat ihres Teams zu integrieren. Microsoft hatte das Ende des Services bereits im Vorjahr relativ kurzfristig für die zweite Jahreshälfte 2024 angekündigt. Nach heftiger Kritik der Nutzer wurde die Frist dann auf Dezember 2025 verlängert. Als Ersatz für diese nützliche Funktion empfiehlt Microsoft Power-Automate-Workflows. 

Microsoft bereitet Admins ein stressiges Jahr​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?quality=50&strip=all 5472w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502184431_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Microsoft hält 2025 etliche Sonderaufgaben für Admins bereit. Thx4Stock team – Shutterstock.com

Neben dem Support-Ende für Windows 10 und der erzwungenen Migration auf Windows 11 gibt es auch etliche weitere Produkte und Funktionen, die der Softwareriese aus Redmond zu Grabe trägt. Welche Sonderaufgaben Admins erwarten, wird in einem Blogbeitrag von AdminDroid ausführlich aufbereitet. Hier ein Überblick über die wichtigsten anstehenden Veränderungen.

Wichtige Microsoft-Deadlines für Admins 2025

Bereits einiges an Arbeit braut sich dem Beitrag zufolge im Februar zusammen. In dem Monat werden – wie im November 2024 als Sicherheitsmaßnahme von Microsoft angekündigt – voraussichtlich die Exchange Online Token abgeschaltet. Microsoft 365 Admins haben zwar die Option, die Tokens via PowerShell wieder zu aktivieren. Diese Möglichkeit fällt jedoch schon im Juni weg. Ab Oktober werden die Token dann für alle Tenants abgeschaltet.

Betroffen sind davon primär alte Outlook-Add-Ins, die häufig verwendet werden, um Unternehmensprozesse zu verknüpfen. Sie werden nach der Deaktivierung nicht mehr funktionieren. Nachdem es hier in der Vergangenheit zu Sicherheitsverletzungen gekommen war, will Microsoft, dass die Outlook-Add-ins mithilfe von Nested App Authentication (NAA) und Microsoft Graph auf Entra ID-Tokens migriert werden.Die Role-Based Access Control (RBAC) Application Impersonation-Rolle läuft im Februar ebenfalls aus. Die Rolle war eine praktische Möglichkeit, den Zugriff auf mehrere Postfächer zu gewähren, aber künftig möchte Microsoft lieber, dass Apps bei Entra registriert werden.

Die nächste Deadline ist der 30. März. Obwohl sie noch funktionsfähig sind und wichtige Sicherheitsupdates erhalten, werden die PowerShell-Module Azure AD, Azure AD Preview und MSOnline ab diesem Zeitpunkt nicht mehr offiziell unterstützt. Admins sollten entsprechend proaktiv PowerShell-Skripts identifizieren, die die Legacy-Module verwenden, und auf Microsoft Graph PowerShell aktualisieren.

Das sollte möglichst proaktiv passieren, denn am 2. April lauert potenziell schon das nächste relevante Support-Ende: Die Funktion „Domain Isolated Web Parts“ in SharePoint Framework wird schrittweise deaktiviert. Domänenisolierte Webparts ermöglichen es Entwicklern, Webparts zu erstellen, die in einer von der Hauptseite getrennten Domäne funktionieren, was die Sicherheit erhöht. Wegen des damit verbundenen Aufwands hielt sich die Nutzung dieser Funktion jedoch in Grenzen, weshalb Microsoft beschlossen hat, domänenisolierte Webparts im SharePoint-Framework einzustellen. Ab dem 2. April 2025 hinzukommende Nutzer können die Funktionen nicht mehr verwenden. Für bestehende Nutzer werden die domänenisolierten Webparts bis zum 2. April 2026 abgeschaltet.

Auch in der zweiten Jahreshälfte legt Microsoft die Axt bei einigen Produkten und Services an. Zum Auftakt wird am 1. Juli der „klassische“ Desktop-Client von Teams abgeschaltet, nachdem der Support bereits 2024 eingestellt wurde. Der damit verbunden Aufwand für Microsoft-365-Admins hält sich dabei allerdings in Grenzen: In der Konsequenz müssen die Anwender lediglich auf die neue Teams-App umsteigen oder als Alternative die Web-App in einem unterstützten Browser nutzen.

Ende September wird dann die Basisauthentifizierung für die Client-Übermittlung in Exchange Online endgültig eingestellt, bevor im Oktober die ganz großen Geschütze aufgefahren werden. Neben dem Ende des Supports für viele Windows-10-Versionen wird auch der Support für Office 2016 und 2019 eingestellt und Microsoft OneNote für Windows 10 läuft aus. Damit nicht genug werden Microsoft 365-Apps ab diesem Zeitpunkt auch auf Windows Server 2016 und 2019 nicht mehr unterstützt.

Die SendMail-API in SharePoint wird ebenfalls eingestellt – hier muss spätestens ab Anfang November die user: SendMail API verwendet werden, um E-Mails mithilfe von Microsoft Graph zu versenden.

Ende 2025 (der genaue Termin wurde noch nicht genannt) sollen dann auch die Office-365-Konnektoren in Teams abgeschafft werden. Sie ermöglichen es den Benutzern, Updates von anderen Diensten wie Trello, GitHub oder Twitter direkt in den Chat ihres Teams zu integrieren. Microsoft hatte das Ende des Services bereits im Vorjahr relativ kurzfristig für die zweite Jahreshälfte 2024 angekündigt. Nach heftiger Kritik der Nutzer wurde die Frist dann auf Dezember 2025 verlängert. Als Ersatz für diese nützliche Funktion empfiehlt Microsoft Power-Automate-Workflows.

Microsoft bereitet Admins ein stressiges Jahr​ Weiterlesen »

Was ein Data Worker können muss​

Allgemein

Wer den Durchblick im Datendschungel behalten möchte, muss sich und seine Mannschaft weiterbilden.Gorodenkoff / Shutterstock Datenkompetenz ist der Schlüssel, um mit dem eigenen Geschäft im aufziehenden KI-Zeitalter wettbewerbsfähig zu bleiben. Darin sind sich fast alle Experten und Marktbeobachter einig. Auch KNIME, spezialisiert auf Datenanalyse und die Nutzung von künstlicher Intelligenz (KI), verzeichnet eigenen Angaben zufolge eine verstärkte Nachfrage. Im Fokus stehen Schulungen rund um Datenanalyse sowie ein wachsendes Interesse an Kursen im Bereich Data Analytics und Data Engineering, sowie KI und Machine Learning. Dabei beruft sich der Open-Source-Anbieter auf Kurs- und Zertifizierungsdaten seines KNIME Learning Center für Datenkompetenz.  Die Auswertung mache darüber hinaus deutlich, wie sich die Anforderungen und Interessen von Fachkräften im Bereich der Datenarbeit weiterentwickelten, heißt es in einer Mitteilung. Heute basiere die Arbeit von immer mehr Unternehmensbereichen auf der Analyse von Daten.   KNIME unterscheidet dabei drei zentrale Profile von Data Workern:  Data Analysts gewinnen aus Rohdaten aussagekräftige Erkenntnisse. Sie extrahieren und führen Daten aus verschiedenen Quellen zusammen und bereinigen sie. Sie visualisieren Erkenntnisse in Dashboards und Berichten und unterstützen datengetriebene Entscheidungen oft in enger Zusammenarbeit mit anderen Fachabteilungen. Ihre Rolle ist meist der Einstieg in die Welt der Datenarbeit.   Data Engineers sorgen für die technologische Basis der Datenarbeit, indem sie leistungsfähige Datenarchitekturen und -pipelines entwickeln. Beispiel dafür ist etwa die Entwicklung einer Datenpipeline, die tägliche Verkaufsdaten eines Unternehmens aus verschiedenen Regionen zusammenführt, bereinigt und in einer zentralen Datenbank speichert, die dann von Data Analysts und Data Scientists genutzt wird.  Data Scientists sind Experten für die Analyse und Interpretation komplexer digitaler Daten. Ihre Aufgabe besteht darin, Rohdaten in verwertbare Erkenntnisse zu verwandeln und Modelle für maschinelles Lernen, Deep Learning oder Zeitreihenanalysen zu erstellen. Ihre Arbeit liefert strategische Erkenntnisse aus großen und unstrukturierten Datensätzen.  2024 sei die Nachfrage nach Kursen für alle drei Profile gestiegen, teilte der Anbieter mit. Data Analysts hätte dabei mit einem Zuwachs von 136 Prozent in Einsteigerkursen und 25 Prozent in Spezialisierungskursen die stärksten Anstiege verzeichnet. Zurückzuführen sei dies darauf, dass Datenanalysten eine zentrale Rolle in nahezu jedem Unternehmen spielten. „Sie helfen, Daten verständlich aufzubereiten und fundierte Entscheidungen zu treffen: vom Marketing über Finanzen und HR bis hin zur Produktion“, heißt es bei KNIME. Der Anbieter sieht die Data Analyst-Schulungen als typischen Einstiegspunkt für Data Worker und Fundament für weiterführende Data-Berufe.  Data Engineers sorgen für bessere Governance Data-Engineering-Kurse hätten den Schulungsanalysen ebenfalls zugelegt, insbesondere bei Spezialisierungskursen um ein Drittel. Die zunehmende Bedeutung von Data Governance und der Notwendigkeit, Daten korrekt, konsistent und rechtskonform zu verwalten, treibe die Nachfrage an. Die Teilnahme an Kursen für Data Scientists sei indes in absoluten Zahlen nach wie vor am beliebtesten, vermeldet der Anbieter. Was macht ein Data Analyst? Was macht ein Data Scientist? Was macht ein Data Engineer? Darüber hinaus blieben vor dem Hintergrund eines verstärkten KI-Einsatzes in vielen Unternehmen Fertigkeiten rund um Machine Learning eine der gefragtesten Kompetenzen. Dieser Trend zeigt sich KNIME zufolge auch in 2024 neu hinzugefügten Kursen rund um das Themenfeld „Nutzung von KI in der Datenarbeit“. Bereits in den ersten Monaten verzeichneten diese 73 Prozent mehr Teilnehmer als beim Durchschnitt aller genutzten Lernangebote. Datenqualität messen: 3 Metriken, auf die es bei DataOps ankommt Das Interesse der Data Workers und Unternehmen ist es, mit KI repetitive und zeitaufwändige manuelle Aufgaben bei der Datenarbeit effizienter zu gestalten, so der Anbieter. Dabei gelte es jedoch gleichzeitig sicherzustellen, dass Risiken in Bezug auf die Datenqualität und den Datenschutz minimiert würden und alle auf KI basierenden Prozesse transparent und nachvollziehbar seien. Damit würden Governance-Prozesse unterstützt und das Vertrauen in KI-Tools gestärkt. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?utm_source=oembed”> „Datenkompetenz ist heute gefragter denn je“, lautet das Fazit von Rosaria Silipo, Vice President of Data Science Evanglism bei KNIME. „Viele Unternehmen haben sich zum Ziel gesetzt, stärker „Data-driven“ – also auf Grundlage von Daten – zu agieren.“ Dabei stünden viele Betriebe jedoch oft vor erheblichen Herausforderungen – sei es bei der effizienten Arbeit mit Daten, durch zu wenige Data Scientists oder weil langwierige Datenaufbereitungsprozesse zeitnahe Erkenntnisse auf Basis von Daten unmöglich machten.  

Was ein Data Worker können muss​ Wer den Durchblick im Datendschungel behalten möchte, muss sich und seine Mannschaft weiterbilden.Gorodenkoff / Shutterstock

Datenkompetenz ist der Schlüssel, um mit dem eigenen Geschäft im aufziehenden KI-Zeitalter wettbewerbsfähig zu bleiben. Darin sind sich fast alle Experten und Marktbeobachter einig. Auch KNIME, spezialisiert auf Datenanalyse und die Nutzung von künstlicher Intelligenz (KI), verzeichnet eigenen Angaben zufolge eine verstärkte Nachfrage. Im Fokus stehen Schulungen rund um Datenanalyse sowie ein wachsendes Interesse an Kursen im Bereich Data Analytics und Data Engineering, sowie KI und Machine Learning. Dabei beruft sich der Open-Source-Anbieter auf Kurs- und Zertifizierungsdaten seines KNIME Learning Center für Datenkompetenz. 

Die Auswertung mache darüber hinaus deutlich, wie sich die Anforderungen und Interessen von Fachkräften im Bereich der Datenarbeit weiterentwickelten, heißt es in einer Mitteilung. Heute basiere die Arbeit von immer mehr Unternehmensbereichen auf der Analyse von Daten.  

KNIME unterscheidet dabei drei zentrale Profile von Data Workern: 

Data Analysts gewinnen aus Rohdaten aussagekräftige Erkenntnisse. Sie extrahieren und führen Daten aus verschiedenen Quellen zusammen und bereinigen sie. Sie visualisieren Erkenntnisse in Dashboards und Berichten und unterstützen datengetriebene Entscheidungen oft in enger Zusammenarbeit mit anderen Fachabteilungen. Ihre Rolle ist meist der Einstieg in die Welt der Datenarbeit.  

Data Engineers sorgen für die technologische Basis der Datenarbeit, indem sie leistungsfähige Datenarchitekturen und -pipelines entwickeln. Beispiel dafür ist etwa die Entwicklung einer Datenpipeline, die tägliche Verkaufsdaten eines Unternehmens aus verschiedenen Regionen zusammenführt, bereinigt und in einer zentralen Datenbank speichert, die dann von Data Analysts und Data Scientists genutzt wird. 

Data Scientists sind Experten für die Analyse und Interpretation komplexer digitaler Daten. Ihre Aufgabe besteht darin, Rohdaten in verwertbare Erkenntnisse zu verwandeln und Modelle für maschinelles Lernen, Deep Learning oder Zeitreihenanalysen zu erstellen. Ihre Arbeit liefert strategische Erkenntnisse aus großen und unstrukturierten Datensätzen. 

2024 sei die Nachfrage nach Kursen für alle drei Profile gestiegen, teilte der Anbieter mit. Data Analysts hätte dabei mit einem Zuwachs von 136 Prozent in Einsteigerkursen und 25 Prozent in Spezialisierungskursen die stärksten Anstiege verzeichnet. Zurückzuführen sei dies darauf, dass Datenanalysten eine zentrale Rolle in nahezu jedem Unternehmen spielten. „Sie helfen, Daten verständlich aufzubereiten und fundierte Entscheidungen zu treffen: vom Marketing über Finanzen und HR bis hin zur Produktion“, heißt es bei KNIME. Der Anbieter sieht die Data Analyst-Schulungen als typischen Einstiegspunkt für Data Worker und Fundament für weiterführende Data-Berufe. 

Data Engineers sorgen für bessere Governance

Data-Engineering-Kurse hätten den Schulungsanalysen ebenfalls zugelegt, insbesondere bei Spezialisierungskursen um ein Drittel. Die zunehmende Bedeutung von Data Governance und der Notwendigkeit, Daten korrekt, konsistent und rechtskonform zu verwalten, treibe die Nachfrage an. Die Teilnahme an Kursen für Data Scientists sei indes in absoluten Zahlen nach wie vor am beliebtesten, vermeldet der Anbieter.

Was macht ein Data Analyst?

Was macht ein Data Scientist?

Was macht ein Data Engineer?

Darüber hinaus blieben vor dem Hintergrund eines verstärkten KI-Einsatzes in vielen Unternehmen Fertigkeiten rund um Machine Learning eine der gefragtesten Kompetenzen. Dieser Trend zeigt sich KNIME zufolge auch in 2024 neu hinzugefügten Kursen rund um das Themenfeld „Nutzung von KI in der Datenarbeit“. Bereits in den ersten Monaten verzeichneten diese 73 Prozent mehr Teilnehmer als beim Durchschnitt aller genutzten Lernangebote.

Datenqualität messen: 3 Metriken, auf die es bei DataOps ankommt

Das Interesse der Data Workers und Unternehmen ist es, mit KI repetitive und zeitaufwändige manuelle Aufgaben bei der Datenarbeit effizienter zu gestalten, so der Anbieter. Dabei gelte es jedoch gleichzeitig sicherzustellen, dass Risiken in Bezug auf die Datenqualität und den Datenschutz minimiert würden und alle auf KI basierenden Prozesse transparent und nachvollziehbar seien. Damit würden Governance-Prozesse unterstützt und das Vertrauen in KI-Tools gestärkt.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?utm_source=oembed”>

„Datenkompetenz ist heute gefragter denn je“, lautet das Fazit von Rosaria Silipo, Vice President of Data Science Evanglism bei KNIME. „Viele Unternehmen haben sich zum Ziel gesetzt, stärker „Data-driven“ – also auf Grundlage von Daten – zu agieren.“ Dabei stünden viele Betriebe jedoch oft vor erheblichen Herausforderungen – sei es bei der effizienten Arbeit mit Daten, durch zu wenige Data Scientists oder weil langwierige Datenaufbereitungsprozesse zeitnahe Erkenntnisse auf Basis von Daten unmöglich machten. 

Was ein Data Worker können muss​ Weiterlesen »

Weit entfernt von digitaler Souveränität​

Allgemein

Mit dem künftigen US-Präsidenten Donald Trump gewinnt die Abhängigkeit von US-amerikanischer Digitaltechnik deutlich an Brisanz. Anny Moneymaker / Shutterstock.com Digital souverän ist ein Land, das eigene substanzielle Fähigkeiten in digitalen Schlüsseltechnologien besitzt und selbstbestimmt darüber entscheiden kann, aus welchen Drittländern es digitale Technologien bezieht.   Betrachtet man Deutschland unter diesem Blickwinkel, sieht es laut dem Digitalverband Bitkom nicht gut aus. Schlimmer noch: Die bevorstehende Präsidentschaft von Donald Trump könnte die Situation weiter verschlechtern – und zur Herausforderung für die Digitalisierung werden, warnt der Branchenverband. Die Ergebnisse einer repräsentativen Befragung unter mehr als 600 Unternehmen untermauern die starke Abhängigkeit vom Import digitaler Technologien und Leistungen aus den USA. So sehen sich:   81 Prozent der Unternehmen als „abhängig”,   40 Prozent als „eher abhängig“, und  41 Prozent sogar als „stark abhängig“.   Der Umfrage zufolge importieren insgesamt 87 Prozent der Unternehmen digitale Geräte und Services aus den Vereinigten Staaten, 60 Prozent exportieren digitale Güter und Dienstleistungen dorthin.   Strategiewechsel nach Trump-Sieg nötig  Angesichts des Wahlsiegs von Donald Trump sieht sich nun jeweils die Hälfte der Unternehmen gezwungen, ihre Geschäftsstrategie anzupassen (56 Prozent), beziehungsweise voraussichtlich ihre Lieferketten zu ändern (50 Prozent). Gleichzeitig fordern praktisch alle befragten Unternehmen (95 Prozent), Deutschland müsse sich unabhängiger von den USA machen, berichtet der Bitkom.   Der Frage dabei: Wie soll das gelingen, nachdem es deutschen Unternehmen schon mit Blick auf Chinas politische Dominanz bislang nicht geschafft haben, sich unabhängiger zu machen. Von den Unternehmen sehen sich hier laut der Bitkom-Umfrage nämlich   79 Prozent als „abhängig”,   35 Prozent als „eher abhängig“, und   44 Prozent als „stark abhängig“.   „Wir können uns nicht von USA und China abwenden“, erklärte entsprechend auch Bitkom-Präsident Ralf Wintergerst bei der Vorstellung der Umfrageergebnisse. „Zwar werden die USA einer unserer wichtigsten Partner bleiben, dennoch müssen wir uns ab sofort stärker, resilienter und chancenorientierter aufstellen und technologisch wie wirtschaftlich unabhängiger werden.“  Bitkom Die Brisanz dieser Lage ist enorm, da von den Befragten jedes zweite Unternehmen ohne Digitalimporte kein Jahr überleben könnte. So beziehen jeweils rund drei Viertel Softwareanwendungen oder Cybersicherheitslösungen aus dem Ausland. Digitale Bauteile beziehungsweise Hardware-Komponenten importieren 69 Prozent, bei digitalen Geräten und Maschinen etwa für die Produktion sind es 66 Prozent. Die Hälfte der deutschen Unternehmen bezieht außerdem digitale Dienstleistungen wie etwa die Programmierung von Apps oder die IT-Beratung von außerhalb Deutschlands.  Erste Gegenmaßnahmen ergriffen   Wie die Umfrage ergab, hat die hohe Abhängigkeit bei Digitalimporten ein Großteil der Unternehmen bereits zu Gegenmaßnahmen veranlasst. Jeweils sechs von zehn Unternehmen haben aus diesem Grund ihre Lieferanten diversifiziert, beziehungsweise aufgrund politischer Entwicklungen Geschäftsbeziehungen in bestimmte Länder stark reduziert. Als weitere Maßnahmen haben 42 Prozent ihre Lagerbestände vergrößert und fast jedes dritte Unternehmen (27 Prozent) hat ein spezielles Risikomanagement implementiert. Die Hälfte gibt dennoch an, faktisch keine “Abwehrmöglichkeit” zu haben, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden.   Dass die Lieferkette in Bewegung geraten ist, wenn auch nicht stark, zeigt auch ein Vergleich mit den Vorjahresergebnissen. Wurde 2024 noch die USA als wichtigstes Herkunftsland für digitale Technologien und Leistungen genannt, ist nun die EU ohne Großbritannien an die erste Stelle gerückt – wenn auch nur mit minimalem Vorsprung.  „Die deutsche Wirtschaft braucht starke, vertrauenswürdige Partner für die digitale Transformation. Gleichzeitig müssen wir digital unabhängiger werden, um nicht erpressbar zu sein“, betont Bitkom-Sprecher Wintergerst. Bei Schlüsseltechnologien sei die Abhängig derzeit besonders groß. So sähen 83 Prozent Deutschland stark, beziehungsweise eher abhängig von Halbleiter-Importen, 69 Prozent bei IoT-Komponenten sowie 67 Prozent bei Künstlicher Intelligenz.  Steigerung der Wettbewerbsfähigkeit nötig  Das Gesamtzeugnis für die digitale Souveränität Deutschlands fällt entsprechend schlecht aus. Laut Umfrage sehen aktuell 91 Prozent der Unternehmen Deutschland stark abhängig (36 Prozent) beziehungsweise eher abhängig (55 Prozent) von digitalen Technologien und Leistungen aus dem Ausland.   Sechs von zehn Unternehmen rechnen dabei eher mit einer Zunahme der Abhängigkeit, während nur eine Minderheit von sieben Prozent davon ausgeht, dass sich diese Abhängigkeit in fünf Jahren verringert haben wird.   Der Bitkom ist nicht ganz so pessimistisch. „Es ist Bewegung da, aber es wird Zeit brauchen, erklärte Wintergerst. Der Bitkom-Sprecher sieht hier die kommende Bundesregierung in der Pflicht, entsprechende Maßnahmen zu mehr digitaler Souveränität anzustoßen, beziehungsweise zu unterstützen. Wichtig sei vor allem, dass Deutschland seine Fähigkeiten in digitalen Schlüsseltechnologien gezielt weiterentwickle und in einigen kritischen Bereichen wie der Mikroelektronik, der IT- und Cyber-Sicherheit, der KI, dem Industrial Metaverse und dem Quantum Computing eine weltweite Technologieführerschaft erlange, so Wintergerst: „Es geht nicht um technologische Autarkie, sondern um die Möglichkeit zu selbstbestimmten Entscheidungen in der digitalen Welt.“  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1O9FL7IUYzdvytlYUe7UcG?utm_source=oembed”> 

Weit entfernt von digitaler Souveränität​ Mit dem künftigen US-Präsidenten Donald Trump gewinnt die Abhängigkeit von US-amerikanischer Digitaltechnik deutlich an Brisanz. Anny Moneymaker / Shutterstock.com

Digital souverän ist ein Land, das eigene substanzielle Fähigkeiten in digitalen Schlüsseltechnologien besitzt und selbstbestimmt darüber entscheiden kann, aus welchen Drittländern es digitale Technologien bezieht.  

Betrachtet man Deutschland unter diesem Blickwinkel, sieht es laut dem Digitalverband Bitkom nicht gut aus. Schlimmer noch: Die bevorstehende Präsidentschaft von Donald Trump könnte die Situation weiter verschlechtern – und zur Herausforderung für die Digitalisierung werden, warnt der Branchenverband. Die Ergebnisse einer repräsentativen Befragung unter mehr als 600 Unternehmen untermauern die starke Abhängigkeit vom Import digitaler Technologien und Leistungen aus den USA. So sehen sich:  

81 Prozent der Unternehmen als „abhängig”,  

40 Prozent als „eher abhängig“, und 

41 Prozent sogar als „stark abhängig“.  

Der Umfrage zufolge importieren insgesamt 87 Prozent der Unternehmen digitale Geräte und Services aus den Vereinigten Staaten, 60 Prozent exportieren digitale Güter und Dienstleistungen dorthin.  

Strategiewechsel nach Trump-Sieg nötig 

Angesichts des Wahlsiegs von Donald Trump sieht sich nun jeweils die Hälfte der Unternehmen gezwungen, ihre Geschäftsstrategie anzupassen (56 Prozent), beziehungsweise voraussichtlich ihre Lieferketten zu ändern (50 Prozent). Gleichzeitig fordern praktisch alle befragten Unternehmen (95 Prozent), Deutschland müsse sich unabhängiger von den USA machen, berichtet der Bitkom.  

Der Frage dabei: Wie soll das gelingen, nachdem es deutschen Unternehmen schon mit Blick auf Chinas politische Dominanz bislang nicht geschafft haben, sich unabhängiger zu machen. Von den Unternehmen sehen sich hier laut der Bitkom-Umfrage nämlich  

79 Prozent als „abhängig”,  

35 Prozent als „eher abhängig“, und  

44 Prozent als „stark abhängig“.  

„Wir können uns nicht von USA und China abwenden“, erklärte entsprechend auch Bitkom-Präsident Ralf Wintergerst bei der Vorstellung der Umfrageergebnisse. „Zwar werden die USA einer unserer wichtigsten Partner bleiben, dennoch müssen wir uns ab sofort stärker, resilienter und chancenorientierter aufstellen und technologisch wie wirtschaftlich unabhängiger werden.“ 

Bitkom

Die Brisanz dieser Lage ist enorm, da von den Befragten jedes zweite Unternehmen ohne Digitalimporte kein Jahr überleben könnte. So beziehen jeweils rund drei Viertel Softwareanwendungen oder Cybersicherheitslösungen aus dem Ausland. Digitale Bauteile beziehungsweise Hardware-Komponenten importieren 69 Prozent, bei digitalen Geräten und Maschinen etwa für die Produktion sind es 66 Prozent. Die Hälfte der deutschen Unternehmen bezieht außerdem digitale Dienstleistungen wie etwa die Programmierung von Apps oder die IT-Beratung von außerhalb Deutschlands. 

Erste Gegenmaßnahmen ergriffen  

Wie die Umfrage ergab, hat die hohe Abhängigkeit bei Digitalimporten ein Großteil der Unternehmen bereits zu Gegenmaßnahmen veranlasst. Jeweils sechs von zehn Unternehmen haben aus diesem Grund ihre Lieferanten diversifiziert, beziehungsweise aufgrund politischer Entwicklungen Geschäftsbeziehungen in bestimmte Länder stark reduziert. Als weitere Maßnahmen haben 42 Prozent ihre Lagerbestände vergrößert und fast jedes dritte Unternehmen (27 Prozent) hat ein spezielles Risikomanagement implementiert. Die Hälfte gibt dennoch an, faktisch keine “Abwehrmöglichkeit” zu haben, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden.  

Dass die Lieferkette in Bewegung geraten ist, wenn auch nicht stark, zeigt auch ein Vergleich mit den Vorjahresergebnissen. Wurde 2024 noch die USA als wichtigstes Herkunftsland für digitale Technologien und Leistungen genannt, ist nun die EU ohne Großbritannien an die erste Stelle gerückt – wenn auch nur mit minimalem Vorsprung. 

„Die deutsche Wirtschaft braucht starke, vertrauenswürdige Partner für die digitale Transformation. Gleichzeitig müssen wir digital unabhängiger werden, um nicht erpressbar zu sein“, betont Bitkom-Sprecher Wintergerst. Bei Schlüsseltechnologien sei die Abhängig derzeit besonders groß. So sähen 83 Prozent Deutschland stark, beziehungsweise eher abhängig von Halbleiter-Importen, 69 Prozent bei IoT-Komponenten sowie 67 Prozent bei Künstlicher Intelligenz. 

Steigerung der Wettbewerbsfähigkeit nötig 

Das Gesamtzeugnis für die digitale Souveränität Deutschlands fällt entsprechend schlecht aus. Laut Umfrage sehen aktuell 91 Prozent der Unternehmen Deutschland stark abhängig (36 Prozent) beziehungsweise eher abhängig (55 Prozent) von digitalen Technologien und Leistungen aus dem Ausland.  

Sechs von zehn Unternehmen rechnen dabei eher mit einer Zunahme der Abhängigkeit, während nur eine Minderheit von sieben Prozent davon ausgeht, dass sich diese Abhängigkeit in fünf Jahren verringert haben wird.  

Der Bitkom ist nicht ganz so pessimistisch. „Es ist Bewegung da, aber es wird Zeit brauchen, erklärte Wintergerst. Der Bitkom-Sprecher sieht hier die kommende Bundesregierung in der Pflicht, entsprechende Maßnahmen zu mehr digitaler Souveränität anzustoßen, beziehungsweise zu unterstützen. Wichtig sei vor allem, dass Deutschland seine Fähigkeiten in digitalen Schlüsseltechnologien gezielt weiterentwickle und in einigen kritischen Bereichen wie der Mikroelektronik, der IT- und Cyber-Sicherheit, der KI, dem Industrial Metaverse und dem Quantum Computing eine weltweite Technologieführerschaft erlange, so Wintergerst: „Es geht nicht um technologische Autarkie, sondern um die Möglichkeit zu selbstbestimmten Entscheidungen in der digitalen Welt.“ 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1O9FL7IUYzdvytlYUe7UcG?utm_source=oembed”>

Weit entfernt von digitaler Souveränität​ Weiterlesen »

Den Cloud-Anbietern gehen die Innovationen aus​

Allgemein

“Sagt Bescheid, wenn es was Neues gibt…”DC Studio | shutterstock.com Erinnern Sie sich noch an die die glorreichen Cloud-Computing-Zeiten, als die Anbieter quasi im Quartalstakt bahnbrechende Innovationen auf den Markt brachten? Zum Beispiel: hat Infrastructure as a Service (IaaS) drastisch verändert, wie wir mit Computerressourcen umgehen; konnte Serverless Computing ganze Prozess-Overhead-Kategorien eliminieren;  hat Container-Orchestrierung die Anwendungsarchitektur transformiert. Die aktuelle Lage sieht laut aktuellen Forschungsergebnissen von Gartner weit weniger rosig aus. Demnach zahlen sich Investitionen in innovative Funktionen für die Cloud-Anbieter immer weniger aus. Und während die Cloud-Kosten weiter ansteigen, hat sich das Tempo, in dem innovative, neue Services bereitgestellt werden, drastisch verlangsamt. Die “Innovation Wall” ist real Blendet man den KI-Hype einmal aus, handelt es sich bei den letzten Ankündigungen von Events wie re:Invent (AWS), Ignite (Microsoft) oder Cloud Next (Google) in erster Linie um inkrementelle Verbesserungen: bessere VM-Performance, kleinere Serverless-Optimierungen und einen Hauch mehr Effizienz in Sachen Container Management. Evolution statt Revolution eben. Klar, jeder Cloud-Provider ist inzwischen eine „AI Company“. Wenn wir mal ehrlich sind, modeln die Cloud-Anbieter in diesem Bereich eher die Innovationen anderer zu eigenen Services um. Insofern entwickeln sie sich momentan eher zu KI-Implementierungsplattformen als zu KI-Innovatoren. Die Ursachen für den Innovations-Slowdown sind klar: Die Marktreife deutet darauf hin, dass die grundlegenden Probleme im Cloud-Computing in weiten Teilen gelöst sind. Was bleibt, sind zunehmend spezialisierte Nischenfälle. AWS, Azure und Google Cloud sind keine disruptiven Kräfte mehr – sie verteidigen Marktanteile. Deswegen hat sich ihr Fokus auch von Innovation auf Optimierung und Kundenbindung verlagert. Auf die Anwenderunternehmen hat die Abkehr von der Innovation tiefgreifende Auswirkungen. Viele Organisationen setzen bei ihrer digitalen Transformation auf Cloud-Native-Architekturen – und Continuous Innovation. Das Kosten-Nutzen-Verhältnissen von Cloud Services verschlechtert sich entsprechend. Wenn alle Anwender auf dieselben standardisierten Dienste zugreifen, dürfte es mit dem Wettbewerbsvorteil schwierig werden. Wie Unternehmen reagieren können Anstatt darauf zu warten, dass die Hyperscaler ihre Probleme lösen, tun Unternehmen deswegen gut daran, ihre Strategien entsprechend anzupassen und intern eigene Innovationen zu entwickeln. Das gewährleistet (in der Regel) auch, dass die Geschäftsergebnisse im Fokus stehen – und nicht die neuesten Funktionen. Darüber hinaus können Anwender jedoch auch Druck auf ihre Anbieter ausüben, indem sie die Innovationskraft zum Schlüsselfaktor bei Vertragsverhandlungen und -verlängerungen machen. Mit Blick auf 2025 und darüber hinaus werden die Gewinner nicht diejenigen sein, die einfach nur blind die neuesten Cloud-Features übernehmen. Stattdessen werden die Unternehmen erfolgreich sein, die es verstehen, Cloud-Services, interne Innovationen sowie kluge strategische Entscheidungen richtig miteinander zu kombinieren – und so echten Mehrwert schaffen. Und was die Anbieter angeht: Die wären gut damit beraten, die Milliarden, die sie von ihren Kunden kassieren, in ihre Innovationskraft zu reinvestieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Den Cloud-Anbietern gehen die Innovationen aus​ “Sagt Bescheid, wenn es was Neues gibt…”DC Studio | shutterstock.com

Erinnern Sie sich noch an die die glorreichen Cloud-Computing-Zeiten, als die Anbieter quasi im Quartalstakt bahnbrechende Innovationen auf den Markt brachten? Zum Beispiel:

hat Infrastructure as a Service (IaaS) drastisch verändert, wie wir mit Computerressourcen umgehen;

konnte Serverless Computing ganze Prozess-Overhead-Kategorien eliminieren; 

hat Container-Orchestrierung die Anwendungsarchitektur transformiert.

Die aktuelle Lage sieht laut aktuellen Forschungsergebnissen von Gartner weit weniger rosig aus. Demnach zahlen sich Investitionen in innovative Funktionen für die Cloud-Anbieter immer weniger aus. Und während die Cloud-Kosten weiter ansteigen, hat sich das Tempo, in dem innovative, neue Services bereitgestellt werden, drastisch verlangsamt.

Die “Innovation Wall” ist real

Blendet man den KI-Hype einmal aus, handelt es sich bei den letzten Ankündigungen von Events wie re:Invent (AWS), Ignite (Microsoft) oder Cloud Next (Google) in erster Linie um inkrementelle Verbesserungen: bessere VM-Performance, kleinere Serverless-Optimierungen und einen Hauch mehr Effizienz in Sachen Container Management. Evolution statt Revolution eben.

Klar, jeder Cloud-Provider ist inzwischen eine „AI Company“. Wenn wir mal ehrlich sind, modeln die Cloud-Anbieter in diesem Bereich eher die Innovationen anderer zu eigenen Services um. Insofern entwickeln sie sich momentan eher zu KI-Implementierungsplattformen als zu KI-Innovatoren.

Die Ursachen für den Innovations-Slowdown sind klar:

Die Marktreife deutet darauf hin, dass die grundlegenden Probleme im Cloud-Computing in weiten Teilen gelöst sind. Was bleibt, sind zunehmend spezialisierte Nischenfälle.

AWS, Azure und Google Cloud sind keine disruptiven Kräfte mehr – sie verteidigen Marktanteile. Deswegen hat sich ihr Fokus auch von Innovation auf Optimierung und Kundenbindung verlagert.

Auf die Anwenderunternehmen hat die Abkehr von der Innovation tiefgreifende Auswirkungen. Viele Organisationen setzen bei ihrer digitalen Transformation auf Cloud-Native-Architekturen – und Continuous Innovation. Das Kosten-Nutzen-Verhältnissen von Cloud Services verschlechtert sich entsprechend. Wenn alle Anwender auf dieselben standardisierten Dienste zugreifen, dürfte es mit dem Wettbewerbsvorteil schwierig werden.

Wie Unternehmen reagieren können

Anstatt darauf zu warten, dass die Hyperscaler ihre Probleme lösen, tun Unternehmen deswegen gut daran, ihre Strategien entsprechend anzupassen und intern eigene Innovationen zu entwickeln. Das gewährleistet (in der Regel) auch, dass die Geschäftsergebnisse im Fokus stehen – und nicht die neuesten Funktionen. Darüber hinaus können Anwender jedoch auch Druck auf ihre Anbieter ausüben, indem sie die Innovationskraft zum Schlüsselfaktor bei Vertragsverhandlungen und -verlängerungen machen.

Mit Blick auf 2025 und darüber hinaus werden die Gewinner nicht diejenigen sein, die einfach nur blind die neuesten Cloud-Features übernehmen. Stattdessen werden die Unternehmen erfolgreich sein, die es verstehen, Cloud-Services, interne Innovationen sowie kluge strategische Entscheidungen richtig miteinander zu kombinieren – und so echten Mehrwert schaffen.

Und was die Anbieter angeht: Die wären gut damit beraten, die Milliarden, die sie von ihren Kunden kassieren, in ihre Innovationskraft zu reinvestieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Den Cloud-Anbietern gehen die Innovationen aus​ Weiterlesen »

IT-Infrastruktur: Vor AIOps kommt die Inventur​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bevor man seine IT-Landschaft mit AIOps modern aufbauen will, muss man erst einmal Ordnung in seinen IT-Systemen schaffen.ezhenaphoto – shutterstock.com Bei kaum einem Thema spielt das digitale Erbe (neudeutsch “Legacy”) eine so wichtige Rolle wie bei der Infrastruktur. Das Ergebnis der Inventur im eigenen Rechenzentrum ist entscheidend bei der Beantwortung der Frage, welche Technologien überhaupt mittelfristig eingesetzt werden können. Das dadurch gewonnene Bewusstsein führt nicht selten zu einer “Erdung”, auch im Management:  Wer zum Beispiel gerne sehr laut von KI spricht, wird nach einem Blick auf die eigene vorhandene IT-Infrastruktur schnell auch wieder ganz leise. Künstliche Intelligenz im Infrastruktur-Kontext, das ist vor allem AIOps (Artificial Intelligence for IT Operations). Der Begriff bezeichnet insbesondere den Einsatz von KI- und Machine-Learning-Methoden für die Optimierung des IT-Betriebs. IT-Prozesse können damit leichter automatisiert werden und es wird leichter, Anomalien zu erkennen und proaktiv Probleme in IT-Infrastrukturen zu lösen, lautet das Versprechen der Technik. AIOps ermöglicht insgesamt eine effizientere Überwachung und Verwaltung komplexer Systeme, reduziert manuelle Eingriffe und verbessert die Reaktionszeiten. Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’ Es ist ein Paradox der IT-Infrastruktur, dass – anders als Startups, die einfach auf der grünen Wiese starten können – gerade die großen Unternehmen es schwerer haben bei der Modernisierung und Optimierung, wie Marc Schmidt von Avodaq weiß. Der Grund liegt für ihn auch im “Bare Metal”: “Gerade eine hardware-lastige Infrastruktur stellt Unternehmen vor viele Herausforderungen. Um Zukunftsthemen wie AI und Observability überhaupt erschließen zu können, benötigen sie erst einmal moderne Architekturen und Datenmanagementplattformen. Nur so können Unternehmen die enormen Datenmassen überhaupt verwalten.” Technologie erklärt: DevOps-Fachjargon für Business-Entscheider Bevor solche über viele Jahre hinweg gewachsene Infrastrukturen “AI-ready” sind, müssen also einige Herausforderungen gemeistert werden. Solche IT-Landschaften sind oft heterogen und bestehen meist aus einem nicht gerade übersichtlichen Mix aus veralteten und modernen Komponenten, deren Integration schwierig sein kann. Ein typisches Beispiel dafür ist die Kombination aus einem Mainframe für geschäftskritische Anwendungen und zusätzlichen Cloud-basierten Microservices, in denen neuere Applikationen betrieben werden. Der Mainframe, oft Jahrzehnte alt, läuft stabil und zuverlässig, verwendet aber proprietäre Technologien und Formate, die schwer in moderne Daten- und Kommunikationsprotokolle zu integrieren sind. Gleichzeitig erfordern die Microservices schnelle Skalierung, containerisierte Umgebungen wie Docker oder Kubernetes und die Integration über APIs. Die beiden Welten haben unterschiedliche Anforderungen an Monitoring, Logging und Datenanalyse, was die Implementierung von AIOps erschwert. Ein AIOps-System muss also in der Lage sein, Daten aus beiden Umgebungen zu aggregieren, zu analysieren und übergreifend intelligente Entscheidungen zu treffen. Dafür fehlt es jedoch derzeit an standardisierten Dateiformaten, was die Konsolidierung und Analyse von Betriebsdaten erschwert. Dazu kommt ein häufig vorherrschender Mangel an klarer Dokumentation und tiefem Verständnis für die bestehende Architektur. “Meist werden nur Teile der Infrastruktur in die Cloud verlagert”, stellt Dr. Kolja Henckel von Storm Reply fest. “Diese Aufgaben werden oft von Teams übernommen, die auch für den laufenden Betrieb zuständig sind. Dazu muss im Unternehmen Wissen über ‘Infrastructure as Code’ aufgebaut werden. Dieser Ansatz ermöglicht eine schnellere Bereitstellung und Wartung von Servern. Ziel ist es, durch die dadurch entstehende Automatisierung, mit den gleichen Teams mehr zu erreichen.” Studie “IT-Infrastruktur-Optimierung 2025”: Sie können sich noch beteiligen!Zum Thema IT-Infrastruktur-Optimierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Keine Modernisierung “auf Knopfdruck” Den Weg in die automatisierte Infrastruktur verhindern allerdings oft organisatorische Widerstände und fehlende Fachkenntnisse. Laut Henckel erschweren die Altersstruktur im Admin-Bereich und eine mangelnde Dokumentation die Modernisierung zusätzlich. Oft fehle der Überblick über die Server und deren Funktionen, was den Betrieb risikobehaftet macht. Eine Modernisierung lässt sich also nicht so einfach auf Knopfdruck starten. Dazu braucht es laut Tobias Bergs von EY fast immer einen konkreten Grund: “Optimierungen der IT Infrastruktur werden zumeist nur dann durchgeführt, wenn es einen Anreiz oder einen Trigger gibt. Das können beispielsweise Probleme mit der Stabilität im IT-Betrieb sein oder Potentiale, Kosten zu sparen. Nur wenn solche Themen ersichtlich sind, denken Entscheidungsträger über die flächendeckende Einführung von AIOps und Co. nach.” Die wunderbare KI-Zukunft der Netzwerke Eine sorgfältige Planung und schrittweise Implementierung sind daher essenziell, um diese Schwierigkeiten zu überwinden. Bergs beobachtet deswegen vor allem die schrittweise Einführung in dezentralen Einzelprojekten, um die Gesamtorganisation nicht zu überfordern.  “Eine gute Datenbasis ist eine zwingende Voraussetzung für die Einführung von AIOps-Lösungen. Dazu sehen viele Firmen große Herausforderungen im Prozess der Einführung. Deswegen führen viele Firmen AIOps aktuell eher als Insellösungen ein beziehungsweise pilotieren den Einsatz von AIOps. Damit wollen Sie Erfahrungen sammeln und die Grundlagen für eine flächendeckende Einführung schaffen.” AIOps kann Fingerpointing beenden Auch wenn die Vorteile klar sind, braucht es intern auch die richtige Story, um eine Einführung anzustoßen. Benedikt Ernst von der IBM-Tochter Kyndryl sieht vor allem in der finanziellen Dimension ein gewisses “Schockpotenzial”, das idealerweise im Vorfeld antizipiert wird: “Die Argumentation der Kosten ist entscheidend, weil die Einführung von AIOps natürlich erst einmal eine Investition ist. Organisationen müssen sich die Frage stellen: Wie schnell wird ein Problem heute erkannt und gelöst? Und wie wirkt sich eine beschleunigte Lösung auf Betriebskosten und Ausfallzeiten aus?” AIOps: Wundermittel für den IT-Betrieb? Außerdem werde ein weiterer Aspekt seiner Meinung nach zu selten berücksichtigt: “Eine Einführung von AIOps legt schließlich auch Potenziale auf der Mitarbeiterseite frei. Je weniger manuelle Eingriffe in der Infrastruktur nötig sind, desto mehr können Mitarbeiter den Fokus auf Dinge legen, die wirklich ihr Handeln erfordern. Aus diesem Grund sehe ich die Nutzung von offenen Integrationsplattformen als hilfreich, um Automatisierung sowie AIOps über unterschiedliche Plattformen hinweg nutzbar zu machen.” Henckel von Storm Reply sieht in AIOps sogar ein Instrument für mehr Harmonie: “Die Einführung von AIOps bedeutet auch das Ende des Fingerpointings zwischen den Abteilungen. Bei all den unterschiedlichen Fehlerquellen – Datenbank, Server, Betriebssystem – war es früher schwierig, die Fehlerursache genau zu lokalisieren. AIOps sorgt hier für eine detaillierte Analyse über alle Bereiche hinweg und bringt mehr Harmonie in die Evaluation der Infrastruktur.” Insgesamt konstatieren die Experten einen stark variierenden Reifegrad bei der Implementierung von AIOps. Insbesondere mit Blick auf “natürlich” gewachsene IT-Landschaften sollte man genau planen und vor allem nicht die Grundlagen vernachlässigen, um überhaupt erst die nötige Datenbasis zu schaffen. Am effektivsten wirkt ein klar definierter Trigger, der der Entscheidungsebene den Handlungsdruck signalisiert. Statt eines “Big Bang”-Ansatzes ist es besser, AIOps gezielt in Bereichen einzuführen, in denen akuter Bedarf besteht, um schnell sichtbare Effekte zu erzielen und erste Vorteile zu generieren, etwa durch effizientere und sicherere Prozesse. Das alles hilft nicht nur, interne Akzeptanz aufzubauen, sondern erleichtert auch die Unterstützung der Führungsebene. Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’ Teilnehmer Roundtable “IT-Infrastruktur-Optimierung 2025” Marc Schmidt, avodaq:  ”Unternehmen wünschen sich oft schnellere Lösungen, was in einer gewachsenen Infrastruktur nicht ohne weiteres möglich ist. Die Skalierbarkeit und Transformierbarkeit von Lösungen hat leider Grenzen, auch organisatorisch.” Christoph Niemann | Businessportraits Hamburg / avodaq AG Tobias Bergs, EY: “Bei der Digitalisierung haben viele Firmen in den vergangenen Jahren einen starken Fokus auf das Einfügen neuer Funktionalitäten gelegt. Aktuell sehen einige unserer Kunden einen steigenden Bedarf, zusätzlich einen Fokus auf das Thema Stabilität und Betrieb zu legen, damit die durch die Digitalisierung steigende Komplexität der Umgebungen nicht zu Problemen im Betrieb führt.” Haroc Marcard / EY GmbH & Co. KG Benedikt Ernst, Kyndryl: “Ich würde die Diskussion gerne ein Level höher ansetzen. Es geht nicht nur um die Automatisierung der Infrastruktur sondern auch um die Orchestrierung über den gesamten Lifecycle hinweg.” Franka Beutner Fotografie / Kyndryl Deutschland GmbH Dr. Kolja Henckel, Storm Reply: “Ein entscheidender Punkt ist die Integration von Monitoring-Tools an der richtigen Stelle. Sind sie im Logging-Bereich angesiedelt, stellt sich die Frage, wie sie in ältere ITSM-Systeme integriert werden können. APIs sind hier unerlässlich, um eine vollständige Abdeckung zu gewährleisten, da sonst die Hälfte der Incidents nicht erfasst wird.” Storm Reply GmbH 

IT-Infrastruktur: Vor AIOps kommt die Inventur​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bevor man seine IT-Landschaft mit AIOps modern aufbauen will, muss man erst einmal Ordnung in seinen IT-Systemen schaffen.ezhenaphoto – shutterstock.com

Bei kaum einem Thema spielt das digitale Erbe (neudeutsch “Legacy”) eine so wichtige Rolle wie bei der Infrastruktur. Das Ergebnis der Inventur im eigenen Rechenzentrum ist entscheidend bei der Beantwortung der Frage, welche Technologien überhaupt mittelfristig eingesetzt werden können. Das dadurch gewonnene Bewusstsein führt nicht selten zu einer “Erdung”, auch im Management:  Wer zum Beispiel gerne sehr laut von KI spricht, wird nach einem Blick auf die eigene vorhandene IT-Infrastruktur schnell auch wieder ganz leise.

Künstliche Intelligenz im Infrastruktur-Kontext, das ist vor allem AIOps (Artificial Intelligence for IT Operations). Der Begriff bezeichnet insbesondere den Einsatz von KI- und Machine-Learning-Methoden für die Optimierung des IT-Betriebs. IT-Prozesse können damit leichter automatisiert werden und es wird leichter, Anomalien zu erkennen und proaktiv Probleme in IT-Infrastrukturen zu lösen, lautet das Versprechen der Technik. AIOps ermöglicht insgesamt eine effizientere Überwachung und Verwaltung komplexer Systeme, reduziert manuelle Eingriffe und verbessert die Reaktionszeiten.

Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’

Es ist ein Paradox der IT-Infrastruktur, dass – anders als Startups, die einfach auf der grünen Wiese starten können – gerade die großen Unternehmen es schwerer haben bei der Modernisierung und Optimierung, wie Marc Schmidt von Avodaq weiß. Der Grund liegt für ihn auch im “Bare Metal”: “Gerade eine hardware-lastige Infrastruktur stellt Unternehmen vor viele Herausforderungen. Um Zukunftsthemen wie AI und Observability überhaupt erschließen zu können, benötigen sie erst einmal moderne Architekturen und Datenmanagementplattformen. Nur so können Unternehmen die enormen Datenmassen überhaupt verwalten.”

Technologie erklärt: DevOps-Fachjargon für Business-Entscheider

Bevor solche über viele Jahre hinweg gewachsene Infrastrukturen “AI-ready” sind, müssen also einige Herausforderungen gemeistert werden. Solche IT-Landschaften sind oft heterogen und bestehen meist aus einem nicht gerade übersichtlichen Mix aus veralteten und modernen Komponenten, deren Integration schwierig sein kann.

Ein typisches Beispiel dafür ist die Kombination aus einem Mainframe für geschäftskritische Anwendungen und zusätzlichen Cloud-basierten Microservices, in denen neuere Applikationen betrieben werden. Der Mainframe, oft Jahrzehnte alt, läuft stabil und zuverlässig, verwendet aber proprietäre Technologien und Formate, die schwer in moderne Daten- und Kommunikationsprotokolle zu integrieren sind. Gleichzeitig erfordern die Microservices schnelle Skalierung, containerisierte Umgebungen wie Docker oder Kubernetes und die Integration über APIs. Die beiden Welten haben unterschiedliche Anforderungen an Monitoring, Logging und Datenanalyse, was die Implementierung von AIOps erschwert. Ein AIOps-System muss also in der Lage sein, Daten aus beiden Umgebungen zu aggregieren, zu analysieren und übergreifend intelligente Entscheidungen zu treffen.

Dafür fehlt es jedoch derzeit an standardisierten Dateiformaten, was die Konsolidierung und Analyse von Betriebsdaten erschwert. Dazu kommt ein häufig vorherrschender Mangel an klarer Dokumentation und tiefem Verständnis für die bestehende Architektur.

“Meist werden nur Teile der Infrastruktur in die Cloud verlagert”, stellt Dr. Kolja Henckel von Storm Reply fest. “Diese Aufgaben werden oft von Teams übernommen, die auch für den laufenden Betrieb zuständig sind. Dazu muss im Unternehmen Wissen über ‘Infrastructure as Code’ aufgebaut werden. Dieser Ansatz ermöglicht eine schnellere Bereitstellung und Wartung von Servern. Ziel ist es, durch die dadurch entstehende Automatisierung, mit den gleichen Teams mehr zu erreichen.”

Studie “IT-Infrastruktur-Optimierung 2025”: Sie können sich noch beteiligen!Zum Thema IT-Infrastruktur-Optimierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Keine Modernisierung “auf Knopfdruck”

Den Weg in die automatisierte Infrastruktur verhindern allerdings oft organisatorische Widerstände und fehlende Fachkenntnisse. Laut Henckel erschweren die Altersstruktur im Admin-Bereich und eine mangelnde Dokumentation die Modernisierung zusätzlich. Oft fehle der Überblick über die Server und deren Funktionen, was den Betrieb risikobehaftet macht.

Eine Modernisierung lässt sich also nicht so einfach auf Knopfdruck starten. Dazu braucht es laut Tobias Bergs von EY fast immer einen konkreten Grund: “Optimierungen der IT Infrastruktur werden zumeist nur dann durchgeführt, wenn es einen Anreiz oder einen Trigger gibt. Das können beispielsweise Probleme mit der Stabilität im IT-Betrieb sein oder Potentiale, Kosten zu sparen. Nur wenn solche Themen ersichtlich sind, denken Entscheidungsträger über die flächendeckende Einführung von AIOps und Co. nach.”

Die wunderbare KI-Zukunft der Netzwerke

Eine sorgfältige Planung und schrittweise Implementierung sind daher essenziell, um diese Schwierigkeiten zu überwinden. Bergs beobachtet deswegen vor allem die schrittweise Einführung in dezentralen Einzelprojekten, um die Gesamtorganisation nicht zu überfordern. 

“Eine gute Datenbasis ist eine zwingende Voraussetzung für die Einführung von AIOps-Lösungen. Dazu sehen viele Firmen große Herausforderungen im Prozess der Einführung. Deswegen führen viele Firmen AIOps aktuell eher als Insellösungen ein beziehungsweise pilotieren den Einsatz von AIOps. Damit wollen Sie Erfahrungen sammeln und die Grundlagen für eine flächendeckende Einführung schaffen.”

AIOps kann Fingerpointing beenden

Auch wenn die Vorteile klar sind, braucht es intern auch die richtige Story, um eine Einführung anzustoßen. Benedikt Ernst von der IBM-Tochter Kyndryl sieht vor allem in der finanziellen Dimension ein gewisses “Schockpotenzial”, das idealerweise im Vorfeld antizipiert wird: “Die Argumentation der Kosten ist entscheidend, weil die Einführung von AIOps natürlich erst einmal eine Investition ist. Organisationen müssen sich die Frage stellen: Wie schnell wird ein Problem heute erkannt und gelöst? Und wie wirkt sich eine beschleunigte Lösung auf Betriebskosten und Ausfallzeiten aus?”

AIOps: Wundermittel für den IT-Betrieb?

Außerdem werde ein weiterer Aspekt seiner Meinung nach zu selten berücksichtigt: “Eine Einführung von AIOps legt schließlich auch Potenziale auf der Mitarbeiterseite frei. Je weniger manuelle Eingriffe in der Infrastruktur nötig sind, desto mehr können Mitarbeiter den Fokus auf Dinge legen, die wirklich ihr Handeln erfordern. Aus diesem Grund sehe ich die Nutzung von offenen Integrationsplattformen als hilfreich, um Automatisierung sowie AIOps über unterschiedliche Plattformen hinweg nutzbar zu machen.”

Henckel von Storm Reply sieht in AIOps sogar ein Instrument für mehr Harmonie: “Die Einführung von AIOps bedeutet auch das Ende des Fingerpointings zwischen den Abteilungen. Bei all den unterschiedlichen Fehlerquellen – Datenbank, Server, Betriebssystem – war es früher schwierig, die Fehlerursache genau zu lokalisieren. AIOps sorgt hier für eine detaillierte Analyse über alle Bereiche hinweg und bringt mehr Harmonie in die Evaluation der Infrastruktur.”

Insgesamt konstatieren die Experten einen stark variierenden Reifegrad bei der Implementierung von AIOps. Insbesondere mit Blick auf “natürlich” gewachsene IT-Landschaften sollte man genau planen und vor allem nicht die Grundlagen vernachlässigen, um überhaupt erst die nötige Datenbasis zu schaffen. Am effektivsten wirkt ein klar definierter Trigger, der der Entscheidungsebene den Handlungsdruck signalisiert. Statt eines “Big Bang”-Ansatzes ist es besser, AIOps gezielt in Bereichen einzuführen, in denen akuter Bedarf besteht, um schnell sichtbare Effekte zu erzielen und erste Vorteile zu generieren, etwa durch effizientere und sicherere Prozesse. Das alles hilft nicht nur, interne Akzeptanz aufzubauen, sondern erleichtert auch die Unterstützung der Führungsebene.

Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’

Teilnehmer Roundtable “IT-Infrastruktur-Optimierung 2025”

Marc Schmidt, avodaq: 
”Unternehmen wünschen sich oft schnellere Lösungen, was in einer gewachsenen Infrastruktur nicht ohne weiteres möglich ist. Die Skalierbarkeit und Transformierbarkeit von Lösungen hat leider Grenzen, auch organisatorisch.”
Christoph Niemann | Businessportraits Hamburg / avodaq AG

Tobias Bergs, EY:
“Bei der Digitalisierung haben viele Firmen in den vergangenen Jahren einen starken Fokus auf das Einfügen neuer Funktionalitäten gelegt. Aktuell sehen einige unserer Kunden einen steigenden Bedarf, zusätzlich einen Fokus auf das Thema Stabilität und Betrieb zu legen, damit die durch die Digitalisierung steigende Komplexität der Umgebungen nicht zu Problemen im Betrieb führt.”
Haroc Marcard / EY GmbH & Co. KG

Benedikt Ernst, Kyndryl:
“Ich würde die Diskussion gerne ein Level höher ansetzen. Es geht nicht nur um die Automatisierung der Infrastruktur sondern auch um die Orchestrierung über den gesamten Lifecycle hinweg.”
Franka Beutner Fotografie / Kyndryl Deutschland GmbH

Dr. Kolja Henckel, Storm Reply:
“Ein entscheidender Punkt ist die Integration von Monitoring-Tools an der richtigen Stelle. Sind sie im Logging-Bereich angesiedelt, stellt sich die Frage, wie sie in ältere ITSM-Systeme integriert werden können. APIs sind hier unerlässlich, um eine vollständige Abdeckung zu gewährleisten, da sonst die Hälfte der Incidents nicht erfasst wird.”
Storm Reply GmbH

IT-Infrastruktur: Vor AIOps kommt die Inventur​ Weiterlesen »

Mercedes und Google bauen strategische Partnerschaft aus​

Allgemein

Google Sundar Pichai, CEO von Google und Alphabet (links) und Thomas Kurian, CEO von Google Cloud (rechts) und Mercedes-Benz (Ola Källenius, CEO der Mercedes-Benz Group (Mitte)) bauen ihre strategische Partnerschaft aus. Mercedes-Benz Im Rahmen einer weiteren Kooperation von Mercedes und Google soll der MBUX Virtual Assistant von Mercedes-Benz neue Gesprächsfunktionen erhalten. Ermöglicht wird das Feature durch den neuen Automotive-AI-Agent von Google Cloud. Der Automotive-AI-Agent von Google Cloud wurde mit Gemini über Vertex AI entwickelt und ist speziell auf die Automobilindustrie abgestimmt. Der Agent kann auf Informationen der Google-Maps-Plattform zugreifen, um Nutzerinnen und Nutzern detaillierte und personalisierte Antworten auf Fragen zur Navigation, zu Sehenswürdigkeiten und mehr zu geben. LLMs fürs Auto Der Agent ermöglicht es Automobilherstellern, die Leistungsfähigkeit generativer KI und großer Sprachmodelle (LLMs) zu nutzen, um maßgeschneiderte, unternehmenseigene Sprachassistenten mit fortschrittlicher KI-Qualität zu entwickeln und einzusetzen. Dank seiner multimodalen Verarbeitungsfähigkeiten sei eine Interaktion in natürlicher Sprache möglich. Mercedes-Benz und Google kooperieren bei KI-gestützter Konversationssuche innerhalb von Navigationssystemen. Mercedes-Benz Dazu stellt Google Maps den Usern Informationen zu 250 Millionen Orten auf der ganzen Welt zur Verfügung. Mit über 100 Millionen Karten-Updates pro Tag werden die Kartendaten dabei nahezu in Echtzeit aktualisiert. Natürliche Kommunikation Mit der verbesserten Such- und Navigationsfunktion können die Nutzerinnen und Nutzer, wie es heißt, sich auf natürliche Weise mit dem MBUX Virtual Assistant unterhalten. So soll das Helferlein künftig Antworten auf Fragen wie „Ich habe Lust auf ein besonderes Restaurant-Erlebnis. Kannst du mich zum nächsten Fine-Dining-Restaurant führen?“ erhalten. Zudem können auch Anschlussfragen gestellt werden, wie zum Beispiel „Hat das Restaurant gute Bewertungen?“ oder „Was ist die Spezialität des Küchenchefs?“. Hierzu soll der Assistent mit präzisen, aktuellen Informationen antworten und Navigationsdetails über die Benutzeroberfläche im Fahrzeug anzeigen. KI erkennt Gesprächsverlauf Ferner erlaube es der KI-Agent, komplexe, mehrteilige Dialoge zu führen und den Gesprächsverlauf zu speichern. Damit können Unterhaltungen unterbrochen werden und später im Verlauf der Fahrt fortgesetzt werden. Laut Mercedes-Benz werden die Funktionen des AI Agents im Laufe des Jahres mit dem MBUX Virtual Assistant im neuen Mercedes-Benz CLA verfügbar sein. 

Mercedes und Google bauen strategische Partnerschaft aus​ Google Sundar Pichai, CEO von Google und Alphabet (links) und Thomas Kurian, CEO von Google Cloud (rechts) und Mercedes-Benz (Ola Källenius, CEO der Mercedes-Benz Group (Mitte)) bauen ihre strategische Partnerschaft aus.
Mercedes-Benz

Im Rahmen einer weiteren Kooperation von Mercedes und Google soll der MBUX Virtual Assistant von Mercedes-Benz neue Gesprächsfunktionen erhalten. Ermöglicht wird das Feature durch den neuen Automotive-AI-Agent von Google Cloud.

Der Automotive-AI-Agent von Google Cloud wurde mit Gemini über Vertex AI entwickelt und ist speziell auf die Automobilindustrie abgestimmt. Der Agent kann auf Informationen der Google-Maps-Plattform zugreifen, um Nutzerinnen und Nutzern detaillierte und personalisierte Antworten auf Fragen zur Navigation, zu Sehenswürdigkeiten und mehr zu geben.

LLMs fürs Auto

Der Agent ermöglicht es Automobilherstellern, die Leistungsfähigkeit generativer KI und großer Sprachmodelle (LLMs) zu nutzen, um maßgeschneiderte, unternehmenseigene Sprachassistenten mit fortschrittlicher KI-Qualität zu entwickeln und einzusetzen. Dank seiner multimodalen Verarbeitungsfähigkeiten sei eine Interaktion in natürlicher Sprache möglich.

Mercedes-Benz und Google kooperieren bei KI-gestützter Konversationssuche innerhalb von Navigationssystemen.
Mercedes-Benz

Dazu stellt Google Maps den Usern Informationen zu 250 Millionen Orten auf der ganzen Welt zur Verfügung. Mit über 100 Millionen Karten-Updates pro Tag werden die Kartendaten dabei nahezu in Echtzeit aktualisiert.

Natürliche Kommunikation

Mit der verbesserten Such- und Navigationsfunktion können die Nutzerinnen und Nutzer, wie es heißt, sich auf natürliche Weise mit dem MBUX Virtual Assistant unterhalten. So soll das Helferlein künftig Antworten auf Fragen wie „Ich habe Lust auf ein besonderes Restaurant-Erlebnis. Kannst du mich zum nächsten Fine-Dining-Restaurant führen?“ erhalten.

Zudem können auch Anschlussfragen gestellt werden, wie zum Beispiel „Hat das Restaurant gute Bewertungen?“ oder „Was ist die Spezialität des Küchenchefs?“. Hierzu soll der Assistent mit präzisen, aktuellen Informationen antworten und Navigationsdetails über die Benutzeroberfläche im Fahrzeug anzeigen.

KI erkennt Gesprächsverlauf

Ferner erlaube es der KI-Agent, komplexe, mehrteilige Dialoge zu führen und den Gesprächsverlauf zu speichern. Damit können Unterhaltungen unterbrochen werden und später im Verlauf der Fahrt fortgesetzt werden.

Laut Mercedes-Benz werden die Funktionen des AI Agents im Laufe des Jahres mit dem MBUX Virtual Assistant im neuen Mercedes-Benz CLA verfügbar sein.

Mercedes und Google bauen strategische Partnerschaft aus​ Weiterlesen »

Remote Work – für viele Wunsch, aber keine Voraussetzung​

Allgemein

Laut Softgarden-Studie ist das Homeoffice für die Mehrheit der Bewerber eher „nice to have“.GaudiLab/Shutterstock Ähnlich wie in den USA scheint sich allmählich auch in Deutschland ein Homeoffice-Winter anzukündigen. Amazon, Deutsche Bank, SAP, Telekom und Volkswagen sind nur einige Beispiele für deutsche Unternehmen, die nun ihre Büroangestellten wieder verstärkt ins Office zurückbeordern.   Während eine verschärfte Anwesenheitspflicht – wie eine frühere Studie ergab – für viele Arbeitnehmer einen Kündigungsgrund darstellt, sieht ein Großteil der Bewerber dieser Entwicklung eher gelassen entgegen.  Einer aktuellen Umfrage von Softgarden unter mehr als 2.400 Bewerbenden mit Schreibtischarbeitsplatz zufolge:  rechnen fast 31 Prozent vielmehr damit, dass sie 2025 mehr im Homeoffice arbeiten werden.   glauben knapp 41 Prozent, dass sie 2025 „so viel wie 2024“ im Homeoffice tätig sein werden.  gehen 28 Prozent davon aus, dass sich der Homeoffice-Anteil vermindern wird.   Unabhängig davon stellt die Arbeit im Homeoffice für fast drei Viertel der Bewerber ohnehin kein K.–o.-Kriterium für oder gegen einen Job dar. Lediglich knapp 28 Prozent der Umfrageteilnehmer erklärten, sie würden die Bewerbung zurückziehen, wenn ihre Wünsche in Sachen Homeoffice nicht mit dem Angebot des Arbeitgebers harmonieren.   Unterschiedliche Vorstellungen  Dabei sind die Wünsche bei der Anzahl der Homeoffice-Tage breit gefächert:  Rund 17 Prozent der Bewerber wünschen sich, die Arbeitszeit fast vollständig außerhalb des Büros zu verbringen;   19 Prozent möchten mindestens drei Tage in der Woche im Homeoffice arbeiten;   26 Prozent reichen ein bis zwei Tage pro Woche Heimarbeit;   während weitere fast 26 Prozent gerne die Möglichkeit hätten, lediglich „gelegentlich“ und „bei Bedarf“ außerhalb des Büros zu arbeiten.  Lediglich 12,5 Prozent gaben an, dass das Thema Homeoffice bei den Wünschen an einen Arbeitgeber „überhaupt keine Rolle“ spiele.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”> 

Remote Work – für viele Wunsch, aber keine Voraussetzung​ Laut Softgarden-Studie ist das Homeoffice für die Mehrheit der Bewerber eher „nice to have“.GaudiLab/Shutterstock

Ähnlich wie in den USA scheint sich allmählich auch in Deutschland ein Homeoffice-Winter anzukündigen. Amazon, Deutsche Bank, SAP, Telekom und Volkswagen sind nur einige Beispiele für deutsche Unternehmen, die nun ihre Büroangestellten wieder verstärkt ins Office zurückbeordern.  

Während eine verschärfte Anwesenheitspflicht – wie eine frühere Studie ergab – für viele Arbeitnehmer einen Kündigungsgrund darstellt, sieht ein Großteil der Bewerber dieser Entwicklung eher gelassen entgegen. 

Einer aktuellen Umfrage von Softgarden unter mehr als 2.400 Bewerbenden mit Schreibtischarbeitsplatz zufolge: 

rechnen fast 31 Prozent vielmehr damit, dass sie 2025 mehr im Homeoffice arbeiten werden.  

glauben knapp 41 Prozent, dass sie 2025 „so viel wie 2024“ im Homeoffice tätig sein werden. 

gehen 28 Prozent davon aus, dass sich der Homeoffice-Anteil vermindern wird.  

Unabhängig davon stellt die Arbeit im Homeoffice für fast drei Viertel der Bewerber ohnehin kein K.–o.-Kriterium für oder gegen einen Job dar. Lediglich knapp 28 Prozent der Umfrageteilnehmer erklärten, sie würden die Bewerbung zurückziehen, wenn ihre Wünsche in Sachen Homeoffice nicht mit dem Angebot des Arbeitgebers harmonieren.  

Unterschiedliche Vorstellungen 

Dabei sind die Wünsche bei der Anzahl der Homeoffice-Tage breit gefächert: 

Rund 17 Prozent der Bewerber wünschen sich, die Arbeitszeit fast vollständig außerhalb des Büros zu verbringen;  

19 Prozent möchten mindestens drei Tage in der Woche im Homeoffice arbeiten;  

26 Prozent reichen ein bis zwei Tage pro Woche Heimarbeit;  

während weitere fast 26 Prozent gerne die Möglichkeit hätten, lediglich „gelegentlich“ und „bei Bedarf“ außerhalb des Büros zu arbeiten. 

Lediglich 12,5 Prozent gaben an, dass das Thema Homeoffice bei den Wünschen an einen Arbeitgeber „überhaupt keine Rolle“ spiele. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”>

Remote Work – für viele Wunsch, aber keine Voraussetzung​ Weiterlesen »

5 Tipps gegen Deployment-Desaster​

Allgemein

Das Deployment-Debakel fest im Blick…?Gorodenkoff | shutterstock.com Diverse Devops-Teams in Unternehmen setzen inzwischen auf fortschrittliche CI/CD Pipelines, Infrastructure as Code und andere Automatisierungsinitiativen, um ihre Deployment-Frequenz nach oben zu treiben. Damit steigt potenziell jedoch auch die Fehlerquote, was insbesondere bei geschäftskritischen Anwendungen verheerende Auswirkungen haben kann. Wie verheerend, bewies zuletzt der Sicherheitsanbieter Crowdstrike, der mit einem Deployment-Debakel für Schlagzeilen sorgte, das unter anderem auch empfindliche finanzielle Einbußen für das Unternehmen zur Folge hatte. Vor diesem Hintergrund ist es möglicherweise sinnvoll, Ihre Deployment-Strategie auf den Prüfstand zu stellen. Dieser Artikel unterstützt Sie dabei, Antworten auf folgende Fragen zu finden: Wann sind häufige Releases zu riskant? Wie können Devops-Teams die Risiken richtig bewerten, um Deployment-Fehlschlägen vorzubeugen? 1. Anforderungen und Risiken evaluieren Nicht alle Releases, Funktionen und agilen User Stories sind mit den gleichen Bereitstellungsrisiken verbunden. Viele Unternehmen greifen deshalb inzwischen auf automatisiert erstellte Deployment-Risiko-Scores zu, um zu ermitteln, wie viel Testing- und Review-Arbeit vor dem Release noch erforderlich ist. Dabei einen Ansatz auf Machine-Learning-Basis zu verfolgen, lohnt sich vor allem für Organisationen, die in hoher Frequenz bereitstellen, wie David Brooks, SVP of Evangelism beim Devops-Spezialisten Copado erklärt: “KI kann dabei unterstützen, User Stories auszuwerten, um Unklarheiten, versteckte Abhängigkeiten und Auswirkungen sowie Überschneidungen mit der Arbeit anderer Entwickler zu identifizieren.“ Im Rahmen traditioneller Release-Management-Strategien sind Deployments Teil der internen Kommunikations- und Risikomanagement-Frameworks, wobei größere Upgrades, kleinere Verbesserungen und System-Upgrades charakterisiert werden. Anschließend definieren Devops-Entscheider Deployment-Richtlinien, die Anforderungen an die Risikominderung sowie Automatisierungsregeln auf der Grundlage von Release-Typen. Ein datengetriebener Ansatz charakterisiert hingegen Releases und berechnet Risiko-Scores auf der Grundlage vieler verschiedener, anderer Variablen – beispielsweise der Anzahl der betroffenen Benutzer, der Testabdeckung des betroffenen Codes und Messungen der Abhängigkeitskomplexität. Organisationen können Feedback-Schleifen implementieren, um Risikobewertungen auf der Grundlage der tatsächlichen geschäftlichen Auswirkungen von Releases zu kalibrieren, indem sie Ausfälle, Performance-Probleme, Sicherheitsvorfälle und das Feedback von Endbenutzern erfassen. 2. Security in die Dev Experience einbetten Nach dem Deployment mit Security-Problemen konfrontiert zu werden, birgt diverse Risiken. Deswegen setzen nicht wenige Devops-Teams auf einen „Shift Left“-Security-Ansatz. Dieser beinhaltet einen Mix aus Richtlinien, Kontrollen, Automatisierungen und Tools – vor allem jedoch ein Entwickler-Mindset, bei dem Security eine tragende Rolle spielt.   „Für eine funktionierende, moderne Devops-Praxis ist es absolut essenziell, Sicherheits- und Qualitätskontrollen so früh wie möglich in den Softwareentwicklungszyklus zu integrieren“, unterstreicht Christopher Hendrich, stellvertretender CTO beim Cloud-Lösungsanbieter SADA. Er fügt hinzu: „Eine Plattform für Developer aufzubauen, die Automatisierung, KI-Services und klares Feedback darüber liefert, wie Sicherheitslücken zu beseitigen sind, trägt dazu bei, Security-Mindset und Entwickleraufgaben unter einen Nenner zu bringen.“ Folgende Best Practices sollten Devops-Teams in Betracht ziehen, um das Risiko für Deployment-Katastrophen zu minimieren: Sicherheitsstandards für Softwareentwickler auf der Grundlage von Richtlinien und Frameworks wie OWASP Security Fundamentals, NIST Secure Software Development Framework oder ISO 27034 entwickeln. Risikomanagement im Rahmen der agilen Softwareentwicklung etablieren, indem technische Schulden reduziert werden und komplexe User Stories möglichst früh in Sprint- und Release-Zyklen entstehen. Sicherheitsrisiken im Entwicklungsprozess adressieren. Security Testing in CI/CD-Pipelines verankern. 3. Continuous-Deployment-Voraussetzungen schaffen Viele Entwicklungsteams setzen darauf, den Weg zur Produktion möglichst umfassend zu automatisieren. Allerdings sind nicht alle Dev-Organisationen wirklich bereit für einen Continuous-Deployment-Ansatz. Die vermeintlich simple Zielsetzung, CI/CD in Produktionsumgebungen zu implementieren, kann in exzessive Deployment-Desaster münden, wenn es an den entsprechenden Sicherheitsmaßnahmen mangelt – insbesondere mit Blick auf zunehmend komplexe Applikations- und Microservices-Architekturen. „Die Softwareentwicklung ist ein komplexer Prozess, der mit der Zeit immer schwieriger wird, wenn sich die Funktionalität der Software verändert oder sie altert“, erklärt Melissa McKay, Head of Developer Relations beim Plattformanbieter JFrog. Die Managerin ergänzt: “Ein mehrschichtiger, Ende-zu-Ende-Ansatz ist inzwischen unerlässlich, um sicherzustellen, dass Sicherheit und Qualität von der ersten Paketkuratierung bis zum Runtime Monitoring Priorität haben.“ Devops-Teams, die Continuous Deployment für geschäftskritische, umfangreiche Anwendungen implementieren möchten, sollten auf folgende Best Practices zurückgreifen: Continuous Testing mit hoher Testabdeckung, umfassenden Testdaten und auf Endbenutzer-Personas ausgerichtet umsetzen (inklusive synthetischer Daten und GenAI-Testfunktionen, um Fehler im Produktionscode aufzuspüren). Feature Flags einsetzen, damit Entwicklungsteams experimentelle Funktionen steuern können, die mit einer bestimmten Gruppe von Endbenutzern konfiguriert und getestet werden. Auf Canary-Release-Strategien setzen, um die Bereitstellung mehrerer Versionen einer Anwendung oder eines Services zu unterstützen. 4. Observability, Monitoring und AIOps optimieren In Observability, Application Monitoring und AIOps zu investieren, ist entscheidend, um den Business Impact und die Mean Time to Recovery (MTTR) bei größeren Sicherheitsvorfällen zu optimieren.   „Sämtliche Devops-Deployment-Katastrophen lassen sich letztlich auf einen Mangel an angemessener Kommunikation oder Sichtbarkeit zurückführen“, konstatiert Madhu Kochar, VP of Product Development bei IBM Automation, und fährt fort: „Man kann nicht reparieren, was man nicht sieht, und genau deshalb ist Observability insbesondere in Zusammenhang mit intelligenter Automatisierung von entscheidender Bedeutung, um bekannte Fehler zu beheben und Einblicke in Systeme oder Anwendungen zu erhalten. Das ermöglicht einen unterbrechungsfreien Feedback-Loop und realisiert effiziente und performante Deployments, in deren Rahmen Probleme erkannt werden, bevor sie sich auf die Endbenutzer auswirken.“ Unternehmen, die Microservices-Architekturen einsetzen, in mehreren Clouds bereitstellen und mit vielen Systemen von Drittanbietern verbunden sind, sollten auf AIOps-Lösungen zurückgreifen, um die Ursachen von Incidents ermitteln und automatisiert bearbeiten zu können. 5. Incident Playbook erstellen Tritt ein größerer Incident auf, können IT-Organisationen mit einem operativen Playbook besser darauf reagieren – und entsprechend kommunizieren. Das kann das schlimmste Szenario in einem solchen Fall verhindern. Nämlich, dass von den Technikern bis zu den Führungskräften keiner wirklich weiß, was zu tun ist. Das würde alles nur verzögern, zu weiteren Fehlern beitragen und das Stresslevel weiter nach oben treiben. Deshalb bereiten sich die meisten Unternehmen mit einem ITSM-Playbook auf geschäftskritische Produktionsprobleme vor. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Tipps gegen Deployment-Desaster​ Das Deployment-Debakel fest im Blick…?Gorodenkoff | shutterstock.com

Diverse Devops-Teams in Unternehmen setzen inzwischen auf fortschrittliche CI/CD Pipelines, Infrastructure as Code und andere Automatisierungsinitiativen, um ihre Deployment-Frequenz nach oben zu treiben.

Damit steigt potenziell jedoch auch die Fehlerquote, was insbesondere bei geschäftskritischen Anwendungen verheerende Auswirkungen haben kann. Wie verheerend, bewies zuletzt der Sicherheitsanbieter Crowdstrike, der mit einem Deployment-Debakel für Schlagzeilen sorgte, das unter anderem auch empfindliche finanzielle Einbußen für das Unternehmen zur Folge hatte.

Vor diesem Hintergrund ist es möglicherweise sinnvoll, Ihre Deployment-Strategie auf den Prüfstand zu stellen. Dieser Artikel unterstützt Sie dabei, Antworten auf folgende Fragen zu finden:

Wann sind häufige Releases zu riskant?

Wie können Devops-Teams die Risiken richtig bewerten, um Deployment-Fehlschlägen vorzubeugen?

1. Anforderungen und Risiken evaluieren

Nicht alle Releases, Funktionen und agilen User Stories sind mit den gleichen Bereitstellungsrisiken verbunden. Viele Unternehmen greifen deshalb inzwischen auf automatisiert erstellte Deployment-Risiko-Scores zu, um zu ermitteln, wie viel Testing- und Review-Arbeit vor dem Release noch erforderlich ist. Dabei einen Ansatz auf Machine-Learning-Basis zu verfolgen, lohnt sich vor allem für Organisationen, die in hoher Frequenz bereitstellen, wie David Brooks, SVP of Evangelism beim Devops-Spezialisten Copado erklärt: “KI kann dabei unterstützen, User Stories auszuwerten, um Unklarheiten, versteckte Abhängigkeiten und Auswirkungen sowie Überschneidungen mit der Arbeit anderer Entwickler zu identifizieren.“

Im Rahmen traditioneller Release-Management-Strategien sind Deployments Teil der internen Kommunikations- und Risikomanagement-Frameworks, wobei größere Upgrades, kleinere Verbesserungen und System-Upgrades charakterisiert werden. Anschließend definieren Devops-Entscheider Deployment-Richtlinien, die Anforderungen an die Risikominderung sowie Automatisierungsregeln auf der Grundlage von Release-Typen.

Ein datengetriebener Ansatz charakterisiert hingegen Releases und berechnet Risiko-Scores auf der Grundlage vieler verschiedener, anderer Variablen – beispielsweise der Anzahl der betroffenen Benutzer, der Testabdeckung des betroffenen Codes und Messungen der Abhängigkeitskomplexität. Organisationen können Feedback-Schleifen implementieren, um Risikobewertungen auf der Grundlage der tatsächlichen geschäftlichen Auswirkungen von Releases zu kalibrieren, indem sie Ausfälle, Performance-Probleme, Sicherheitsvorfälle und das Feedback von Endbenutzern erfassen.

2. Security in die Dev Experience einbetten

Nach dem Deployment mit Security-Problemen konfrontiert zu werden, birgt diverse Risiken. Deswegen setzen nicht wenige Devops-Teams auf einen „Shift Left“-Security-Ansatz. Dieser beinhaltet einen Mix aus Richtlinien, Kontrollen, Automatisierungen und Tools – vor allem jedoch ein Entwickler-Mindset, bei dem Security eine tragende Rolle spielt.  

„Für eine funktionierende, moderne Devops-Praxis ist es absolut essenziell, Sicherheits- und Qualitätskontrollen so früh wie möglich in den Softwareentwicklungszyklus zu integrieren“, unterstreicht Christopher Hendrich, stellvertretender CTO beim Cloud-Lösungsanbieter SADA. Er fügt hinzu: „Eine Plattform für Developer aufzubauen, die Automatisierung, KI-Services und klares Feedback darüber liefert, wie Sicherheitslücken zu beseitigen sind, trägt dazu bei, Security-Mindset und Entwickleraufgaben unter einen Nenner zu bringen.“

Folgende Best Practices sollten Devops-Teams in Betracht ziehen, um das Risiko für Deployment-Katastrophen zu minimieren:

Sicherheitsstandards für Softwareentwickler auf der Grundlage von Richtlinien und Frameworks wie OWASP Security Fundamentals, NIST Secure Software Development Framework oder ISO 27034 entwickeln.

Risikomanagement im Rahmen der agilen Softwareentwicklung etablieren, indem technische Schulden reduziert werden und komplexe User Stories möglichst früh in Sprint- und Release-Zyklen entstehen.

Sicherheitsrisiken im Entwicklungsprozess adressieren.

Security Testing in CI/CD-Pipelines verankern.

3. Continuous-Deployment-Voraussetzungen schaffen

Viele Entwicklungsteams setzen darauf, den Weg zur Produktion möglichst umfassend zu automatisieren. Allerdings sind nicht alle Dev-Organisationen wirklich bereit für einen Continuous-Deployment-Ansatz. Die vermeintlich simple Zielsetzung, CI/CD in Produktionsumgebungen zu implementieren, kann in exzessive Deployment-Desaster münden, wenn es an den entsprechenden Sicherheitsmaßnahmen mangelt – insbesondere mit Blick auf zunehmend komplexe Applikations- und Microservices-Architekturen.

„Die Softwareentwicklung ist ein komplexer Prozess, der mit der Zeit immer schwieriger wird, wenn sich die Funktionalität der Software verändert oder sie altert“, erklärt Melissa McKay, Head of Developer Relations beim Plattformanbieter JFrog. Die Managerin ergänzt: “Ein mehrschichtiger, Ende-zu-Ende-Ansatz ist inzwischen unerlässlich, um sicherzustellen, dass Sicherheit und Qualität von der ersten Paketkuratierung bis zum Runtime Monitoring Priorität haben.“

Devops-Teams, die Continuous Deployment für geschäftskritische, umfangreiche Anwendungen implementieren möchten, sollten auf folgende Best Practices zurückgreifen:

Continuous Testing mit hoher Testabdeckung, umfassenden Testdaten und auf Endbenutzer-Personas ausgerichtet umsetzen (inklusive synthetischer Daten und GenAI-Testfunktionen, um Fehler im Produktionscode aufzuspüren).

Feature Flags einsetzen, damit Entwicklungsteams experimentelle Funktionen steuern können, die mit einer bestimmten Gruppe von Endbenutzern konfiguriert und getestet werden.

Auf Canary-Release-Strategien setzen, um die Bereitstellung mehrerer Versionen einer Anwendung oder eines Services zu unterstützen.

4. Observability, Monitoring und AIOps optimieren

In Observability, Application Monitoring und AIOps zu investieren, ist entscheidend, um den Business Impact und die Mean Time to Recovery (MTTR) bei größeren Sicherheitsvorfällen zu optimieren.  

„Sämtliche Devops-Deployment-Katastrophen lassen sich letztlich auf einen Mangel an angemessener Kommunikation oder Sichtbarkeit zurückführen“, konstatiert Madhu Kochar, VP of Product Development bei IBM Automation, und fährt fort: „Man kann nicht reparieren, was man nicht sieht, und genau deshalb ist Observability insbesondere in Zusammenhang mit intelligenter Automatisierung von entscheidender Bedeutung, um bekannte Fehler zu beheben und Einblicke in Systeme oder Anwendungen zu erhalten. Das ermöglicht einen unterbrechungsfreien Feedback-Loop und realisiert effiziente und performante Deployments, in deren Rahmen Probleme erkannt werden, bevor sie sich auf die Endbenutzer auswirken.“

Unternehmen, die Microservices-Architekturen einsetzen, in mehreren Clouds bereitstellen und mit vielen Systemen von Drittanbietern verbunden sind, sollten auf AIOps-Lösungen zurückgreifen, um die Ursachen von Incidents ermitteln und automatisiert bearbeiten zu können.

5. Incident Playbook erstellen

Tritt ein größerer Incident auf, können IT-Organisationen mit einem operativen Playbook besser darauf reagieren – und entsprechend kommunizieren.

Das kann das schlimmste Szenario in einem solchen Fall verhindern. Nämlich, dass von den Technikern bis zu den Führungskräften keiner wirklich weiß, was zu tun ist. Das würde alles nur verzögern, zu weiteren Fehlern beitragen und das Stresslevel weiter nach oben treiben. Deshalb bereiten sich die meisten Unternehmen mit einem ITSM-Playbook auf geschäftskritische Produktionsprobleme vor. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Tipps gegen Deployment-Desaster​ Weiterlesen »

Weiterbildung: GenAI-Kompetenz verdrängt Wohlfühlthemen​

Allgemein

Laut Coursera ist das Interesse an einer Weiterbildung im Bereich (generativer) KI  2024 deutlich gestiegen.AYO Production/Shutterstock.com Lag das Thema Künstliche Intelligenz bereits 2023 bei den gesuchten Weiterbildungsmöglichkeiten weit vorne, nahm das Interesse auf der Online-Lernplattform Coursera im vergangenen Jahr noch einmal deutlich zu. Wie aus dem Job Skills Report 2025 von Coursera hervor geht, wurden GenAI-Kurse im Jahr 2024 weltweit um 866 Prozent häufiger belegt als im Vorjahr. Die geringste Zuwachsrate verzeichneten dabei Studierende mit 500 Prozent, während das Plus bei Beschäftigten 1.100 Prozent und bei Jobsuchenden sogar 1.600 Prozent betrug.   Doppelt so hohes GenAI-Interesse In Deutschland registrierte der Schulungsanbieter gemessen an den Top-10-Kursen ein doppelt so hohes GenAI-Interesse wie im Vorjahr. Demnach hatten sechs der zehn beliebtesten Kurse von Lernenden hierzulande GenAI-Bezug – 2023 waren es noch drei.  Auch die fünf gefragtesten Fähigkeiten 2024 in Deutschland waren stark durch GenAI-Entwicklungen geprägt:  GenAI-Tools,  Automatisierung, Softwareentwicklung, Risikomanagement, Datenanalyse und -visualisierung.    Besonders bezeichnend dabei: Als Neueinsteiger verdrängte der GenAI-Grundlagenkurs von Google den vorherigen Spitzenreiter und Langzeit-Favoriten „Die Wissenschaft des Wohlbefindens“ von Platz eins auf Platz elf. Auch der Kurs „Lernen, wie man lernt“ büßte vier Plätze ein (2023: Platz sechs). Damit richten sich die Lernenden am Bedarf der Unternehmen in Deutschland aus, denen es laut verschiedenen Studien aktuell häufig an entsprechend ausgebildeten Mitarbeitern mangelt, um GenAI einzusetzen.  Laut Nikolaz Foucaud, Managing Director EMEA bei Coursera, handelt es sich dabei nicht nur um einen Trend. Vielmehr sieht er darin ein klares Signal, wohin sich die Arbeitswelt entwickelt: „Jobsuchende investieren 16-mal mehr in KI-Skills als im Vorjahr.“ Deutsche Unternehmen befinden sich laut Foucaud in einer kritischen Lage: “Damit sie im globalen Rennen um fähige KI-Talente nicht ins Hintertreffen geraten, müssen sie die Fortbildung ihrer Mitarbeitenden in den Bereichen GenAI, Cybersicherheit und HR-Technologie erheblich beschleunigen.“  

Weiterbildung: GenAI-Kompetenz verdrängt Wohlfühlthemen​ Laut Coursera ist das Interesse an einer Weiterbildung im Bereich (generativer) KI  2024 deutlich gestiegen.AYO Production/Shutterstock.com

Lag das Thema Künstliche Intelligenz bereits 2023 bei den gesuchten Weiterbildungsmöglichkeiten weit vorne, nahm das Interesse auf der Online-Lernplattform Coursera im vergangenen Jahr noch einmal deutlich zu. Wie aus dem Job Skills Report 2025 von Coursera hervor geht, wurden GenAI-Kurse im Jahr 2024 weltweit um 866 Prozent häufiger belegt als im Vorjahr. Die geringste Zuwachsrate verzeichneten dabei Studierende mit 500 Prozent, während das Plus bei Beschäftigten 1.100 Prozent und bei Jobsuchenden sogar 1.600 Prozent betrug.  

Doppelt so hohes GenAI-Interesse

In Deutschland registrierte der Schulungsanbieter gemessen an den Top-10-Kursen ein doppelt so hohes GenAI-Interesse wie im Vorjahr. Demnach hatten sechs der zehn beliebtesten Kurse von Lernenden hierzulande GenAI-Bezug – 2023 waren es noch drei. 

Auch die fünf gefragtesten Fähigkeiten 2024 in Deutschland waren stark durch GenAI-Entwicklungen geprägt: 

GenAI-Tools, 

Automatisierung,

Softwareentwicklung,

Risikomanagement,

Datenanalyse und -visualisierung.   

Besonders bezeichnend dabei: Als Neueinsteiger verdrängte der GenAI-Grundlagenkurs von Google den vorherigen Spitzenreiter und Langzeit-Favoriten „Die Wissenschaft des Wohlbefindens“ von Platz eins auf Platz elf. Auch der Kurs „Lernen, wie man lernt“ büßte vier Plätze ein (2023: Platz sechs). Damit richten sich die Lernenden am Bedarf der Unternehmen in Deutschland aus, denen es laut verschiedenen Studien aktuell häufig an entsprechend ausgebildeten Mitarbeitern mangelt, um GenAI einzusetzen. 

Laut Nikolaz Foucaud, Managing Director EMEA bei Coursera, handelt es sich dabei nicht nur um einen Trend. Vielmehr sieht er darin ein klares Signal, wohin sich die Arbeitswelt entwickelt: „Jobsuchende investieren 16-mal mehr in KI-Skills als im Vorjahr.“ Deutsche Unternehmen befinden sich laut Foucaud in einer kritischen Lage: “Damit sie im globalen Rennen um fähige KI-Talente nicht ins Hintertreffen geraten, müssen sie die Fortbildung ihrer Mitarbeitenden in den Bereichen GenAI, Cybersicherheit und HR-Technologie erheblich beschleunigen.“ 

Weiterbildung: GenAI-Kompetenz verdrängt Wohlfühlthemen​ Weiterlesen »

Amazon und Meta – Diversity & Inclusion kein Thema mehr​

Allgemein

Wer für Chancengleichheit und Diversität eintritt, dürfte unter der neuen Trump-Administration kein leichtes Spiel haben.Jonah Elkowitz – shutterstock.com Amazon und die Facebook-Mutter Meta fahren ihre Programme für Diversity, Equity and Inclusion (DEI) zurück. Das berichten verschiedene US-Medien und zitieren aus einer internen Mitteilung von Meta: „Wir werden kein Team mehr haben, dass sich auf DEI konzentriert.“ Amazon sei dabei, „veraltete Programme und Materialien“ im Zusammenhang mit DEI abzubauen, schreibt die Nachrichtenagentur Reuters unter Berufung auf eine interne Mitteilung vom Dezember 2024. Dabei scheint der weltgrößte Online-Händler keine Zeit verlieren zu wollen. Ziel sei es, den Prozess bis Ende 2024 abgeschlossen zu haben, hieß es.  Die rechtliche und politische Landschaft rund um DEI in den Vereinigten Staaten verändere sich, zitiert Reuters aus einem Memo von Janelle Gale, Vice President für den Bereich Human Ressources bei Meta. Die Managerin verwies auf jüngste Entscheidungen des US-amerikanischen Supreme Courts, die darauf hindeuteten, dass US-Gerichte die laufenden DEI-Programme künftig unter einem anderen Blickwinkel betrachten würden.  US-Republikaner wollen DEI mit Klagen kleinkriegen US-Konservative versuchen seit Jahren, Initiativen für mehr Chancengleichheit und Diversität zu untergraben und mit Klagen vor Gericht zu torpedieren. Diese Programme würden bestimmte Personen bevorzugt behandeln und damit andere Gruppen diskriminieren, lautet ihre Argumentation. Spaltungen zwischen verschiedenen Bevölkerungsgruppen würden durch DEI-Initiativen eher verstärkt als überwunden.  Diversity Management: Wie Vielfalt zum Unternehmenserfolg beiträgt Maßnahmen für Gleichberechtigung und Diversität hatten in den zurückliegenden massiv an Bedeutung in den Unternehmensstrategien gewonnen. Dazu beigetragen haben die MeToo-Bewegung, die seit 2017 sexuelle Gewalt und Übergriffe gegen Frauen thematisiert und anprangert, sowie die Black-Lives-Matter-Bewegung. Hintergrund hier: Der gewaltsame Tod von George Floyd, der im Mai 2020 während der ersten Präsidentschaft von Donald Trump bei einem Polizeieinsatz von einem weißen Beamten in Minneapolis getötet wurde. Der damalige demokratische Präsidentschaftskandidat Joe Biden, dem Trump wenige Monate später bei den Präsidentschaftswahlen unterlag, sprach damals offen von systemischem Rassismus in den USA.  Musk macht DEI für Brandkatastrophe in Kalifornien mit verantwortlich Doch alle Bemühungen, gegen Diskriminierung vorzugehen, scheinen im Vorfeld der zweiten Trump-Präsidentschaft zunehmend Makulatur zu werden. Trump und seinen Anhängern scheint jedes Mittel recht, das Thema DEI zu diskreditieren. Sogar die verheerenden Brände im Großraum Los Angeles mit Dutzenden Todesopfern versuchen die Republikaner zu instrumentalisieren, um gegen entsprechende Programme zu wettern. Der kommende US-Präsident warf Karen Bass, der demokratischen Bürgermeisterin von Los Angeles, Inkompetenz und Versagen vor.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6386upfKxwbY4gWGoshTQj?utm_source=oembed”> Trump-Buddy Elon Musk und einige andere Konservative traten nach und ätzten, die Schuld an der Katastrophe liege zum Teil bei den von den Demokraten geförderten DEI-Programmen. Die Stadtverantwortlichen hätten sich auf Initiativen zur Förderung von Vielfalt konzentriert, statt sich darum zu kümmern, Häuser und Menschenleben zu retten, wetterte der Tesla-Chef auf der von ihm kontrollierten Social-Media-Plattform X. Belastbare Belege für seine Behauptung kann Musk allerdings nicht vorlegen.  

Amazon und Meta – Diversity & Inclusion kein Thema mehr​ Wer für Chancengleichheit und Diversität eintritt, dürfte unter der neuen Trump-Administration kein leichtes Spiel haben.Jonah Elkowitz – shutterstock.com

Amazon und die Facebook-Mutter Meta fahren ihre Programme für Diversity, Equity and Inclusion (DEI) zurück. Das berichten verschiedene US-Medien und zitieren aus einer internen Mitteilung von Meta: „Wir werden kein Team mehr haben, dass sich auf DEI konzentriert.“ Amazon sei dabei, „veraltete Programme und Materialien“ im Zusammenhang mit DEI abzubauen, schreibt die Nachrichtenagentur Reuters unter Berufung auf eine interne Mitteilung vom Dezember 2024. Dabei scheint der weltgrößte Online-Händler keine Zeit verlieren zu wollen. Ziel sei es, den Prozess bis Ende 2024 abgeschlossen zu haben, hieß es. 

Die rechtliche und politische Landschaft rund um DEI in den Vereinigten Staaten verändere sich, zitiert Reuters aus einem Memo von Janelle Gale, Vice President für den Bereich Human Ressources bei Meta. Die Managerin verwies auf jüngste Entscheidungen des US-amerikanischen Supreme Courts, die darauf hindeuteten, dass US-Gerichte die laufenden DEI-Programme künftig unter einem anderen Blickwinkel betrachten würden. 

US-Republikaner wollen DEI mit Klagen kleinkriegen

US-Konservative versuchen seit Jahren, Initiativen für mehr Chancengleichheit und Diversität zu untergraben und mit Klagen vor Gericht zu torpedieren. Diese Programme würden bestimmte Personen bevorzugt behandeln und damit andere Gruppen diskriminieren, lautet ihre Argumentation. Spaltungen zwischen verschiedenen Bevölkerungsgruppen würden durch DEI-Initiativen eher verstärkt als überwunden. 

Diversity Management: Wie Vielfalt zum Unternehmenserfolg beiträgt

Maßnahmen für Gleichberechtigung und Diversität hatten in den zurückliegenden massiv an Bedeutung in den Unternehmensstrategien gewonnen. Dazu beigetragen haben die MeToo-Bewegung, die seit 2017 sexuelle Gewalt und Übergriffe gegen Frauen thematisiert und anprangert, sowie die Black-Lives-Matter-Bewegung. Hintergrund hier: Der gewaltsame Tod von George Floyd, der im Mai 2020 während der ersten Präsidentschaft von Donald Trump bei einem Polizeieinsatz von einem weißen Beamten in Minneapolis getötet wurde. Der damalige demokratische Präsidentschaftskandidat Joe Biden, dem Trump wenige Monate später bei den Präsidentschaftswahlen unterlag, sprach damals offen von systemischem Rassismus in den USA. 

Musk macht DEI für Brandkatastrophe in Kalifornien mit verantwortlich

Doch alle Bemühungen, gegen Diskriminierung vorzugehen, scheinen im Vorfeld der zweiten Trump-Präsidentschaft zunehmend Makulatur zu werden. Trump und seinen Anhängern scheint jedes Mittel recht, das Thema DEI zu diskreditieren. Sogar die verheerenden Brände im Großraum Los Angeles mit Dutzenden Todesopfern versuchen die Republikaner zu instrumentalisieren, um gegen entsprechende Programme zu wettern. Der kommende US-Präsident warf Karen Bass, der demokratischen Bürgermeisterin von Los Angeles, Inkompetenz und Versagen vor. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6386upfKxwbY4gWGoshTQj?utm_source=oembed”>

Trump-Buddy Elon Musk und einige andere Konservative traten nach und ätzten, die Schuld an der Katastrophe liege zum Teil bei den von den Demokraten geförderten DEI-Programmen. Die Stadtverantwortlichen hätten sich auf Initiativen zur Förderung von Vielfalt konzentriert, statt sich darum zu kümmern, Häuser und Menschenleben zu retten, wetterte der Tesla-Chef auf der von ihm kontrollierten Social-Media-Plattform X. Belastbare Belege für seine Behauptung kann Musk allerdings nicht vorlegen. 

Amazon und Meta – Diversity & Inclusion kein Thema mehr​ Weiterlesen »

EU-AI-Act: Erste KI-Verbote ab Februar​

Allgemein

Am 2. Februar treten die ersten KI-Verbote des EU-AI-Acts in Kraft. RaffMaster/Shutterstock.com In Sachen EU-AI-Act wird es langsam ernst. Auch wenn für die 2024 verabschiedete Verordnung teilweise lange Übergangsfristen bis August 2026 gelten, sollten KI-Anwender und -Betreiber für 2025 zwei Termine in ihrem Kalender markieren: Ab 2. Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten. Ab 2. August 2025 treten die Bestimmungen für die Anbieter und Betreiber von General Purpose AI (GPAI) in Kraft. KI-Verbote ab Februar Zum Stichtag 2. Februar 2025 verbietet der AI-Act die Verwendung bestimmter KI-Anwendungen in der EU. Vereinfacht ausgedrückt sind davon unter anderem Apps betroffen, die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften bewerten und einordnen – wie etwa beim Social Scoring. Ebenso ist dann eine automatisierte biometrische Identifizierung von Menschen im öffentlichen Raum nicht mehr statthaft. Diese Systeme sind verboten Konkret definiert der AI-Act im „Artikel 5: Verbotene AI-Praktiken“ folgende Anwendungen als verboten: KI-Systeme, die unterschwellige oder absichtlich manipulative und täuschende Techniken einsetzen, um das Verhalten einer Person zu beeinflussen, so dass sie Entscheidungen trifft, die sie sonst nicht getroffen hätte. KI-Anwendungen, die eine Schwachstelle einer Person aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, um deren Verhalten negativ zu beeinflussen. AI, die Menschen aufgrund ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher oder persönlichkeitsbezogener Merkmale beurteilt und damit zu einer Benachteiligung oder ungünstigen Behandlung führt. KI-Systeme, die das Risiko vorhersagen, dass jemand eine Straftat begeht und ihr Urteil dabei ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften stützen. KI-Apps, die Datenbanken für die Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen erstellen oder erweitern. KI-Systeme zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen (Ausnahme: medizinische oder sicherheitstechnische Gründe). Verwendung biometrischer Kategorisierungssysteme, die einzelne natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf ihre Ethnie, ihre politischen Meinungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder philosophischen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu ziehen. KI-gestützte biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Räumen. Bei den letzten beiden Verboten ist jedoch zu beachten, dass der EU-AI-Act Ausnahmen zum Zwecke der Strafverfolgung zulässt. Für diesen Einsatz ist also eine penible Einzelfallprüfung ratsam. Regeln für GPAI Während die Regeln für verbotene KI-Systeme also relativ klar definiert sind, sieht es in Bezug auf einen anderen Punkt noch recht mau aus: Ab 2. August 2025 sollen auch verbindliche Regeln und Vorschriften für General Purpose AI (GPAI) gelten. Im Gegensatz zu klassischen KI-Systemen versteht der EU-AI-Act unter GPAI KI-Anwendungen die LLMs verwenden – also etwa GPT-4o, Llama etc. Deshalb dürften die diesbezüglich ab August geltenden Vorschriften vor allem große Player wie Microsoft, Google, Meta, OpenAI etc. betreffen. Noch gibt es nur Drafts Die Sache hat allerdings einen Haken. Bislang gibt es diese Vorschriften nicht. Derzeit existiert lediglich ein „Second Draft“ vom 19. Dezember 2024 zum „General-Purpose AI Code of Practice“. Im Februar soll dann noch ein dritter Entwurf folgen, bevor dann die EU im Mai die endgültigen Richtlinien vorlegen will. Die betroffenen Unternehmen hätten dann gerade noch zwei Monate Zeit, die Vorschriften umzusetzen. Angesichts dieses Zeitrahmens kann man nur sagen „sportlich“. Zumal hinter den Kulissen die großen Player sowie Bürgerrechtsorganisationen noch um die richtige Ausgewogenheit der Vorschriften ringen. Während die Wirtschaft ein zu enges Korsett befürchtet und damit ihr Business bedroht sieht, kämpfen die anderen laut Tagesspiegel für mehr Transparenz und eine größere Risikofolgenabschätzung der GPAI-Verwendung. Was Entscheider in Sachen EU-AI-Act sonst noch beachten sollten, hören Sie in unserem TechTalk-Podcast. 

EU-AI-Act: Erste KI-Verbote ab Februar​ Am 2. Februar treten die ersten KI-Verbote des EU-AI-Acts in Kraft.
RaffMaster/Shutterstock.com

In Sachen EU-AI-Act wird es langsam ernst. Auch wenn für die 2024 verabschiedete Verordnung teilweise lange Übergangsfristen bis August 2026 gelten, sollten KI-Anwender und -Betreiber für 2025 zwei Termine in ihrem Kalender markieren:

Ab 2. Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten.

Ab 2. August 2025 treten die Bestimmungen für die Anbieter und Betreiber von General Purpose AI (GPAI) in Kraft.

KI-Verbote ab Februar

Zum Stichtag 2. Februar 2025 verbietet der AI-Act die Verwendung bestimmter KI-Anwendungen in der EU. Vereinfacht ausgedrückt sind davon unter anderem Apps betroffen, die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften bewerten und einordnen – wie etwa beim Social Scoring. Ebenso ist dann eine automatisierte biometrische Identifizierung von Menschen im öffentlichen Raum nicht mehr statthaft.

Diese Systeme sind verboten

Konkret definiert der AI-Act im „Artikel 5: Verbotene AI-Praktiken“ folgende Anwendungen als verboten:

KI-Systeme, die unterschwellige oder absichtlich manipulative und täuschende Techniken einsetzen, um das Verhalten einer Person zu beeinflussen, so dass sie Entscheidungen trifft, die sie sonst nicht getroffen hätte.

KI-Anwendungen, die eine Schwachstelle einer Person aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, um deren Verhalten negativ zu beeinflussen.

AI, die Menschen aufgrund ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher oder persönlichkeitsbezogener Merkmale beurteilt und damit zu einer Benachteiligung oder ungünstigen Behandlung führt.

KI-Systeme, die das Risiko vorhersagen, dass jemand eine Straftat begeht und ihr Urteil dabei ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften stützen.

KI-Apps, die Datenbanken für die Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen erstellen oder erweitern.

KI-Systeme zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen (Ausnahme: medizinische oder sicherheitstechnische Gründe).

Verwendung biometrischer Kategorisierungssysteme, die einzelne natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf ihre Ethnie, ihre politischen Meinungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder philosophischen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu ziehen.

KI-gestützte biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Räumen.

Bei den letzten beiden Verboten ist jedoch zu beachten, dass der EU-AI-Act Ausnahmen zum Zwecke der Strafverfolgung zulässt. Für diesen Einsatz ist also eine penible Einzelfallprüfung ratsam.

Regeln für GPAI

Während die Regeln für verbotene KI-Systeme also relativ klar definiert sind, sieht es in Bezug auf einen anderen Punkt noch recht mau aus: Ab 2. August 2025 sollen auch verbindliche Regeln und Vorschriften für General Purpose AI (GPAI) gelten.

Im Gegensatz zu klassischen KI-Systemen versteht der EU-AI-Act unter GPAI KI-Anwendungen die LLMs verwenden – also etwa GPT-4o, Llama etc. Deshalb dürften die diesbezüglich ab August geltenden Vorschriften vor allem große Player wie Microsoft, Google, Meta, OpenAI etc. betreffen.

Noch gibt es nur Drafts

Die Sache hat allerdings einen Haken. Bislang gibt es diese Vorschriften nicht. Derzeit existiert lediglich ein „Second Draft“ vom 19. Dezember 2024 zum „General-Purpose AI Code of Practice“. Im Februar soll dann noch ein dritter Entwurf folgen, bevor dann die EU im Mai die endgültigen Richtlinien vorlegen will. Die betroffenen Unternehmen hätten dann gerade noch zwei Monate Zeit, die Vorschriften umzusetzen.

Angesichts dieses Zeitrahmens kann man nur sagen „sportlich“. Zumal hinter den Kulissen die großen Player sowie Bürgerrechtsorganisationen noch um die richtige Ausgewogenheit der Vorschriften ringen. Während die Wirtschaft ein zu enges Korsett befürchtet und damit ihr Business bedroht sieht, kämpfen die anderen laut Tagesspiegel für mehr Transparenz und eine größere Risikofolgenabschätzung der GPAI-Verwendung.

Was Entscheider in Sachen EU-AI-Act sonst noch beachten sollten, hören Sie in unserem TechTalk-Podcast.

EU-AI-Act: Erste KI-Verbote ab Februar​ Weiterlesen »

Warum internationales Recruiting für Deutschland unverzichtbar ist​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Deutschland leidet besonders stark unter dem Fachkräftemangel. Recruiter sowie Personalabteilungen sollten ihren Blick bei der Personalsuche deshalb international ausrichten.Rawpixel.com – Shutterstock 279403604 Die deutsche Wirtschaft steht an einem entscheidenden Wendepunkt. Insbesondere der Mittelstand hierzulande kämpft mit einem massiven Fachkräftemangel in verschiedenen Branchen. Schon heute sind dem Branchenverband Bitkom zufolge hierzulande 149.000 Stellen in der IT-Branche unbesetzt, bis 2040 könnten mehr als 663.000 IT-Fachkräfte fehlen. Ähnliche Engpässe werden in anderen Sektoren erwartet. Im Gesundheitswesen führt der Mangel an Pflegekräften und Ärzten zu erheblichen Herausforderungen in der Patientenversorgung. Im Handwerk bleiben zahlreiche Ausbildungsplätze unbesetzt, was die Zukunft traditioneller Gewerbe gefährdet.  Nur durch entschlossene und effektive Maßnahmen gegen den Fachkräftemangel kann Deutschland massive wirtschaftliche Einbußen abwenden, die Wettbewerbsfähigkeit sichern und die Innovationskraft Deutschlands erhalten. Es muss international ausgerichtet gedacht und gehandelt werden.  Die Wahrheit ist: Wir können das Problem nicht allein lösen. Trotz Rekordbeschäftigung zuletzt reicht es nicht. Nach wie vor fehlen in vielen Branchen Arbeitskräfte. Und das hat Folgen: Denn durch unbesetzte Stellen entstehen unserer Volkswirtschaft und damit der Gesellschaft immense Verluste: 570.000 offene Stellen haben im vergangenen Jahr Produktionskapazitäten in Höhe von 49 Milliarden Euro gekostet – zu diesem Ergebnis kommt eine Studie des Instituts der deutschen Wirtschaft.  Besonders schmerzhaft ist dies für den Mittelstand, das Rückgrat unserer Wirtschaft. Viele Unternehmen suchen händeringend nach Fachkräften – und finden keine. Vor allem in der IT-Branche ist die Lage dramatisch. Wenn Stellen unbesetzt bleiben, kommt es zu Engpässen, Verzögerungen bei der Umsetzung von Projekten, verminderter Leistung und schlechterer Qualität – das wird teuer: Wie Stepstone ermittelt hat, kostet jede unbesetzte Stelle Arbeitgeber durchschnittlich 29.000 Euro. Größere Unternehmen mit mehr als 250 Mitarbeitern zahlen sogar mehr als 73.000 Euro für die Nichtbesetzung einer Stelle.     An Innovationskraft mangelt es nicht Dabei fehlt es in Deutschland nicht an Innovationen: Mit fast 25.000 Patentanmeldungen im Jahr 2023 liegt Deutschland auf Platz zwei hinter den USA und lässt selbst große Wirtschaftsnationen wie Japan und China hinter sich. Diese beeindruckende Bilanz zeigt: An Kreativität und technologischem Fortschritt mangelt es uns nicht. Unsere Wissenschaftler, Ingenieure und Entwickler gehören zur Weltspitze und liefern regelmäßig bahnbrechende Erfindungen in Bereichen wie künstliche Intelligenz, erneuerbare Energien und industrielle Automatisierung.  Doch so vielversprechend diese Innovationskraft auch ist, sie kann ihr Potenzial nur entfalten, wenn sie von den richtigen Menschen in die Praxis umgesetzt wird. Und genau hier liegt die Herausforderung: Es fehlt an Fachkräften, die unsere Ideen in marktfähige Produkte und Dienstleistungen umsetzen.   Forschung und Entwicklung sind ein starkes Fundament, aber ohne genügend IT-Experten und Spezialisten für die digitale Transformation bleibt ein großer Teil dieser Innovationen ungenutzt. Das Risiko: Technologische Durchbrüche bleiben unvollendet oder werden in anderen Ländern schneller eingeführt und gefährden den Wettbewerbsvorteil Deutschlands.   Internationale Rekrutierung: Chance statt Risiko Internationales Recruiting ist keine Option mehr, sondern ein absolutes Muss. Um international wettbewerbsfähig zu bleiben und unsere Position als Innovationsstandort zu sichern, brauchen wir qualifizierte Fachkräfte. Doch gerade mittelständische Unternehmen stehen hier vor vielen Herausforderungen: Bürokratie, Integration oder die Frage, ob die neuen Mitarbeiterinnen und Mitarbeiter ins Team passen – all das mag auf den ersten Blick schwierig erscheinen. Doch eines ist sicher: Die Chancen, die sich aus der Einstellung von Fachkräften aus dem Ausland ergeben, überwiegen die möglichen Hürden bei weitem.   Folgende Maßnahmen sollten Arbeitgeber ergreifen, damit die Rekrutierung langfristig zum Erfolg wird:  Employer Branding stärken: Internationale Talente wollen wissen, was sie erwartet. Eine mehrsprachige Karriereseite, authentische Videos und Success Stories können Unternehmen ins beste Licht rücken. Auch internationale Plattformen wie LinkedIn sollten aktiv genutzt werden. Und: Nur wenige der deutschen CEOs etablierter Unternehmen posten regelmäßig auf Englisch. Das muss sich ändern, wenn wir global sichtbar sein wollen.  Bestehende Verbindungen nutzen: Die Kontinentalregionen Südamerika, Südostasien und Afrika haben ein enormes Potenzial an Talenten. Aber auch hier gilt: Es gibt nicht das typische Herkunftsland für internationale Fachkräfte. Vielmehr ist es wichtig, bei der Suche strategisch vorzugehen und bestehende Verbindungen zu analysieren. Internationale Geschäftspartner oder Kunden können dabei helfen, vor Ort Zugang zu Talenten zu erhalten. Ebenso unterstützen ausländische Branchenverbände die ersten Schritte der Rekrutierung. Ebenso hilfreich kann es sein, wenn Mitarbeitende bereits ein internationales Netzwerk haben. Daneben gibt es klassische Kanäle, die jedes mittelständische Unternehmen ohne Vorerfahrung und großen Aufwand nutzen kann, wie zum Beispiel die Auslandshandelskammern.  Ein präzises Anforderungsprofil und transparente Erwartungen sind entscheidend für den Erfolg: Internationale Qualifikationen können sich voneinander unterscheiden. Deshalb erfordert ein erfolgreiches Matching eine sorgfältig gestaltete Stellenausschreibung, die spezifische Fähigkeiten und Erwartungen an die neuen Mitarbeitenden klar hervorhebt. Und da ein Umzug ins Ausland verständlicherweise mit Unsicherheiten verbunden ist, sollten Unternehmen durch die proaktive Beantwortung häufiger Fragen und eine ansprechende Darstellung des Arbeitsumfeldes ihre Attraktivität als Arbeitgeber steigern.    Integration: Der Schlüssel zum langfristigen Erfolg  Ist eine geeignete Kandidatin oder ein geeigneter Kandidat gefunden, ist ein erster großer Schritt getan – aber noch nicht die ganze Arbeit. Denn nun gilt es, alles dafür zu geben, dass die Person gut eingearbeitet wird und sich langfristig an das Unternehmen bindet. Ein Punkt, den viele dabei unterschätzen, ist die Integration. Die Einstellung eines internationalen Talents ist erst der Anfang. Der Erfolg hängt davon ab, wie gut wir diese Mitarbeiterinnen und Mitarbeiter in unser Unternehmen und unsere Gesellschaft integrieren. Was kann dabei helfen?  Buddy-Systeme: Eine erfahrene Kollegin oder ein erfahrener Kollege, der als Ansprechpartner für neue Mitarbeitende fungiert, kann enorm helfen. Diese Unterstützung schafft Sicherheit und erleichtert die Eingewöhnung in die Unternehmenskultur und den Arbeitsalltag.  Interkulturelle Trainings: Unterschiede in der Art zu kommunizieren, zu arbeiten und in den kulturellen Gepflogenheiten führen schnell zu Missverständnissen. Workshops oder Trainings helfen, diese Barrieren abzubauen und schaffen ein harmonisches Miteinander – sowohl für neue Mitarbeitende als auch für das bestehende Team.  Praktische Hilfen: Wer in ein neues Land zieht, steht oft vor einem Berg administrativer Aufgaben. Hilfestellungen bei der Anmeldung eines Wohnsitzes, der Beantragung einer Steuernummer oder dem Abschluss einer Krankenversicherung zeigen, dass sich das Unternehmen um das Wohl seiner Belegschaft kümmert.  Übrigens: Gerade in Sachen Bürokratie gibt es gute Nachrichten: Das Fachkräfteeinwanderungsgesetz hat vieles vereinfacht. Internationale IT-Expertinnen und -Experten benötigen nur zwei Jahre Berufserfahrung, um sich zu qualifizieren. Und die Erteilung eines Visums dauert in der Regel nicht länger als vier Wochen – oft schneller als ein Arbeitgeberwechsel mit typischen Kündigungsfristen hier in Deutschland. Auch das zeigt: Bürokratie muss kein Hindernis mehr sein.    Vielfalt als Wettbewerbsvorteil Wenn Unternehmen internationale Fachkräfte einstellen, gewinnen sie nicht nur dringend benötigtes neues Personal – die Vorteile reichen weit darüber hinaus. Studien zeigen, dass vielfältig zusammengesetzte Teams kreativer arbeiten und effektiver kommunizieren. Diese Vielfalt stärkt nicht nur die Innovationskraft eines Unternehmens, sondern trägt auch zu einer offenen und wertschätzenden Unternehmenskultur bei – ein unschätzbarer Wettbewerbsvorteil in einer globalisierten Arbeitswelt.  Darüber hinaus schätzen Mitarbeitende ein diverses Arbeitsumfeld immer mehr. Ein vielfältiges Team signalisiert eine offene und moderne Haltung, was nicht nur internationale Talente anzieht, sondern auch die Attraktivität eines Unternehmens für lokale Fachkräfte erhöht. So kann die Rekrutierung aus dem Ausland dazu beitragen, das Employer Branding insgesamt zu stärken und als fortschrittlicher, zukunftsorientierter Arbeitgeber wahrgenommen zu werden.  

Warum internationales Recruiting für Deutschland unverzichtbar ist​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Recruiting-shutterstock_279403604.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Deutschland leidet besonders stark unter dem Fachkräftemangel. Recruiter sowie Personalabteilungen sollten ihren Blick bei der Personalsuche deshalb international ausrichten.Rawpixel.com – Shutterstock 279403604

Die deutsche Wirtschaft steht an einem entscheidenden Wendepunkt. Insbesondere der Mittelstand hierzulande kämpft mit einem massiven Fachkräftemangel in verschiedenen Branchen. Schon heute sind dem Branchenverband Bitkom zufolge hierzulande 149.000 Stellen in der IT-Branche unbesetzt, bis 2040 könnten mehr als 663.000 IT-Fachkräfte fehlen. Ähnliche Engpässe werden in anderen Sektoren erwartet. Im Gesundheitswesen führt der Mangel an Pflegekräften und Ärzten zu erheblichen Herausforderungen in der Patientenversorgung. Im Handwerk bleiben zahlreiche Ausbildungsplätze unbesetzt, was die Zukunft traditioneller Gewerbe gefährdet. 

Nur durch entschlossene und effektive Maßnahmen gegen den Fachkräftemangel kann Deutschland massive wirtschaftliche Einbußen abwenden, die Wettbewerbsfähigkeit sichern und die Innovationskraft Deutschlands erhalten. Es muss international ausgerichtet gedacht und gehandelt werden. 

Die Wahrheit ist: Wir können das Problem nicht allein lösen. Trotz Rekordbeschäftigung zuletzt reicht es nicht. Nach wie vor fehlen in vielen Branchen Arbeitskräfte. Und das hat Folgen: Denn durch unbesetzte Stellen entstehen unserer Volkswirtschaft und damit der Gesellschaft immense Verluste: 570.000 offene Stellen haben im vergangenen Jahr Produktionskapazitäten in Höhe von 49 Milliarden Euro gekostet – zu diesem Ergebnis kommt eine Studie des Instituts der deutschen Wirtschaft. 

Besonders schmerzhaft ist dies für den Mittelstand, das Rückgrat unserer Wirtschaft. Viele Unternehmen suchen händeringend nach Fachkräften – und finden keine. Vor allem in der IT-Branche ist die Lage dramatisch. Wenn Stellen unbesetzt bleiben, kommt es zu Engpässen, Verzögerungen bei der Umsetzung von Projekten, verminderter Leistung und schlechterer Qualität – das wird teuer: Wie Stepstone ermittelt hat, kostet jede unbesetzte Stelle Arbeitgeber durchschnittlich 29.000 Euro. Größere Unternehmen mit mehr als 250 Mitarbeitern zahlen sogar mehr als 73.000 Euro für die Nichtbesetzung einer Stelle.  

 

An Innovationskraft mangelt es nicht

Dabei fehlt es in Deutschland nicht an Innovationen: Mit fast 25.000 Patentanmeldungen im Jahr 2023 liegt Deutschland auf Platz zwei hinter den USA und lässt selbst große Wirtschaftsnationen wie Japan und China hinter sich. Diese beeindruckende Bilanz zeigt: An Kreativität und technologischem Fortschritt mangelt es uns nicht. Unsere Wissenschaftler, Ingenieure und Entwickler gehören zur Weltspitze und liefern regelmäßig bahnbrechende Erfindungen in Bereichen wie künstliche Intelligenz, erneuerbare Energien und industrielle Automatisierung. 

Doch so vielversprechend diese Innovationskraft auch ist, sie kann ihr Potenzial nur entfalten, wenn sie von den richtigen Menschen in die Praxis umgesetzt wird. Und genau hier liegt die Herausforderung: Es fehlt an Fachkräften, die unsere Ideen in marktfähige Produkte und Dienstleistungen umsetzen.  

Forschung und Entwicklung sind ein starkes Fundament, aber ohne genügend IT-Experten und Spezialisten für die digitale Transformation bleibt ein großer Teil dieser Innovationen ungenutzt. Das Risiko: Technologische Durchbrüche bleiben unvollendet oder werden in anderen Ländern schneller eingeführt und gefährden den Wettbewerbsvorteil Deutschlands.  

Internationale Rekrutierung: Chance statt Risiko

Internationales Recruiting ist keine Option mehr, sondern ein absolutes Muss. Um international wettbewerbsfähig zu bleiben und unsere Position als Innovationsstandort zu sichern, brauchen wir qualifizierte Fachkräfte. Doch gerade mittelständische Unternehmen stehen hier vor vielen Herausforderungen: Bürokratie, Integration oder die Frage, ob die neuen Mitarbeiterinnen und Mitarbeiter ins Team passen – all das mag auf den ersten Blick schwierig erscheinen. Doch eines ist sicher: Die Chancen, die sich aus der Einstellung von Fachkräften aus dem Ausland ergeben, überwiegen die möglichen Hürden bei weitem.  

Folgende Maßnahmen sollten Arbeitgeber ergreifen, damit die Rekrutierung langfristig zum Erfolg wird: 

Employer Branding stärken: Internationale Talente wollen wissen, was sie erwartet. Eine mehrsprachige Karriereseite, authentische Videos und Success Stories können Unternehmen ins beste Licht rücken. Auch internationale Plattformen wie LinkedIn sollten aktiv genutzt werden. Und: Nur wenige der deutschen CEOs etablierter Unternehmen posten regelmäßig auf Englisch. Das muss sich ändern, wenn wir global sichtbar sein wollen. 

Bestehende Verbindungen nutzen: Die Kontinentalregionen Südamerika, Südostasien und Afrika haben ein enormes Potenzial an Talenten. Aber auch hier gilt: Es gibt nicht das typische Herkunftsland für internationale Fachkräfte. Vielmehr ist es wichtig, bei der Suche strategisch vorzugehen und bestehende Verbindungen zu analysieren. Internationale Geschäftspartner oder Kunden können dabei helfen, vor Ort Zugang zu Talenten zu erhalten. Ebenso unterstützen ausländische Branchenverbände die ersten Schritte der Rekrutierung. Ebenso hilfreich kann es sein, wenn Mitarbeitende bereits ein internationales Netzwerk haben. Daneben gibt es klassische Kanäle, die jedes mittelständische Unternehmen ohne Vorerfahrung und großen Aufwand nutzen kann, wie zum Beispiel die Auslandshandelskammern. 

Ein präzises Anforderungsprofil und transparente Erwartungen sind entscheidend für den Erfolg: Internationale Qualifikationen können sich voneinander unterscheiden. Deshalb erfordert ein erfolgreiches Matching eine sorgfältig gestaltete Stellenausschreibung, die spezifische Fähigkeiten und Erwartungen an die neuen Mitarbeitenden klar hervorhebt. Und da ein Umzug ins Ausland verständlicherweise mit Unsicherheiten verbunden ist, sollten Unternehmen durch die proaktive Beantwortung häufiger Fragen und eine ansprechende Darstellung des Arbeitsumfeldes ihre Attraktivität als Arbeitgeber steigern. 

 

Integration: Der Schlüssel zum langfristigen Erfolg 

Ist eine geeignete Kandidatin oder ein geeigneter Kandidat gefunden, ist ein erster großer Schritt getan – aber noch nicht die ganze Arbeit. Denn nun gilt es, alles dafür zu geben, dass die Person gut eingearbeitet wird und sich langfristig an das Unternehmen bindet. Ein Punkt, den viele dabei unterschätzen, ist die Integration. Die Einstellung eines internationalen Talents ist erst der Anfang. Der Erfolg hängt davon ab, wie gut wir diese Mitarbeiterinnen und Mitarbeiter in unser Unternehmen und unsere Gesellschaft integrieren. Was kann dabei helfen? 

Buddy-Systeme: Eine erfahrene Kollegin oder ein erfahrener Kollege, der als Ansprechpartner für neue Mitarbeitende fungiert, kann enorm helfen. Diese Unterstützung schafft Sicherheit und erleichtert die Eingewöhnung in die Unternehmenskultur und den Arbeitsalltag. 

Interkulturelle Trainings: Unterschiede in der Art zu kommunizieren, zu arbeiten und in den kulturellen Gepflogenheiten führen schnell zu Missverständnissen. Workshops oder Trainings helfen, diese Barrieren abzubauen und schaffen ein harmonisches Miteinander – sowohl für neue Mitarbeitende als auch für das bestehende Team. 

Praktische Hilfen: Wer in ein neues Land zieht, steht oft vor einem Berg administrativer Aufgaben. Hilfestellungen bei der Anmeldung eines Wohnsitzes, der Beantragung einer Steuernummer oder dem Abschluss einer Krankenversicherung zeigen, dass sich das Unternehmen um das Wohl seiner Belegschaft kümmert. 

Übrigens: Gerade in Sachen Bürokratie gibt es gute Nachrichten: Das Fachkräfteeinwanderungsgesetz hat vieles vereinfacht. Internationale IT-Expertinnen und -Experten benötigen nur zwei Jahre Berufserfahrung, um sich zu qualifizieren. Und die Erteilung eines Visums dauert in der Regel nicht länger als vier Wochen – oft schneller als ein Arbeitgeberwechsel mit typischen Kündigungsfristen hier in Deutschland. Auch das zeigt: Bürokratie muss kein Hindernis mehr sein. 

 

Vielfalt als Wettbewerbsvorteil

Wenn Unternehmen internationale Fachkräfte einstellen, gewinnen sie nicht nur dringend benötigtes neues Personal – die Vorteile reichen weit darüber hinaus. Studien zeigen, dass vielfältig zusammengesetzte Teams kreativer arbeiten und effektiver kommunizieren. Diese Vielfalt stärkt nicht nur die Innovationskraft eines Unternehmens, sondern trägt auch zu einer offenen und wertschätzenden Unternehmenskultur bei – ein unschätzbarer Wettbewerbsvorteil in einer globalisierten Arbeitswelt. 

Darüber hinaus schätzen Mitarbeitende ein diverses Arbeitsumfeld immer mehr. Ein vielfältiges Team signalisiert eine offene und moderne Haltung, was nicht nur internationale Talente anzieht, sondern auch die Attraktivität eines Unternehmens für lokale Fachkräfte erhöht. So kann die Rekrutierung aus dem Ausland dazu beitragen, das Employer Branding insgesamt zu stärken und als fortschrittlicher, zukunftsorientierter Arbeitgeber wahrgenommen zu werden. 

Warum internationales Recruiting für Deutschland unverzichtbar ist​ Weiterlesen »

Managed Cloud Services – diese Anbieter sollten Sie im Blick haben​

Allgemein

Auf Augenhöhe mit den Kunden kommunizieren – damit punkten gerade kleinere und mittelgroße Managed Service Provider.Mark Agnor – shutterstock.com Im Geschäft mit hybriden Cloud-Lösungen verlieren die großen globalen Systemintegratoren vermehrt Kunden an mittelständische Anbieter. Diese könnten wegen der geringeren Gemeinkosten wettbewerbsfähigere Preise anbieten und seien bei der Anpassung an sich ändernde Marktbedingungen agiler. Darüber hinaus hätten sie gelernt, schneller innovative technologische Lösungen für individuelle Kundenprobleme zu bauen und bereitzustellen.  Das haben die Analysten des Marktforschungs- und Beratungsunternehmen Information Services Group (ISG) in ihrer Vergleichsstudie „ISG Provider Lens Private/Hybrid-Cloud – Data Center Services Germany 2024” beobachtet. In der Studie hat ISG die Portfolio- und Wettbewerbsstärke von 100 IT-Dienstleistern und Produktanbietern untersucht, die im deutschen Private/Hybrid-Cloud-Markt mit Services und Lösungen vertreten sind.  Die großen Cloud-Herausforderungen: Souveränität, Sicherheit und Datenschutz   Grundsätzlich würden Private- und Hybrid-Cloud-Lösungen mehr in den Fokus rücken, konstatierten die ISG-Analysten. Solche IT-Infrastrukturen könnten die Anwenderunternehmen effizienter bei den derzeit aktuellen Herausforderungen wie Cloud-Souveränität, Sicherheit und Datenschutz unterstützen, hieß es. Darüber hinaus gewinne auch bei mittelständischen Unternehmen die Integration von KI- und ML-Technologien an Bedeutung. Der Grund: Die dadurch ermöglichten Automatisierungen führten zu Prozessverbesserungen und Kosteneinsparungen.  Deutschland ist der ISG-Studie zufolge einer der wichtigsten europäischen Märkte für gemanagte Hybrid-Cloud-Services. Jedoch verändert sich der hiesige Markt in seiner Struktur. Kleinere Serviceanbieter kämen mittlerweile verstärkt zum Zug, weil gerade Kleinbetriebe und Mittelständler mit ihnen auf Augenhöhe agieren und kommunizieren könnten. Diese Serviceanbieter sind ISG zufolge auch deshalb in der Lage, zu den großen Systemintegratoren aufzuschließen, weil Private-Equity-Unternehmen das notwendige Kapital für Merger und Übernahmen zur Verfügung stellen. „Durch das rege Übernahme- und Fusionsgeschehen ist der Markt deutlich in Bewegung geraten“, sagt Heiko Henkes, Managing Director und Principal Analyst bei ISG. „Im Mittelpunkt des Provider-Angebots steht dabei mehr und mehr das Thema Managed Hybrid Cloud. Denn auch mittelständische Kunden nutzen zunehmend mehrere Hyperscaler für Prozesslösungen, während die Integration von Bestandsanwendungen komplexer wird“, so Henkes weiter.  Von der Multi- zur Poly-Cloud  Auch bei der Wahl der Cloud-Modelle zeichnen sich Veränderungen ab. Laut ISG-Studie seien hybride und Multi-Cloud-Varianten mittlerweile die gängigsten Vorgehensweisen. Sie würden sich zudem mehr und mehr in Richtung „Poly-Cloud“ entwickeln, bei der einzelne konkrete Services anstatt umfassende Gesamtsysteme im Mittelpunkt stehen.  Im Marktsegment „Managed Services – Midmarket“ hat ISG insgesamt 26 Anbieter untersucht. 10 davon sehen die Marktforscher von ISG als „Leader“.ISG Ziel einer Poly-Cloud ist es, dafür zu sorgen, dass Anwendungen und Services Zugang zu den jeweils besten verfügbaren Diensten haben – sei es eine branchenspezifische Cloud-Lösung, eine spezialisierte Datenbank oder ein bestimmter KI- oder ML-Dienst. „Die Poly-Cloud basiert in der Regel auf mehreren Public-Cloud-Anbietern, die mit der Private Cloud kombiniert werden“, beschreibt ISG-Analyst Henkes das Konzept. „Diese Transformation treibt die aktuelle Modernisierung der IT-Infrastruktur wesentlich voran.“  Die Cloud-Kosten müssen runter  Angesichts der zunehmend schwierigeren wirtschaftlichen Rahmenbedingungen genießt das Thema Kostenoptimierung in der Cloud derzeit höchste Priorität. Die Verantwortlichen in den Unternehmen richteten ihre Ziele deutlich auf Kostensenkung und Effizienz aus, so die ISG-Analysten. Infolge der schnellen Expansion der Cloud-Nutzung in den zurückliegenden Jahren hätten sich die entsprechenden Ausgaben zu einem der wichtigsten Posten entwickelt, wenn es um Kostensenkungen gehe.  Wie sich mit FinOps Cloud-Kosten bändigen lassen In den vergangenen Jahren hätten Unternehmen Kostensenkungen vor allem durch einfaches FinOps-Cloud-Management erreicht. Nun stünden jedoch grundlegendere strukturelle Reformen an, bei der zum Beispiel günstigere Cloud-native Technologien wie zum Beispiel „serverless“ zum Einsatz kommen, bei der Server von der App-Entwicklung getrennt behandelt werden.   Viele ältere IT-Infrastrukturen in Deutschland  „Gerade in Deutschland halten noch viele Unternehmen an älteren IT-Infrastrukturen fest“, ergänzt Henkes. „Rein kurzfristige Maßnahmen der Kostensenkung können hier sogar langfristig nachteilige Folgen haben.“ Den Serviceanbietern komme dem Analysten zufolge deshalb eine entscheidende Rolle dabei zu. Es gelte, bestehende Infrastrukturen gründlich zu analysieren und zu bewerten, Lücken und Ineffizienzen zu identifizieren und eine Roadmap zu entwickeln, wie diese Systeme aktualisiert oder ersetzt werden könnten. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Weiteren Auftrieb erhielten die Provider im deutschen Markt für Private/Hybrid-Cloud-Services durch das Thema „souveräne Cloud“. Gerade mit der stärkeren Nutzung von KI-Services nähmen der Umfang und die Qualität der in der Cloud vorgehaltenen Daten exponentiell zu und damit auch die Bedeutung von Datenschutz. Dies werte die Rolle der Private Cloud zusätzlich auf, da sie als gekapselte Einheit besser vor Zugriffen geschützt sei als Public-Cloud-Modelle, so die Studie.  Diese Provider werden am besten bewertet  Die Studie „ISG Provider Lens Private/Hybrid-Cloud – Data Center Services Germany 2024“ bewertet die Fähigkeiten von insgesamt 100 Anbietern in sechs Marktsegmenten: „Managed Services – Large Accounts”, „Managed Services – Midmarket“, „Managed Hosting – Large Accounts“, „Managed Hosting – Midmarket“, „Colocation Services – Large Accounts“ und „Colocation Services – Midmarket“ Eingeordnet werden die Anbieter in vier Quadranten: Leader, Product Challenger, Market Challenger und Contender Diese Anbieter schneiden am besten ab: Leader in drei Marktsegmenten: plusserver Leader in zwei Marktsegmente: Arvato Systems, Atos, Axians, CANCOM, Claranet, DATAGROUP, Deutsche Telekom GK, Kyndryl, q.beyond, Rackspace Technology, Syntax und T-Systems Leader in einem Marktsegment: Accenture, akquinet, All for One Group, Capgemini, Computacenter, CyrusOne, Datacenter One, Digital Realty, DXC Technology, Equinix, HCLTech, Infosys, IONOS, ITENOS, KAMP, maincubes, Materna, noris network, NTT DATA, NTT GDC, PFALZKOM, STACKIT, Telehouse, TelemaxX, WIIT und Wipro.  Zudem werden Cognizant, CONVOTIS, Datacenter Leipzig und Global Switch in je einem Quadranten als „Rising Star“ eingestuft. Nach Definition von ISG handelt es sich dabei um Unternehmen mit vielversprechendem Portfolio und hohem Zukunftspotenzial. Im Bereich „Customer Experience“ wurde Green unter den Serviceanbietern von Private/Hybrid-Cloud – Data Center Services als globaler „ISG CX Star Performer 2024“ ausgezeichnet. Green hat in der ISG-Umfrage „Voice of the Customer“ in Sachen Kundenzufriedenheit die höchsten Werte erzielt.  

Managed Cloud Services – diese Anbieter sollten Sie im Blick haben​ Auf Augenhöhe mit den Kunden kommunizieren – damit punkten gerade kleinere und mittelgroße Managed Service Provider.Mark Agnor – shutterstock.com

Im Geschäft mit hybriden Cloud-Lösungen verlieren die großen globalen Systemintegratoren vermehrt Kunden an mittelständische Anbieter. Diese könnten wegen der geringeren Gemeinkosten wettbewerbsfähigere Preise anbieten und seien bei der Anpassung an sich ändernde Marktbedingungen agiler. Darüber hinaus hätten sie gelernt, schneller innovative technologische Lösungen für individuelle Kundenprobleme zu bauen und bereitzustellen. 

Das haben die Analysten des Marktforschungs- und Beratungsunternehmen Information Services Group (ISG) in ihrer Vergleichsstudie „ISG Provider Lens Private/Hybrid-Cloud – Data Center Services Germany 2024” beobachtet. In der Studie hat ISG die Portfolio- und Wettbewerbsstärke von 100 IT-Dienstleistern und Produktanbietern untersucht, die im deutschen Private/Hybrid-Cloud-Markt mit Services und Lösungen vertreten sind. 

Die großen Cloud-Herausforderungen: Souveränität, Sicherheit und Datenschutz  

Grundsätzlich würden Private- und Hybrid-Cloud-Lösungen mehr in den Fokus rücken, konstatierten die ISG-Analysten. Solche IT-Infrastrukturen könnten die Anwenderunternehmen effizienter bei den derzeit aktuellen Herausforderungen wie Cloud-Souveränität, Sicherheit und Datenschutz unterstützen, hieß es. Darüber hinaus gewinne auch bei mittelständischen Unternehmen die Integration von KI- und ML-Technologien an Bedeutung. Der Grund: Die dadurch ermöglichten Automatisierungen führten zu Prozessverbesserungen und Kosteneinsparungen. 

Deutschland ist der ISG-Studie zufolge einer der wichtigsten europäischen Märkte für gemanagte Hybrid-Cloud-Services. Jedoch verändert sich der hiesige Markt in seiner Struktur. Kleinere Serviceanbieter kämen mittlerweile verstärkt zum Zug, weil gerade Kleinbetriebe und Mittelständler mit ihnen auf Augenhöhe agieren und kommunizieren könnten. Diese Serviceanbieter sind ISG zufolge auch deshalb in der Lage, zu den großen Systemintegratoren aufzuschließen, weil Private-Equity-Unternehmen das notwendige Kapital für Merger und Übernahmen zur Verfügung stellen.

„Durch das rege Übernahme- und Fusionsgeschehen ist der Markt deutlich in Bewegung geraten“, sagt Heiko Henkes, Managing Director und Principal Analyst bei ISG. „Im Mittelpunkt des Provider-Angebots steht dabei mehr und mehr das Thema Managed Hybrid Cloud. Denn auch mittelständische Kunden nutzen zunehmend mehrere Hyperscaler für Prozesslösungen, während die Integration von Bestandsanwendungen komplexer wird“, so Henkes weiter. 

Von der Multi- zur Poly-Cloud 

Auch bei der Wahl der Cloud-Modelle zeichnen sich Veränderungen ab. Laut ISG-Studie seien hybride und Multi-Cloud-Varianten mittlerweile die gängigsten Vorgehensweisen. Sie würden sich zudem mehr und mehr in Richtung „Poly-Cloud“ entwickeln, bei der einzelne konkrete Services anstatt umfassende Gesamtsysteme im Mittelpunkt stehen. 

Im Marktsegment „Managed Services – Midmarket“ hat ISG insgesamt 26 Anbieter untersucht. 10 davon sehen die Marktforscher von ISG als „Leader“.ISG

Ziel einer Poly-Cloud ist es, dafür zu sorgen, dass Anwendungen und Services Zugang zu den jeweils besten verfügbaren Diensten haben – sei es eine branchenspezifische Cloud-Lösung, eine spezialisierte Datenbank oder ein bestimmter KI- oder ML-Dienst. „Die Poly-Cloud basiert in der Regel auf mehreren Public-Cloud-Anbietern, die mit der Private Cloud kombiniert werden“, beschreibt ISG-Analyst Henkes das Konzept. „Diese Transformation treibt die aktuelle Modernisierung der IT-Infrastruktur wesentlich voran.“ 

Die Cloud-Kosten müssen runter 

Angesichts der zunehmend schwierigeren wirtschaftlichen Rahmenbedingungen genießt das Thema Kostenoptimierung in der Cloud derzeit höchste Priorität. Die Verantwortlichen in den Unternehmen richteten ihre Ziele deutlich auf Kostensenkung und Effizienz aus, so die ISG-Analysten. Infolge der schnellen Expansion der Cloud-Nutzung in den zurückliegenden Jahren hätten sich die entsprechenden Ausgaben zu einem der wichtigsten Posten entwickelt, wenn es um Kostensenkungen gehe. 

Wie sich mit FinOps Cloud-Kosten bändigen lassen

In den vergangenen Jahren hätten Unternehmen Kostensenkungen vor allem durch einfaches FinOps-Cloud-Management erreicht. Nun stünden jedoch grundlegendere strukturelle Reformen an, bei der zum Beispiel günstigere Cloud-native Technologien wie zum Beispiel „serverless“ zum Einsatz kommen, bei der Server von der App-Entwicklung getrennt behandelt werden.  

Viele ältere IT-Infrastrukturen in Deutschland 

„Gerade in Deutschland halten noch viele Unternehmen an älteren IT-Infrastrukturen fest“, ergänzt Henkes. „Rein kurzfristige Maßnahmen der Kostensenkung können hier sogar langfristig nachteilige Folgen haben.“ Den Serviceanbietern komme dem Analysten zufolge deshalb eine entscheidende Rolle dabei zu. Es gelte, bestehende Infrastrukturen gründlich zu analysieren und zu bewerten, Lücken und Ineffizienzen zu identifizieren und eine Roadmap zu entwickeln, wie diese Systeme aktualisiert oder ersetzt werden könnten.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Weiteren Auftrieb erhielten die Provider im deutschen Markt für Private/Hybrid-Cloud-Services durch das Thema „souveräne Cloud“. Gerade mit der stärkeren Nutzung von KI-Services nähmen der Umfang und die Qualität der in der Cloud vorgehaltenen Daten exponentiell zu und damit auch die Bedeutung von Datenschutz. Dies werte die Rolle der Private Cloud zusätzlich auf, da sie als gekapselte Einheit besser vor Zugriffen geschützt sei als Public-Cloud-Modelle, so die Studie. 

Diese Provider werden am besten bewertet 

Die Studie „ISG Provider Lens Private/Hybrid-Cloud – Data Center Services Germany 2024“ bewertet die Fähigkeiten von insgesamt 100 Anbietern in sechs Marktsegmenten:

„Managed Services – Large Accounts”,

„Managed Services – Midmarket“,

„Managed Hosting – Large Accounts“,

„Managed Hosting – Midmarket“,

„Colocation Services – Large Accounts“ und

„Colocation Services – Midmarket“

Eingeordnet werden die Anbieter in vier Quadranten:

Leader,

Product Challenger,

Market Challenger und

Contender

Diese Anbieter schneiden am besten ab:

Leader in drei Marktsegmenten: plusserver

Leader in zwei Marktsegmente: Arvato Systems, Atos, Axians, CANCOM, Claranet, DATAGROUP, Deutsche Telekom GK, Kyndryl, q.beyond, Rackspace Technology, Syntax und T-Systems

Leader in einem Marktsegment: Accenture, akquinet, All for One Group, Capgemini, Computacenter, CyrusOne, Datacenter One, Digital Realty, DXC Technology, Equinix, HCLTech, Infosys, IONOS, ITENOS, KAMP, maincubes, Materna, noris network, NTT DATA, NTT GDC, PFALZKOM, STACKIT, Telehouse, TelemaxX, WIIT und Wipro. 

Zudem werden Cognizant, CONVOTIS, Datacenter Leipzig und Global Switch in je einem Quadranten als „Rising Star“ eingestuft. Nach Definition von ISG handelt es sich dabei um Unternehmen mit vielversprechendem Portfolio und hohem Zukunftspotenzial. Im Bereich „Customer Experience“ wurde Green unter den Serviceanbietern von Private/Hybrid-Cloud – Data Center Services als globaler „ISG CX Star Performer 2024“ ausgezeichnet. Green hat in der ISG-Umfrage „Voice of the Customer“ in Sachen Kundenzufriedenheit die höchsten Werte erzielt. 

Managed Cloud Services – diese Anbieter sollten Sie im Blick haben​ Weiterlesen »

CES-Absurditäten 2025​

Allgemein

Eyecatcher mit Hang zur Absurdität haben auf der CES Tradition.SunflowerMomma | shutterstock.com Künstliche Intelligenz (KI) gibt auch auf der CES 2025 in Las Vegas den Ton an. Das treibt einige, mehr oder weniger erwartbare Blüten – und andere, die Fragen aufwerfen. 1. LG AeroCatTower Der koreanische Elektronikriese LG hat auf der CES nicht nur schicke, neue OLED-TVs präsentiert, sondern auch die (wahrscheinlich) ultimative Kreuzung aus Katzenbaum und Air Purifier. Das Ergebnis in gewohnt gefälligem LG-Design kann von den felligen Gesellen nicht nur zerkratzt und bestiegen werden, sondern wärmt auch deren Sitzfleisch. Ganz nebenbei erfasst es über Sensoren auch ihre Gesundheitsdaten (Gewicht, Schlafphasen, etc.). Diese lassen sich anschließend per App analysieren, damit Selbstoptimierung endlich nicht mehr nur auf den Menschen beschränkt bleibt. Sogar an Stubentiger im Rentenalter haben die Koreaner gedacht: Greise Katzen erklimmen den AeroCatTower über eine andockbare „Aufstieghilfe“.   This cat tree is also an air purifier – https://www.theverge.com/2025/1/7/24338231/lg-aerocattower-air-purifier-cat-tower[image or embed]— The Verge (@verge-poster.bsky.social) 7. Januar 2025 um 18:51 Die Miezen-Präparate, mit denen LG seinem Katzenbaum-Lufterfrischer-Hybrid auf der CES „Leben“ einhauchen will, bilden das leicht gruselige i-Tüpfelchen, das diese CES-Neuheit abrundet. Zu Preis und Release gibt es bislang noch keine Infos. 2. Code27 Character Livehouse Vergessen Sie das angebliche Tamagotchi-Revival. Das Code27 Character Livehouse bringt das Konzept ins LLM-Zeitalter – und garniert es mit einer ordentlichen Portion „Creepiness“. Im Grunde handelt es sich bei dem Gadget um einen Zylinder, der ein HD-Display beherbergt. Das bildet das „Zuhause“ für eine KI-generierte Anime-Figur, die sich laut Hersteller mit Hilfe vortrainierter KI-Modelle zu einer individuellen „Persona“ mit eigenen „Emotionen“ entwickeln lässt. Eine Option für Ihren Office-Alltag?Sybran Innovation | Screenshot Das Ergebnis: Ein digitaler Gefährte, gefangen in einer Kapsel – stets gezwungen, mit seinem Benutzer zu interagieren. Demnächst soll das Produkt auf Kickstarter aufschlagen. 3. Birdfy Bath Pro Einen KI-Anwendungsfall der bislang völlig unter dem Radar lief, adressiert Birdfy mit seinem “Bath Pro” – einer zweifach kameraüberwachten, solarbetriebenen KI-Nasszelle für Vögel. Gehfaule Ornithologie-Enthusiasten können ihren gefiederten Besuch damit sowohl live im Auge behalten als auch in Bewegtbild und auf Fotos verewigen – die Dokumentationen lassen sich in der Cloud ablegen. Ein kostenpflichtiger KI-Analyseservice gibt dabei optional Auskunft darüber, welche Vogelart sich gerade erfrischt, bietet tägliche Besucherstatistiken und stellt sogar Highlights in Form einer Fotoshow zur Verfügung. 🌟 Introducing Birdfy’s latest product: Birdfy Bath Pro!🛒Pre-order Now: https://t.co/KOuwx6bSyU pic.twitter.com/cbYG2xU0Bh— Birdfy by Netvue (@BirdfybyNetvue) December 13, 2024 Ab März 2025 soll das Bath Pro von Birdfy vorbestellbar sein. Ein solches Maß an KI-infusionierter Vogelliebe hat aber auch ihren Preis, nämlich (regulär) rund 250 Euro. 4. Spicerr Der smarte Gewürzstreuer Spicerr ist eine weitere KI-Kuriosität der CES 2025. Er verspricht, mit dem „Rätselraten“ über das richtige „Flavoring“ endlich Schluss zu machen. Dazu wird der mit einem Touchscreen ausgestattete Gewürzstreuer mit einer App verbunden. Anschließend genügt ein Knopfdruck, um die für das jeweilige Gericht vorgesehenen Gewürze in perfekter Dosierung auszugeben. Diese befinden sich in speziellen, luftdicht verschlossenen Kapseln, die separat erhältlich sind (und gewährleisten sollen, dass die Inhalte länger frisch bleiben). Dass diese Art der Unterstützung den Spaß am Kochen zunichtemacht und am Ende auch etwas teuer kommt, ist allerdings gut möglich. Sollten Sie das Konzept wider Erwarten überzeugend finden, können Sie sich aber schon einmal auf die Warteliste setzen lassen. Im Gegensatz zum Anwendungsfall überzeugt das Werbevideo für den KI-Gewürzstreuer – mit seinem ganz eigenen Fiebertraum-Charme.    5. Zugu In Case of Death Case Ein besonders morbides Gadget-Schmankerl zeigt Zugu auf der CES 2025 mit dem „In Case of Death Case“. Dabei handelt es sich um ein Bundle aus einem iPad Pro (plus zugehörigem Case), einem Smart Ring und einer App, die zu einer Art Killswitch für das Onlineleben zusammenwirken. Zugu trifft mit seinem Marketing ins Schwarze.Zugu | Screenshot Das Konzept: Stirbt der Benutzer, merkt das der smarte Ring an seinem Finger. Sobald kein Herzschlag mehr feststellbar ist, triggert das sogenannte „Death Protections“, die vom User vorab definiert werden. Das kann etwa beinhalten, sämtliche Browser-Daten inklusive Suchhistorie zu löschen, das iPad komplett zurückzusetzen oder seine Follower per Tweet über das eigene Ableben zu informieren – inklusive einschlägiger Hashtags wie #NoHeartBeat und #RIPme. Das Gesamtpaket ist ab sofort zum Preis von 1.500 Dollar über die Webseite von Zugu bestellbar. Stilsicher bietet die Company nur eine Farboption an: Funeral Black. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

CES-Absurditäten 2025​ Eyecatcher mit Hang zur Absurdität haben auf der CES Tradition.SunflowerMomma | shutterstock.com

Künstliche Intelligenz (KI) gibt auch auf der CES 2025 in Las Vegas den Ton an. Das treibt einige, mehr oder weniger erwartbare Blüten – und andere, die Fragen aufwerfen.

1. LG AeroCatTower

Der koreanische Elektronikriese LG hat auf der CES nicht nur schicke, neue OLED-TVs präsentiert, sondern auch die (wahrscheinlich) ultimative Kreuzung aus Katzenbaum und Air Purifier.

Das Ergebnis in gewohnt gefälligem LG-Design kann von den felligen Gesellen nicht nur zerkratzt und bestiegen werden, sondern wärmt auch deren Sitzfleisch. Ganz nebenbei erfasst es über Sensoren auch ihre Gesundheitsdaten (Gewicht, Schlafphasen, etc.). Diese lassen sich anschließend per App analysieren, damit Selbstoptimierung endlich nicht mehr nur auf den Menschen beschränkt bleibt. Sogar an Stubentiger im Rentenalter haben die Koreaner gedacht: Greise Katzen erklimmen den AeroCatTower über eine andockbare „Aufstieghilfe“.  

This cat tree is also an air purifier – https://www.theverge.com/2025/1/7/24338231/lg-aerocattower-air-purifier-cat-tower[image or embed]— The Verge (@verge-poster.bsky.social) 7. Januar 2025 um 18:51

Die Miezen-Präparate, mit denen LG seinem Katzenbaum-Lufterfrischer-Hybrid auf der CES „Leben“ einhauchen will, bilden das leicht gruselige i-Tüpfelchen, das diese CES-Neuheit abrundet. Zu Preis und Release gibt es bislang noch keine Infos.

2. Code27 Character Livehouse

Vergessen Sie das angebliche Tamagotchi-Revival. Das Code27 Character Livehouse bringt das Konzept ins LLM-Zeitalter – und garniert es mit einer ordentlichen Portion „Creepiness“.

Im Grunde handelt es sich bei dem Gadget um einen Zylinder, der ein HD-Display beherbergt. Das bildet das „Zuhause“ für eine KI-generierte Anime-Figur, die sich laut Hersteller mit Hilfe vortrainierter KI-Modelle zu einer individuellen „Persona“ mit eigenen „Emotionen“ entwickeln lässt.

Eine Option für Ihren Office-Alltag?Sybran Innovation | Screenshot

Das Ergebnis: Ein digitaler Gefährte, gefangen in einer Kapsel – stets gezwungen, mit seinem Benutzer zu interagieren. Demnächst soll das Produkt auf Kickstarter aufschlagen.

3. Birdfy Bath Pro

Einen KI-Anwendungsfall der bislang völlig unter dem Radar lief, adressiert Birdfy mit seinem “Bath Pro” – einer zweifach kameraüberwachten, solarbetriebenen KI-Nasszelle für Vögel.

Gehfaule Ornithologie-Enthusiasten können ihren gefiederten Besuch damit sowohl live im Auge behalten als auch in Bewegtbild und auf Fotos verewigen – die Dokumentationen lassen sich in der Cloud ablegen. Ein kostenpflichtiger KI-Analyseservice gibt dabei optional Auskunft darüber, welche Vogelart sich gerade erfrischt, bietet tägliche Besucherstatistiken und stellt sogar Highlights in Form einer Fotoshow zur Verfügung.

🌟 Introducing Birdfy’s latest product: Birdfy Bath Pro!🛒Pre-order Now: https://t.co/KOuwx6bSyU pic.twitter.com/cbYG2xU0Bh— Birdfy by Netvue (@BirdfybyNetvue) December 13, 2024

Ab März 2025 soll das Bath Pro von Birdfy vorbestellbar sein. Ein solches Maß an KI-infusionierter Vogelliebe hat aber auch ihren Preis, nämlich (regulär) rund 250 Euro.

4. Spicerr

Der smarte Gewürzstreuer Spicerr ist eine weitere KI-Kuriosität der CES 2025. Er verspricht, mit dem „Rätselraten“ über das richtige „Flavoring“ endlich Schluss zu machen. Dazu wird der mit einem Touchscreen ausgestattete Gewürzstreuer mit einer App verbunden.

Anschließend genügt ein Knopfdruck, um die für das jeweilige Gericht vorgesehenen Gewürze in perfekter Dosierung auszugeben. Diese befinden sich in speziellen, luftdicht verschlossenen Kapseln, die separat erhältlich sind (und gewährleisten sollen, dass die Inhalte länger frisch bleiben). Dass diese Art der Unterstützung den Spaß am Kochen zunichtemacht und am Ende auch etwas teuer kommt, ist allerdings gut möglich. Sollten Sie das Konzept wider Erwarten überzeugend finden, können Sie sich aber schon einmal auf die Warteliste setzen lassen.

Im Gegensatz zum Anwendungsfall überzeugt das Werbevideo für den KI-Gewürzstreuer – mit seinem ganz eigenen Fiebertraum-Charme.   

5. Zugu In Case of Death Case

Ein besonders morbides Gadget-Schmankerl zeigt Zugu auf der CES 2025 mit dem „In Case of Death Case“. Dabei handelt es sich um ein Bundle aus einem iPad Pro (plus zugehörigem Case), einem Smart Ring und einer App, die zu einer Art Killswitch für das Onlineleben zusammenwirken.

Zugu trifft mit seinem Marketing ins Schwarze.Zugu | Screenshot

Das Konzept: Stirbt der Benutzer, merkt das der smarte Ring an seinem Finger. Sobald kein Herzschlag mehr feststellbar ist, triggert das sogenannte „Death Protections“, die vom User vorab definiert werden. Das kann etwa beinhalten, sämtliche Browser-Daten inklusive Suchhistorie zu löschen, das iPad komplett zurückzusetzen oder seine Follower per Tweet über das eigene Ableben zu informieren – inklusive einschlägiger Hashtags wie #NoHeartBeat und #RIPme.

Das Gesamtpaket ist ab sofort zum Preis von 1.500 Dollar über die Webseite von Zugu bestellbar. Stilsicher bietet die Company nur eine Farboption an: Funeral Black.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

CES-Absurditäten 2025​ Weiterlesen »

Microsoft Word: Diese 8 Profi-Tricks kennen Sie noch nicht​

Allgemein

Foundry Microsoft Word ist eines der meistgenutzten Programme der Welt und vollgepackt mit Funktionen. Sie müssen es nur zu bedienen wissen. Wir zeigen Ihnen einige fortgeschrittene oder sogar fast unbekannte Bereiche von Word. Damit Sie diese Textverarbeitung voll ausreizen können. Automatische Formatierung stoppen Von allen Dingen, die Word-Nutzer als besonders störend empfinden, ist die automatische Formatierung wahrscheinlich das am häufigsten genannte. Word will Ihnen ständig mit der automatischen Formatierung unter die Arme greifen. Hier können Sie die Art und Weise ändern, wie Word formatierten Text einfügt.IDG Word hat schon immer darauf bestanden, Text unter Beibehaltung der Formatierung einzufügen. Ein Update hat nun jedoch Einstellungen hinzugefügt, mit denen Sie festlegen können, wie Sie das standardmäßig tun möchten. Sie können also bestimmen, dass “Strg+V” nur Text mit derselben Formatierung wie der umgebende Text einfügt. Außerdem gibt es eine neue Option namens “Formatierung zusammenführen“, die die Formate Fett/Kursiv/Unterstrichen/Überstrichen und Liste beibehält, aber die Zielschriftart, -farbe und -größe anpasst. So können Sie etwa eine formatierte Liste aus einem Dokument in “Helvetica” in ein Dokument in der Word-Standardschriftart “Aptos” kopieren. IDG Das Programm ändert beispielsweise einen Absatz, der mit einer Zahl beginnt, automatisch in eine nummerierte Liste, sobald Sie die Eingabetaste drücken. Sie können dieses Verhalten ganz einfach in den Einstellungen ändern. Gehen Sie dafür zu Datei -> Optionen -> Sprachsteuerung. Klicken Sie auf die “Autokorrektur-Optionen“ und wählen Sie die Registerkarte “Automatisches Format“. Hier finden Sie viele Optionen wie automatische Aufzählungszeichen. Diese können Sie mit einem Häkchen aktivieren oder deaktivieren. Ebenfalls ärgerlich für viele Word-Nutzer ist die Tatsache, dass die Software darauf besteht, immer ganze Wörter zu markieren. Wenn Sie etwa einen Satz vom ersten Buchstaben bis zur Hälfte des vierten Wortes löschen möchten, kann es unmöglich sein, die Hervorhebung so einzustellen, dass durch einmaliges Drücken der Rückschritttaste nur dieser Teil des Satzes gelöscht wird. Denn sobald Sie ein Leerzeichen passieren, beginnt Word mit der Hervorhebung eines ganzen Wortes und nicht eines einzelnen Zeichens. Das kann behoben werden, indem Sie Datei -> Optionen -> Erweitert öffnen und das Häkchen bei “Automatische Hervorhebung ganzer Wörter” entfernen. Sie können außerdem die Option “Absatzmarkierung anpassen” deaktivieren, wenn Sie nicht möchten, dass Word automatisch eine neue Absatzmarkierung hinzufügt, wenn Sie einen ganzen Absatz auswählen. IDG Standard-Stylesheets ändern Haben Sie sich jemals gefragt, warum Word mehrere Stylesheets mit blauem Text bietet? Oder wie Sie die Standardschriftarten in neuen Dokumenten ändern können? Mittlerweile ist das erstaunlich einfach. Klicken Sie mit der rechten Maustaste auf eine Formatvorlage, zum Beispiel “Überschrift 1” und wählen Sie “Ändern“. Nehmen Sie die gewünschten Änderungen vor, wie den Wechsel zu schwarzem Text oder die Änderung der Schriftart. Wenn Sie zufrieden sind: Klicken Sie auf “Neue Dokumente auf der Grundlage dieser Vorlage” und dann auf “OK”, um die Änderungen in der Standardvorlage zu speichern. Wenn Sie Änderungen an der Stilvorlage “Normal ” vornehmen, wirkt sich das auch auf mehrere andere Vorlagen aus. “Keine Abstände“, “Zwischenüberschrift“, “Zitat“, “Fettes Zitat” und “Auflistung” haben etwa die gleiche Schriftart wie “Normal“. IDG Suchfunktion beherrschen Word verfügt auch über eine Suchfunktion. Wahrscheinlich sind Sie auch mit der etwas fortgeschritteneren Funktion “Suchen und Ersetzen” vertraut. Aber die Suchfunktion von Word ist noch viel leistungsfähiger. Sie können hier nach Funktionen suchen, an die Sie vielleicht noch gar nicht gedacht haben. Klicken Sie auf die Funktion “Suchen” rechts neben den Schriftarten in der Multifunktionsleiste und dann auf “Erweiterte Suche“. Das Dialogfeld, das sich öffnet, hat drei Registerkarten, auf denen “Ersetzen” die übliche Funktion zum Suchen und Ersetzen ist. “Gehe zu” ist eine Möglichkeit, um schnell zu einer Seitennummer oder einem Lesezeichen zu gelangen. In der Registerkarte “Suchen” verbergen sich hinter der Schaltfläche “Mehr”, eine Reihe von Einstellungen für die Suche (zum Beispiel nur nach ganzen Wörtern suchen oder Satzzeichen ignorieren). Außerdem gibt es zwei Dropdown-Menüs mit zusätzlichen Suchfunktionen. In “Format” können Sie nach Textteilen suchen, die etwa eine bestimmte Schriftart verwenden oder kursiv geschrieben sind. Das Menü “Spezial” wird verwendet, um unter anderem Sonderzeichen wie Zeilenumbrüche und Leerzeichen zu finden. IDG Aufgezeichnete Anrufe transkribieren Word verfügt jetzt über eine integrierte KI-basierte Transkriptionsfunktion, mit der das Tool aufgezeichnete Anrufe als Text ausgeben kann. Klicken Sie einfach auf “Diktieren” auf der rechten Seite der Registerkarte “Start” in der Multifunktionsleiste und wählen Sie “Transkribieren“. Die Funktion wird in der rechten Spalte geöffnet. Wählen Sie Deutsch, wenn es nicht bereits voreingestellt ist, und klicken Sie auf “Audio hochladen“, um eine Aufnahme an die Microsoft-Server zu senden. Die Transkription kann eine Weile dauern. Wenn sie fertig ist, klicken Sie auf “Zum Dokument hinzufügen“, wo Sie vier Optionen zur Verfügung haben, wie der Text formatiert werden soll (mit oder ohne Sprecher und Zeitstempel). Als ich die Funktion getestet habe, war der fertige Text gespickt mit Fehlern. Aber das Tool funktioniert gut genug, um den Kontext zu verstehen. IDG Dokumente mit anderen teilen und bearbeiten Mittlerweile ist es ganz einfach, Nutzer zur Bearbeitung von Dokumenten in Word, Excel und Powerpoint einzuladen. Dokumente können Sie entweder in den Desktop-Anwendungen oder in den Web-Apps bearbeiten. Stellen Sie zunächst sicher, dass das Dokument auf Onedrive gespeichert ist. Klicken Sie dann auf “Teilen” in der oberen rechten Ecke. Hier gibt es zwei Optionen: Einladen und Freigeben für ausgewählte Personen oder Erstellen eines Links. Ersteres ist natürlich etwas sicherer, aber wenn Sie die E-Mail-Adresse Ihrer Kollegen nicht kennen, ist der Link einfacher. Wenn mehr als ein Benutzer ein Dokument zur Bearbeitung geöffnet hat, kann jeder sehen, an welcher Stelle des Dokuments die anderen arbeiten. Dadurch verringert sich das Risiko von Bearbeitungskonflikten, die entstehen können, wenn zwei Personen gleichzeitig Änderungen an derselben Stelle vornehmen. Sollte es dennoch zu einem Konflikt kommen, hilft Word, diesen zu lösen. IDG Lesen und Wiederherstellen älterer Dokument-Versionen Das Speichern Ihrer Dokumente auf Onedrive bietet Ihnen mehrere Vorteile gegenüber dem lokalen Speichern. Einer davon ist das automatische Speichern. Ein weiterer Vorteil ist die Speicherung des Versionsverlaufs in Onedrive. Auf diese Weise können Sie auch auf frühere Versionen des Dokuments zurückgreifen. So finden Sie ältere Versionen: Öffnen Sie das Dokument in Onedrive. Klicken Sie oben im Word-Fenster auf den Dateinamen. Wählen Sie die Option “Versionsverlauf” und die aktuelle Version wird angezeigt, mit einer Liste der zuvor gespeicherten Versionen auf der rechten Seite. Klicken Sie auf eine frühere Version, um sie anzuzeigen. Sie können die alte Version wiederherstellen, indem Sie auf die Schaltfläche “Wiederherstellen” im gelben Streifen unterhalb der Symbolleiste klicken, oder Sie kopieren Text, den Sie dann in ein neues Dokument oder in die zuletzt gespeicherte Version einfügen können. Zeichnen In Word können Sie Bilder und Formen in Dokumente einfügen. Aber wussten Sie, dass es auch Zeichenwerkzeuge gibt? Sie können sowohl mit Touchscreen und Stylus als auch mit Maus und Trackpad verwendet werden. Klicken Sie auf den Menüreiter “Zeichnen”, um die unterschiedlichen Optionen zu sehen. Auf der linken Seite finden Sie Stifte, Radiergummis und zwei Arten von Markern. Als nächstes kommt die Schaltfläche “Zeichnen mit Ihrem Finger“, die im Grunde nur zwischen dem Zeichenmodus und der Textbearbeitung umschaltet. Die Schaltfläche “Lineal” legt ein virtuelles Lineal über das Dokument. So können Sie gerade Linien zeichnen. Um den Winkel des Lineals zu ändern, halten Sie einfach den Mauszeiger über das Lineal und drehen Sie das Scrollrad (oder ziehen Sie mit zwei Fingern auf dem Trackpad). Um es zu verschieben, klicken und ziehen Sie. Andere Funktionen sind nicht so interessant, außer vielleicht “Freihand in Gleichung“, die es Ihnen erleichtert, Formeln und Gleichungen mit korrekter Formatierung einzufügen. IDG KI-Schreibhilfe mit Microsoft Editor Microsoft Editor ist eine moderne, KI-basierte Erweiterung der klassischen Rechtschreib- und Grammatikprüfung, die seit vielen Jahren in Word enthalten ist. Die Funktion ist in Word und Outlook auf Windows und Mac integriert, aber auch als Erweiterung für Chromium-basierte Browser wie Edge und Chrome verfügbar. In Word finden Sie den Editor unter dem Menüpunkt “Editor” auf der rechten Seite der Registerkarte “Start” in der Multifunktionsleiste. Er wird in einer Spalte auf der rechten Seite des Fensters geöffnet. Am oberen Rand des Editors wird eine Bewertung des Dokuments in Form einer Prozentzahl angezeigt. Wenn Sie die verschiedenen Fehler beheben, die die KI gefunden hat, erhöht sich der Prozentsatz. Unterhalb der Bewertung finden Sie vier Abschnitte: “Korrekturen” der Rechtschreib- und Grammatikfehler, “Feinschliff” mit Änderungsvorschlägen, “Ähnlichkeit” im Vergleich zu Ihren Textquellen und “Einblicke“. Bei Letzterem handelt es sich um die Lesbarkeitsstatistik mit Zahlen wie der Anzahl der Sätze pro Absatz und der Anzahl der Wörter pro Satz. IDG Klicken Sie auf jede Unterkategorie, um die Vorschläge des Editors durchzugehen. Wie bei der alten Rechtschreibfunktion können Sie Wörter ändern, ignorieren, dem Glossar hinzufügen und andere Änderungsvorschläge befolgen oder ignorieren.Die besten Word-Alternativen Es gibt eine Vielzahl von Programmen zum Schreiben und Verarbeiten von Text. Wenn Sie das Abo-Modell nicht mögen oder Word zu unhandlich finden, gibt es viele Alternativen. Ich habe ich meine Empfehlungen nach Bedarf kategorisiert: Einfache Bedürfnisse? Word Online oder Google DocsWenn Sie nicht unbedingt ein vollwertiges Windows-Programm benötigen, können Sie auch mit Word Online – in kostenlosen Konten enthalten – oder Google Docs auskommen. Beide verfügen über alle üblichen Funktionen, die Sie für die Textverarbeitung benötigen. Darüber hinaus haben Sie die Möglichkeit, Texte gemeinsam mit anderen zu bearbeiten. Vollgepackt mit Funktionen? Libreoffice WriterDas Programm, das einem vollständigen Word-Klon am nächsten kommt, ist Libreoffice Writer. Wie Word ist es vollgepackt mit Funktionen für alle Arten der Textverarbeitung. Die Open-Source-Software können Sie sich kostenlos herunterladen und nutzen. Möchten Sie layouten? Scribus oder Affinity PublisherScribus ist ein leistungsstarkes Open-Source-Programm. Wenn Sie kostenpflichtige Programme nicht scheuen, ist Affinity Publisher ausgefeilter und ähnelt mit seinen sehr leistungsstarken Funktionen Adobe Indesign. Der Einstieg ist dabei recht einfach. Schreiben Sie ein Buch oder eine Doktorarbeit? ScrivenerDas kostenpflichtige Programm Scrivener ist bei Schriftstellern, Übersetzern, Journalisten, Juristen und Akademikern sehr beliebt. Und das aus gutem Grund. Das Tool macht die Arbeit mit langen Texten wirklich einfacher. (PC-Welt) 

Microsoft Word: Diese 8 Profi-Tricks kennen Sie noch nicht​ Foundry

Microsoft Word ist eines der meistgenutzten Programme der Welt und vollgepackt mit Funktionen. Sie müssen es nur zu bedienen wissen. Wir zeigen Ihnen einige fortgeschrittene oder sogar fast unbekannte Bereiche von Word. Damit Sie diese Textverarbeitung voll ausreizen können.

Automatische Formatierung stoppen

Von allen Dingen, die Word-Nutzer als besonders störend empfinden, ist die automatische Formatierung wahrscheinlich das am häufigsten genannte. Word will Ihnen ständig mit der automatischen Formatierung unter die Arme greifen.

Hier können Sie die Art und Weise ändern, wie Word formatierten Text einfügt.IDG

Word hat schon immer darauf bestanden, Text unter Beibehaltung der Formatierung einzufügen. Ein Update hat nun jedoch Einstellungen hinzugefügt, mit denen Sie festlegen können, wie Sie das standardmäßig tun möchten.

Sie können also bestimmen, dass “Strg+V” nur Text mit derselben Formatierung wie der umgebende Text einfügt. Außerdem gibt es eine neue Option namens “Formatierung zusammenführen“, die die Formate Fett/Kursiv/Unterstrichen/Überstrichen und Liste beibehält, aber die Zielschriftart, -farbe und -größe anpasst.

So können Sie etwa eine formatierte Liste aus einem Dokument in “Helvetica” in ein Dokument in der Word-Standardschriftart “Aptos” kopieren.

IDG

Das Programm ändert beispielsweise einen Absatz, der mit einer Zahl beginnt, automatisch in eine nummerierte Liste, sobald Sie die Eingabetaste drücken. Sie können dieses Verhalten ganz einfach in den Einstellungen ändern.

Gehen Sie dafür zu Datei -> Optionen -> Sprachsteuerung. Klicken Sie auf die “Autokorrektur-Optionen“ und wählen Sie die Registerkarte “Automatisches Format“. Hier finden Sie viele Optionen wie automatische Aufzählungszeichen. Diese können Sie mit einem Häkchen aktivieren oder deaktivieren.

Ebenfalls ärgerlich für viele Word-Nutzer ist die Tatsache, dass die Software darauf besteht, immer ganze Wörter zu markieren. Wenn Sie etwa einen Satz vom ersten Buchstaben bis zur Hälfte des vierten Wortes löschen möchten, kann es unmöglich sein, die Hervorhebung so einzustellen, dass durch einmaliges Drücken der Rückschritttaste nur dieser Teil des Satzes gelöscht wird. Denn sobald Sie ein Leerzeichen passieren, beginnt Word mit der Hervorhebung eines ganzen Wortes und nicht eines einzelnen Zeichens.

Das kann behoben werden, indem Sie Datei -> Optionen -> Erweitert öffnen und das Häkchen bei “Automatische Hervorhebung ganzer Wörter” entfernen. Sie können außerdem die Option “Absatzmarkierung anpassen” deaktivieren, wenn Sie nicht möchten, dass Word automatisch eine neue Absatzmarkierung hinzufügt, wenn Sie einen ganzen Absatz auswählen.

IDG

Standard-Stylesheets ändern

Haben Sie sich jemals gefragt, warum Word mehrere Stylesheets mit blauem Text bietet? Oder wie Sie die Standardschriftarten in neuen Dokumenten ändern können? Mittlerweile ist das erstaunlich einfach.

Klicken Sie mit der rechten Maustaste auf eine Formatvorlage, zum Beispiel “Überschrift 1” und wählen Sie “Ändern“. Nehmen Sie die gewünschten Änderungen vor, wie den Wechsel zu schwarzem Text oder die Änderung der Schriftart.

Wenn Sie zufrieden sind: Klicken Sie auf “Neue Dokumente auf der Grundlage dieser Vorlage” und dann auf “OK”, um die Änderungen in der Standardvorlage zu speichern. Wenn Sie Änderungen an der Stilvorlage “Normal ” vornehmen, wirkt sich das auch auf mehrere andere Vorlagen aus. “Keine Abstände“, “Zwischenüberschrift“, “Zitat“, “Fettes Zitat” und “Auflistung” haben etwa die gleiche Schriftart wie “Normal“.

IDG

Suchfunktion beherrschen

Word verfügt auch über eine Suchfunktion. Wahrscheinlich sind Sie auch mit der etwas fortgeschritteneren Funktion “Suchen und Ersetzen” vertraut. Aber die Suchfunktion von Word ist noch viel leistungsfähiger. Sie können hier nach Funktionen suchen, an die Sie vielleicht noch gar nicht gedacht haben.

Klicken Sie auf die Funktion “Suchen” rechts neben den Schriftarten in der Multifunktionsleiste und dann auf “Erweiterte Suche“.

Das Dialogfeld, das sich öffnet, hat drei Registerkarten, auf denen “Ersetzen” die übliche Funktion zum Suchen und Ersetzen ist. “Gehe zu” ist eine Möglichkeit, um schnell zu einer Seitennummer oder einem Lesezeichen zu gelangen. In der Registerkarte “Suchen” verbergen sich hinter der Schaltfläche “Mehr”, eine Reihe von Einstellungen für die Suche (zum Beispiel nur nach ganzen Wörtern suchen oder Satzzeichen ignorieren).

Außerdem gibt es zwei Dropdown-Menüs mit zusätzlichen Suchfunktionen. In “Format” können Sie nach Textteilen suchen, die etwa eine bestimmte Schriftart verwenden oder kursiv geschrieben sind. Das Menü “Spezial” wird verwendet, um unter anderem Sonderzeichen wie Zeilenumbrüche und Leerzeichen zu finden.

IDG

Aufgezeichnete Anrufe transkribieren

Word verfügt jetzt über eine integrierte KI-basierte Transkriptionsfunktion, mit der das Tool aufgezeichnete Anrufe als Text ausgeben kann. Klicken Sie einfach auf “Diktieren” auf der rechten Seite der Registerkarte “Start” in der Multifunktionsleiste und wählen Sie “Transkribieren“. Die Funktion wird in der rechten Spalte geöffnet.

Wählen Sie Deutsch, wenn es nicht bereits voreingestellt ist, und klicken Sie auf “Audio hochladen“, um eine Aufnahme an die Microsoft-Server zu senden. Die Transkription kann eine Weile dauern. Wenn sie fertig ist, klicken Sie auf “Zum Dokument hinzufügen“, wo Sie vier Optionen zur Verfügung haben, wie der Text formatiert werden soll (mit oder ohne Sprecher und Zeitstempel).

Als ich die Funktion getestet habe, war der fertige Text gespickt mit Fehlern. Aber das Tool funktioniert gut genug, um den Kontext zu verstehen.

IDG

Dokumente mit anderen teilen und bearbeiten

Mittlerweile ist es ganz einfach, Nutzer zur Bearbeitung von Dokumenten in Word, Excel und Powerpoint einzuladen. Dokumente können Sie entweder in den Desktop-Anwendungen oder in den Web-Apps bearbeiten.

Stellen Sie zunächst sicher, dass das Dokument auf Onedrive gespeichert ist. Klicken Sie dann auf “Teilen” in der oberen rechten Ecke. Hier gibt es zwei Optionen: Einladen und Freigeben für ausgewählte Personen oder Erstellen eines Links. Ersteres ist natürlich etwas sicherer, aber wenn Sie die E-Mail-Adresse Ihrer Kollegen nicht kennen, ist der Link einfacher.

Wenn mehr als ein Benutzer ein Dokument zur Bearbeitung geöffnet hat, kann jeder sehen, an welcher Stelle des Dokuments die anderen arbeiten. Dadurch verringert sich das Risiko von Bearbeitungskonflikten, die entstehen können, wenn zwei Personen gleichzeitig Änderungen an derselben Stelle vornehmen. Sollte es dennoch zu einem Konflikt kommen, hilft Word, diesen zu lösen.

IDG

Lesen und Wiederherstellen älterer Dokument-Versionen

Das Speichern Ihrer Dokumente auf Onedrive bietet Ihnen mehrere Vorteile gegenüber dem lokalen Speichern. Einer davon ist das automatische Speichern. Ein weiterer Vorteil ist die Speicherung des Versionsverlaufs in Onedrive. Auf diese Weise können Sie auch auf frühere Versionen des Dokuments zurückgreifen.

So finden Sie ältere Versionen:

Öffnen Sie das Dokument in Onedrive.

Klicken Sie oben im Word-Fenster auf den Dateinamen.

Wählen Sie die Option “Versionsverlauf” und die aktuelle Version wird angezeigt, mit einer Liste der zuvor gespeicherten Versionen auf der rechten Seite.

Klicken Sie auf eine frühere Version, um sie anzuzeigen.

Sie können die alte Version wiederherstellen, indem Sie auf die Schaltfläche “Wiederherstellen” im gelben Streifen unterhalb der Symbolleiste klicken, oder Sie kopieren Text, den Sie dann in ein neues Dokument oder in die zuletzt gespeicherte Version einfügen können.

Zeichnen

In Word können Sie Bilder und Formen in Dokumente einfügen. Aber wussten Sie, dass es auch Zeichenwerkzeuge gibt? Sie können sowohl mit Touchscreen und Stylus als auch mit Maus und Trackpad verwendet werden.

Klicken Sie auf den Menüreiter “Zeichnen”, um die unterschiedlichen Optionen zu sehen. Auf der linken Seite finden Sie Stifte, Radiergummis und zwei Arten von Markern. Als nächstes kommt die Schaltfläche “Zeichnen mit Ihrem Finger“, die im Grunde nur zwischen dem Zeichenmodus und der Textbearbeitung umschaltet.

Die Schaltfläche “Lineal” legt ein virtuelles Lineal über das Dokument. So können Sie gerade Linien zeichnen. Um den Winkel des Lineals zu ändern, halten Sie einfach den Mauszeiger über das Lineal und drehen Sie das Scrollrad (oder ziehen Sie mit zwei Fingern auf dem Trackpad). Um es zu verschieben, klicken und ziehen Sie.

Andere Funktionen sind nicht so interessant, außer vielleicht “Freihand in Gleichung“, die es Ihnen erleichtert, Formeln und Gleichungen mit korrekter Formatierung einzufügen.

IDG

KI-Schreibhilfe mit Microsoft Editor

Microsoft Editor ist eine moderne, KI-basierte Erweiterung der klassischen Rechtschreib- und Grammatikprüfung, die seit vielen Jahren in Word enthalten ist. Die Funktion ist in Word und Outlook auf Windows und Mac integriert, aber auch als Erweiterung für Chromium-basierte Browser wie Edge und Chrome verfügbar.

In Word finden Sie den Editor unter dem Menüpunkt “Editor” auf der rechten Seite der Registerkarte “Start” in der Multifunktionsleiste. Er wird in einer Spalte auf der rechten Seite des Fensters geöffnet. Am oberen Rand des Editors wird eine Bewertung des Dokuments in Form einer Prozentzahl angezeigt.

Wenn Sie die verschiedenen Fehler beheben, die die KI gefunden hat, erhöht sich der Prozentsatz. Unterhalb der Bewertung finden Sie vier Abschnitte: “Korrekturen” der Rechtschreib- und Grammatikfehler, “Feinschliff” mit Änderungsvorschlägen, “Ähnlichkeit” im Vergleich zu Ihren Textquellen und “Einblicke“. Bei Letzterem handelt es sich um die Lesbarkeitsstatistik mit Zahlen wie der Anzahl der Sätze pro Absatz und der Anzahl der Wörter pro Satz.

IDG

Klicken Sie auf jede Unterkategorie, um die Vorschläge des Editors durchzugehen. Wie bei der alten Rechtschreibfunktion können Sie Wörter ändern, ignorieren, dem Glossar hinzufügen und andere Änderungsvorschläge befolgen oder ignorieren.Die besten Word-Alternativen

Es gibt eine Vielzahl von Programmen zum Schreiben und Verarbeiten von Text. Wenn Sie das Abo-Modell nicht mögen oder Word zu unhandlich finden, gibt es viele Alternativen. Ich habe ich meine Empfehlungen nach Bedarf kategorisiert:

Einfache Bedürfnisse? Word Online oder Google DocsWenn Sie nicht unbedingt ein vollwertiges Windows-Programm benötigen, können Sie auch mit Word Online – in kostenlosen Konten enthalten – oder Google Docs auskommen. Beide verfügen über alle üblichen Funktionen, die Sie für die Textverarbeitung benötigen. Darüber hinaus haben Sie die Möglichkeit, Texte gemeinsam mit anderen zu bearbeiten.

Vollgepackt mit Funktionen? Libreoffice WriterDas Programm, das einem vollständigen Word-Klon am nächsten kommt, ist Libreoffice Writer. Wie Word ist es vollgepackt mit Funktionen für alle Arten der Textverarbeitung. Die Open-Source-Software können Sie sich kostenlos herunterladen und nutzen.

Möchten Sie layouten? Scribus oder Affinity PublisherScribus ist ein leistungsstarkes Open-Source-Programm. Wenn Sie kostenpflichtige Programme nicht scheuen, ist Affinity Publisher ausgefeilter und ähnelt mit seinen sehr leistungsstarken Funktionen Adobe Indesign. Der Einstieg ist dabei recht einfach.

Schreiben Sie ein Buch oder eine Doktorarbeit? ScrivenerDas kostenpflichtige Programm Scrivener ist bei Schriftstellern, Übersetzern, Journalisten, Juristen und Akademikern sehr beliebt. Und das aus gutem Grund. Das Tool macht die Arbeit mit langen Texten wirklich einfacher.

(PC-Welt)

Microsoft Word: Diese 8 Profi-Tricks kennen Sie noch nicht​ Weiterlesen »

Die 13 wichtigsten Windows-Einstellungen, die Sie anpassen sollten​

Allgemein

Shutterstock / Juicy FOTO Nach der Installation von Windows 11 sollten Sie einige Einstellungen überprüfen und an Ihre Anforderungen anpassen – oder an Empfehlungen von Experten, um die Sicherheit des Betriebssystems zu verbessern. Wir zeigen in diesem Beitrag die wichtigsten Anpassungen, die mit wenigen Klicks die Sicherheit maximieren und das Betriebssystem verbessern. Wir gehen in diesem Beitrag von Windows 11 Version 23H2 aus. Die meisten Einstellungen lassen sich auch in Windows 10 und älteren Windows 11-Versionen umsetzen und funktionieren genauso in Windows 11 Version 24H2. Explorer anpassen -Dateiendungen und Laufwerke anzeigen Standardmäßig blendet Windows seit Jahren bekannte Dateiendungen aus. Das ist zunächst störend, weil Sie dadurch den korrekten Dateinamen nicht vollständig angezeigt kommen. Dazu kommt die Sicherheitsgefahr. So wird etwa die Datei “wichtiges-dokument.doc.exe” in diesem Fall als “wichtiges-dokument.doc! angezeigt, weil Windows einfach die Dateiendung “exe” ausblendet. Aus einer ausführbaren Datei, etwa Malware/Ransomware, wird dadurch auf den ersten Blick ein unverdächtiges Worddokument. Das Problem können Sie schnell umgehen, indem Sie im Explorer auf “Anzeigen → Einblenden → Dateinamenerweiterungen” aktivieren. Thomas Joos Sie finden die Einstellung in anderen Windows-Versionen auch in den Ordneroptionen auf der Registerkarte “Ansicht” bei “Erweiterungen bei bekannten Dateitypen ausblenden”. In diesem Fall müssen Sie die Option deaktivieren. Thomas Joos Bei den Ordneroptionen können Sie dann auch gleich auf der Registerkarte “Allgemein” bei “Datei-Explorer öffnen für” die Option “Dieser PC” auswählen. In diesem Fall startet der Explorer mit der Ansicht der Laufwerke, nicht mit der selten gewünschten “Start-Ansicht”. Die Start-Ansicht können Sie in diesem Fall auch mit einem einzelnen Klick auf “Start” links oben öffnen. Lese-Tipp: Mehr Windows-PCs bekommen jetzt das Gratis-Upgrade auf Windows 11 Windows-Update anpassen: Aktualisierungen schneller erhalten Nach der Aktualisierung zu Windows 11 oder der Installation des Betriebssystems sollten Sie in den Einstellungen zunächst zu “Windows Update” wechseln. Generell sollten Sie zunächst sicherstellen, dass im oberen Bereich die Meldung “Sie sind auf dem neusten Stand erscheint”. Klicken Sie dennoch auf “Nach Updates suchen” und stellen Sie sicher, dass wirklich alle Updates installiert sind. Über diesen Weg aktualisiert Windows auch die Definitionsdateien des Malwareschutzes. Thomas Joos Überdies kann es sinnvoll sein, die Option “Erhalten Sie die neuesten Updates, sobald sie verfügbar sind” zu aktivieren. Das stellt sicher, dass Ihr Windows-System Updates schneller erhält als andere Nutzer. Microsoft verteilt viele Aktualisierungen in Wellen. Aktivieren Sie diese Option, können Sie sich in den Wellen etwas vordrängeln. Klicken Sie darüber hinaus noch auf “Erweiterte Optionen” und aktivieren Sie “Updates für andere Microsoft-Produkte erhalten”. Dadurch stellen Sie sicher, dass auch die anderen Produkte auf Ihrem PC immer aktuell sind. Thomas Joos An dieser Stelle kann es auch sinnvoll sein bei “Nutzungszeit” festzulegen, wann Sie am PC arbeiten. Das stellt sicher, dass Windows nach der Installation von Updates nicht innerhalb dieser Zeit startet. Wichtig: Malware-Schutz-Einstellungen für Treiber optimieren Rufen Sie nach der Installation von Windows 11 die App “Windows-Sicherheit” aus dem Startmenü auf. Hier sollte bei allen Einstellungen ein grünes Icon mit einem Haken zu sehen sein. Ist das nicht der Fall, überprüfen Sie den Bereich, indem Sie auf das jeweilige Icon klicken. Thomas Joos Bei “Gerätesicherheit” sollten Sie darauf achten, dass die Option “Speicher-Integrität” bei “Kernisolierung → Details zu Kernisolierung” aktiviert ist. Das verhindert erfolgreiche Angriffe durch Malware. Lässt sich diese Option nicht deaktivieren, liegt das an einem veralteten und damit unsicheren Treiber. Thomas Joos Außerdem sollten Sie darauf achten, dass “Microsoft-Sperrliste gefährdeter Treiber” aktiviert ist. Dadurch lassen sich unsichere Treiber blockieren, über die Angreifer Malware auf dem System einschleusen können. Wichtig: Viren- und Bedrohungsschutz anpassen In der App Windows-Sicherheit sollten Sie nach der Installation noch zu “Viren- und Bedrohungsschutz” wechseln. Klicken Sie bei “Einstellungen für Viren- und Bedrohungsschutz” auf “Einstellungen verwalten” und achten Sie darauf, dass hier alle Optionen eingeschaltet sind, primär “Echtzeitschutz”, “Cloudbasierter-Schutz” und “Automatische Übermittlung von Beispielen”. Thomas Joos Schutzupdates für den Malware-Scanner herunterladen Wichtig ist zudem, dass Sie bei “Updates für Viren- und Bedrohungsschutz” sicherstellen, dass die Sicherheitsinformationen vom aktuellen Tag sind. Mit “Schutzupdates” und dann “Nach Updates suchen” aktualisieren Sie diese direkt. Thomas Joos Nutzen Sie einen externen Virenschutz, sind diese Anpassungen nicht notwendig, da dieser den internen Virenschutz in Windows deaktiviert. Windows-Aktivierung prüfen In den Einstellungen finden Sie über “System → Aktivierung” die Option, ob Windows aktiviert ist. Ohne Aktivierung stellt das Betriebssystem nach einiger Zeit den Betrieb ein und viele Einstellungen sind nicht verfügbar. Hier sehen Sie, ob die Aktivierung funktioniert und können bei Bedarf über “Ändern” Ihren Produktschlüssel für Windows 10 oder Windows 11 neu eintragen. Thomas Joos Sie erreichen diesen Bereich auch durch Eingabe von “slui” im Suchfeld der Taskleiste. Sind alle Treiber installiert? Über den Befehl “devmgmt.msc”, den Sie im Suchfeld der Taskleiste eingeben, sehen Sie, ob für alle vorhandenen Geräte im PC auch alle Treiber installiert sind. Wenn hier noch unbekannte oder andere Geräte angezeigt werden, sollten Sie sich beim Hersteller den aktuellen Treiber besorgen und diesen installieren. Profis aktivieren noch die Laufwerksverschlüsselung Vor allem auf Notebooks sollten Sie darauf achten, dass Sie Bitlocker zur Laufwerksverschlüsselung verwenden. Geben Sie dazu “bitlocker” im Suchfeld der Taskleiste ein und aktivieren Sie den Schutz. Thomas Joos Bitlocker steht in Windows 11 Pro und Enterprise zur Verfügung. In Windows 11 Home können Sie stattdessen die Geräteverschlüsselung verwenden. Diese ist in den Einstellungen von Windows 11 zu finden. (PC-Welt) 

Die 13 wichtigsten Windows-Einstellungen, die Sie anpassen sollten​ Shutterstock / Juicy FOTO

Nach der Installation von Windows 11 sollten Sie einige Einstellungen überprüfen und an Ihre Anforderungen anpassen – oder an Empfehlungen von Experten, um die Sicherheit des Betriebssystems zu verbessern. Wir zeigen in diesem Beitrag die wichtigsten Anpassungen, die mit wenigen Klicks die Sicherheit maximieren und das Betriebssystem verbessern.

Wir gehen in diesem Beitrag von Windows 11 Version 23H2 aus. Die meisten Einstellungen lassen sich auch in Windows 10 und älteren Windows 11-Versionen umsetzen und funktionieren genauso in Windows 11 Version 24H2.

Explorer anpassen -Dateiendungen und Laufwerke anzeigen

Standardmäßig blendet Windows seit Jahren bekannte Dateiendungen aus. Das ist zunächst störend, weil Sie dadurch den korrekten Dateinamen nicht vollständig angezeigt kommen. Dazu kommt die Sicherheitsgefahr. So wird etwa die Datei “wichtiges-dokument.doc.exe” in diesem Fall als “wichtiges-dokument.doc! angezeigt, weil Windows einfach die Dateiendung “exe” ausblendet.

Aus einer ausführbaren Datei, etwa Malware/Ransomware, wird dadurch auf den ersten Blick ein unverdächtiges Worddokument. Das Problem können Sie schnell umgehen, indem Sie im Explorer auf “Anzeigen → Einblenden → Dateinamenerweiterungen” aktivieren.

Thomas Joos

Sie finden die Einstellung in anderen Windows-Versionen auch in den Ordneroptionen auf der Registerkarte “Ansicht” bei “Erweiterungen bei bekannten Dateitypen ausblenden”. In diesem Fall müssen Sie die Option deaktivieren.

Thomas Joos

Bei den Ordneroptionen können Sie dann auch gleich auf der Registerkarte “Allgemein” bei “Datei-Explorer öffnen für” die Option “Dieser PC” auswählen. In diesem Fall startet der Explorer mit der Ansicht der Laufwerke, nicht mit der selten gewünschten “Start-Ansicht”. Die Start-Ansicht können Sie in diesem Fall auch mit einem einzelnen Klick auf “Start” links oben öffnen.

Lese-Tipp: Mehr Windows-PCs bekommen jetzt das Gratis-Upgrade auf Windows 11

Windows-Update anpassen: Aktualisierungen schneller erhalten

Nach der Aktualisierung zu Windows 11 oder der Installation des Betriebssystems sollten Sie in den Einstellungen zunächst zu “Windows Update” wechseln. Generell sollten Sie zunächst sicherstellen, dass im oberen Bereich die Meldung “Sie sind auf dem neusten Stand erscheint”. Klicken Sie dennoch auf “Nach Updates suchen” und stellen Sie sicher, dass wirklich alle Updates installiert sind. Über diesen Weg aktualisiert Windows auch die Definitionsdateien des Malwareschutzes.

Thomas Joos

Überdies kann es sinnvoll sein, die Option “Erhalten Sie die neuesten Updates, sobald sie verfügbar sind” zu aktivieren. Das stellt sicher, dass Ihr Windows-System Updates schneller erhält als andere Nutzer. Microsoft verteilt viele Aktualisierungen in Wellen. Aktivieren Sie diese Option, können Sie sich in den Wellen etwas vordrängeln.

Klicken Sie darüber hinaus noch auf “Erweiterte Optionen” und aktivieren Sie “Updates für andere Microsoft-Produkte erhalten”. Dadurch stellen Sie sicher, dass auch die anderen Produkte auf Ihrem PC immer aktuell sind.

Thomas Joos

An dieser Stelle kann es auch sinnvoll sein bei “Nutzungszeit” festzulegen, wann Sie am PC arbeiten. Das stellt sicher, dass Windows nach der Installation von Updates nicht innerhalb dieser Zeit startet.

Wichtig: Malware-Schutz-Einstellungen für Treiber optimieren

Rufen Sie nach der Installation von Windows 11 die App “Windows-Sicherheit” aus dem Startmenü auf. Hier sollte bei allen Einstellungen ein grünes Icon mit einem Haken zu sehen sein. Ist das nicht der Fall, überprüfen Sie den Bereich, indem Sie auf das jeweilige Icon klicken.

Thomas Joos

Bei “Gerätesicherheit” sollten Sie darauf achten, dass die Option “Speicher-Integrität” bei “Kernisolierung → Details zu Kernisolierung” aktiviert ist. Das verhindert erfolgreiche Angriffe durch Malware. Lässt sich diese Option nicht deaktivieren, liegt das an einem veralteten und damit unsicheren Treiber.

Thomas Joos

Außerdem sollten Sie darauf achten, dass “Microsoft-Sperrliste gefährdeter Treiber” aktiviert ist. Dadurch lassen sich unsichere Treiber blockieren, über die Angreifer Malware auf dem System einschleusen können.

Wichtig: Viren- und Bedrohungsschutz anpassen

In der App Windows-Sicherheit sollten Sie nach der Installation noch zu “Viren- und Bedrohungsschutz” wechseln. Klicken Sie bei “Einstellungen für Viren- und Bedrohungsschutz” auf “Einstellungen verwalten” und achten Sie darauf, dass hier alle Optionen eingeschaltet sind, primär “Echtzeitschutz”, “Cloudbasierter-Schutz” und “Automatische Übermittlung von Beispielen”.

Thomas Joos

Schutzupdates für den Malware-Scanner herunterladen

Wichtig ist zudem, dass Sie bei “Updates für Viren- und Bedrohungsschutz” sicherstellen, dass die Sicherheitsinformationen vom aktuellen Tag sind. Mit “Schutzupdates” und dann “Nach Updates suchen” aktualisieren Sie diese direkt.

Thomas Joos

Nutzen Sie einen externen Virenschutz, sind diese Anpassungen nicht notwendig, da dieser den internen Virenschutz in Windows deaktiviert.

Windows-Aktivierung prüfen

In den Einstellungen finden Sie über “System → Aktivierung” die Option, ob Windows aktiviert ist. Ohne Aktivierung stellt das Betriebssystem nach einiger Zeit den Betrieb ein und viele Einstellungen sind nicht verfügbar. Hier sehen Sie, ob die Aktivierung funktioniert und können bei Bedarf über “Ändern” Ihren Produktschlüssel für Windows 10 oder Windows 11 neu eintragen.

Thomas Joos

Sie erreichen diesen Bereich auch durch Eingabe von “slui” im Suchfeld der Taskleiste.

Sind alle Treiber installiert?

Über den Befehl “devmgmt.msc”, den Sie im Suchfeld der Taskleiste eingeben, sehen Sie, ob für alle vorhandenen Geräte im PC auch alle Treiber installiert sind. Wenn hier noch unbekannte oder andere Geräte angezeigt werden, sollten Sie sich beim Hersteller den aktuellen Treiber besorgen und diesen installieren.

Profis aktivieren noch die Laufwerksverschlüsselung

Vor allem auf Notebooks sollten Sie darauf achten, dass Sie Bitlocker zur Laufwerksverschlüsselung verwenden. Geben Sie dazu “bitlocker” im Suchfeld der Taskleiste ein und aktivieren Sie den Schutz.

Thomas Joos

Bitlocker steht in Windows 11 Pro und Enterprise zur Verfügung. In Windows 11 Home können Sie stattdessen die Geräteverschlüsselung verwenden. Diese ist in den Einstellungen von Windows 11 zu finden.

(PC-Welt)

Die 13 wichtigsten Windows-Einstellungen, die Sie anpassen sollten​ Weiterlesen »

Nach oben scrollen
×