Computerhaus Quickborn

Juli 2025

So enttarnen Sie jeden, der Sie auf Whatsapp ausspioniert​

Allgemein

Burdun Iliya/Shutterstock.com Wie sicher sind Ihre Whatsapp-Nachrichten wirklich? Wie merkt man, ob jemand heimlich mitliest? Und ist der Datenschutz und die Verschlüsselung auf Whatsapp wirklich so gut? Angesichts der wachsenden Bedrohungen durch Cyberkriminelle ist es entscheidend, wachsam zu bleiben und zu wissen, wie man potenzielle Sicherheitslücken erkennt und schließt. In unserem Artikel erfahren Sie daher, wie Sie überprüfen können, ob jemand unbefugt Zugriff auf Ihr Whatsapp-Konto hat und welche Schritte Sie unternehmen können, um Ihre privaten Unterhaltungen zu schützen. Zudem geben wir einen kurzen Überblick zu den Datenschutz-Risiken auf Whatsapp. Mit diesem Trick erkennen Sie, ob jemand heimlich mitliest Seit 2016 schützt Whatsapp Nachrichten mit einer Ende-zu-Ende-Verschlüsselung, wodurch diese nur vom Absender und Empfänger gelesen werden können. Doch Vorsicht: Whatsapp im Browser zu nutzen, birgt nach wie vor Risiken. Ein unbefugter Zugriff über Whatsapp-Web ermöglicht es, Ihre Nachrichten mitzulesen, selbst wenn das Smartphone und der Computer nicht im gleichen Netzwerk sind. Überprüfen Sie daher regelmäßig die mit Ihrem Konto verknüpften Geräte: Öffnen Sie die App auf Ihrem Smartphone. Tippen Sie in der Chats-Übersicht rechts oben auf die drei Punkte (Android) oder unten rechts auf “Einstellungen” (iOS). Wählen Sie die Option “Verknüpfte Geräte” aus und prüfen Sie, ob dort fremde Geräte verlinkt sind. TIppen Sie in den Einstellungen auf “Verknüpfte Geräte”.IDG Prüfen Sie anschließend, ob unbekannte Geräte über Whatsapp Web mit Ihrem Konto verknüpft sind.IDG Was tun, wenn ein fremdes Gerät verknüpft ist? Halten Sie den Finger auf das Gerät gedrückt, das Sie entfernen möchten. Im Pop-up-Fenster tippen Sie anschließend auf “Abmelden”, um die Verbindung zu trennen. Halten Sie den Finger auf das Gerät gedrückt, um die Verbindung zu trennen.IDG So schützen Sie sich vor fremden Mitlesern Damit jemand sich unbemerkt mit Ihrem Whatsapp Web verknüpfen kann, muss er den entsprechenden QR-Code in Ihrer Smartphone-App gescannt haben. Achten Sie also darauf, wem Sie Ihr Handy überlassen. Tipp: Aktivieren Sie die Zwei-Faktor-Authentifizierung in den App-Einstellungen unter “Account”. Dazu müssen Sie eine sechsstellige PIN festlegen, die bei jedem Aufruf der App erforderlich ist. Geben Sie diese PIN an niemanden weiter. Weitere Vorsichtsmaßnahmen zum Schutz Ihres Kontos sind: Vorsicht bei Dateien und Links: Öffnen Sie nichts, was von unbekannten Kontakten stammt oder Ihnen komisch vorkommt. Auch Freunde können unbeabsichtigt Spam oder schadhafte Links senden, etwa für Fake-Gewinnspiele. Apps auf dem neuesten Stand halten: Aktualisieren Sie Whatsapp und andere Apps regelmäßig, um sicherzustellen, dass Sicherheitslücken geschlossen werden. Kettenbriefe ignorieren: Vermeiden Sie das Weiterleiten von Kettenbriefen, denn hinter vielen stecken Betrugsmaschen. Wie gut sind Verschlüsselung und Datenschutz bei Whatsapp? Whatsapp gibt an, dass der Schutz der Privatsphäre und Sicherheit “Teil der DNA” sei. Daher sind seit jeher sämtliche Chats durch Ende-zu-Ende-Verschlüsselung geschützt. Das gilt für den Nachrichtenaustausch mit Personen ebenso wie mit Unternehmen, für das Versenden von Bildern und für Zahlungen über Whatsapp, sofern verfügbar. Informationen werden somit nur über das benutzte Gerät gesendet und empfangen, laut Whatsapp selbst. Dennoch gibt es Risiken, die dafür sorgen könnten, dass Unbefugte Ihre Nachrichten mitlesen. Dazu gehören unter anderem die beliebten Gruppenchats, da hier die Verschlüsselung nicht ganz so einfach funktioniert wie bei 1zu1-Gesprächen. Je mehr Teilnehmerinnen und Teilnehmer vorhanden sind, desto mehr Geräte müssen mitwirken. Zudem können Gruppen-Admins Mitglieder hinzufügen, die Sie nicht kennen, und somit Ihre Nummer preisgeben. Auch die Backups von Chats war lange Zeit nicht gut geschützt. Erst 2021 führte Whatsapp die Option ein, Backups ebenfalls zu verschlüsseln und zusätzlich mit einem Passwort zu versehen. Diese Option müssen Sie aber erst aktivieren, und zwar in den Einstellungen unter Chats und dann Chat-Backup. Zudem gibt es immer wieder Ansätze von Regierungen und Behörden, Zugriff auf die Daten von Whatsapp zu erhalten, inklusive Chats. Der Wunsch nach Vorratsdatenspeicherung sowie einer Art “Generalschlüssel” ist immer wieder alarmierend für viele Datenschützer. Momentan bleiben Nachrichten auf Whatsapp aber verschlüsselt und für Dritte unzugänglich. (PC-Welt) 

So enttarnen Sie jeden, der Sie auf Whatsapp ausspioniert​ Burdun Iliya/Shutterstock.com

Wie sicher sind Ihre Whatsapp-Nachrichten wirklich? Wie merkt man, ob jemand heimlich mitliest? Und ist der Datenschutz und die Verschlüsselung auf Whatsapp wirklich so gut?

Angesichts der wachsenden Bedrohungen durch Cyberkriminelle ist es entscheidend, wachsam zu bleiben und zu wissen, wie man potenzielle Sicherheitslücken erkennt und schließt.

In unserem Artikel erfahren Sie daher, wie Sie überprüfen können, ob jemand unbefugt Zugriff auf Ihr Whatsapp-Konto hat und welche Schritte Sie unternehmen können, um Ihre privaten Unterhaltungen zu schützen. Zudem geben wir einen kurzen Überblick zu den Datenschutz-Risiken auf Whatsapp.

Mit diesem Trick erkennen Sie, ob jemand heimlich mitliest

Seit 2016 schützt Whatsapp Nachrichten mit einer Ende-zu-Ende-Verschlüsselung, wodurch diese nur vom Absender und Empfänger gelesen werden können. Doch Vorsicht: Whatsapp im Browser zu nutzen, birgt nach wie vor Risiken.

Ein unbefugter Zugriff über Whatsapp-Web ermöglicht es, Ihre Nachrichten mitzulesen, selbst wenn das Smartphone und der Computer nicht im gleichen Netzwerk sind. Überprüfen Sie daher regelmäßig die mit Ihrem Konto verknüpften Geräte:

Öffnen Sie die App auf Ihrem Smartphone.

Tippen Sie in der Chats-Übersicht rechts oben auf die drei Punkte (Android) oder unten rechts auf “Einstellungen” (iOS).

Wählen Sie die Option “Verknüpfte Geräte” aus und prüfen Sie, ob dort fremde Geräte verlinkt sind.

TIppen Sie in den Einstellungen auf “Verknüpfte Geräte”.IDG

Prüfen Sie anschließend, ob unbekannte Geräte über Whatsapp Web mit Ihrem Konto verknüpft sind.IDG

Was tun, wenn ein fremdes Gerät verknüpft ist?

Halten Sie den Finger auf das Gerät gedrückt, das Sie entfernen möchten. Im Pop-up-Fenster tippen Sie anschließend auf “Abmelden”, um die Verbindung zu trennen.

Halten Sie den Finger auf das Gerät gedrückt, um die Verbindung zu trennen.IDG

So schützen Sie sich vor fremden Mitlesern

Damit jemand sich unbemerkt mit Ihrem Whatsapp Web verknüpfen kann, muss er den entsprechenden QR-Code in Ihrer Smartphone-App gescannt haben. Achten Sie also darauf, wem Sie Ihr Handy überlassen.

Tipp: Aktivieren Sie die Zwei-Faktor-Authentifizierung in den App-Einstellungen unter “Account”. Dazu müssen Sie eine sechsstellige PIN festlegen, die bei jedem Aufruf der App erforderlich ist. Geben Sie diese PIN an niemanden weiter.

Weitere Vorsichtsmaßnahmen zum Schutz Ihres Kontos sind:

Vorsicht bei Dateien und Links: Öffnen Sie nichts, was von unbekannten Kontakten stammt oder Ihnen komisch vorkommt. Auch Freunde können unbeabsichtigt Spam oder schadhafte Links senden, etwa für Fake-Gewinnspiele.

Apps auf dem neuesten Stand halten: Aktualisieren Sie Whatsapp und andere Apps regelmäßig, um sicherzustellen, dass Sicherheitslücken geschlossen werden.

Kettenbriefe ignorieren: Vermeiden Sie das Weiterleiten von Kettenbriefen, denn hinter vielen stecken Betrugsmaschen.

Wie gut sind Verschlüsselung und Datenschutz bei Whatsapp?

Whatsapp gibt an, dass der Schutz der Privatsphäre und Sicherheit “Teil der DNA” sei. Daher sind seit jeher sämtliche Chats durch Ende-zu-Ende-Verschlüsselung geschützt. Das gilt für den Nachrichtenaustausch mit Personen ebenso wie mit Unternehmen, für das Versenden von Bildern und für Zahlungen über Whatsapp, sofern verfügbar.

Informationen werden somit nur über das benutzte Gerät gesendet und empfangen, laut Whatsapp selbst. Dennoch gibt es Risiken, die dafür sorgen könnten, dass Unbefugte Ihre Nachrichten mitlesen.

Dazu gehören unter anderem die beliebten Gruppenchats, da hier die Verschlüsselung nicht ganz so einfach funktioniert wie bei 1zu1-Gesprächen. Je mehr Teilnehmerinnen und Teilnehmer vorhanden sind, desto mehr Geräte müssen mitwirken. Zudem können Gruppen-Admins Mitglieder hinzufügen, die Sie nicht kennen, und somit Ihre Nummer preisgeben.

Auch die Backups von Chats war lange Zeit nicht gut geschützt. Erst 2021 führte Whatsapp die Option ein, Backups ebenfalls zu verschlüsseln und zusätzlich mit einem Passwort zu versehen. Diese Option müssen Sie aber erst aktivieren, und zwar in den Einstellungen unter Chats und dann Chat-Backup.

Zudem gibt es immer wieder Ansätze von Regierungen und Behörden, Zugriff auf die Daten von Whatsapp zu erhalten, inklusive Chats. Der Wunsch nach Vorratsdatenspeicherung sowie einer Art “Generalschlüssel” ist immer wieder alarmierend für viele Datenschützer. Momentan bleiben Nachrichten auf Whatsapp aber verschlüsselt und für Dritte unzugänglich.

(PC-Welt)

So enttarnen Sie jeden, der Sie auf Whatsapp ausspioniert​ Weiterlesen »

Microsoft macht Copilot zum neuen Tamagotchi​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Microsoft konzipiert Copilot als einen virtuellen Lebensbegleiter. Microsoft ChatGPT mag Copilot zwar derzeit übertrumpfen, aber Microsoft hat einen Plan. Welchen, dazu gab Mustafa Suleyman, CEO von Microsoft AI, kürzlich in einem Podcast einige Einblicke. Während OpenAI sich auf Superintelligenz und AGI (Allgemeine Künstliche Intelligenz) konzentriere, liege Microsofts Fokus auf „Handwerkskunst und Freude“, erklärte er. Microsoft möchte KI-„Lebensbegleiter“ schaffen und Suleymans Auftritt in der „Colin and Samir Show“ macht deutlich, wie konkret diese Vision bereits ist. Microsofts Vision Im Podcast sprach Suleyman darüber, dass er sich intensiv mit dem Bewusstsein von KI beschäftigt. Das untermauert auch ein aktueller X-Post des Managers. Demnach werde KI bald dazu in der Lage sein, Erfahrungen zu machen statt sie nur zu imitieren. Diese Denkweise zeigt, wohin sich Copilot entwickeln soll. Suleyman beschreibt eine Zukunft, in der Copilot „eine dauerhafte Identität, eine Präsenz und sogar einen eigenen Raum“ hat – also altert und eine Art digitale Patina annimmt. Aktuelle Chatbots wirkten so, als kämen ihre Antworten aus einem endlosen Raum ohne Alter oder Zeitgefühl – und genau dieses Konzept der „Unendlichkeit“ empfindet Suleyman als fremdartig und abschreckend für viele Menschen. Die Microsoft-KI werde stattdessen künftig zu Ihrem „kontinuierlicheren Beobachter und Mitgestalter an Ihrer Seite“ – mit einer beständigen, stabilen Präsenz und einem Gedächtnis, so der Manager. Copilot sei zudem darauf konzipiert, Lebenscoach, Produktivitätsassistent und Lehrer in einem zu sein: „Er wird Sie durch Ihr Leben begleiten, sich Dinge für Sie merken, Ihnen Informationen liefern und mit Ihnen darüber sprechen.“ Außerdem soll Copilot „Fiktion in Ihr reales Leben einflechten“. Suleyman nannte als Beispiel dafür, dass man ein Video von einem Camping-Ausflug hochlädt – und sich dann anschauen kann, „was passiert wäre, wenn ein Bär angegriffen hätte”. Falls Sie jetzt denken, das sei alles nur spontane Plauderei: Suleyman arbeitet seit Jahren an diesem Projekt und entwickelt diese ganz konkrete Vision. Der Chatbot-Vorgänger von Copilot Der heutige Chef von Microsoft AI wird oft als Mitbegründer von DeepMind vorgestellt – dem Unternehmen, das später von Google übernommen wurde. Doch vor Microsoft hat er noch etwas anderes geschaffen, das bisher wenig Aufmerksamkeit bekam. Im Jahr 2022 gründete Suleyman das Unternehmen Inflection AI, das einen Chatbot namens Pi entwickelte – benannt nach „Personal Intelligence“. Der Fokus von Pi lag auf emotionaler Intelligenz: Er sollte emotionalen Beistand leisten, anstatt nur bei Tabellenanalysen oder Geschäftsdaten zu helfen. 2024 wechselte Suleyman dann zu Microsoft. Noch im selben Jahr wurde Copilot durch ein Update zu einem KI-Gefährten, was die Consumer-Version deutlich veränderte – mit Sprachsteuerung und einem Ansatz, der stark an Pi erinnerte: ein Copilot, der gern mit seinem Nutzer darüber plaudert, wie sein Tag war. Auch wenn Copilot noch kein weltweiter Durchbruch gelungen ist, ist Microsoft überzeugt, das richtige Rezept zu haben: ein digitaler Lebensbegleiter mit emotionalen Gesichtsausdrücken und Gedächtnis, der direkt freundlich aufpoppt, sobald man die Copilot-Taste auf einem der neuen Windows-11-Laptops drückt. Karl Klammer lässt grüßen. Das virtuelle Gesicht von Copilot Die Funktion „Copilot Appearance” ist bereits für eine Handvoll Nutzer verfügbar. Microsoft bezeichnet sie in seinem Blogbeitrag noch als „Experiment”, aber Suleyman macht deutlich, dass das (in irgendeiner Form) die Zukunft des Copilot-Produktdesigns von Microsoft ist. Derzeit erscheint Copilot als eine schwebende, wolkenartige Gestalt. Doch wenn man Suleymans Visionen folgt, liegt der Traum in der individuellen Gestaltung eines Gesichts, das ganz persönlich auf den Nutzer zugeschnitten ist. Die neue “Appearance”-Funktion von Copilot ergänzt Voice-Chats um Animationen und Gesichtsausdrücke.Microsoft Auf welcher Seite steht Copilot eigentlich? Auch wenn Suleyman Copilot als Begleiter bezeichnet – ein Blick auf andere Microsoft-Produkte lässt Zweifel aufkommen: Windows 11 ist vollgepackt mit Werbung und subtilen Hinweisen, Microsoft-Dienste zu nutzen. Das Startmenü öffnet stets Bing und Edge, selbst wenn man andere Suchmaschinen oder Browser bevorzugt – und das ist nur ein Beispiel von vielen. Vor diesem Hintergrund ist zu erwarten, dass Copilot in erster Linie auf Microsofts Seite stehen wird. Problematisch ist dabei auch Suleimans Vision von Copilot als neuem viralen Feed. „Ihre KI wird einen Feed mit spannenden, herausfordernden und fesselnden Inhalten erzeugen – perfekt auf Ihre Interessen abgestimmt“, kündigt er im Podcast an. Dabei sollte man nicht vergessen: Dieser KI-generierte Feed stammt vom gleichen Unternehmen, das uns bereits die viralen Inhalte auf der „Neuer Tab“-Seite von Microsoft Edge serviert hat. Das Ganze ist also etwas beunruhigend – die Vorstellung, dass eine KI Ihnen optimierte Inhalte liefert, dass sie vor Ihren Augen altert wie ein Tamagotchi und dass Sie mit der Kündigung eines Abonnements möglicherweise Abschied von etwas nehmen, das sich wie ein Freund verhält. Viele Online-Dienste zeigen Ihnen tränenreiche Bilder und sagen Ihnen, wie traurig sie sind, dass Sie gehen, wenn Sie ein Abonnement kündigen. Der Copilot könnte in diesem Fall künftig virtuelle Tränen vergießen – nachdem er Ihnen noch einmal mit voller Begeisterung die neuesten Werbebotschaften aus Redmond in die Gehirnwindungen gehämmert hat – inklusive Call-to-Action. Sie sollten sich also schon einmal die Frage stellen: Wollen Sie wirklich einen „emotional intelligenten” KI-Kumpel, der von der Microsoft-Zentrale gesteuert wird? Wir werden sehen – oder hoffentlich nicht. (mb) 

Microsoft macht Copilot zum neuen Tamagotchi​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/File-Cropped-2025-07-29-at-09.02.07-by-OCGL.jpeg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Microsoft konzipiert Copilot als einen virtuellen Lebensbegleiter. Microsoft

ChatGPT mag Copilot zwar derzeit übertrumpfen, aber Microsoft hat einen Plan. Welchen, dazu gab Mustafa Suleyman, CEO von Microsoft AI, kürzlich in einem Podcast einige Einblicke. Während OpenAI sich auf Superintelligenz und AGI (Allgemeine Künstliche Intelligenz) konzentriere, liege Microsofts Fokus auf „Handwerkskunst und Freude“, erklärte er. Microsoft möchte KI-„Lebensbegleiter“ schaffen und Suleymans Auftritt in der „Colin and Samir Show“ macht deutlich, wie konkret diese Vision bereits ist.

Microsofts Vision

Im Podcast sprach Suleyman darüber, dass er sich intensiv mit dem Bewusstsein von KI beschäftigt. Das untermauert auch ein aktueller X-Post des Managers. Demnach werde KI bald dazu in der Lage sein, Erfahrungen zu machen statt sie nur zu imitieren. Diese Denkweise zeigt, wohin sich Copilot entwickeln soll.

Suleyman beschreibt eine Zukunft, in der Copilot „eine dauerhafte Identität, eine Präsenz und sogar einen eigenen Raum“ hat – also altert und eine Art digitale Patina annimmt. Aktuelle Chatbots wirkten so, als kämen ihre Antworten aus einem endlosen Raum ohne Alter oder Zeitgefühl – und genau dieses Konzept der „Unendlichkeit“ empfindet Suleyman als fremdartig und abschreckend für viele Menschen.

Die Microsoft-KI werde stattdessen künftig zu Ihrem „kontinuierlicheren Beobachter und Mitgestalter an Ihrer Seite“ – mit einer beständigen, stabilen Präsenz und einem Gedächtnis, so der Manager.

Copilot sei zudem darauf konzipiert, Lebenscoach, Produktivitätsassistent und Lehrer in einem zu sein: „Er wird Sie durch Ihr Leben begleiten, sich Dinge für Sie merken, Ihnen Informationen liefern und mit Ihnen darüber sprechen.“

Außerdem soll Copilot „Fiktion in Ihr reales Leben einflechten“. Suleyman nannte als Beispiel dafür, dass man ein Video von einem Camping-Ausflug hochlädt – und sich dann anschauen kann, „was passiert wäre, wenn ein Bär angegriffen hätte”.

Falls Sie jetzt denken, das sei alles nur spontane Plauderei: Suleyman arbeitet seit Jahren an diesem Projekt und entwickelt diese ganz konkrete Vision.

Der Chatbot-Vorgänger von Copilot

Der heutige Chef von Microsoft AI wird oft als Mitbegründer von DeepMind vorgestellt – dem Unternehmen, das später von Google übernommen wurde. Doch vor Microsoft hat er noch etwas anderes geschaffen, das bisher wenig Aufmerksamkeit bekam.

Im Jahr 2022 gründete Suleyman das Unternehmen Inflection AI, das einen Chatbot namens Pi entwickelte – benannt nach „Personal Intelligence“. Der Fokus von Pi lag auf emotionaler Intelligenz: Er sollte emotionalen Beistand leisten, anstatt nur bei Tabellenanalysen oder Geschäftsdaten zu helfen.

2024 wechselte Suleyman dann zu Microsoft. Noch im selben Jahr wurde Copilot durch ein Update zu einem KI-Gefährten, was die Consumer-Version deutlich veränderte – mit Sprachsteuerung und einem Ansatz, der stark an Pi erinnerte: ein Copilot, der gern mit seinem Nutzer darüber plaudert, wie sein Tag war.

Auch wenn Copilot noch kein weltweiter Durchbruch gelungen ist, ist Microsoft überzeugt, das richtige Rezept zu haben: ein digitaler Lebensbegleiter mit emotionalen Gesichtsausdrücken und Gedächtnis, der direkt freundlich aufpoppt, sobald man die Copilot-Taste auf einem der neuen Windows-11-Laptops drückt. Karl Klammer lässt grüßen.

Das virtuelle Gesicht von Copilot

Die Funktion „Copilot Appearance” ist bereits für eine Handvoll Nutzer verfügbar. Microsoft bezeichnet sie in seinem Blogbeitrag noch als „Experiment”, aber Suleyman macht deutlich, dass das (in irgendeiner Form) die Zukunft des Copilot-Produktdesigns von Microsoft ist.

Derzeit erscheint Copilot als eine schwebende, wolkenartige Gestalt. Doch wenn man Suleymans Visionen folgt, liegt der Traum in der individuellen Gestaltung eines Gesichts, das ganz persönlich auf den Nutzer zugeschnitten ist.

Die neue “Appearance”-Funktion von Copilot ergänzt Voice-Chats um Animationen und Gesichtsausdrücke.Microsoft

Auf welcher Seite steht Copilot eigentlich?

Auch wenn Suleyman Copilot als Begleiter bezeichnet – ein Blick auf andere Microsoft-Produkte lässt Zweifel aufkommen: Windows 11 ist vollgepackt mit Werbung und subtilen Hinweisen, Microsoft-Dienste zu nutzen. Das Startmenü öffnet stets Bing und Edge, selbst wenn man andere Suchmaschinen oder Browser bevorzugt – und das ist nur ein Beispiel von vielen. Vor diesem Hintergrund ist zu erwarten, dass Copilot in erster Linie auf Microsofts Seite stehen wird.

Problematisch ist dabei auch Suleimans Vision von Copilot als neuem viralen Feed. „Ihre KI wird einen Feed mit spannenden, herausfordernden und fesselnden Inhalten erzeugen – perfekt auf Ihre Interessen abgestimmt“, kündigt er im Podcast an. Dabei sollte man nicht vergessen: Dieser KI-generierte Feed stammt vom gleichen Unternehmen, das uns bereits die viralen Inhalte auf der „Neuer Tab“-Seite von Microsoft Edge serviert hat.

Das Ganze ist also etwas beunruhigend – die Vorstellung, dass eine KI Ihnen optimierte Inhalte liefert, dass sie vor Ihren Augen altert wie ein Tamagotchi und dass Sie mit der Kündigung eines Abonnements möglicherweise Abschied von etwas nehmen, das sich wie ein Freund verhält.

Viele Online-Dienste zeigen Ihnen tränenreiche Bilder und sagen Ihnen, wie traurig sie sind, dass Sie gehen, wenn Sie ein Abonnement kündigen. Der Copilot könnte in diesem Fall künftig virtuelle Tränen vergießen – nachdem er Ihnen noch einmal mit voller Begeisterung die neuesten Werbebotschaften aus Redmond in die Gehirnwindungen gehämmert hat – inklusive Call-to-Action.

Sie sollten sich also schon einmal die Frage stellen: Wollen Sie wirklich einen „emotional intelligenten” KI-Kumpel, der von der Microsoft-Zentrale gesteuert wird? Wir werden sehen – oder hoffentlich nicht. (mb)

Microsoft macht Copilot zum neuen Tamagotchi​ Weiterlesen »

ERGO setzt bei Kfz- und Gebäudeversicherung auf KI​

Allgemein

Der Versicherer ERGO will künftig bei Vertragsabschluss Kfz und Gebäude per KI visuell auf ihren Zustand hin inspizieren. ERGO Group AG Nachdem Betrüger verstärkt KI nutzen, um Versicherungen mit gefakten Schäden (siehe Video) abzocken, schlägt die ERGO Group AG zurück. Der Versicherer will nun eine KI-gestützte, visuelle Inspektion einführen. So sollen Kunden künftig im Rahmen eines beabsichtigten Vertragsabschlusses im Zuge einer sogenannten „Pre-Inspection“ Bilder ihres Fahrzeugs, beziehungsweise Wohnraums und Gebäudes per Smartphone aufnehmen und per Web-App einreichen. Auf diese Weise will der Versicherer bei einem späteren Versicherungsfällen Vorschäden berücksichtigen können. Partnerschaft mit CamCom Dazu hat ERGO mit dem indischen Scale-up CamCom Technologies eine strategische Partnerschaft abgeschlossen. CamCom hat sich auf die Identifizierung und Bewertung von Mängeln, Schäden und Verzerrungen auf nahezu allen Arten von Oberflächen spezialisiert. Die Web-App des Versicherers für die Pre-Inspection. ERGO Group AG Das hierbei verwendete firmeneigene „Large Vision Model“ wurde mit Datensätzen von über 450 Millionen kundenvalidierten Bildern trainiert, um Foto- und Videomaterial präzise zu erkennen und zu kontextualisieren. So erkenne die KI-basierte Lösung von CamCom selbstständig Position, Art und Schwere der Schäden an Fahrzeugen oder ob es sich bei den eingereichten Bildern um authentische Aufnahmen handelt. Schrittweise Einführung In einem ersten Schritt will Ergo die Lösung in den drei baltischen Staaten Estland, Lettland und Litauen einführen. Später ist auch die Einführung der CamCom-Technologie in den Sparten Kfz-, beziehungsweise Wohngebäudeversicherung in weiteren europäischen Märkten geplant. Mit der Partnerschaft untermauert ERGO seine Ambition, in der Versicherungsbranche digital führend zu sein. Dabei sei die Zusammenarbeit mit Start- und Scale-ups ein wichtiger Baustein. Eigenen Angaben zufolge hat ERGO bereits über 80 nationale und internationale Start- und Scale-up-Kollaborationen erfolgreich in die Gruppe operationalisiert. Darüber hinaus gründete das Unternehmen im vergangenen Jahr den „ERGO ScaleHub“, eine Gemeinschaftsinitiative mit der Landeshauptstadt Düsseldorf und dem Community Space TechHub.K67. Hier sollen gezielt Scale-ups aus den Bereichen Gesundheit, Finanzen sowie Versicherungen am Standort Düsseldorf unterstützt werden. 

ERGO setzt bei Kfz- und Gebäudeversicherung auf KI​ Der Versicherer ERGO will künftig bei Vertragsabschluss Kfz und Gebäude per KI visuell auf ihren Zustand hin inspizieren.
ERGO Group AG

Nachdem Betrüger verstärkt KI nutzen, um Versicherungen mit gefakten Schäden (siehe Video) abzocken, schlägt die ERGO Group AG zurück. Der Versicherer will nun eine KI-gestützte, visuelle Inspektion einführen.

So sollen Kunden künftig im Rahmen eines beabsichtigten Vertragsabschlusses im Zuge einer sogenannten „Pre-Inspection“ Bilder ihres Fahrzeugs, beziehungsweise Wohnraums und Gebäudes per Smartphone aufnehmen und per Web-App einreichen. Auf diese Weise will der Versicherer bei einem späteren Versicherungsfällen Vorschäden berücksichtigen können.

Partnerschaft mit CamCom

Dazu hat ERGO mit dem indischen Scale-up CamCom Technologies eine strategische Partnerschaft abgeschlossen. CamCom hat sich auf die Identifizierung und Bewertung von Mängeln, Schäden und Verzerrungen auf nahezu allen Arten von Oberflächen spezialisiert.

Die Web-App des Versicherers für die Pre-Inspection.
ERGO Group AG

Das hierbei verwendete firmeneigene „Large Vision Model“ wurde mit Datensätzen von über 450 Millionen kundenvalidierten Bildern trainiert, um Foto- und Videomaterial präzise zu erkennen und zu kontextualisieren. So erkenne die KI-basierte Lösung von CamCom selbstständig Position, Art und Schwere der Schäden an Fahrzeugen oder ob es sich bei den eingereichten Bildern um authentische Aufnahmen handelt.

Schrittweise Einführung

In einem ersten Schritt will Ergo die Lösung in den drei baltischen Staaten Estland, Lettland und Litauen einführen. Später ist auch die Einführung der CamCom-Technologie in den Sparten Kfz-, beziehungsweise Wohngebäudeversicherung in weiteren europäischen Märkten geplant.

Mit der Partnerschaft untermauert ERGO seine Ambition, in der Versicherungsbranche digital führend zu sein. Dabei sei die Zusammenarbeit mit Start- und Scale-ups ein wichtiger Baustein. Eigenen Angaben zufolge hat ERGO bereits über 80 nationale und internationale Start- und Scale-up-Kollaborationen erfolgreich in die Gruppe operationalisiert.

Darüber hinaus gründete das Unternehmen im vergangenen Jahr den „ERGO ScaleHub“, eine Gemeinschaftsinitiative mit der Landeshauptstadt Düsseldorf und dem Community Space TechHub.K67. Hier sollen gezielt Scale-ups aus den Bereichen Gesundheit, Finanzen sowie Versicherungen am Standort Düsseldorf unterstützt werden.

ERGO setzt bei Kfz- und Gebäudeversicherung auf KI​ Weiterlesen »

IT-Modernisierung zwischen Budgetzwängen und Innovationsdruck​

Allgemein

Um wettbewerbsfähig zu bleiben, müss(t)en viele Unternehmen jetzt in ihre IT investieren. Wirtschaftlich betrachtet, tun es die alten Legacy-Systeme aber noch ein paar Jahre. Golden Dayz – Shutterstock.com Viele Unternehmen befinden sich derzeit in einem Spannungsfeld: Einerseits sollen digitale Innovationen wie KI-gestützte Prozesse, Cloud-basierte Plattformen oder datengetriebene Services implementiert werden, die neue Geschäftspotenziale schaffen. Andererseits hängen zentrale Geschäftsprozesse noch immer an schwerfälligen, oft jahrzehntealten Legacy-Systemen. Diese Systeme sind zwar durchaus stabil, verhindern aber häufig signifikante Produktivitäts- und Innovationsschübe. Die strategische Herausforderung besteht nun darin, bestehende Systeme und Prozesse so weiterzuentwickeln, dass sie zukunftsfähig, skalierbar und wirtschaftlich tragfähig bleiben – ohne das operative Rückgrat des Unternehmens zu gefährden. Komplexität, Security, Know-how-Verlust: Treiber der IT-Modernisierung Die Lünendonk-Studie “IT-Modernisierung zwischen Legacy, Cloud und KI” bestätigt dies. 62 Prozent der befragten Unternehmen sehen Handlungsbedarf bei ihren geschäftskritischen Anwendungen, da diese nicht mehr den heutigen Anforderungen an Stabilität und Performance entsprechen und erneuert werden müssen. Jedes zweite Unternehmen gibt sogar an, dass der Betrieb, die Wartung und die Weiterentwicklung ihrer Altsysteme mittel- bis langfristig nicht mehr gewährleistet ist – was die Dringlichkeit der IT-Modernisierung unterstreicht. In 76 Prozent der befragten Unternehmen haben mindestens 20 Prozent ihrer geschäftskritischen Anwendungen in den kommenden fünf Jahren einen Modernisierungsbedarf. Bei den nicht-kritischen Applikationen sind es sogar 92 Prozent. Wieviel Prozent Ihrer geschäftskritischen und Ihrer unterstützenden und nicht-kritischen Kernapplikationen haben in den nächsten fünf Jahren in etwa einen Modernisierungsbedarf?; relative Häufigkeitsverteilung; alle Unternehmen; n = 152; Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk Die Gründe für den hohen Modernisierungsbedarf sind vielfältig. Fast alle Unternehmen (97 Prozent) sehen steigende Security- und Regulierungsanforderungen als Treiber, da die Cyberbedrohungslage weiterhin angespannt ist und Sicherheitslücken auch ein zunehmendes Geschäftsrisiko darstellen. Acht von zehn Unternehmen forcieren die IT-Modernisierung, weil viele IT-Landschaften historisch gewachsen und damit sehr verzweigt und damit komplex sind, was die Weiterentwicklung – und damit auch die volle Ausschöpfung der Geschäftspotenziale – erschwert. Der demografische Wandel ist für immerhin 61 Prozent ein Treiber. Viele IT-Abteilungen verlieren aktuell und in den nächsten Jahren Schlüsselpersonal mit tiefem Systemverständnis – insbesondere im Umgang mit alten Programmiersprachen wie COBOL, PL/I oder mit proprietären Architekturen. Gleichzeitig ist es für die Unternehmen eine große Herausforderung, neue Mitarbeiterinnen und Mitarbeiter für diese Programmiersprachen und Systeme zu begeistern und zu gewinnen, so dass der drohende Knowhow-Verlust die Unternehmen zwingt, ihre IT-Landschaften zu überdenken. Wie stark sind die folgenden Themen ein Treiber für die IT-Modernisierung in Ihrem Unternehmen?; Skala von 1 = “kein Treiber” bis 4 = “sehr starker Treiber”; relative Häufigkeitsverteilung; alle Unternehmen; dargestellte Antworten beziehen sich auf „eher starker Treiber“ und „sehr starker Treiber“; n = 152; Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk Investitionen in IT-Modernisierung unter Druck IT-Modernisierungsprogramme sind mit erheblichen Investitionen verbunden, sowohl in Technologie als auch in Personal, Fortbildung und Change Management. In einem wirtschaftlich angespannten Umfeld mit konjunktureller Unsicherheit und steigendem Kostenbewusstsein geraten diese Investitionen zunehmend unter Druck. 91 Prozent der Studienteilnehmer geben daher an, in dieser Situation vor allem auf den Werterhalt bestehender Kernsysteme zu setzen – umfassende Anpassungen erfolgen nur selten. Gleichzeitig zeigt sich aber auch ein positiver Ausblick: 83 Prozent der befragten Unternehmen verfügen über ausreichende Mittel, um anstehende Modernisierungsprojekte anzugehen. So planen 78 Prozent der Unternehmen, bei einer wirtschaftlichen Erholung ihre IT-Modernisierungsbudgets zukünftig wieder stärker zu priorisieren. Dies unterstreicht, dass die IT-Modernisierung trotz kurzfristiger Zurückhaltung eine strategische Priorität bleibt. Modernisierungsstrategien: Von Replatforming bis Repurchasing Bei der Frage, welche IT-Modernisierungsstrategie die Unternehmen für ihre Zielarchitektur verfolgen, zeigt sich ein heterogenes Bild. 79 Prozent der Unternehmen verfolgen einen Best-of-Breed-Ansatz mit Composable Architectures, so dass verschiedene Anwendungen flexibel miteinander kombiniert werden können und technologische Abhängigkeiten von monolithischen Architekturen reduziert werden. 74 Prozent setzen auf Replatforming, also der Verlagerung bestehender Anwendungen auf Cloud-Plattformen ohne tiefgreifende Änderungen an der Anwendungsarchitektur. Auf welche Modernisierungsansätze setzt Ihr Unternehmen bei geschäftskritischen Anwendungen?; Skala von 1 = “nicht relevant” bis 4 = “sehr relevant”; dargestellte Antworten beziehen sich auf „eher relevant“ und „sehr relevant“; alle Unternehmen; n = 152: Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk Eine umfangreiche Überarbeitung bestehender Anwendungen via Refactoring nutzen etwas weniger, aber immerhin 64 Prozent der Unternehmen. Die komplette Neuentwicklung von Individuallösungen (Rebuild) kommt dagegen nur für 47 Prozent der Unternehmen in Frage. Die Ablösung von Legacy-Anwendungen durch On-Premises- oder Private-Cloud-Standardlösungen können sich 72 Prozent vorstellen. Den Trend zum verstärkten Einsatz von Standardsoftware beobachtet Lünendonk auch bei der Umsatzverteilung der IT-Dienstleister: Laut der ebenfalls kürzlich veröffentlichten Studie „Der Markt für IT-Dienstleistungen in Deutschland“ verschieben sich die Umsätze einiger IT-Dienstleister weg von der Individualsoftwareentwicklung hin zur Integration von Standardsoftware. SaaS-Lösungen kommen dagegen vor allem bei weniger kritischen Anwendungen wie CRM oder Digital Experience zum Einsatz. Bei geschäftskritischen Systemen scheint die Skepsis nach wie vor groß: Aber immerhin 43 Prozent setzen auf SaaS, um Legacy-Anwendungen abzulösen. KI: Der Booster für die IT-Modernisierung? Unabhängig vom gewählten Modernisierungsansatz handelt es sich um Großprojekte, die oft mit einem hohen finanziellen und personellen Aufwand verbunden sind. Mit dem Hype um generative KI und Agentic AI sind daher große Hoffnungen verbunden, dass künstliche Intelligenz als Katalysator für die IT-Modernisierung wirken kann. So erwarten 74 Prozent der Unternehmen, dass (generative) KI Sicherheitslücken in Legacy-Systemen aufdecken und beheben kann, um Cyber-Risiken zu minimieren. 69 Prozent erhoffen sich darüber hinaus ein besseres Verständnis der Programmlogiken und damit Transparenz und Entlastung für das Personal. Etwas mehr als jeder Zweite (55 Prozent) sieht zudem großes Potenzial im Bereich Dokumentation und Wissensmanagement: KI kann dabei helfen, komplexe Systemlogiken zu analysieren, zu dokumentieren und für neue Mitarbeitende verständlich aufzubereiten – ein entscheidender Faktor angesichts des demografischen Wandels. In der Praxis sind die Erfahrungen jedoch noch begrenzt. In vielen Unternehmen fehlt es an Vertrauen in die Technologie, an Investitionsbereitschaft und an qualifiziertem Personal, das KI sinnvoll einsetzen kann. So sehen sich derzeit nur acht Prozent der Unternehmen bei der automatisierten Codeanalyse und -optimierung mittels KI fortgeschritten. Immerhin 22 Prozent haben bereits nennenswerte Erfahrungen mit KI für Dokumentation und Wissensmanagement gesammelt. IT-Modernisierung braucht Weitblick – und Mut zur Veränderung Die Kernbotschaft der Studie lautet: Wer heute modernisiert, legt den Grundstein für die Wettbewerbsfähigkeit von morgen. Dabei handelt es sich um keinen Sprint, sondern einen Marathon – mit regelmäßigem Anpassungsbedarf. Unternehmen müssen frühzeitig Zielbilder definieren, Verantwortlichkeiten klären und technologische wie organisatorische Maßnahmen synchronisieren. Nur wenn Modernisierung als integrativer Prozess verstanden wird, der Technologie, Business-Nutzen und Kultur verbindet, kann die Transformation gelingen. Genau darin liegt die Herausforderung der nächsten Jahre. (mb) 

IT-Modernisierung zwischen Budgetzwängen und Innovationsdruck​ Um wettbewerbsfähig zu bleiben, müss(t)en viele Unternehmen jetzt in ihre IT investieren. Wirtschaftlich betrachtet, tun es die alten Legacy-Systeme aber noch ein paar Jahre. Golden Dayz – Shutterstock.com

Viele Unternehmen befinden sich derzeit in einem Spannungsfeld: Einerseits sollen digitale Innovationen wie KI-gestützte Prozesse, Cloud-basierte Plattformen oder datengetriebene Services implementiert werden, die neue Geschäftspotenziale schaffen. Andererseits hängen zentrale Geschäftsprozesse noch immer an schwerfälligen, oft jahrzehntealten Legacy-Systemen.

Diese Systeme sind zwar durchaus stabil, verhindern aber häufig signifikante Produktivitäts- und Innovationsschübe. Die strategische Herausforderung besteht nun darin, bestehende Systeme und Prozesse so weiterzuentwickeln, dass sie zukunftsfähig, skalierbar und wirtschaftlich tragfähig bleiben – ohne das operative Rückgrat des Unternehmens zu gefährden.

Komplexität, Security, Know-how-Verlust: Treiber der IT-Modernisierung

Die Lünendonk-Studie “IT-Modernisierung zwischen Legacy, Cloud und KI” bestätigt dies. 62 Prozent der befragten Unternehmen sehen Handlungsbedarf bei ihren geschäftskritischen Anwendungen, da diese nicht mehr den heutigen Anforderungen an Stabilität und Performance entsprechen und erneuert werden müssen. Jedes zweite Unternehmen gibt sogar an, dass der Betrieb, die Wartung und die Weiterentwicklung ihrer Altsysteme mittel- bis langfristig nicht mehr gewährleistet ist – was die Dringlichkeit der IT-Modernisierung unterstreicht.

In 76 Prozent der befragten Unternehmen haben mindestens 20 Prozent ihrer geschäftskritischen Anwendungen in den kommenden fünf Jahren einen Modernisierungsbedarf. Bei den nicht-kritischen Applikationen sind es sogar 92 Prozent.

Wieviel Prozent Ihrer geschäftskritischen und Ihrer unterstützenden und nicht-kritischen Kernapplikationen haben in den nächsten fünf Jahren in etwa einen Modernisierungsbedarf?; relative Häufigkeitsverteilung; alle Unternehmen; n = 152; Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk

Die Gründe für den hohen Modernisierungsbedarf sind vielfältig. Fast alle Unternehmen (97 Prozent) sehen steigende Security- und Regulierungsanforderungen als Treiber, da die Cyberbedrohungslage weiterhin angespannt ist und Sicherheitslücken auch ein zunehmendes Geschäftsrisiko darstellen. Acht von zehn Unternehmen forcieren die IT-Modernisierung, weil viele IT-Landschaften historisch gewachsen und damit sehr verzweigt und damit komplex sind, was die Weiterentwicklung – und damit auch die volle Ausschöpfung der Geschäftspotenziale – erschwert.

Der demografische Wandel ist für immerhin 61 Prozent ein Treiber. Viele IT-Abteilungen verlieren aktuell und in den nächsten Jahren Schlüsselpersonal mit tiefem Systemverständnis – insbesondere im Umgang mit alten Programmiersprachen wie COBOL, PL/I oder mit proprietären Architekturen.

Gleichzeitig ist es für die Unternehmen eine große Herausforderung, neue Mitarbeiterinnen und Mitarbeiter für diese Programmiersprachen und Systeme zu begeistern und zu gewinnen, so dass der drohende Knowhow-Verlust die Unternehmen zwingt, ihre IT-Landschaften zu überdenken.

Wie stark sind die folgenden Themen ein Treiber für die IT-Modernisierung in Ihrem Unternehmen?; Skala von 1 = “kein Treiber” bis 4 = “sehr starker Treiber”; relative Häufigkeitsverteilung; alle Unternehmen; dargestellte Antworten beziehen sich auf „eher starker Treiber“ und „sehr starker Treiber“; n = 152; Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk

Investitionen in IT-Modernisierung unter Druck

IT-Modernisierungsprogramme sind mit erheblichen Investitionen verbunden, sowohl in Technologie als auch in Personal, Fortbildung und Change Management. In einem wirtschaftlich angespannten Umfeld mit konjunktureller Unsicherheit und steigendem Kostenbewusstsein geraten diese Investitionen zunehmend unter Druck. 91 Prozent der Studienteilnehmer geben daher an, in dieser Situation vor allem auf den Werterhalt bestehender Kernsysteme zu setzen – umfassende Anpassungen erfolgen nur selten.

Gleichzeitig zeigt sich aber auch ein positiver Ausblick: 83 Prozent der befragten Unternehmen verfügen über ausreichende Mittel, um anstehende Modernisierungsprojekte anzugehen. So planen 78 Prozent der Unternehmen, bei einer wirtschaftlichen Erholung ihre IT-Modernisierungsbudgets zukünftig wieder stärker zu priorisieren. Dies unterstreicht, dass die IT-Modernisierung trotz kurzfristiger Zurückhaltung eine strategische Priorität bleibt.

Modernisierungsstrategien: Von Replatforming bis Repurchasing

Bei der Frage, welche IT-Modernisierungsstrategie die Unternehmen für ihre Zielarchitektur verfolgen, zeigt sich ein heterogenes Bild. 79 Prozent der Unternehmen verfolgen einen Best-of-Breed-Ansatz mit Composable Architectures, so dass verschiedene Anwendungen flexibel miteinander kombiniert werden können und technologische Abhängigkeiten von monolithischen Architekturen reduziert werden. 74 Prozent setzen auf Replatforming, also der Verlagerung bestehender Anwendungen auf Cloud-Plattformen ohne tiefgreifende Änderungen an der Anwendungsarchitektur.

Auf welche Modernisierungsansätze setzt Ihr Unternehmen bei geschäftskritischen Anwendungen?; Skala von 1 = “nicht relevant” bis 4 = “sehr relevant”; dargestellte Antworten beziehen sich auf „eher relevant“ und „sehr relevant“; alle Unternehmen; n = 152: Quelle: Lünendonk-Studie „IT-Modernisierung zwischen Legacy, Cloud und KI“Lünendonk

Eine umfangreiche Überarbeitung bestehender Anwendungen via Refactoring nutzen etwas weniger, aber immerhin 64 Prozent der Unternehmen. Die komplette Neuentwicklung von Individuallösungen (Rebuild) kommt dagegen nur für 47 Prozent der Unternehmen in Frage.

Die Ablösung von Legacy-Anwendungen durch On-Premises- oder Private-Cloud-Standardlösungen können sich 72 Prozent vorstellen. Den Trend zum verstärkten Einsatz von Standardsoftware beobachtet Lünendonk auch bei der Umsatzverteilung der IT-Dienstleister: Laut der ebenfalls kürzlich veröffentlichten Studie „Der Markt für IT-Dienstleistungen in Deutschland“ verschieben sich die Umsätze einiger IT-Dienstleister weg von der Individualsoftwareentwicklung hin zur Integration von Standardsoftware.

SaaS-Lösungen kommen dagegen vor allem bei weniger kritischen Anwendungen wie CRM oder Digital Experience zum Einsatz. Bei geschäftskritischen Systemen scheint die Skepsis nach wie vor groß: Aber immerhin 43 Prozent setzen auf SaaS, um Legacy-Anwendungen abzulösen.

KI: Der Booster für die IT-Modernisierung?

Unabhängig vom gewählten Modernisierungsansatz handelt es sich um Großprojekte, die oft mit einem hohen finanziellen und personellen Aufwand verbunden sind. Mit dem Hype um generative KI und Agentic AI sind daher große Hoffnungen verbunden, dass künstliche Intelligenz als Katalysator für die IT-Modernisierung wirken kann.

So erwarten 74 Prozent der Unternehmen, dass (generative) KI Sicherheitslücken in Legacy-Systemen aufdecken und beheben kann, um Cyber-Risiken zu minimieren. 69 Prozent erhoffen sich darüber hinaus ein besseres Verständnis der Programmlogiken und damit Transparenz und Entlastung für das Personal. Etwas mehr als jeder Zweite (55 Prozent) sieht zudem großes Potenzial im Bereich Dokumentation und Wissensmanagement: KI kann dabei helfen, komplexe Systemlogiken zu analysieren, zu dokumentieren und für neue Mitarbeitende verständlich aufzubereiten – ein entscheidender Faktor angesichts des demografischen Wandels.

In der Praxis sind die Erfahrungen jedoch noch begrenzt. In vielen Unternehmen fehlt es an Vertrauen in die Technologie, an Investitionsbereitschaft und an qualifiziertem Personal, das KI sinnvoll einsetzen kann. So sehen sich derzeit nur acht Prozent der Unternehmen bei der automatisierten Codeanalyse und -optimierung mittels KI fortgeschritten. Immerhin 22 Prozent haben bereits nennenswerte Erfahrungen mit KI für Dokumentation und Wissensmanagement gesammelt.

IT-Modernisierung braucht Weitblick – und Mut zur Veränderung

Die Kernbotschaft der Studie lautet: Wer heute modernisiert, legt den Grundstein für die Wettbewerbsfähigkeit von morgen. Dabei handelt es sich um keinen Sprint, sondern einen Marathon – mit regelmäßigem Anpassungsbedarf. Unternehmen müssen frühzeitig Zielbilder definieren, Verantwortlichkeiten klären und technologische wie organisatorische Maßnahmen synchronisieren. Nur wenn Modernisierung als integrativer Prozess verstanden wird, der Technologie, Business-Nutzen und Kultur verbindet, kann die Transformation gelingen. Genau darin liegt die Herausforderung der nächsten Jahre. (mb)

IT-Modernisierung zwischen Budgetzwängen und Innovationsdruck​ Weiterlesen »

Verantwortungsbewusster KI-Einsatz – ein schmaler Grat​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen müssen bei der KI-Nutzung die verschiedenen Vorteile gegen inhärente rechtliche Gefahren abwägen.Sansoen Saengsakaorat – shutterstock.com Die Verlockung, mit wenigen Klicks Präsentationen oder Texte generieren zu lassen, ist groß – doch birgt dies erhebliche rechtliche und sicherheitsrelevante Risiken. Wenn Mitarbeitende vertrauliche oder personenbezogene Daten in externe KI-Systeme eingeben, drohen Datenschutzverstöße, der Verlust von Geschäftsgeheimnissen und IT-Sicherheitsprobleme. Unternehmen müssen daher technologische Innovationen stets mit ihren rechtlichen und organisatorischen Pflichten in Einklang bringen. Dass Führungskräfte rechtliche Risiken aus dem KI-Einsatz scheuen, zeigt sich in einer aktuellen Untersuchung der COMPUTERWOCHE. So wurden Studienteilnehmer, deren Unternehmen sich dem Bekunden nach „nicht ausreichend“ um KI kümmern, zu den Gründen befragt. Auf den Plätzen zwei, drei und fünf landeten dabei die Punkte „IT-Sicherheitsrisiken“, „Rechtliche Risiken“ beziehungsweise „Anforderungen an den Datenschutz“. Vor allem Führungskräfte aus den Fachbereichen verwiesen auf die Bremsklötze, während das Top-Management den Aspekt des Datenschutzes deutlich gelassener als die allgemeinen rechtlichen Risiken bewertete – dabei gibt es gerade hier eine Vielzahl zu lösender Aufgaben für den KI-Einsatz. Datenschutzrechtliche Herausforderungen Sobald personenbezogene Daten verarbeitet werden, greift die Datenschutz-Grundverordnung (DSGVO). Dies stellt Unternehmen vor mehrere Herausforderungen: So dürfen Daten nur für zuvor eindeutig festgelegte Zwecke verarbeitet werden (Zweckbindung). Das kann problematisch werden, wenn KI-Anbieter diese Daten weiterverwenden, um ihre Systeme zu verbessern. Transparenzpflichten verlangen zudem, dass Betroffene nachvollziehen können, was mit ihren Daten geschieht. Bei Blackbox-Systemen wie Large Language Models (LLMs) ist das jedoch oft kaum möglich. Umgekehrt stehen Unternehmen vor der Herausforderung, die Rechte der Personen, deren Daten in einem KI-System verarbeitet werden, gemäß Art. 15 ff. DSGVO wahren zu müssen. Die Umsetzung von Auskunfts- oder Löschpflichten ist bei KI-Systemen von Drittanbietern jedoch häufig schwierig, da es entweder an den notwendigen Informationen oder an der technischen Umsetzbarkeit fehlen kann. Hinzu kommt das Problem des Drittstaatentransfers: Viele KI-Anbieter sitzen in den USA. Ohne zusätzliche Garantien, wie die Zertifizierung unter dem Data-Privacy-Framework oder den Abschluss von EU-Standardvertragsklauseln, ist ein Datentransfer dorthin unzulässig. Schließlich erfordert der Einsatz von KI-Lösungen eine Abschätzung der Folgen für den Datenschutz nach Art. 35 DSGVO. Speziell bei Cloud-Tools wie ChatGPT oder Microsoft Copilot entsteht so ein großer Dokumentationsaufwand. Vor diesem Hintergrund wirkt die Reaktion der Unternehmen verständlich, wenn in der aktuellen KI-Studie der COMPUTERWOCHE 51 Prozent der Befragten der Aussage zustimmen, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Hinzu kommt auch die wichtige Frage der Datensicherheit. 51 Prozent der Befragten stimmen der Aussage zu, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Research Services: Daniela Petrini Gefahr für Geschäftsgeheimnisse Auch jenseits des Datenschutzes bestehen erhebliche Risiken – insbesondere im Bereich des Schutzes von Geschäftsgeheimnissen. Nach dem Geschäftsgeheimnisgesetz (GeschGehG) verlieren vertrauliche Informationen ihren rechtlichen Schutz, wenn sie nicht durch angemessene Geheimhaltungsmaßnahmen gesichert werden (§ 2 Nr. 1 GeschGehG). Wer also interne Daten ohne technische oder organisatorische Sicherung in ein öffentlich zugängliches KI-System eingibt, riskiert den Verlust des zivilrechtlichen Schutzes dieser Informationen – etwa Unterlassungs-, Schadensersatz- oder Herausgabeansprüche nach dem GeschGehG. NIS2-Richtlinie und IT-Sicherheit Mit der Umsetzung der NIS2-Richtlinie in nationales Recht werden die Anforderungen an die Cybersicherheit für viele Unternehmen, die in kritischen Sektoren wie Energie, Gesundheit oder digitale Infrastruktur tätig sind, deutlich steigen. Der Einsatz Cloud-basierter KI-Tools birgt das Risiko von Sicherheitslücken wie Prompt Injections oder Data Leakage sowie für Lieferkettenrisiken. Die NIS2-Regelungen verlangen unter anderem ein umfassendes Risikomanagement, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Sicherheitsvorfällen und die Absicherung der Lieferkette. Der Einsatz von KI muss daher systematisch in das Sicherheitskonzept eines Unternehmens eingebettet werden. Compliance-Pflichten der Unternehmensleitung Die Unternehmensleitung trägt eine besondere Verantwortung: Gemäß § 91 Abs. 2 AktG beziehungsweise § 43 GmbHG muss sie Risiken erkennen und geeignete Präventionsmaßnahmen ergreifen. Dazu zählen auch Sorgfaltspflichten bei Auswahl und Einführung von KI-Systemen sowie Überwachungs-, Organisations- und Dokumentationspflichten gegenüber Mitarbeitenden und zur Systemnutzung. Untätigkeit kann zu persönlicher Haftung führen, im Extremfall drohen Bußgelder wegen Aufsichtspflichtverletzung (§ 130 OWiG). Ein unkontrollierter KI-Einsatz kann somit schnell zur Haftungsfalle werden. KI für Mitarbeiter sperren Auch hierauf geht die Studie zur KI in Unternehmen näher ein. Demnach ist KI in gut jedem vierten Unternehmen für jeden Mitarbeitenden vollkommen frei nutzbar. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Dazwischen liegen verschiedene Stufen der Sperrung des KI-Zugangs beziehungsweise der Arbeit mit vorgeschriebenen KI-Tools. Bei den Gründen für Limitierungen rangieren die IT-Sicherheit, rechtliche Risiken sowie Anforderungen an die Datensicherheit beziehungsweise an den Datenschutz auf den vorderen Rängen. Bei den Studienteilnehmern aus dem Top-Management liegen die rechtlichen Risiken klar auf dem ersten Platz. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Research Services: Daniela Petrini Handlungsempfehlungen für Unternehmen Für einen sicheren und rechtskonformen Umgang mit KI empfiehlt sich ein strukturiertes Vorgehen: 1.            Eine klare Governance für Auswahl, Nutzung und Kontrolle von KI-Systemen etablieren. 2.            Datenschutz und IT-Sicherheit frühzeitig integrieren, indem die entsprechenden Fachabteilungen eingebunden werden. 3.            Mitarbeitende regelmäßig zu Datenschutz-, Geheimnisschutz- und Sicherheitsrisiken schulen. 4.            Geeignete technische Lösungen auswählen – etwa lokal betriebene oder datenschutzkonforme Modelle mit begrenztem Datenabfluss. So lässt sich der Innovationsvorteil der KI nutzen, ohne unnötige Sicherheits- oder Rechtsrisiken einzugehen. Keine KI ist auch keine Lösung Klar ist: KI kann einen echten Wettbewerbsvorteil bieten – vorausgesetzt, sie wird verantwortungsvoll eingesetzt. Unternehmen müssen den Spagat zwischen Effizienzgewinn und Kontrolle meistern: Eindeutige Regeln, technisch-organisatorische Schutzmaßnahmen sowie Sensibilisierung auf allen Ebenen sind dazu unerlässlich. Wer KI-Governance ernst nimmt, schafft Rechtssicherheit, stärkt das Vertrauen seiner Stakeholder und bleibt langfristig erfolgreich. Und passend dazu stimmen laut COMPUTERWOCHE-Studie 54,5 Prozent der Befragten der Aussage zu: „Das größte unternehmerische Risiko durch KI entsteht dadurch, dass man sich nicht rechtzeitig und adäquat mit den (Einsatz-)Möglichkeiten von KI auseinandersetzt.“ Die neue Studie “KI in Unternehmen 2025” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 13. März bis 6. April 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Verantwortungsbewusster KI-Einsatz – ein schmaler Grat​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen müssen bei der KI-Nutzung die verschiedenen Vorteile gegen inhärente rechtliche Gefahren abwägen.Sansoen Saengsakaorat – shutterstock.com

Die Verlockung, mit wenigen Klicks Präsentationen oder Texte generieren zu lassen, ist groß – doch birgt dies erhebliche rechtliche und sicherheitsrelevante Risiken. Wenn Mitarbeitende vertrauliche oder personenbezogene Daten in externe KI-Systeme eingeben, drohen Datenschutzverstöße, der Verlust von Geschäftsgeheimnissen und IT-Sicherheitsprobleme. Unternehmen müssen daher technologische Innovationen stets mit ihren rechtlichen und organisatorischen Pflichten in Einklang bringen.

Dass Führungskräfte rechtliche Risiken aus dem KI-Einsatz scheuen, zeigt sich in einer aktuellen Untersuchung der COMPUTERWOCHE. So wurden Studienteilnehmer, deren Unternehmen sich dem Bekunden nach „nicht ausreichend“ um KI kümmern, zu den Gründen befragt. Auf den Plätzen zwei, drei und fünf landeten dabei die Punkte „IT-Sicherheitsrisiken“, „Rechtliche Risiken“ beziehungsweise „Anforderungen an den Datenschutz“. Vor allem Führungskräfte aus den Fachbereichen verwiesen auf die Bremsklötze, während das Top-Management den Aspekt des Datenschutzes deutlich gelassener als die allgemeinen rechtlichen Risiken bewertete – dabei gibt es gerade hier eine Vielzahl zu lösender Aufgaben für den KI-Einsatz.

Datenschutzrechtliche Herausforderungen

Sobald personenbezogene Daten verarbeitet werden, greift die Datenschutz-Grundverordnung (DSGVO). Dies stellt Unternehmen vor mehrere Herausforderungen: So dürfen Daten nur für zuvor eindeutig festgelegte Zwecke verarbeitet werden (Zweckbindung). Das kann problematisch werden, wenn KI-Anbieter diese Daten weiterverwenden, um ihre Systeme zu verbessern. Transparenzpflichten verlangen zudem, dass Betroffene nachvollziehen können, was mit ihren Daten geschieht. Bei Blackbox-Systemen wie Large Language Models (LLMs) ist das jedoch oft kaum möglich.

Umgekehrt stehen Unternehmen vor der Herausforderung, die Rechte der Personen, deren Daten in einem KI-System verarbeitet werden, gemäß Art. 15 ff. DSGVO wahren zu müssen. Die Umsetzung von Auskunfts- oder Löschpflichten ist bei KI-Systemen von Drittanbietern jedoch häufig schwierig, da es entweder an den notwendigen Informationen oder an der technischen Umsetzbarkeit fehlen kann.

Hinzu kommt das Problem des Drittstaatentransfers: Viele KI-Anbieter sitzen in den USA. Ohne zusätzliche Garantien, wie die Zertifizierung unter dem Data-Privacy-Framework oder den Abschluss von EU-Standardvertragsklauseln, ist ein Datentransfer dorthin unzulässig. Schließlich erfordert der Einsatz von KI-Lösungen eine Abschätzung der Folgen für den Datenschutz nach Art. 35 DSGVO. Speziell bei Cloud-Tools wie ChatGPT oder Microsoft Copilot entsteht so ein großer Dokumentationsaufwand. Vor diesem Hintergrund wirkt die Reaktion der Unternehmen verständlich, wenn in der aktuellen KI-Studie der COMPUTERWOCHE 51 Prozent der Befragten der Aussage zustimmen, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Hinzu kommt auch die wichtige Frage der Datensicherheit.

51 Prozent der Befragten stimmen der Aussage zu, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“.
Research Services: Daniela Petrini

Gefahr für Geschäftsgeheimnisse

Auch jenseits des Datenschutzes bestehen erhebliche Risiken – insbesondere im Bereich des Schutzes von Geschäftsgeheimnissen. Nach dem Geschäftsgeheimnisgesetz (GeschGehG) verlieren vertrauliche Informationen ihren rechtlichen Schutz, wenn sie nicht durch angemessene Geheimhaltungsmaßnahmen gesichert werden (§ 2 Nr. 1 GeschGehG). Wer also interne Daten ohne technische oder organisatorische Sicherung in ein öffentlich zugängliches KI-System eingibt, riskiert den Verlust des zivilrechtlichen Schutzes dieser Informationen – etwa Unterlassungs-, Schadensersatz- oder Herausgabeansprüche nach dem GeschGehG.

NIS2-Richtlinie und IT-Sicherheit

Mit der Umsetzung der NIS2-Richtlinie in nationales Recht werden die Anforderungen an die Cybersicherheit für viele Unternehmen, die in kritischen Sektoren wie Energie, Gesundheit oder digitale Infrastruktur tätig sind, deutlich steigen. Der Einsatz Cloud-basierter KI-Tools birgt das Risiko von Sicherheitslücken wie Prompt Injections oder Data Leakage sowie für Lieferkettenrisiken. Die NIS2-Regelungen verlangen unter anderem ein umfassendes Risikomanagement, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Sicherheitsvorfällen und die Absicherung der Lieferkette. Der Einsatz von KI muss daher systematisch in das Sicherheitskonzept eines Unternehmens eingebettet werden.

Compliance-Pflichten der Unternehmensleitung

Die Unternehmensleitung trägt eine besondere Verantwortung: Gemäß § 91 Abs. 2 AktG beziehungsweise § 43 GmbHG muss sie Risiken erkennen und geeignete Präventionsmaßnahmen ergreifen. Dazu zählen auch Sorgfaltspflichten bei Auswahl und Einführung von KI-Systemen sowie Überwachungs-, Organisations- und Dokumentationspflichten gegenüber Mitarbeitenden und zur Systemnutzung. Untätigkeit kann zu persönlicher Haftung führen, im Extremfall drohen Bußgelder wegen Aufsichtspflichtverletzung (§ 130 OWiG). Ein unkontrollierter KI-Einsatz kann somit schnell zur Haftungsfalle werden.

KI für Mitarbeiter sperren

Auch hierauf geht die Studie zur KI in Unternehmen näher ein. Demnach ist KI in gut jedem vierten Unternehmen für jeden Mitarbeitenden vollkommen frei nutzbar. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Dazwischen liegen verschiedene Stufen der Sperrung des KI-Zugangs beziehungsweise der Arbeit mit vorgeschriebenen KI-Tools. Bei den Gründen für Limitierungen rangieren die IT-Sicherheit, rechtliche Risiken sowie Anforderungen an die Datensicherheit beziehungsweise an den Datenschutz auf den vorderen Rängen. Bei den Studienteilnehmern aus dem Top-Management liegen die rechtlichen Risiken klar auf dem ersten Platz.

Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte.
Research Services: Daniela Petrini

Handlungsempfehlungen für Unternehmen

Für einen sicheren und rechtskonformen Umgang mit KI empfiehlt sich ein strukturiertes Vorgehen:

1.            Eine klare Governance für Auswahl, Nutzung und Kontrolle von KI-Systemen etablieren.

2.            Datenschutz und IT-Sicherheit frühzeitig integrieren, indem die entsprechenden Fachabteilungen eingebunden werden.

3.            Mitarbeitende regelmäßig zu Datenschutz-, Geheimnisschutz- und Sicherheitsrisiken schulen.

4.            Geeignete technische Lösungen auswählen – etwa lokal betriebene oder datenschutzkonforme Modelle mit begrenztem Datenabfluss.

So lässt sich der Innovationsvorteil der KI nutzen, ohne unnötige Sicherheits- oder Rechtsrisiken einzugehen.

Keine KI ist auch keine Lösung

Klar ist: KI kann einen echten Wettbewerbsvorteil bieten – vorausgesetzt, sie wird verantwortungsvoll eingesetzt. Unternehmen müssen den Spagat zwischen Effizienzgewinn und Kontrolle meistern: Eindeutige Regeln, technisch-organisatorische Schutzmaßnahmen sowie Sensibilisierung auf allen Ebenen sind dazu unerlässlich. Wer KI-Governance ernst nimmt, schafft Rechtssicherheit, stärkt das Vertrauen seiner Stakeholder und bleibt langfristig erfolgreich. Und passend dazu stimmen laut COMPUTERWOCHE-Studie 54,5 Prozent der Befragten der Aussage zu: „Das größte unternehmerische Risiko durch KI entsteht dadurch, dass man sich nicht rechtzeitig und adäquat mit den (Einsatz-)Möglichkeiten von KI auseinandersetzt.“

Die neue Studie “KI in Unternehmen 2025” von CIO Research Services
Research Services: Daniela Petrini

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: HP Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 13. März bis 6. April 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Verantwortungsbewusster KI-Einsatz – ein schmaler Grat​ Weiterlesen »

Digitale Souveränität – Es ist höchste Zeit, etwas zu verändern​

Allgemein

Wie steht es um die digitale Souveränität Deutschlands und die Digitalisierung der öffentlichen Hand? Darüber spricht Michael Hagedorn, Vorstandsvorsitzender und CEO der Materna-Gruppe, im Interview. Markus Mielek Herr Hagedorn, bevor wir uns der Digitalisierung im öffentlichen Sektor zuwenden, welche Bedeutung hat für Sie die digitale Souveränität Deutschlands beziehungsweise Europas angesichts der veränderten geopolitischen Situation? Michael Hagedorn: Bevor ich diese Frage beantworten kann, müssen wir festlegen, was mit digitaler Souveränität gemeint ist. Im juristischen Sinne ist jemand souverän, wenn er in der Lage zur Selbstbestimmung ist. Bezogen auf die Cloud-Infrastruktur kann es also durchaus souverän sein, wenn es möglich ist, den Cloud-Anbieter mit akzeptablem Aufwand zu wechseln. Damit hat man zumindest eine Handlungssouveränität, diese ist auch kurzfristig erreichbar. Mittelfristig muss es unser Ziel sein, unsere eigene Cloud-Infrastruktur – auf europäischer und deutscher Ebene – aufzubauen. Dabei geht es vor allem um Datenhoheit und Planungssicherheit, eben um Selbstbestimmung. Und wie ist in Ihren Augen Deutschland beziehungsweise die EU diesbezüglich aufgestellt? Michael Hagedorn: Wir haben uns in der Digitalwirtschaft wie auch in anderen Branchen vielleicht zu lange auf globalisierte Lieferketten verlassen und viele Technologiefelder anderen Ländern überlassen. Die Pandemie und die geopolitischen Ereignisse der letzten zwei Jahre haben gezeigt, wie fragil Lieferketten sind und welche Abhängigkeiten bestehen. Laut Branchenverband Bitkom sind 90 Prozent der deutschen Unternehmen vom Import digitaler Technologien abhängig – insbesondere aus den USA und China. Es wird also höchste Zeit etwas zu verändern. Deutschland und Europa sind in der Lage, souveräne Digitallösungen zu entwickeln, wie historisch auch das Beispiel des Satellitenortungssystems Galileo zeigte. Wir müssen in der Entscheidungsfindung aber wesentlich schneller werden. Doch ganz lassen sich Abhängigkeiten nicht beseitigen. Der Rückstand etwa in der Halbleiterindustrie ist kaum mehr aufzuholen. Daher empfehle ich einen pragmatischen Weg: Wir arbeiten dort, wo es aus Gründen der Souveränität wichtig ist, mit europäischen Partnern zusammen, setzen parallel aber auch weiterhin auf US-amerikanische Unternehmen. Kleinstaaterei vermeiden Was halten Sie von den zahlreichen Initiativen, die jetzt ins Leben gerufen werden, beziehungsweise wurden? Sind sie zielführend? Michael Hagedorn: Die Initiativen wie der geplante Bau europäischer KI-Giga-Factories zeigen zumindest, dass die Probleme erkannt wurden. Jetzt geht es aber darum, so schnell wie möglich in den Arbeitsmodus zu kommen. Wir müssen das Momentum nutzen. Die große Herausforderung europäischer Kooperationen liegt in langwierigen Abstimmungsprozessen und dem Verlust von Dynamik im Projektverlauf. Essenziell ist, dass der europäische Ansatz nicht zerfasert, etwa zu Gunsten von Kleinstaaterei. Deutschland und Europa sind in der Lage, souveräne Digitallösungen zu entwickeln, so Hagedorn, aber wir müssen schneller werden. Markus Mielek Diese Gefahr besteht sowohl zwischen den EU-Mitgliedstaaten, aber auch innerhalb Deutschlands zwischen den Bundesländern. Auch dürfen wir die Augen nicht vor Realitäten verschließen. Die mit Subventionen geförderte Ansiedlung internationaler Unternehmen birgt eine trügerische Sicherheit: Im Ernstfall produziert man in Europa für den Weltmarkt, es bleiben nicht automatisch 100 Prozent der Produktion in Europa. Wir müssen jetzt doppelt Mut beweisen Was ist aus Ihrer Sicht zu tun? Michael Hagedorn: Wir sollten bei aller gebotenen Eile nicht in Hektik verfallen und zuviel auf einmal wollen. Es gilt zu priorisieren. Nehmen Sie das Beispiel GenAI. Hier haben US-Anbieter inzwischen einen so großen Entwicklungsvorsprung, dass es sich für europäische Unternehmen kaum noch lohnt, in die Entwicklung von Large-Language-Modellen (LLMs) zu investieren. Wir haben aber eine Chance, wenn wir uns spezialisieren. Wir müssen jetzt gleich doppelt Mut beweisen. Zum einen, wenn es darum geht, die finanziellen Mittel zur Verfügung zu stellen, um die europäische IT-Kompetenz auf- und auszubauen. Zum anderen, in dem wir akzeptieren, nicht alle Versäumnisse der letzten Jahre aufholen zu können. Souveräne Lösungen sind anfangs teurer Haben denn die ganzen Cloud-Initiativen eine echte Chance gegenüber den US-Hyperscalern, wenn es zum Schwur kommt und ihre Angebote dann zehn bis 20 Prozent teurer sind? Michael Hagedorn: Der Begriff Hyperscaler gibt die Antwort ja bereits vor. Die großen US-Anbieter können ihre Preise nur anbieten, weil sie ihre Services bereits sehr hoch skaliert haben. Dazu fehlt den europäischen Anbietern momentan noch die Infrastruktur. Ziehen wir diese mit dem Bau der Giga-Factories nach, sinken die Preise automatisch. Auch wenn wir das Niveau der MAG-Hyperscaler so[MB1]  schnell nicht erreichen werden. Nüchtern betrachtet stellt sich die Frage, ob Unternehmen und die öffentliche Verwaltung in Europa bereit sind, in einer Übergangsphase höhere Preise für souveräne europäische Lösungen auszugeben. Hier besteht auch der Bedarf von politischer Seite, Impulse und Anreise zu setzen. Mit welchen Services können die Cloud-Initiativen dann punkten? Michael Hagedorn: Mit Datensicherheit zu punkten, ist das eine. Viel wichtiger ist es jedoch, unsere Stärken auszuspielen, indem wir stärker in die fachspezifische Anwendung investieren, also etwa den Gedanken von GAIA-X, also einer souveränen, europäischen Dateninfrastruktur, fortführen und wirtschaftliche Ökosysteme unterstützen. Die Hyperscaler funktionieren ja zumeist nach dem Motto „One to Many“, da wird auf die Belange spezieller Branchen oder etwa der öffentlichen Verwaltung nur wenig Rücksicht genommen. Prozesse digital denken Es reciht nicht, nur Akten zu digitalisieren, Prozesse müssen neu und digital gedacht werden. Lane V. Erickson – Shutterstock.com Stichwort öffentliche Verwaltung. Wo sehen Sie aus Ihrer Sicht den größten Handlungsbedarf bei der Digitalisierung im öffentlichen Sektor in Deutschland? Michael Hagedorn: Ende letzten Jahres veröffentlichte der Bitkom eine Studie, die den Wunsch der Bürger nach mehr digitalen Dienstleistungen in der öffentlichen Verwaltung verdeutlichte. Dazu müssen aber zunächst Prozesse digital gedacht werden. Das Digitalisieren bestehender Prozesse bringt bei weitem nicht den gewünschten Effekt. De facto gibt es bei zu vielen Prozessen noch Medienbrüche: Man kann zwar auf elektronische Formulare zugreifen, muss diese dann aber ausgedruckt einreichen. Letztendlich geht es auch immer um einfachen Datenaustausch innerhalb von Ämtern oder Abteilungen. Solange der nicht funktioniert, arbeitet die Verwaltung ineffizient. Das gilt auch für Entscheidungswege, die oft unnötig kompliziert sind. Auch in der öffentlichen Verwaltung brauchen wir mehr Mut und mehr Tempo. Ein Kernauslöser für Medienbrüche ist die Schriftformerfordernis. Da braucht es jetzt Mut, diese in der Breite stark zurückzufahren. Und wie sind Ihre Erwartungen diesbezüglich an das Digitalministerium? Michael Hagedorn: Grundsätzlich ist es positiv zu bewerten, dass die Digitalisierung ein eigenes, ihrer Bedeutung entsprechendes Ministerium bekommt und nicht einem anderen angegliedert ist. Dass der zuständige Minister über Industrieerfahrung verfügt, ist sicher auch kein Nachteil, denn er kann nachvollziehen, wo der Schuh drückt. Jetzt geht es darum, die gewonnen PS auf die Straße zu bekommen. Laut Bitkom Digitalisierungsmonitor konnte die alte Regierung nur 38 Prozent ihrer 334 Vorhaben realisieren. Da ist noch viel Luft nach oben. Ich weiß, ich wiederhole mich, aber auch beim Digitalministerium kommt es auf mutige und schnelle Entscheidungen an. Digitalisierung nach innen Sie haben im Vorgespräch zwischen Digitalisierung nach innen und Digitalisierung nach außen unterschieden – was meinen Sie damit? Michael Hagedorn: Bei der Digitalisierung nach innen geht es um die internen Prozesse. Das gilt für Unternehmen genauso wie für die öffentliche Verwaltung. Dazu gehört auch die Vereinheitlichung der Datenspeicherung, der Abbau von Datensilos, die Vereinfachung des Datenaustauschs. Um diese Aufgabe bewältigen zu können, müssen öffentliche Verwaltungen mit den neuesten Technologien arbeiten und diese ohne großen bürokratischen Aufwand beschaffen können. Werden diese Hausaufgaben sauber erledigt, ergibt sich die Digitalisierung nach außen, also der Ausbau der angebotenen digitalen Verwaltungsleistungen zu den Bürgerinnen und Bürgern sowie Unternehmen fast schon automatisch. Wo hapert es bei der Digitalisierung nach innen – etwa bei der E-Akte? Michael Hagedorn: Wie alle Branchen in Deutschland ist auch die öffentliche Verwaltung vom Fachkräftemangel betroffen, so banal sich das anhören mag. Für den Einsatz moderner Technologien ist ein gewisses Maß an Know-how erforderlich. Außerdem ist es wichtig, alle Mitarbeitenden in den Prozess der Digitalisierung einzubinden, ihnen von Anfang an das Gefühl zu geben, ein wichtiger Teil davon zu sein, und keine Angst um den Arbeitsplatz haben zu müssen. Beschaffungsprozesse müssen vereinfacht, Zuständigkeiten direkter verankert werden. Mitarbeiter in Digitalisierung mit einbinden Für Hagedorn ist es unerlässlich, die Mitarbeiter bei der Digitalisierung mit einzubinden, um Probleme wie bei der Digitalisierung des Gesundheitswesen zu vermeiden.  Materna Schauen Sie sich die Probleme bei der Digitalisierung des Gesundheitswesens an, dann erkennen Sie identische Szenarien: Den Ärzten wurden die Vorteile der elektronischen Patientenakte nicht richtig erläutert, das notwendige IT-Equipment ist teuer, seine Beschaffung kompliziert. Es ist aber auch hier wieder (wie beim Onlinezugangsgesetz) nicht konsequent aus der Sicht der Nutzenden gedacht und etwa eine intelligente Suchfunktion oder ein ergonomisches UI gestaltet worden. Vielmehr wurde ein gesicherter Dokumentenspeicher zur Verfügung gestellt, dessen Nutzen sich jeder erst einmal erarbeiten muss. Kann die Digitalisierung auch beim Bürokratieabbau helfen? Michael Hagedorn: Das ist eine schwer zu beantwortende Frage. Für die Notwendigkeit eines Prozesses ist dessen Digitalisierung ja noch immer kein Maßstab. Nehmen Sie die komplizierten Bauvorschriften in Deutschland. Da reicht es zum Abbau der Bürokratie nicht aus, die Antragstellung und -bearbeitung zu digitalisieren. Da müssen Prozesse zunächst verschlankt und dann digital gedacht werden. Gleiches gilt für die Reduktion der Schriftformerfordernis, die ich soeben nannte. Dann kann anschließend die Digitalisierung einen Beitrag zum Bürokratieabbau leisten. Auch die Digitalisierung nach außen – Stichworte OZG, elektronische Patientenakte oder elektronischer Personalausweis – ist keine Success Story. Liegt es an den Bürgern, die Digitalmuffel sind, oder sehen Sie andere Gründe? Michael Hagedorn: Deutschland wird immer als digitales Entwicklungsland bezeichnet, was nicht stimmt. Estland, das immer als digitales Musterland in Europa genannt wird, hat weniger Einwohner als München, die Bevölkerung ist im Durchschnitt wesentlich jünger als in Deutschland und es gibt keinen Dschungel aus Bundes- und Landesrecht und -verantwortlichkeiten. Da lässt es sich leichter digitalisieren. Aufklärung ist nötig Ich glaube ein Teil des Erfolges liegt auch hier in der Aufklärung. Es gibt seit zehn Jahren online-fähige Ausweise in Deutschland, nur ist das bei der breiten Bevölkerung noch nicht wirklich angekommen. Wir müssen die Vorteile, die jeder Einzelne durch die Digitalisierung hat, viel deutlicher machen. Wir müssen Ängste und Befürchtungen in puncto Datenschutz ernst nehmen und nachvollziehbare Lösungen bieten. Wenn wir dann noch einfach zu bedienende Anwendungen entwickeln, gibt das der Digitalisierung einen mächtigen Schub. Schauen Sie sich die Entwicklung der Künstlichen Intelligenz an. Vieles von der aktuellen Euphorie wird von der einfachen Anwendbarkeit entfacht. Technologisch ist der Sprung von Expertensystemen zu GenAI-Anwendungen nicht so weit. Inwieweit ist der Föderalismus bei digitalen Projekten ein Problem? Michael Hagedorn: Es geht vor allem um den Willen, den Föderalismus nicht als Alibi zu nutzen. Im Gegenteil: Der Föderalismus macht den Zwang zur Vereinheitlichung von Datenformaten deutlich, was man positiv als Arbeitsanweisung betrachten kann. Und wenn wir es in Deutschland schaffen, einen Standard für 16 Bundesländer und mehr als 11.000 Kommunen zu definieren, kann das auch grenzüberschreitend mit 27 EU-Staaten funktionieren. Ja, der Föderalismus ist eine Herausforderung, aber er ist auch eine Chance, um Digitalisierung europaweit zu denken. Digitalisierung europaweit denken Angenommen, Sie müssten ein Sofortprogramm Digitalisierung entwerfen. Was wären Ihre dringlichsten Maßnahmen? Michael Hagedorn: Zunächst müssen sich alle Beteiligten auf Standards bei Datenformaten und Schnittstellen einigen. Um das Tempo hochzuhalten, könnte man sich bei den Lösungen an der Entwicklung der ERP-Systeme orientieren. Die Basisprozesse der Verwaltung sind am Ende von Kommune zu Kommune und Land zu Land genauso ähnlich wie betriebswirtschaftliche Prozesse. Daher wäre eine „Standardsoftware Öffentliche Verwaltung“ ein guter Ansatz. Ganz wichtig ist aber, dass die Digitalisierung zielgruppengerecht abläuft und sowohl die Mitarbeitenden in den Verwaltungen als auch die Bürger gehört werden. Die Mitarbeitenden müssen von Anfang an Teil der Projekte sein. Und wie sieht es mit der Software aus, eigene Behördenentwicklungen, Cloud-Services oder andere Lösungen? Hagedorn empfiehlt Multi-Cloud-Umgebungen, um weniger kritische Daten und Apps auch in den RZs nicht-europäischer Anbieter hosten zu können. Markus Mielek Michael Hagedorn: Ich denke, wir sind uns einig, dass sich auch die Behörden nicht gegen den Trend zu Software as a Service wehren können, schon aus Kostengründen. Es geht also darum, Cloud-Services zu nutzen. Ob die dann Open-Source-Software oder Individuallösungen sind, muss von Fall zu Fall entschieden werden. Darüber hinaus sollte ein Datenaustausch zwischen verschiedenen Clouds gewährleistet sein. Diese Grundforderung sollte auch bei der Auswahl des Cloud-Provider im Mittelpunkt stehen. Empfehlenswert sind Multi-Cloud-Umgebungen, bei denen weniger kritische Daten und Anwendungen auch in den Rechenzentren nicht-europäischer Anbieter gehostet werden können. Beim Kostendruck, den Länder und Kommunen spüren, sollten Synergien genutzt werden, wo immer sie sich anbieten. Datensicherheit mitdenken Bleibt noch das weite Feld KRITIS und NIS2. Was ist hier bei der Digitalisierung zu beachten? Michael Hagedorn: Die IT-Infrastrukturen der öffentlichen Verwaltung und einiger Wirtschaftssektoren wie etwa die Energieversorger und das Gesundheitswesen zählen seit langem zur besonders zu sichernden kritischen Infrastruktur und sind deren Regelungen (KRITIS) unterworfen. NIS2 ist, wenn man so will, noch mal eine Konkretisierung im Hinblick auf die Cybersicherheit. Einige in der NIS2-Richtlinie festgelegte Maßnahmen gehen zu dem konform mit dem, was bereits vom BSI im IT-Grundschutz formuliert wurde. Wir sind also vorbereitet und müssen bei jedem Digitalisierungsschritt das Thema Datensicherheit mitdenken. Das sollte allerdings inzwischen zum Allgemeingut geworden sein und keiner besonderen Erwähnung bedürfen. Ebenso kritisch dürfte für die öffentliche Hand die KI-Nutzung sein. LLMs von US-amerikanischen kommen hier wohl kaum in Frage, oder? Michael Hagedorn: Der Kostendruck und auch der Fachkräftemangel erhöhen den Automatisierungsdruck auch in der öffentlichen Verwaltung. Laut einer aktuellen McKinsey-Studie fehlen aktuell bereits eine halbe Million Vollzeitkräfte, bis 2030 soll sich die Zahl der offenen Stellen auf 840.000 vergrößern. Generative KI kann hier ein Hilfsmittel sein. Mittelfristig brauchen wir eigene Lösungen Geht es um die Anbieterauswahl, muss der Sicherheitsaspekt natürlich im Vordergrund stehen. Aber realistisch betrachtet, wird es auf eine Multi-Cloud- und Multi-AI-Landschaft hinauslaufen, in der abhängig vom Use Case und der Art der Daten manche Teile datensouverän sind und andere nicht. Mittelfristig geht es aber darum, eigene Lösungen zu entwickeln, auch weil Verwaltungsprozesse in Deutschland anders definiert sind als etwa in den USA. Und wie sieht die Alternative aus? KI On-Premises? Oder ist Aleph Alpha eine Lösung? Michael Hagedorn: Aleph Alpha ist ein gutes Beispiel, dass Europa eine Chance im KI-Rennen hat, wenn es sich auf seine Stärken fokussiert. Aleph Alphas KI-Plattform PhariaAI liefert KI-Anwendungen in der Cloud und On-Premises sowie den KI-Assistenten PGA (Pharia Government Assistant, Nachfolge von F13). Hinter PGA stehen neben der STACK-IT auch GovTech Deutschland und Materna. Die Plattform stößt auf breites Interesse in der öffentlichen Verwaltung. Der PGA kann bei Recherche, Faktenprüfung, Übersetzungen, Textgenerierung, Zusammenfassungen und Transkription helfen. 

Digitale Souveränität – Es ist höchste Zeit, etwas zu verändern​ Wie steht es um die digitale Souveränität Deutschlands und die Digitalisierung der öffentlichen Hand? Darüber spricht Michael Hagedorn, Vorstandsvorsitzender und CEO der Materna-Gruppe, im Interview.
Markus Mielek

Herr Hagedorn, bevor wir uns der Digitalisierung im öffentlichen Sektor zuwenden, welche Bedeutung hat für Sie die digitale Souveränität Deutschlands beziehungsweise Europas angesichts der veränderten geopolitischen Situation?

Michael Hagedorn: Bevor ich diese Frage beantworten kann, müssen wir festlegen, was mit digitaler Souveränität gemeint ist. Im juristischen Sinne ist jemand souverän, wenn er in der Lage zur Selbstbestimmung ist. Bezogen auf die Cloud-Infrastruktur kann es also durchaus souverän sein, wenn es möglich ist, den Cloud-Anbieter mit akzeptablem Aufwand zu wechseln.

Damit hat man zumindest eine Handlungssouveränität, diese ist auch kurzfristig erreichbar. Mittelfristig muss es unser Ziel sein, unsere eigene Cloud-Infrastruktur – auf europäischer und deutscher Ebene – aufzubauen. Dabei geht es vor allem um Datenhoheit und Planungssicherheit, eben um Selbstbestimmung.

Und wie ist in Ihren Augen Deutschland beziehungsweise die EU diesbezüglich aufgestellt?

Michael Hagedorn: Wir haben uns in der Digitalwirtschaft wie auch in anderen Branchen vielleicht zu lange auf globalisierte Lieferketten verlassen und viele Technologiefelder anderen Ländern überlassen. Die Pandemie und die geopolitischen Ereignisse der letzten zwei Jahre haben gezeigt, wie fragil Lieferketten sind und welche Abhängigkeiten bestehen. Laut Branchenverband Bitkom sind 90 Prozent der deutschen Unternehmen vom Import digitaler Technologien abhängig – insbesondere aus den USA und China.

Es wird also höchste Zeit etwas zu verändern. Deutschland und Europa sind in der Lage, souveräne Digitallösungen zu entwickeln, wie historisch auch das Beispiel des Satellitenortungssystems Galileo zeigte. Wir müssen in der Entscheidungsfindung aber wesentlich schneller werden. Doch ganz lassen sich Abhängigkeiten nicht beseitigen. Der Rückstand etwa in der Halbleiterindustrie ist kaum mehr aufzuholen. Daher empfehle ich einen pragmatischen Weg: Wir arbeiten dort, wo es aus Gründen der Souveränität wichtig ist, mit europäischen Partnern zusammen, setzen parallel aber auch weiterhin auf US-amerikanische Unternehmen.

Kleinstaaterei vermeiden

Was halten Sie von den zahlreichen Initiativen, die jetzt ins Leben gerufen werden, beziehungsweise wurden? Sind sie zielführend?

Michael Hagedorn: Die Initiativen wie der geplante Bau europäischer KI-Giga-Factories zeigen zumindest, dass die Probleme erkannt wurden. Jetzt geht es aber darum, so schnell wie möglich in den Arbeitsmodus zu kommen. Wir müssen das Momentum nutzen. Die große Herausforderung europäischer Kooperationen liegt in langwierigen Abstimmungsprozessen und dem Verlust von Dynamik im Projektverlauf. Essenziell ist, dass der europäische Ansatz nicht zerfasert, etwa zu Gunsten von Kleinstaaterei.

Deutschland und Europa sind in der Lage, souveräne Digitallösungen zu entwickeln, so Hagedorn, aber wir müssen schneller werden.
Markus Mielek

Diese Gefahr besteht sowohl zwischen den EU-Mitgliedstaaten, aber auch innerhalb Deutschlands zwischen den Bundesländern. Auch dürfen wir die Augen nicht vor Realitäten verschließen. Die mit Subventionen geförderte Ansiedlung internationaler Unternehmen birgt eine trügerische Sicherheit: Im Ernstfall produziert man in Europa für den Weltmarkt, es bleiben nicht automatisch 100 Prozent der Produktion in Europa.

Wir müssen jetzt doppelt Mut beweisen

Was ist aus Ihrer Sicht zu tun?

Michael Hagedorn: Wir sollten bei aller gebotenen Eile nicht in Hektik verfallen und zuviel auf einmal wollen. Es gilt zu priorisieren. Nehmen Sie das Beispiel GenAI. Hier haben US-Anbieter inzwischen einen so großen Entwicklungsvorsprung, dass es sich für europäische Unternehmen kaum noch lohnt, in die Entwicklung von Large-Language-Modellen (LLMs) zu investieren.

Wir haben aber eine Chance, wenn wir uns spezialisieren. Wir müssen jetzt gleich doppelt Mut beweisen. Zum einen, wenn es darum geht, die finanziellen Mittel zur Verfügung zu stellen, um die europäische IT-Kompetenz auf- und auszubauen. Zum anderen, in dem wir akzeptieren, nicht alle Versäumnisse der letzten Jahre aufholen zu können.

Souveräne Lösungen sind anfangs teurer

Haben denn die ganzen Cloud-Initiativen eine echte Chance gegenüber den US-Hyperscalern, wenn es zum Schwur kommt und ihre Angebote dann zehn bis 20 Prozent teurer sind?

Michael Hagedorn: Der Begriff Hyperscaler gibt die Antwort ja bereits vor. Die großen US-Anbieter können ihre Preise nur anbieten, weil sie ihre Services bereits sehr hoch skaliert haben. Dazu fehlt den europäischen Anbietern momentan noch die Infrastruktur. Ziehen wir diese mit dem Bau der Giga-Factories nach, sinken die Preise automatisch. Auch wenn wir das Niveau der MAG-Hyperscaler so[MB1]  schnell nicht erreichen werden.

Nüchtern betrachtet stellt sich die Frage, ob Unternehmen und die öffentliche Verwaltung in Europa bereit sind, in einer Übergangsphase höhere Preise für souveräne europäische Lösungen auszugeben. Hier besteht auch der Bedarf von politischer Seite, Impulse und Anreise zu setzen.

Mit welchen Services können die Cloud-Initiativen dann punkten?

Michael Hagedorn: Mit Datensicherheit zu punkten, ist das eine. Viel wichtiger ist es jedoch, unsere Stärken auszuspielen, indem wir stärker in die fachspezifische Anwendung investieren, also etwa den Gedanken von GAIA-X, also einer souveränen, europäischen Dateninfrastruktur, fortführen und wirtschaftliche Ökosysteme unterstützen. Die Hyperscaler funktionieren ja zumeist nach dem Motto „One to Many“, da wird auf die Belange spezieller Branchen oder etwa der öffentlichen Verwaltung nur wenig Rücksicht genommen.

Prozesse digital denken

Es reciht nicht, nur Akten zu digitalisieren, Prozesse müssen neu und digital gedacht werden.
Lane V. Erickson – Shutterstock.com

Stichwort öffentliche Verwaltung. Wo sehen Sie aus Ihrer Sicht den größten Handlungsbedarf bei der Digitalisierung im öffentlichen Sektor in Deutschland?

Michael Hagedorn: Ende letzten Jahres veröffentlichte der Bitkom eine Studie, die den Wunsch der Bürger nach mehr digitalen Dienstleistungen in der öffentlichen Verwaltung verdeutlichte. Dazu müssen aber zunächst Prozesse digital gedacht werden. Das Digitalisieren bestehender Prozesse bringt bei weitem nicht den gewünschten Effekt.

De facto gibt es bei zu vielen Prozessen noch Medienbrüche: Man kann zwar auf elektronische Formulare zugreifen, muss diese dann aber ausgedruckt einreichen. Letztendlich geht es auch immer um einfachen Datenaustausch innerhalb von Ämtern oder Abteilungen. Solange der nicht funktioniert, arbeitet die Verwaltung ineffizient. Das gilt auch für Entscheidungswege, die oft unnötig kompliziert sind. Auch in der öffentlichen Verwaltung brauchen wir mehr Mut und mehr Tempo. Ein Kernauslöser für Medienbrüche ist die Schriftformerfordernis. Da braucht es jetzt Mut, diese in der Breite stark zurückzufahren.

Und wie sind Ihre Erwartungen diesbezüglich an das Digitalministerium?

Michael Hagedorn: Grundsätzlich ist es positiv zu bewerten, dass die Digitalisierung ein eigenes, ihrer Bedeutung entsprechendes Ministerium bekommt und nicht einem anderen angegliedert ist. Dass der zuständige Minister über Industrieerfahrung verfügt, ist sicher auch kein Nachteil, denn er kann nachvollziehen, wo der Schuh drückt. Jetzt geht es darum, die gewonnen PS auf die Straße zu bekommen. Laut Bitkom Digitalisierungsmonitor konnte die alte Regierung nur 38 Prozent ihrer 334 Vorhaben realisieren. Da ist noch viel Luft nach oben. Ich weiß, ich wiederhole mich, aber auch beim Digitalministerium kommt es auf mutige und schnelle Entscheidungen an.

Digitalisierung nach innen

Sie haben im Vorgespräch zwischen Digitalisierung nach innen und Digitalisierung nach außen unterschieden – was meinen Sie damit?

Michael Hagedorn: Bei der Digitalisierung nach innen geht es um die internen Prozesse. Das gilt für Unternehmen genauso wie für die öffentliche Verwaltung. Dazu gehört auch die Vereinheitlichung der Datenspeicherung, der Abbau von Datensilos, die Vereinfachung des Datenaustauschs. Um diese Aufgabe bewältigen zu können, müssen öffentliche Verwaltungen mit den neuesten Technologien arbeiten und diese ohne großen bürokratischen Aufwand beschaffen können. Werden diese Hausaufgaben sauber erledigt, ergibt sich die Digitalisierung nach außen, also der Ausbau der angebotenen digitalen Verwaltungsleistungen zu den Bürgerinnen und Bürgern sowie Unternehmen fast schon automatisch.

Wo hapert es bei der Digitalisierung nach innen – etwa bei der E-Akte?

Michael Hagedorn: Wie alle Branchen in Deutschland ist auch die öffentliche Verwaltung vom Fachkräftemangel betroffen, so banal sich das anhören mag. Für den Einsatz moderner Technologien ist ein gewisses Maß an Know-how erforderlich. Außerdem ist es wichtig, alle Mitarbeitenden in den Prozess der Digitalisierung einzubinden, ihnen von Anfang an das Gefühl zu geben, ein wichtiger Teil davon zu sein, und keine Angst um den Arbeitsplatz haben zu müssen. Beschaffungsprozesse müssen vereinfacht, Zuständigkeiten direkter verankert werden.

Mitarbeiter in Digitalisierung mit einbinden

Für Hagedorn ist es unerlässlich, die Mitarbeiter bei der Digitalisierung mit einzubinden, um Probleme wie bei der Digitalisierung des Gesundheitswesen zu vermeiden. 
Materna

Schauen Sie sich die Probleme bei der Digitalisierung des Gesundheitswesens an, dann erkennen Sie identische Szenarien: Den Ärzten wurden die Vorteile der elektronischen Patientenakte nicht richtig erläutert, das notwendige IT-Equipment ist teuer, seine Beschaffung kompliziert. Es ist aber auch hier wieder (wie beim Onlinezugangsgesetz) nicht konsequent aus der Sicht der Nutzenden gedacht und etwa eine intelligente Suchfunktion oder ein ergonomisches UI gestaltet worden. Vielmehr wurde ein gesicherter Dokumentenspeicher zur Verfügung gestellt, dessen Nutzen sich jeder erst einmal erarbeiten muss.

Kann die Digitalisierung auch beim Bürokratieabbau helfen?

Michael Hagedorn: Das ist eine schwer zu beantwortende Frage. Für die Notwendigkeit eines Prozesses ist dessen Digitalisierung ja noch immer kein Maßstab. Nehmen Sie die komplizierten Bauvorschriften in Deutschland. Da reicht es zum Abbau der Bürokratie nicht aus, die Antragstellung und -bearbeitung zu digitalisieren. Da müssen Prozesse zunächst verschlankt und dann digital gedacht werden. Gleiches gilt für die Reduktion der Schriftformerfordernis, die ich soeben nannte. Dann kann anschließend die Digitalisierung einen Beitrag zum Bürokratieabbau leisten.

Auch die Digitalisierung nach außen – Stichworte OZG, elektronische Patientenakte oder elektronischer Personalausweis – ist keine Success Story. Liegt es an den Bürgern, die Digitalmuffel sind, oder sehen Sie andere Gründe?

Michael Hagedorn: Deutschland wird immer als digitales Entwicklungsland bezeichnet, was nicht stimmt. Estland, das immer als digitales Musterland in Europa genannt wird, hat weniger Einwohner als München, die Bevölkerung ist im Durchschnitt wesentlich jünger als in Deutschland und es gibt keinen Dschungel aus Bundes- und Landesrecht und -verantwortlichkeiten. Da lässt es sich leichter digitalisieren.

Aufklärung ist nötig

Ich glaube ein Teil des Erfolges liegt auch hier in der Aufklärung. Es gibt seit zehn Jahren online-fähige Ausweise in Deutschland, nur ist das bei der breiten Bevölkerung noch nicht wirklich angekommen. Wir müssen die Vorteile, die jeder Einzelne durch die Digitalisierung hat, viel deutlicher machen. Wir müssen Ängste und Befürchtungen in puncto Datenschutz ernst nehmen und nachvollziehbare Lösungen bieten. Wenn wir dann noch einfach zu bedienende Anwendungen entwickeln, gibt das der Digitalisierung einen mächtigen Schub. Schauen Sie sich die Entwicklung der Künstlichen Intelligenz an. Vieles von der aktuellen Euphorie wird von der einfachen Anwendbarkeit entfacht. Technologisch ist der Sprung von Expertensystemen zu GenAI-Anwendungen nicht so weit.

Inwieweit ist der Föderalismus bei digitalen Projekten ein Problem?

Michael Hagedorn: Es geht vor allem um den Willen, den Föderalismus nicht als Alibi zu nutzen. Im Gegenteil: Der Föderalismus macht den Zwang zur Vereinheitlichung von Datenformaten deutlich, was man positiv als Arbeitsanweisung betrachten kann. Und wenn wir es in Deutschland schaffen, einen Standard für 16 Bundesländer und mehr als 11.000 Kommunen zu definieren, kann das auch grenzüberschreitend mit 27 EU-Staaten funktionieren. Ja, der Föderalismus ist eine Herausforderung, aber er ist auch eine Chance, um Digitalisierung europaweit zu denken.

Digitalisierung europaweit denken

Angenommen, Sie müssten ein Sofortprogramm Digitalisierung entwerfen. Was wären Ihre dringlichsten Maßnahmen?

Michael Hagedorn: Zunächst müssen sich alle Beteiligten auf Standards bei Datenformaten und Schnittstellen einigen. Um das Tempo hochzuhalten, könnte man sich bei den Lösungen an der Entwicklung der ERP-Systeme orientieren. Die Basisprozesse der Verwaltung sind am Ende von Kommune zu Kommune und Land zu Land genauso ähnlich wie betriebswirtschaftliche Prozesse. Daher wäre eine „Standardsoftware Öffentliche Verwaltung“ ein guter Ansatz. Ganz wichtig ist aber, dass die Digitalisierung zielgruppengerecht abläuft und sowohl die Mitarbeitenden in den Verwaltungen als auch die Bürger gehört werden. Die Mitarbeitenden müssen von Anfang an Teil der Projekte sein.

Und wie sieht es mit der Software aus, eigene Behördenentwicklungen, Cloud-Services oder andere Lösungen?

Hagedorn empfiehlt Multi-Cloud-Umgebungen, um weniger kritische Daten und Apps auch in den RZs nicht-europäischer Anbieter hosten zu können.
Markus Mielek

Michael Hagedorn: Ich denke, wir sind uns einig, dass sich auch die Behörden nicht gegen den Trend zu Software as a Service wehren können, schon aus Kostengründen. Es geht also darum, Cloud-Services zu nutzen. Ob die dann Open-Source-Software oder Individuallösungen sind, muss von Fall zu Fall entschieden werden. Darüber hinaus sollte ein Datenaustausch zwischen verschiedenen Clouds gewährleistet sein. Diese Grundforderung sollte auch bei der Auswahl des Cloud-Provider im Mittelpunkt stehen. Empfehlenswert sind Multi-Cloud-Umgebungen, bei denen weniger kritische Daten und Anwendungen auch in den Rechenzentren nicht-europäischer Anbieter gehostet werden können. Beim Kostendruck, den Länder und Kommunen spüren, sollten Synergien genutzt werden, wo immer sie sich anbieten.

Datensicherheit mitdenken

Bleibt noch das weite Feld KRITIS und NIS2. Was ist hier bei der Digitalisierung zu beachten?

Michael Hagedorn: Die IT-Infrastrukturen der öffentlichen Verwaltung und einiger Wirtschaftssektoren wie etwa die Energieversorger und das Gesundheitswesen zählen seit langem zur besonders zu sichernden kritischen Infrastruktur und sind deren Regelungen (KRITIS) unterworfen.

NIS2 ist, wenn man so will, noch mal eine Konkretisierung im Hinblick auf die Cybersicherheit. Einige in der NIS2-Richtlinie festgelegte Maßnahmen gehen zu dem konform mit dem, was bereits vom BSI im IT-Grundschutz formuliert wurde. Wir sind also vorbereitet und müssen bei jedem Digitalisierungsschritt das Thema Datensicherheit mitdenken. Das sollte allerdings inzwischen zum Allgemeingut geworden sein und keiner besonderen Erwähnung bedürfen.

Ebenso kritisch dürfte für die öffentliche Hand die KI-Nutzung sein. LLMs von US-amerikanischen kommen hier wohl kaum in Frage, oder?

Michael Hagedorn: Der Kostendruck und auch der Fachkräftemangel erhöhen den Automatisierungsdruck auch in der öffentlichen Verwaltung. Laut einer aktuellen McKinsey-Studie fehlen aktuell bereits eine halbe Million Vollzeitkräfte, bis 2030 soll sich die Zahl der offenen Stellen auf 840.000 vergrößern. Generative KI kann hier ein Hilfsmittel sein.

Mittelfristig brauchen wir eigene Lösungen

Geht es um die Anbieterauswahl, muss der Sicherheitsaspekt natürlich im Vordergrund stehen. Aber realistisch betrachtet, wird es auf eine Multi-Cloud- und Multi-AI-Landschaft hinauslaufen, in der abhängig vom Use Case und der Art der Daten manche Teile datensouverän sind und andere nicht. Mittelfristig geht es aber darum, eigene Lösungen zu entwickeln, auch weil Verwaltungsprozesse in Deutschland anders definiert sind als etwa in den USA.

Und wie sieht die Alternative aus? KI On-Premises? Oder ist Aleph Alpha eine Lösung?

Michael Hagedorn: Aleph Alpha ist ein gutes Beispiel, dass Europa eine Chance im KI-Rennen hat, wenn es sich auf seine Stärken fokussiert. Aleph Alphas KI-Plattform PhariaAI liefert KI-Anwendungen in der Cloud und On-Premises sowie den KI-Assistenten PGA (Pharia Government Assistant, Nachfolge von F13). Hinter PGA stehen neben der STACK-IT auch GovTech Deutschland und Materna. Die Plattform stößt auf breites Interesse in der öffentlichen Verwaltung. Der PGA kann bei Recherche, Faktenprüfung, Übersetzungen, Textgenerierung, Zusammenfassungen und Transkription helfen.

Digitale Souveränität – Es ist höchste Zeit, etwas zu verändern​ Weiterlesen »

Unternehmen setzen zunehmend auf KI-Agenten​

Allgemein

Agentenbasierte KI verspricht höhere Effizienz und Flexibilität, so eine aktuelle IBM-StudieZinetroN – shutterstock.com Nach einer Erprobungsphase planen viele Unternehmen KI-gestützte Arbeitsabläufe in erheblichem Umfang auszuweitenund für eine verbesserte Entscheidungsfindung und Automatisierung zu nutzen. Viele davon werden von agentenbasierter KI angetrieben werden. Das ergab die aktuelle Studie AI Projects to Profits des IBM Institute for Business Value, für die weltweit 2.900 Führungskräfte befragt wurden. So erwarten die Teilnehmer im Schnitt, dass die Anzahl KI-gestützter Arbeitsabläufe von heute drei Prozent auf 25 Prozent bis Ende 2025 wachsen werden. Investitionen in KI steigen deutlich Laut der Studie setzen Unternehmen KI dabei zunehmend strategisch ein: Der Anteil der KI-Investitionen an den IT-Ausgaben soll von zwölf Prozent im Jahr 2024 auf 20 Prozent bis 2026 steigen. Bereits jetzt fließen 64 Prozent der KI-Budgets in Kerngeschäftsfunktionen, während der Anteil der Unternehmen mit Ad-hoc-KI-Ansätzen auf sechs Prozent deutlich gesunken ist. Von Pilotprojekten zu nachhaltigen Gewinnen Das veränderte Adoptionsverfahren scheint vor allem daran zu liegen, dass zu Beginn der KI-Euphorie die Renditen von Generative-AI-Pilotprojekten mit bis zu 31 Prozent oft spektakulär hoch waren, so die Betreiber der Studie. 2024 seien diese Zahlen jedoch auf einen deutlich niedrigeren Wert von durchschnittlich sieben  Prozent ROI (Return on Investment) gesunken. Das entspricht in Deutschland und weltweit etwa dem langfristigen Niveau früherer KI-Einführungen. Als Grund hierfür geben die Studienmacher an, dass KI heute gezielter in die zentralen Kernbereiche von Unternehmen eingebunden wird. Dies setzt allerdings voraus, dass Unternehmen komplexere und langfristigere Veränderungen vornehmen und ihre Prozesse, Nutzererlebnisse und Datenintegration grundlegend neu gestalten. KI erfüllt ROI häufig nicht Trotz dieses „ROI-Resets“ wächst der operative Gewinn, der auf KI zurückzuführen ist, kontinuierlich – von 2,4 Prozent im Jahr 2022 auf voraussichtlich 7,7 Prozent 2024. Zugleich bezeichnet sich mittlerweile jedes vierte Unternehmen als „AI-first“-Anwender. Diese Unternehmen schreiben KI-Initiativen über die Hälfte ihres Umsatzwachstums und ihrer Margenverbesserung der letzten 12 Monate zu. Gleichzeitig gaben die befragten Manager an, dass in den letzten drei Jahren nur ein Viertel der KI-Initiativen den erwarteten ROI erzielt hätte. Laut den Studienmachern erhöhe das den Druck auf Führungskräfte aus Wirtschaft und Technologie, die finanziellen Auswirkungen nachzuweisen. Flexiblere KI-Agenten vonnöten Dennoch fördern 76 Prozent aller befragten Unternehmen aktiv Experimente, was vor allem daran liegen könnte, dass KI-Agenten als nächste Entwicklungsstufe intelligenter Automatisierung gesehen wird. Bis 2026 sollen sich so laut 83 Prozent der Befragten die Prozesseffizienz deutlich verbessern lassen. 71 Prozent der Teilnehmenden erwarten darüber hinaus, dass sich die Agenten flexibel an veränderte Abläufe anpassen können. Sieben von zehn der Führungskräfte halten agentenbasierte KI zudem für wichtig für die Zukunft ihres Unternehmens. Genau die gleiche Anzahl der Befragten glaubt, dass agentenbasierte KI marktreif ist. Dies steht im Einklang mit anderen Untersuchungen, denen zufolge 61 Prozent der CEOs angeben, dass ihr Unternehmen aktiv KI-Agenten einsetzt und sich darauf vorbereitet, diese in großem Maßstab zu implementieren. „Der geschäftliche Mehrwert agentenbasierter KI liegt dabei vor allem in ihrer Anwendung auf zentrale Geschäftsprozesse wie Lieferkette und HR“, so IBM-Experte Francesco Brenna. Vorteile, aber immer noch Bedenken Laut dem Bericht sehen Führungskräfte fünf zentrale Vorteile agentenbasierter KI-Systeme: verbesserte Entscheidungsfindung (69 Prozent), Kostensenkung durch Automatisierung (67 Prozent), Wettbewerbsvorteile (47 Prozent), Mitarbeitenden-Erfahrung (44 Prozent) und Bindung talentierter Fachkräfte (42 Prozent). Die tiefgreifende organisatorische Umgestaltung, die für eine erfolgreiche Umsetzung erforderlich ist, stellt für die Befragten allerdings ein großes Hindernis dar. Dies liegt vor allem daran, dass Unternehmen nicht nur die Technologie einsetzen, sondern auch eine grundlegende Überarbeitung der Arbeitsstrukturen, der Entscheidungsprozesse und der Zusammenarbeit zwischen Mensch und Maschine vornehmen müssen, so die Studienbetreiber. Unternehmen sollten dafür neue Governance-Rahmenbedingungen entwickeln, die ein Gleichgewicht zwischen Autonomie und Verantwortlichkeit, Geschwindigkeit und Sicherheit sowie Innovation und Zuverlässigkeit herstellen. Weitere Bedenken hinsichtlich der Einführung agentenbasierter KI sind Sorgen um geistiges Eigentum (50 Prozent) die Genauigkeit der Daten (49 Prozent), Vertrauensprobleme (46 Prozent) und Fachkräftemangel (42 Prozent). 

Unternehmen setzen zunehmend auf KI-Agenten​ Agentenbasierte KI verspricht höhere Effizienz und Flexibilität, so eine aktuelle IBM-StudieZinetroN – shutterstock.com

Nach einer Erprobungsphase planen viele Unternehmen KI-gestützte Arbeitsabläufe in erheblichem Umfang auszuweitenund für eine verbesserte Entscheidungsfindung und Automatisierung zu nutzen. Viele davon werden von agentenbasierter KI angetrieben werden. Das ergab die aktuelle Studie AI Projects to Profits des IBM Institute for Business Value, für die weltweit 2.900 Führungskräfte befragt wurden. So erwarten die Teilnehmer im Schnitt, dass die Anzahl KI-gestützter Arbeitsabläufe von heute drei Prozent auf 25 Prozent bis Ende 2025 wachsen werden.

Investitionen in KI steigen deutlich

Laut der Studie setzen Unternehmen KI dabei zunehmend strategisch ein: Der Anteil der KI-Investitionen an den IT-Ausgaben soll von zwölf Prozent im Jahr 2024 auf 20 Prozent bis 2026 steigen. Bereits jetzt fließen 64 Prozent der KI-Budgets in Kerngeschäftsfunktionen, während der Anteil der Unternehmen mit Ad-hoc-KI-Ansätzen auf sechs Prozent deutlich gesunken ist.

Von Pilotprojekten zu nachhaltigen Gewinnen

Das veränderte Adoptionsverfahren scheint vor allem daran zu liegen, dass zu Beginn der KI-Euphorie die Renditen von Generative-AI-Pilotprojekten mit bis zu 31 Prozent oft spektakulär hoch waren, so die Betreiber der Studie. 2024 seien diese Zahlen jedoch auf einen deutlich niedrigeren Wert von durchschnittlich sieben  Prozent ROI (Return on Investment) gesunken. Das entspricht in Deutschland und weltweit etwa dem langfristigen Niveau früherer KI-Einführungen.

Als Grund hierfür geben die Studienmacher an, dass KI heute gezielter in die zentralen Kernbereiche von Unternehmen eingebunden wird. Dies setzt allerdings voraus, dass Unternehmen komplexere und langfristigere Veränderungen vornehmen und ihre Prozesse, Nutzererlebnisse und Datenintegration grundlegend neu gestalten.

KI erfüllt ROI häufig nicht

Trotz dieses „ROI-Resets“ wächst der operative Gewinn, der auf KI zurückzuführen ist, kontinuierlich – von 2,4 Prozent im Jahr 2022 auf voraussichtlich 7,7 Prozent 2024. Zugleich bezeichnet sich mittlerweile jedes vierte Unternehmen als „AI-first“-Anwender. Diese Unternehmen schreiben KI-Initiativen über die Hälfte ihres Umsatzwachstums und ihrer Margenverbesserung der letzten 12 Monate zu.

Gleichzeitig gaben die befragten Manager an, dass in den letzten drei Jahren nur ein Viertel der KI-Initiativen den erwarteten ROI erzielt hätte. Laut den Studienmachern erhöhe das den Druck auf Führungskräfte aus Wirtschaft und Technologie, die finanziellen Auswirkungen nachzuweisen.

Flexiblere KI-Agenten vonnöten

Dennoch fördern 76 Prozent aller befragten Unternehmen aktiv Experimente, was vor allem daran liegen könnte, dass KI-Agenten als nächste Entwicklungsstufe intelligenter Automatisierung gesehen wird. Bis 2026 sollen sich so laut 83 Prozent der Befragten die Prozesseffizienz deutlich verbessern lassen. 71 Prozent der Teilnehmenden erwarten darüber hinaus, dass sich die Agenten flexibel an veränderte Abläufe anpassen können.

Sieben von zehn der Führungskräfte halten agentenbasierte KI zudem für wichtig für die Zukunft ihres Unternehmens. Genau die gleiche Anzahl der Befragten glaubt, dass agentenbasierte KI marktreif ist. Dies steht im Einklang mit anderen Untersuchungen, denen zufolge 61 Prozent der CEOs angeben, dass ihr Unternehmen aktiv KI-Agenten einsetzt und sich darauf vorbereitet, diese in großem Maßstab zu implementieren.

„Der geschäftliche Mehrwert agentenbasierter KI liegt dabei vor allem in ihrer Anwendung auf zentrale Geschäftsprozesse wie Lieferkette und HR“, so IBM-Experte Francesco Brenna.

Vorteile, aber immer noch Bedenken

Laut dem Bericht sehen Führungskräfte fünf zentrale Vorteile agentenbasierter KI-Systeme:

verbesserte Entscheidungsfindung (69 Prozent),

Kostensenkung durch Automatisierung (67 Prozent),

Wettbewerbsvorteile (47 Prozent),

Mitarbeitenden-Erfahrung (44 Prozent) und

Bindung talentierter Fachkräfte (42 Prozent).

Die tiefgreifende organisatorische Umgestaltung, die für eine erfolgreiche Umsetzung erforderlich ist, stellt für die Befragten allerdings ein großes Hindernis dar. Dies liegt vor allem daran, dass Unternehmen nicht nur die Technologie einsetzen, sondern auch eine grundlegende Überarbeitung der Arbeitsstrukturen, der Entscheidungsprozesse und der Zusammenarbeit zwischen Mensch und Maschine vornehmen müssen, so die Studienbetreiber.

Unternehmen sollten dafür neue Governance-Rahmenbedingungen entwickeln, die ein Gleichgewicht zwischen Autonomie und Verantwortlichkeit, Geschwindigkeit und Sicherheit sowie Innovation und Zuverlässigkeit herstellen.

Weitere Bedenken hinsichtlich der Einführung agentenbasierter KI sind

Sorgen um geistiges Eigentum (50 Prozent)

die Genauigkeit der Daten (49 Prozent),

Vertrauensprobleme (46 Prozent) und

Fachkräftemangel (42 Prozent).

Unternehmen setzen zunehmend auf KI-Agenten​ Weiterlesen »

Humanoider KI-Roboter als Schülerlotse​

Allgemein

Ein humanoider Roboter hilft Kindern beim sicheren Überqueren der Straße – getestet auf einem Verkehrsspielplatz in Bratislava. Marek Galinski Die humanoiden Roboter, unterstützt durch KI, sind auf dem Vormarsch. So testen, wie berichtet, etwa die großen Autobauer BMW (Figure 02) und Mercedes-Benz (Apollo) den Einsatz Humanoider in ihren Fabriken. Ein ganz anderes Einsatzgebiet schwebt europäischen Forschern unter der Federführung des Karlsruher Instituts für Technologie (KIT) vor: Sie untersuchen, wie humanoide Roboter künftig für mehr Sicherheit im Straßenverkehr sorgen könnten – und zwar als Schülerlotsen. Auf einem Verkehrsspielplatz in der slowakischen Hauptstadt Bratislava beobachteten Wissenschaftler, wie Kinder auf Humanoide reagieren. Im Rahmen eines europaweiten Forschungsprojekts wollen sie herausfinden, ob und wie solche Maschinen künftig im echten Straßenverkehr eingesetzt werden können – etwa vor Schulen, an Fußgängerüberwegen oder in komplexen Verkehrssituationen. Humanoider als Mittler zwischen Kinder und Autos Für Professor Alexey Vinel vom Institut für Angewandte Informatik und Formale Beschreibungsverfahren des KIT (aifb) ist der dabei verwendete Roboter mehr als nur Technik. Er betrachtet ihn als Vermittler zwischen Mensch und Maschine. „Er spricht mit Kindern, zeigt ihnen mit Gesten, wann sie sicher gehen können, und kommuniziert gleichzeitig mit automatisierten Fahrzeugen. Und das alles, ohne jemals die Konzentration zu verlieren“, unterstreicht der Professor die Vorzüge des humanoiden Schülerlotsen. Nach den Versuchen werten nun die Forschenden des KIT die gesammelten Daten – von Kinderreaktionen bis zu Sensormessungen –mit Unterstützung von Kollegen der Slowakischen Technischen Universität aus, um die Technologie weiterzuentwickeln. Hintergrund des Projekts ist die Vision Zero, mit der die Europäische Union das Ziel verfolgt, bis 2050 keine tödlichen Verkehrsunfälle mehr zu verzeichnen. „Wenn Roboter helfen können, Leben zu retten – besonders das von Kindern – dann ist das eine echte Zukunftsvision, die wir heute schon greifbar machen“, erklärt Vinel. 

Humanoider KI-Roboter als Schülerlotse​ Ein humanoider Roboter hilft Kindern beim sicheren Überqueren der Straße – getestet auf einem Verkehrsspielplatz in Bratislava.
Marek Galinski

Die humanoiden Roboter, unterstützt durch KI, sind auf dem Vormarsch. So testen, wie berichtet, etwa die großen Autobauer BMW (Figure 02) und Mercedes-Benz (Apollo) den Einsatz Humanoider in ihren Fabriken. Ein ganz anderes Einsatzgebiet schwebt europäischen Forschern unter der Federführung des Karlsruher Instituts für Technologie (KIT) vor: Sie untersuchen, wie humanoide Roboter künftig für mehr Sicherheit im Straßenverkehr sorgen könnten – und zwar als Schülerlotsen.

Auf einem Verkehrsspielplatz in der slowakischen Hauptstadt Bratislava beobachteten Wissenschaftler, wie Kinder auf Humanoide reagieren. Im Rahmen eines europaweiten Forschungsprojekts wollen sie herausfinden, ob und wie solche Maschinen künftig im echten Straßenverkehr eingesetzt werden können – etwa vor Schulen, an Fußgängerüberwegen oder in komplexen Verkehrssituationen.

Humanoider als Mittler zwischen Kinder und Autos

Für Professor Alexey Vinel vom Institut für Angewandte Informatik und Formale Beschreibungsverfahren des KIT (aifb) ist der dabei verwendete Roboter mehr als nur Technik. Er betrachtet ihn als Vermittler zwischen Mensch und Maschine. „Er spricht mit Kindern, zeigt ihnen mit Gesten, wann sie sicher gehen können, und kommuniziert gleichzeitig mit automatisierten Fahrzeugen. Und das alles, ohne jemals die Konzentration zu verlieren“, unterstreicht der Professor die Vorzüge des humanoiden Schülerlotsen.

Nach den Versuchen werten nun die Forschenden des KIT die gesammelten Daten – von Kinderreaktionen bis zu Sensormessungen –mit Unterstützung von Kollegen der Slowakischen Technischen Universität aus, um die Technologie weiterzuentwickeln. Hintergrund des Projekts ist die Vision Zero, mit der die Europäische Union das Ziel verfolgt, bis 2050 keine tödlichen Verkehrsunfälle mehr zu verzeichnen. „Wenn Roboter helfen können, Leben zu retten – besonders das von Kindern – dann ist das eine echte Zukunftsvision, die wir heute schon greifbar machen“, erklärt Vinel.

Humanoider KI-Roboter als Schülerlotse​ Weiterlesen »

Microsoft macht Edge zum KI-Browser​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?quality=50&strip=all 1564w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=300%2C223&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=768%2C570&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=1024%2C759&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=1536%2C1139&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=940%2C697&quality=50&strip=all 940w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=227%2C168&quality=50&strip=all 227w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=113%2C84&quality=50&strip=all 113w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=647%2C480&quality=50&strip=all 647w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=485%2C360&quality=50&strip=all 485w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=337%2C250&quality=50&strip=all 337w” width=”1024″ height=”759″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der „Copilot Mode“ im Edge-Browser soll das Surfen im Web automatisieren und Inhalte im Internet kontextuell aufbereiten.Microsoft Mit dem „Copilot Mode“ betritt Microsoft das Feld der experimentellen KI-Browser – ein Bereich, der neue Wege beim Browsen im Netz eröffnet. Die Funktion lässt sich in Microsoft Edge aktivieren und ermöglicht unter anderem Zusammenfassungen, personalisierte Suchergebnisse sowie den Vergleich von Inhalten über mehrere Tabs hinweg. Ein integrierter Chatbot unterstützt Nutzer dabei, Suchergebnisse zu interpretieren und gezielt zu vertiefen. „Mit dem Copilot-Modus aktivieren Sie innovative KI-Funktionen in Edge, die Ihren Browser verbessern”, erklärt Microsoft in einem Blogbeitrag. Informationen aus mehreren Tabs analysieren Der Copilot-Modus basiert auf dem Edge-Browser für Windows 11 und Mac. Die Funktion ist optional – Nutzer können sie aktivieren, aber auch deaktiviert lassen. Microsoft hebt die Multi-Tab-Kontextfunktion als eines der wichtigsten Features des Copilot-Modus hervor. Der Browsing-Assistent kann Informationen aus mehreren Tabs analysieren, sodass Nutzer weniger klicken und nicht zwischen Tabs wechseln müssen. Edge bietet außerdem eine textbasierte Vorschau der YouTube-Suchergebnisse und listet die relevantesten Videos zur Suchanfrage des Nutzers auf. Dies sei jedoch erst der Anfang, betont Microsoft. „Wir werden den Copilot-Modus im Laufe der Zeit weiter verbessern und um weitere Funktionen ergänzen.“ Der Copilot Mode soll auch ein personalisiertes Surferlebnis ermöglichen, da er sich Nutzungsverhalten und Präferenzen über einen längeren Zeitraum merkt. So soll er künftig nicht nur Tab-Inhalte, sondern auch den Browserverlauf analysieren können, um bessere, kontextuelle Antworten zu liefern. Dies ähnelt der „Memory”-Funktion von Copilot, die Microsoft auf seiner Veranstaltung zum 50-jährigen Jubiläum vorgestellt hat. Edge soll künftig beispielsweise in der Lage sein, Surfverhalten zu erkennen und langfristig zu verstehen. Eine weitere geplante Funktion namens „Actions“ verspricht zudem Aufgaben automatisch zu erledigen – etwa Hotelbuchungen auf Basis von Standort, bisherigen Vorlieben und Reisegewohnheiten. (mb) 

Microsoft macht Edge zum KI-Browser​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?quality=50&strip=all 1564w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=300%2C223&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=768%2C570&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=1024%2C759&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=1536%2C1139&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=940%2C697&quality=50&strip=all 940w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=227%2C168&quality=50&strip=all 227w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=113%2C84&quality=50&strip=all 113w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=647%2C480&quality=50&strip=all 647w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=485%2C360&quality=50&strip=all 485w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Screenshot-2025-07-29-at-14.06.20.png?resize=337%2C250&quality=50&strip=all 337w” width=”1024″ height=”759″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der „Copilot Mode“ im Edge-Browser soll das Surfen im Web automatisieren und Inhalte im Internet kontextuell aufbereiten.Microsoft

Mit dem „Copilot Mode“ betritt Microsoft das Feld der experimentellen KI-Browser – ein Bereich, der neue Wege beim Browsen im Netz eröffnet. Die Funktion lässt sich in Microsoft Edge aktivieren und ermöglicht unter anderem Zusammenfassungen, personalisierte Suchergebnisse sowie den Vergleich von Inhalten über mehrere Tabs hinweg. Ein integrierter Chatbot unterstützt Nutzer dabei, Suchergebnisse zu interpretieren und gezielt zu vertiefen.

„Mit dem Copilot-Modus aktivieren Sie innovative KI-Funktionen in Edge, die Ihren Browser verbessern”, erklärt Microsoft in einem Blogbeitrag.

Informationen aus mehreren Tabs analysieren

Der Copilot-Modus basiert auf dem Edge-Browser für Windows 11 und Mac. Die Funktion ist optional – Nutzer können sie aktivieren, aber auch deaktiviert lassen.

Microsoft hebt die Multi-Tab-Kontextfunktion als eines der wichtigsten Features des Copilot-Modus hervor. Der Browsing-Assistent kann Informationen aus mehreren Tabs analysieren, sodass Nutzer weniger klicken und nicht zwischen Tabs wechseln müssen. Edge bietet außerdem eine textbasierte Vorschau der YouTube-Suchergebnisse und listet die relevantesten Videos zur Suchanfrage des Nutzers auf.

Dies sei jedoch erst der Anfang, betont Microsoft. „Wir werden den Copilot-Modus im Laufe der Zeit weiter verbessern und um weitere Funktionen ergänzen.“

Der Copilot Mode soll auch ein personalisiertes Surferlebnis ermöglichen, da er sich Nutzungsverhalten und Präferenzen über einen längeren Zeitraum merkt. So soll er künftig nicht nur Tab-Inhalte, sondern auch den Browserverlauf analysieren können, um bessere, kontextuelle Antworten zu liefern.

Dies ähnelt der „Memory”-Funktion von Copilot, die Microsoft auf seiner Veranstaltung zum 50-jährigen Jubiläum vorgestellt hat. Edge soll künftig beispielsweise in der Lage sein, Surfverhalten zu erkennen und langfristig zu verstehen.

Eine weitere geplante Funktion namens „Actions“ verspricht zudem Aufgaben automatisch zu erledigen – etwa Hotelbuchungen auf Basis von Standort, bisherigen Vorlieben und Reisegewohnheiten. (mb)

Microsoft macht Edge zum KI-Browser​ Weiterlesen »

Tobit stoppt Experiment 4-Tage-Woche​

Allgemein

Nein, so das Fazit von Tobit nach drei Jahren 4-Tage-Woche…WD Stock Photos – Shutterstock.coim Als Tobit-Chef und -Gründer Tobias Groten im Juni 2022 die 4-Tage-Woche in seinem Softwareunternehmen einführte, war er ungeheuer optimistisch. “Wenn uns wohlhabenden Menschen in einem Land wie Deutschland am meisten etwas fehlt, dann ist es aus meiner Sicht: Zeit”, schrieb der westfälische Unternehmer damals in einem Focus-Gastbeitrag. Deshalb bekomme jede und jeder im Team einen freien Tag geschenkt – etwa zum Ausschlafen, Leben genießen, Menschen treffen. Die 20‐prozentige Leistungsminderung, die rechnerisch entstehe, fange man durch die extreme Digitalisierung auf. Drei Jahre später klingt Groten nun deutlich abgeklärter. „Als ich entschieden habe, den fünften Arbeitstag bei Tobit.Software für alle ersatzlos zu streichen, war das für mich nur konsequent“, schreibt er in einem Linkedin-Post. „Heute sei er jedoch schlauer.“. „Don’t try this at home! „Don’t try this at home!” – Diese Warnung habe ich im Laufen der vergangenen Jahre immer häufiger gegenüber anderen Unternehmen und Politikern ausgesprochen“, erklärt er im Gespräch mit der COMPUTERWOCHE. „Inzwischen kann ich wirklich nur jedem, der über eine 4-Tage-Woche nachdenkt, nur einen Tipp geben: Lass es sein!“ Es sei eben ein buchstäblich fundamentaler Unterschied, ob einzelne Personen sich für ein alternatives Zeitmodell entscheiden – oder ob ein ganzes Unternehmen diesen Weg geht, erklärt er. Wobei der Anteil an Mitarbeiterinnen und Mitarbeitern, die in Teilzeit arbeiten können, bei einem Unternehmen, dessen Kern auf der Kreativität und den individuellen Fähigkeiten von Menschen basiere, endlich sei. „Talent hin oder her“, schiebt Groten einen Vergleich aus dem Leistungssport nach. Ein Fußballer, der nur an drei Tagen in der Woche trainiert, werde sich schwer tun gegen jemanden, der täglich auf dem Platz steht. Natürlich könne man selbst in der Königsklasse mal ein Spiel gewinnen, wenn ein einzelner Spieler schwächelt oder gar fehlt. Aber eine Thekenmannschaft werde man niemals in der Champions League sehen. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?quality=50&strip=all 960w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”960″ height=”540″ sizes=”(max-width: 960px) 100vw, 960px”>Tobit-Chef und -Gründer Tobias Groten: “In Deutschland sind wir gefühlt weiter von der 4-Tage-Woche weg als von der 6-Tage-Woche.” Tobias Groten „Team Spirit ist der Schaum auf dem Bier“ Neben dem Nachlassen der individuellen Leistung sei mit dem neuen Zeitmodell auch der Team Spirit auf der Strecke geblieben, so der Tobit-Chef. „Wenn ein kompletter Tag pro Woche fehlt, geht es ganz automatisch nur noch um Effizienz. Das klingt gut, aber nach drei Jahren 4-Tage-Woche kann ich sagen, dass diese ‚Zeitverschwendung‘ oft wichtiger ist als die sachlichen Dinge. Der ‘Team Spirit‘ ist wie der Schaum auf dem Bier: Er löscht zwar den Durst nicht, aber ohne ihn ist es einfach kein Bier.“ Zu Beginn hatte Tobit bewusst den Mittwoch als freien Tag ausgewählt. „Wir wollten einen echten Cut – die Woche in zwei Teile teilen. Wir wollten verhindern, dass man jeweils drei Tage am Stück raus ist. Und wir wollten einen Tag, an dem sich die Welt ganz normal weiterdreht“ berichtet Groten. Er fügt hinzu: „Als wir dann nach acht Monaten den freien Tag von Mittwoch auf Freitag geswitcht haben, passierte, was zu befürchten war: Der Donnerstag wurde zum neuen Freitag.“ Ganz Mutige hätten vielleicht dann noch mal probiert, wie sich ein anderer freier Tag anfühlt – aber das habe er nicht gewollt, so der Firmengründer aus Ahaus. „Wenn man sich zuerst auf den kleinen Finger haut und dann noch auf den zweiten – und beides höllisch weh tut – dann muss man nicht noch auf die anderen drei mit dem Hammer los, um zu wissen, dass das wirklich nicht gut ist.“ Zurück zur 5-Tage-Woche Heute freut sich der Tobit-Chef, dass die Besserwisser zumindest mit der Prophezeiung, er könne das nie wieder zurückdrehen, falsch lagen. „Zwar schaut die gesamte Crew gern zurück auf drei schöne Jahre Durchatmen“, schreibt er auf LinkedIn. Aber neun von zehn hätten sich entschieden, ab August nun wieder Vollgas zu geben. Mit Unterstützung von Automation, Digitalisierung, Robotics und der KI. Mit der Rückkehr zur Fünftagewoche nahm das Management eine Reihe von Veränderungen vor, verrät Groten. So habe man etwa die Kernarbeitszeit reduziert, um den Mitarbeitern mehr Flexibilität beim Kommen und Gehen zu bieten. Außerdem gebe es nach der Büropflicht ein je nach Status mit mehr oder weniger Tagen gefülltes Work-from-Anywhere-Konto. Das werde jedoch nicht darin ausarten, dass manche nur im „Home Office“ arbeiten, fügt der Tobit-Chef an. „Wenn unsere Unternehmensstrategie darin bestünde, dass unsere Mitarbeiter Remote arbeiten könnten, wären das mit Sicherheit keine Menschen, die in Deutschland säßen.“ Es gehe eher darum, dass man bestimmte Dinge möglicherweise auch mal besser in einem ruhigen Umfeld zuhause machen kann. Und in einzelnen Fällen vielleicht auch darum, dass es das Familienleben einfacher macht. 

Tobit stoppt Experiment 4-Tage-Woche​ Nein, so das Fazit von Tobit nach drei Jahren 4-Tage-Woche…WD Stock Photos – Shutterstock.coim

Als Tobit-Chef und -Gründer Tobias Groten im Juni 2022 die 4-Tage-Woche in seinem Softwareunternehmen einführte, war er ungeheuer optimistisch. “Wenn uns wohlhabenden Menschen in einem Land wie Deutschland am meisten etwas fehlt, dann ist es aus meiner Sicht: Zeit”, schrieb der westfälische Unternehmer damals in einem Focus-Gastbeitrag.

Deshalb bekomme jede und jeder im Team einen freien Tag geschenkt – etwa zum Ausschlafen, Leben genießen, Menschen treffen. Die 20‐prozentige Leistungsminderung, die rechnerisch entstehe, fange man durch die extreme Digitalisierung auf.

Drei Jahre später klingt Groten nun deutlich abgeklärter. „Als ich entschieden habe, den fünften Arbeitstag bei Tobit.Software für alle ersatzlos zu streichen, war das für mich nur konsequent“, schreibt er in einem Linkedin-Post. „Heute sei er jedoch schlauer.“.

„Don’t try this at home!

„Don’t try this at home!” – Diese Warnung habe ich im Laufen der vergangenen Jahre immer häufiger gegenüber anderen Unternehmen und Politikern ausgesprochen“, erklärt er im Gespräch mit der COMPUTERWOCHE. „Inzwischen kann ich wirklich nur jedem, der über eine 4-Tage-Woche nachdenkt, nur einen Tipp geben: Lass es sein!“

Es sei eben ein buchstäblich fundamentaler Unterschied, ob einzelne Personen sich für ein alternatives Zeitmodell entscheiden – oder ob ein ganzes Unternehmen diesen Weg geht, erklärt er. Wobei der Anteil an Mitarbeiterinnen und Mitarbeitern, die in Teilzeit arbeiten können, bei einem Unternehmen, dessen Kern auf der Kreativität und den individuellen Fähigkeiten von Menschen basiere, endlich sei.

„Talent hin oder her“, schiebt Groten einen Vergleich aus dem Leistungssport nach. Ein Fußballer, der nur an drei Tagen in der Woche trainiert, werde sich schwer tun gegen jemanden, der täglich auf dem Platz steht. Natürlich könne man selbst in der Königsklasse mal ein Spiel gewinnen, wenn ein einzelner Spieler schwächelt oder gar fehlt. Aber eine Thekenmannschaft werde man niemals in der Champions League sehen.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?quality=50&strip=all 960w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Groten_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”960″ height=”540″ sizes=”(max-width: 960px) 100vw, 960px”>Tobit-Chef und -Gründer Tobias Groten: “In Deutschland sind wir gefühlt weiter von der 4-Tage-Woche weg als von der 6-Tage-Woche.” Tobias Groten

„Team Spirit ist der Schaum auf dem Bier“

Neben dem Nachlassen der individuellen Leistung sei mit dem neuen Zeitmodell auch der Team Spirit auf der Strecke geblieben, so der Tobit-Chef. „Wenn ein kompletter Tag pro Woche fehlt, geht es ganz automatisch nur noch um Effizienz. Das klingt gut, aber nach drei Jahren 4-Tage-Woche kann ich sagen, dass diese ‚Zeitverschwendung‘ oft wichtiger ist als die sachlichen Dinge. Der ‘Team Spirit‘ ist wie der Schaum auf dem Bier: Er löscht zwar den Durst nicht, aber ohne ihn ist es einfach kein Bier.“

Zu Beginn hatte Tobit bewusst den Mittwoch als freien Tag ausgewählt. „Wir wollten einen echten Cut – die Woche in zwei Teile teilen. Wir wollten verhindern, dass man jeweils drei Tage am Stück raus ist. Und wir wollten einen Tag, an dem sich die Welt ganz normal weiterdreht“ berichtet Groten. Er fügt hinzu: „Als wir dann nach acht Monaten den freien Tag von Mittwoch auf Freitag geswitcht haben, passierte, was zu befürchten war: Der Donnerstag wurde zum neuen Freitag.“

Ganz Mutige hätten vielleicht dann noch mal probiert, wie sich ein anderer freier Tag anfühlt – aber das habe er nicht gewollt, so der Firmengründer aus Ahaus. „Wenn man sich zuerst auf den kleinen Finger haut und dann noch auf den zweiten – und beides höllisch weh tut – dann muss man nicht noch auf die anderen drei mit dem Hammer los, um zu wissen, dass das wirklich nicht gut ist.“

Zurück zur 5-Tage-Woche

Heute freut sich der Tobit-Chef, dass die Besserwisser zumindest mit der Prophezeiung, er könne das nie wieder zurückdrehen, falsch lagen. „Zwar schaut die gesamte Crew gern zurück auf drei schöne Jahre Durchatmen“, schreibt er auf LinkedIn. Aber neun von zehn hätten sich entschieden, ab August nun wieder Vollgas zu geben. Mit Unterstützung von Automation, Digitalisierung, Robotics und der KI.

Mit der Rückkehr zur Fünftagewoche nahm das Management eine Reihe von Veränderungen vor, verrät Groten. So habe man etwa die Kernarbeitszeit reduziert, um den Mitarbeitern mehr Flexibilität beim Kommen und Gehen zu bieten. Außerdem gebe es nach der Büropflicht ein je nach Status mit mehr oder weniger Tagen gefülltes Work-from-Anywhere-Konto.

Das werde jedoch nicht darin ausarten, dass manche nur im „Home Office“ arbeiten, fügt der Tobit-Chef an. „Wenn unsere Unternehmensstrategie darin bestünde, dass unsere Mitarbeiter Remote arbeiten könnten, wären das mit Sicherheit keine Menschen, die in Deutschland säßen.“ Es gehe eher darum, dass man bestimmte Dinge möglicherweise auch mal besser in einem ruhigen Umfeld zuhause machen kann. Und in einzelnen Fällen vielleicht auch darum, dass es das Familienleben einfacher macht.

Tobit stoppt Experiment 4-Tage-Woche​ Weiterlesen »

Wie viel Mitarbeiterüberwachung die DSGVO erlaubt​

Allgemein

Die Datenschutzgrundverordnung (DSGVO) gewährt Arbeitnehmern zwar einen hohen Datenschutzgrad – dennoch haben Arbeitgeber Möglichkeiten, ihre Belegschaft zu überwachen.DC Studio | shutterstock.com In der Praxis erfolgt die Mitarbeiterüberwachung regelmäßig im Rahmen von internen Untersuchungen oder mithilfe von IT-Überwachungstools. Die stetige Veränderung der Arbeitswelt und die damit einhergehende, wachsende Bedeutung des Homeoffice steigert zudem das Bedürfnis der Arbeitgeber, Arbeitszeiten und Arbeitsleistung der Mitarbeiter durch IT-Systeme zu kontrollieren.   Die EU-Datenschutzgrundverordnung (DSGVO) ist sieben Jahre nach dem Beginn ihrer Anwendbarkeit zwar fester Bestandteil der Arbeitswelt geworden, dennoch stellen die Datenschutzanforderungen Arbeitgeber weiterhin vor erhebliche Herausforderungen, wenn es um die Überwachung und Kontrolle von Mitarbeitern geht. Zum einen sind den Arbeitgebern dabei datenschutzrechtliche, zum anderen auch arbeitsrechtliche Grenzen gesetzt. Die Mitarbeiterüberwachung ist ein Grundrechtseingriff in das allgemeine Persönlichkeitsrecht der Beschäftigten, der verhältnismäßig sein muss. Über das Datenschutz- und Arbeitsrecht hinaus kann die Überwachung und Kontrolle der Mitarbeiter auch die Einhaltung von telekommunikationsrechtlichen Grenzen erfordern. Zum anderen kann der Arbeitgeber ein Bedürfnis zur Kontrolle aus Compliance-Gesichtspunkten haben, zum Beispiel die Sicherstellung der Einhaltung von rechtlichen Anforderungen oder internen Richtlinien. Dieses Spannungsverhältnis macht es zunehmend schwerer, sich rechtskonform zu verhalten.   Wegen der Vielfältigkeit der Datenverarbeitungsprozesse, der unterschiedlichen rechtlichen Anforderungen und der neuen politischen und rechtlichen Entwicklungen muss die rechtliche Zulässigkeit der Kontrolle und Überwachung im Arbeitsverhältnis stets im Einzelfall beurteilt werden. Typische Anwendungsfälle werden nachfolgend aus rechtlicher Sicht erläutert.   Mitarbeiterüberwachung – neue Entwicklungen Neue politische und rechtliche Entwicklungen haben in letzter Zeit die Verunsicherung bei der rechtskonformen Mitarbeiterüberwachung erhöht. So wurde zwar im Oktober 2024 ein Referentenentwurf eines neuen Beschäftigtendatenschutzgesetzes vorgelegt, der unter anderem spezielle Regelungen für Überwachungsmaßnahmen durch Arbeitgeber vorsah. Mit dem Scheitern der Ampelkoalition scheiterte jedoch auch dieser Referentenentwurf. Somit existiert nach wie vor kein eigenständiges Gesetz für den Mitarbeiterdatenschutz und es muss weiterhin auf die generellen Vorschriften der DSGVO sowie auf die Ergänzungen im Bundesdatenschutzgesetz (BDSG) zurückgegriffen werden. Außerdem haben sich die rechtlichen Rahmenbedingungen bei der Nutzung von Telekommunikationssystemen in den vergangenen Jahren wiederholt geändert, erst durch die Einführung des Telekommunikation-Telemedien-Datenschutz-Gesetz (TTDSG) im Jahr 2021, das wiederum 2024 durch das Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz (TDDDG) ersetzt wurde.   Zudem haben deutsche Bundesgerichte und auch der Europäische Gerichtshof (EuGH) in den letzten Jahren Entscheidungen getroffen, die auch für den Beschäftigtendatenschutz, insbesondere auch für die Überwachung von Mitarbeitern, erhebliche Auswirkungen haben. So führt die Entscheidung des Bundesarbeitsgerichts zur teilweisen Unwirksamkeit der Generalklausel zum Beschäftigtendatenschutz in § 26 Abs.1 Satz 1 BDSG zu Unsicherheit dahingehend, auf welcher Rechtsgrundlage und mit welchen Argumenten Beschäftigtendaten in Deutschland nun verarbeitet werden dürfen. Außerdem hat der EuGH klargestellt, dass Betriebsvereinbarungen, die von manchen Arbeitgebern gerne als datenschutzrechtliche Erlaubnisnorm für die Datenverarbeitung herangezogen werden, nicht als Persilschein für Datenschutz-Compliance herangezogen werden können.    Berufliche E-Mails und Nachrichten einsehen Teil eines robusten Compliance Managements ist es, möglichen kartellrechtswidrigen Absprachen, dem Missbrauch von Geschäftsgeheimnissen oder auch Meldungen von möglichen Rechtsverstößen intern nachzugehen. Im Rahmen dieser internen Untersuchungen sollen regelmäßig die E-Mails oder ähnliche elektronische Nachrichten der Mitarbeiter, die mittels geschäftlicher E-Mail-Systeme oder anderer Tools verschickt werden, gesichtet werden. Oftmals ist in diesen Tools aber nicht nur berufliche Kommunikation gespeichert, sondern auch private. Um nicht selbst einen Compliance-Verstoß zu begehen, müssen Arbeitgeber einiges beachten.   Durchsuchung von beruflichen E-Mails und das Problem des Fernmeldegeheimnisses   Die größte Herausforderung bei der Durchsicht von E-Mails im Rahmen von internen Untersuchungen ist das Fernmeldegeheimnis, welches nun im TDDDG geregelt ist. Diese, größtenteils durch einen akademischen Streit angeheizte Herausforderung, hat deshalb nicht an Brisanz verloren, weil ein Verstoß gegen das Fernmeldegeheimnis möglicherweise als Straftat angesehen wird. Ob die E-Mails der Mitarbeiter, die über den beruflichen E-Mail-Account versendet oder empfangen werden, dem Fernmeldegeheimnis unterliegen, ist trotz des jahrelangen Streits nicht geklärt. Jedenfalls soll kein Schutz des Fernmeldegeheimnisses bestehen, wenn der Arbeitgeber die Privatnutzung entweder ausdrücklich verboten hat und dieses Verbot auch wirksam durchsetzt – oder über ein eher komplexes Konzept von “Verbot der Privatnutzung mit einzelfallbezogener Erlaubnis der Privatnutzung bei gleichzeitigem Verzicht auf das Fernmeldegeheimnis” den Schutz des Fernmeldegeheimnisses umgeht.   Ob infolge einer erlaubten oder zumindest geduldeten Privatnutzung des beruflichen E-Mail-Accounts die versendeten und empfangenen Nachrichten dem Fernmeldegeheimnisschutz unterliegen, wird seit Jahrzehnten diskutiert. Ausgangspunkt dieses Streits ist die Überlegung, dass der Arbeitgeber als ein Anbieter von Telekommunikationsdiensten unter dem ehemaligen Telekommunikationsgesetz (TKG) gelten könnte, wenn die Mitarbeiter das berufliche Telekommunikationssystem wie den E-Mail-Account auch für private Zwecken nutzen dürfen. Als Telekommunikationsanbieter würde der Arbeitgeber dann auch dem gesetzlichen Fernmeldegeheimnis unterliegen.   Seit dem Inkrafttreten des TDDDG, das nunmehr die hierfür relevanten Bestimmungen des TKG in leicht geänderter Form fortführt, werden die Stimmen in der juristischen Literatur immer lauter, dass Arbeitgeber im Falle der Privatnutzung keine Telekommunikationsanbieter sind und somit auch nicht den Schutz des Fernmeldegeheimnisses wahren müssen. Dieser Ansicht folgen nun auch einige Aufsichtsbehörden in Deutschland, wie im Jahresbericht 2023 des Landesbeauftragten für Datenschutz und Informationsfreiheit Nordrhein-Westfalen mitgeteilt wird. Trotz der steigenden Tendenz gegen die Anwendbarkeit des Fernmeldegeheimnisses bei Privatnutzung im Arbeitsverhältnis sind Unternehmen wegen der Risiken einer Strafbarkeit bei Verletzung des Fernmeldegeheimnisses teilweise weiterhin zurückhaltend, dieser unternehmensfreundlichen Ansicht zu folgen. Um dieses Risiko zu reduzieren, bleibt Unternehmen nur, die Privatnutzung entweder komplett zu verbieten und dieses Verbot auch durchzusetzen oder das komplexe Konzept von „Generellem Verbot von Privatnutzung mit Erlaubnis der Privatnutzung bei gleichzeitigem Verzicht auf das Fernmeldegeheimnis“ einzuführen. Letzteres ist jedoch im Gegensatz zum Komplettverbot mitbestimmungspflichtig und erfordert eine Einbindung des Betriebsrats, sofern einer vorhanden ist.  Durchsuchung von beruflichen E-Mails und die datenschutzrechtlichen Grenzen  Wenn die Hürden des Fernmeldegeheimnisses – in welcher Form auch immer – überwunden sind, stellt sich vor dem Zugriff und der Sichtung von beruflichen E-Mails die Frage, welche datenschutzrechtliche Rechtsgrundlage dies gestattet und welchen Voraussetzungen diese Rechtsgrundlage unterliegt. Bei jeder Durchsuchung von E-Mails werden inhärent auch die darin enthaltenen und damit verbundenen personenbezogenen Daten von Betroffenen verarbeitet, insbesondere des Senders und des Empfängers der E-Mail. Grundprinzip des Datenschutzrechts ist es, dass personenbezogenen Daten nur dann verarbeitet werden dürfen, wenn diese Verarbeitung von einer Rechtsgrundlage gestattet ist.  Im Rahmen einer internen Untersuchung kann eine Durchsuchung der beruflichen E-Mails zur Aufdeckung von Straftaten oder schwerwiegenden Pflichtverletzungen des Mitarbeiters durch die Rechtsgrundlage in § 26 Abs. 1 S. 2 BDSG gestattet sein, vorausgesetzt,   dokumentierte tatsächliche Anhaltspunkte begründen den Verdacht, dass der betroffene Mitarbeiter im Beschäftigungsverhältnis eine Straftat oder schwerwiegende Pflichtverletzung begangen hat,   die Durchsuchung ist zur Aufdeckung erforderlich und   das schutzwürdige Interesse des Mitarbeiters gegen die Durchsuchung der E-Mails überwiegt nicht.   Die Erfüllung dieser Voraussetzungen sind vom Arbeitgeber im Detail zu dokumentieren, auch um den Vorwurf einer rechtswidrigen Datenerhebung, die zu einem Beweisverwertungsverbot führen könnte (siehe unten Ziff. 7) wirksam entgegentreten zu können.   Darüber hinaus muss der Arbeitgeber die generellen Datenschutzprinzipien einhalten; er sollte die hierfür ergriffenen Maßnahmen schriftlich dokumentieren. Dies erfordert insbesondere, dass die Mitarbeiter zumindest grundsätzlich vorab informiert wurden, wie ihre personenbezogenen Daten für die Zwecke interner Untersuchungen verarbeitet werden können (im Regelfall wird eine konkrete Information wegen der möglichen Gefährdung des Untersuchungszweckes vorab nicht möglich sein). Zudem muss die Datenverarbeitung auf das erforderliche Maß minimiert werden, insbesondere durch eine strenge Begrenzung der Personen, die in die Durchsuchung der E-Mails involviert sind, und durch Begrenzung der Daten und E-Mails, die der Durchsuchung unterliegen sollen, beispielsweise durch Begrenzung des Zeitraums der zu durchsuchenden E-Mails und Vorab-Filterung der E-Mails nach relevanten Schlagwörtern. Zur Wahrung der Grundsätze von Erforderlichkeit und Verhältnismäßigkeit sollten weitere Maßnahmen ergriffen werden, um die Auswirkungen auf die Privatsphäre des Betroffenen so gering wie möglich zu halten. Zu denken wäre an die automatisierte Aussortierung von E-Mails, die an private E-Mail-Adressen gehen oder aufgrund von Schlagwörtern sensible Informationen enthalten könnten, an die Einbindung des betrieblichen Datenschutzbeauftragten oder eines Vertreters des Betriebsrats bei der manuellen Durchsuchung oder an die vorläufige Nichtberücksichtigung von E-Mails in privaten Ordern.   Idealerweise werden die Prozesse für eine solche E-Mail-Durchsuchung in internen Richtlinien geregelt, wodurch zum einen Transparenz gegenüber den Mitarbeitern bezüglich der möglichen Verarbeitung ihrer personenbezogenen Daten in beruflichen E-Mails geschaffen wird und zum anderen die Maßnahmen zur Einhaltung der Datenschutzprinzipien dokumentiert werden. Je nach Umständen des Einzelfalls kann eine Durchsuchung der beruflichen E-Mails auch die Durchführung und Verschriftlichung einer Datenschutzfolgeabschätzung nach der DSGVO erfordern.  Die Anforderungen des Datenschutzrechts verlangen, dass jede Durchsuchung von beruflichen E-Mails anhand der Umstände des Einzelfalls betrachtet und bewertet wird. Nichteinhaltung dieser Anforderungen kann sowohl zu Beweisverwertungsverboten als auch zu Bußgeldern, Schadensersatzforderungen und Unterlassungsverfahren führen.  Durchsuchung von Nachrichten in anderen beruflichen Kommunikations-Tools   Neben E-Mail stellen Arbeitgeber regelmäßig auch niedrigschwellige Tools für die schnelle interne Kommunikation zur Verfügung, wie MS Teams, Slack oder auch WhatsApp.    Der Zugriff auf diese Kommunikation durch den Arbeitgeber im Rahmen einer internen Untersuchung unterliegt den gleichen Voraussetzungen und Einschränkungen wie der Zugriff auf berufliche E-Mails. Hinzu kommt allerdings, dass die Interessen des Arbeitnehmers auf Privatsphäre und Schutz seiner Persönlichkeitsrechte hier sogar höher liegen können aufgrund der gängigen Nutzung dieser Tools als einfache, schnelle und gefühlt inoffizielle Kommunikationsmittel. Auch bei einem Verbot der Privatnutzung werden diese Tools regelmäßig für privat veranlasste Kommunikation oder vertrauliche Gespräche zwischen Kollegen genutzt. Diese Aspekte sind bei der Festlegung der Maßnahmen zum Schutz der Interessen des Mitarbeiters zu berücksichtigen, mit der Folge, dass der Zugriff auf diese Kommunikation einen größeren Rechtfertigungs- und Begründungsaufwand erfordern kann als der Zugriff auf die E-Mails in beruflichen E-Mail-Accounts.   Dauerhafte Überwachung der Kommunikation der Mitarbeiter  Aus den strengen datenschutzrechtlichen Anforderungen, beruhend auf den Grundprinzipen von Erforderlichkeit, Verhältnismäßigkeit und Datenminimierung, folgt auch, dass eine permanente Kontrolle und ein anlassunabhängiges Mitlesen der Kommunikation unzulässig ist.   Betriebsrat  Die konkrete Überwachungsmaßnahme im Einzelfall, wie die Durchsuchung von beruflicher Kommunikation eines einer Pflichtverletzung verdächtigten Arbeitnehmers, unterliegt zwar für sich genommen nicht dem Mitbestimmungsrecht des Betriebsrats. Da diese Überwachungsmaßnahmen aber regelmäßig mit technischen Einrichtungen (wie dem beruflichen E-Mail-System oder den software-basierten Kommunikationstools) erfolgen, greift das Mitbestimmungsrecht des Betriebsrates für diese technische Einrichtung. Dies folgt daraus, dass dem Betriebsrat bei der Einführung und Nutzung von technischen Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen, ein Mitbestimmungsrecht nach dem Betriebsverfassungsgesetz zusteht.   Typischerweise werden die Voraussetzungen und das Verfahren, unter denen der Arbeitgeber die Kommunikation der Mitarbeiter mithilfe dieser technischen Einrichtungen überwachen kann, bereits vorab in der Betriebsvereinbarung zu der jeweiligen technischen Einrichtung geregelt. Der in der Betriebsvereinbarung festgelegte Zweck der Durchsuchung sollte dabei sowohl die Ermittlung von möglichen Rechtsverstößen als auch von möglichen Verstößen gegen interne Richtlinien oder sonstige Pflichtverletzungen betreffen. Umfang und Reichweite des Mitbestimmungsrechts wird kontrovers diskutiert. Die Meinungen gehen dabei weit auseinander.   Der Betriebsrat hat grundsätzlich keinen gesetzlichen Anspruch vor der Ergreifung von Überwachungsmaßnahmen bei einem konkreten Verdacht eingebunden zu werden. Teilweise sehen aber Betriebsvereinbarungen Mitsprache- beziehungsweise Informationsrechte bei konkreten Verdachtsfällen vor.   Wenn eine Durchsuchungsmaßnahme unter Verstoß gegen eine Betriebsvereinbarung vorgenommen wurde, führt dieser Verstoß gegen die Betriebsvereinbarung nicht zu einem Beweisverwertungsverbot, das heißt zu einem Verbot, die durch die Durchsuchung gewonnenen Beweise in einem nachfolgenden gerichtlichen Prozess (zum Beispiel Kündigungsschutzprozess) als Beweismittel zu würdigen. Dies gilt selbst dann, wenn die Betriebsvereinbarung ein solches Beweisverwertungsverbot vorsieht. Gleichwohl kann sich ein Beweisverwertungsverbot aus anderen Gründen ergeben (siehe unten Ziff. 7).  E-Mails und Internetnutzung überwachen Um vertrauliche Informationen, Geschäftsgeheimnisse und personenbezogene Daten vor ungewolltem Abfluss oder unberechtigtem Zugriff zu schützen, setzen Arbeitgeber regelmäßig Software-Tools wie Data Loss Prevention Tools, Virenfilter oder SSL-Entschlüsselungs-Systeme ein. Selbst wenn diese Werkzeuge dem Zweck dienen sollen, auch den Zugriff auf personenbezogene Daten zu verhindern, sind bei der Implementierung und dem Betrieb dieser Tools die oben beschriebenen Anforderungen zu berücksichtigen.  Da diese Tools auch die ein- und ausgehende Kommunikation der Mitarbeiter mit überwachen können, kann auch hier die Problematik des Fernmeldegeheimnisses relevant werden.    Außerdem muss die mithilfe der Tools durchgeführte Datenverarbeitung, insbesondere das automatische Screening und Filtern von Kommunikationsdaten und -inhalten, die Speicherung von Logfiles, oder die Löschung von Daten, den datenschutzrechtlichen Anforderungen genügen. Die datenschutzrechtliche Rechtsgrundlage wird regelmäßig das überwiegende berechtigte Interesse des Arbeitgebers sein. Diese Rechtsgrundlage erfordert aber eine sorgfältige Bewertung und Dokumentation dieser Abwägung zwischen den berechtigen Interessen des Arbeitgebers und der Interessen des Arbeitnehmers. Zudem setzt diese Rechtsgrundlage voraus, dass der Arbeitgeber auch alle anderen Anforderungen aus dem Datenschutzrecht ordnungsgemäß umsetzt, insbesondere transparente Information an die Mitarbeiter, funktionierende Prozesse für die Geltendmachung von datenschutzrechtlichen Rechten sowie – soweit erforderlich – die Durchführung einer Datenschutzfolgeabschätzung. Aspekte wie Erforderlichkeit, Verhältnismäßigkeit und Datenminimierung erfordern typischerweise ein stufenweises Vorgehen, um die Auswirkungen auf die Privatsphäre und Persönlichkeitsrechte des Mitarbeiters so gering wie möglich zu halten, beispielsweise durch Pseudonymisierungsprozesse, automatisierte Warnungen, kurze Speicherfristen für Logfiles, und längere Speicherfristen nur bei verifizierten Verstößen.    Anwesenheitskontrolle im Büro & Homeoffice Nach der Covid-19-Pandemie ist eine Tendenz der Arbeitgeber zu beobachten, die Arbeit aus dem Homeoffice zumindest teilweise zu verbieten und die Rückkehr ins Büro zu verlangen. Oftmals gibt es Anwesenheitsquoten von 50 Prozent oder Vorgaben, drei von fünf Wochenarbeitstagen im Büro anwesend zu sein. Eine Kontrolle der Einhaltung der Anwesenheitspflicht kann zum Beispiel mittels Auslesen von Chipkarten, die für den Zugang zum Büro verwendet werden, oder durch Speicherung und Auswertung der IP-Adresse des Mitarbeitergeräts erfolgen, die eine Rückschluss auf den ungefähren Standort des Geräts bei der Nutzung des Internets erlaubt. Da hierbei personenbezogenen Daten des Mitarbeiters verarbeitet werden, sind die datenschutzrechtlichen Anforderungen zu beachten. Insbesondere müssen die Arbeitgeber ihre Mitarbeiter darüber informieren, dass die Einhaltung dieser Regelungen mittels der IP-Adresse stichprobenartig überwacht und bei Verdachtsfällen auch zu einer regelmäßigen Überwachung führen kann. Wegen des Grundsatzes der Datenminimierung und Verhältnismäßigkeit unterliegen diese Daten Speicherfristen, typischerweise von sieben Tagen. Werden die Daten länger gespeichert und dann zur Kontrolle der Homeoffice-Regelungen genutzt, kann dies zu einem Beweisverwertungsverbot führen. Darüber hinaus ist die Ermittlung und Dokumentierung der datenschutzrechtlichen Rechtsgrundlage (siehe hierzu oben 2b) und 3) erforderlich.  Taschen und Schubladen kontrollieren Zufällige, anlasslose und verdachtsunabhängige Kontrollen von Taschen (zum Beispiel am Ausgang zur Verhinderung von Diebstählen) in Anwesenheit des Mitarbeiters können dann datenschutzrechtlich zulässig sein, wenn die Grundprinzipien des Datenschutzrechts beachtet werden (insbesondere transparente Information), Maßnahmen zum Schutz der Privatsphäre ergriffen wurden (wie Taschenbereiche, die von der Kontrolle ausgenommen sind) und wenn es Nachweise gibt, dass solche Verstöße in der Vergangenheit bereits vorgekommen sind und mit diesen Kontrollen wirksam verhindert werden können. Auch wenn die Sichtung der Taschen keine typische automatisierte Datenverarbeitung darstellt, kann diese Maßnahme eine Verarbeitung von personenbezogenen Daten in Form der Gewinnung von Informationen über den Mitarbeiter aus dem Inhalt der Tasche darstellen, selbst wenn diese Informationen nicht in einem Dateisystem gespeichert werden.  Leistung überwachen  Die Hauptleistungspflicht des Arbeitnehmers ist seine Arbeitsleistung. Aus diesem Grund ist das Interesse der Arbeitgeber an Leistungskontrollen ihrer Mitarbeiter groß.  Auch eine Schlecht- oder Minderleistung kann eine Verletzung arbeitsvertraglicher Pflichten darstellen, die der Arbeitgeber durch entsprechende Kontrollmaßnahmen identifizieren und unterbinden möchte. Diese Leistungskontrollen sind aber ebenfalls nur unter der Berücksichtigung des Datenschutzrechts zulässig.   Eine permanente Überwachung kann laut der Rechtsprechung wegen des damit verbundenen unverhältnismäßigen Eingriffs in das allgemeine Persönlichkeitsrecht unzulässig sein. Das ist vor allem der Fall, wenn durch die Leistungskontrolle ein schwerwiegender und dauerhafter Anpassungsdruck für die Mitarbeiter entsteht. Bei der Beurteilung, ob eine Leistungskontrolle zulässig oder unzulässig ist, muss eine Abwägung zwischen den Arbeitgeberinteressen an der Verarbeitung der Beschäftigtendaten und dem allgemeinen Persönlichkeitsrecht des Mitarbeiters vorgenommen werden, und diese Interessenabwägung muss zugunsten des Arbeitgebers ausfallen; anderenfalls ist die Kontrolle unzulässig. Darüber hinaus kommt es auf den konkreten Zweck der Datenverarbeitung an, insbesondere darauf, ob dieser in der gezielten Durchführung einer Leistungskontrolle besteht und ob die Datenverarbeitung heimlich erfolgt und die Mitarbeiter nicht vorab über die Datenverarbeitung und deren Zweck informiert worden sind.   Im Jahr 2023 hatte ein Gericht über das Leistungskontrollverfahren in einem globalen Vertriebszentrum von Amazon in Deutschland zu entscheiden. Die automatisierte Steuerung der Logistikprozesse ermöglichte die Aufzeichnung der einzelnen Arbeitsschritte des Mitarbeiters bei der Auswahl und Verpackung der Ware einschließlich der unproduktiven Arbeitszeiten. Aus datenschutzrechtlicher Sicht überraschend entschied das Gericht, dass die Erhebung und Verarbeitung dieser Logistikprozessdaten datenschutzrechtlich zulässig sei, um die termingerechte Lieferung der Waren sicherzustellen. Es liege keine unzulässige Kontrolle der Mitarbeiter vor, weil die Leistungen lediglich objektiv gemessen werden und die Grundsätze der Verhältnismäßigkeit im Einzelfall gewahrt waren.   Stichprobenartige, nach abstrakten Kriterien durchgeführte und transparent kommunizierte Kontrollmaßnahmen können laut Bundesarbeitsgericht auch ohne Anlass zulässig sein. Auch hier gilt, dass jede Art der Leistungskontrolle im Einzelfall datenschutzrechtlich beurteilt werden muss, um eine mögliche Rechtsgrundlage und die zu ergreifenden Maßnahmen zum Schutz der Arbeitnehmerinteressen zu ermitteln. Vor dem Hintergrund der Sensibilität der Mitarbeiter bei Leistungskontrollen sollte stets eine Datenschutzfolgenabschätzung detailliert durchgeführt und dokumentiert werden.   Beweisverwertungsverbot Von großer Relevanz, insbesondere im Rahmen von Kündigungsschutzprozessen, ist die Frage, wann ein Verwertungsverbot für einen vom Arbeitgeber unter Verstoß gegen die Vorschriften der DSGVO erlangten Beweise besteht. Nach der Rechtsprechung ist in diesen Fällen kein absolutes Beweisverwertungsverbot anzunehmen. Vielmehr ist eine sorgfältige Abwägung der Interessen und Grundrechte der Beteiligten durchzuführen. Nur wenn diese Abwägung das Überwiegen der Interessen und Grundrechte des von dem DSGVO-Verstoß Betroffenen ergibt, kann ein Beweisverwertungsverbot angenommen werden. Ein Datenschutzverstoß steht der Beweisverwertbarkeit grundsätzlich nicht entgegen, wenn die Daten offen erhoben wurden und eine vorsätzlich begangene Pflichtverletzung des Mitarbeiters aufzuklären ist. Im Falle einer solchen Pflichtverletzung hat das allgemeine Persönlichkeitsrecht des Mitarbeiters regelmäßig hinter dem Beweisinteresse des Arbeitgebers zurückzutreten. Beweismittel des Arbeitgebers müssen daher unter Umständen auch dann durch die Arbeitsgerichte verwertet werden, wenn diese unter Missachtung von Datenschutzbestimmungen gewonnen worden sind. Datenschutz ist weiterhin kein Tatenschutz.   Checklisten für interne Untersuchungen Die folgenden Checklisten sind Leitfäden für die vielen rechtlichen Fragen, die sich stellen, bevor man mit einer internen Untersuchung beginnen kann, und können in ähnlicher Weise auch für sonstige Überwachungsmaßnahmen angewendet werden. Klare Ja-/Nein-Antworten auf die einzelnen Fragen gibt es nicht – sie wären auch irreführend. Die Situationen sind teilweise noch nie gerichtlich, jedenfalls nicht höchstrichterlich, geklärt worden. Die Beantwortung dieser Checkliste wird regelmäßig die Einbeziehung von Entscheidungsträgern aus den Bereichen IT, Personal, Recht und Datenschutz, einschließlich des Datenschutzbeauftragten, fordern.    Checkliste Datenschutz und Strafrecht  Was ist der konkrete rechtliche Vorwurf, der untersucht werden soll? Zum Beispiel Verstoß gegen arbeitsvertragliche Pflichten, interne Richtlinien oder gesetzliche Vorgaben?  Was ist der konkrete Gegenstand und Umfang der internen Untersuchung? Wie lassen sich Gegenstand und Umfang bestmöglich eingrenzen? Gibt es schon konkrete Stichworte und einen Zeitraum für die zu durchsuchenden Dokumente? – Je weniger Daten durchsucht werden, desto besser.  Was soll durchsucht werden? E-Mails, sonstige Nachrichten, Dokumentenarchive, SMS-Nachrichten, Kommunikations-Log-Files?   Sollen auch Interviews durchgeführt werden?  Welche Mitarbeiter sind Gegenstand der internen Untersuchung und warum? (Beschuldigte, mögliche Mitwisser, mögliche Zeugen, mögliche Inhaber von relevanten Dokumenten?)  In welchen Systemen sind diese Dokumente gespeichert und wer hat Zugriff auf diese Dokumente?  Ist die Privatnutzung für diese Systeme entweder ausdrücklich erlaubt oder geduldet? Gibt es hierzu eine IT-Richtlinie, Nutzungsrichtlinie, Nutzungsvereinbarung, arbeitsvertragliche Regelung und/oder Betriebsvereinbarung? Gibt es bereits eine Risikoentscheidung für den Umgang mit dem möglichen Fernmeldegeheimnis?  Wird im Rahmen der internen Untersuchung auf Daten zugegriffen, die gegen unberechtigten Zugriff besonders gesichert sind und deren Zugangssicherung besonders überwunden werden muss?  Werden im Rahmen von Untersuchungsmaßnahmen private Daten verändert oder gelöscht?  Wurden die Mitarbeiter entsprechend der Informationspflicht gemäß Art. 13 bzw. Art. 14 DSGVO über die Durchführung von internen Untersuchung- / Überwachungs- und Kontrollmaßnahmen ausreichend und transparent informiert?  Auf welcher Rechtsgrundlage der DSGVO und des BDSG dürfen die personenbezogenen Daten der Mitarbeiter für den Zweck der internen Untersuchung verarbeitet werden (typischerweise § 26 Abs. 1 Satz 2 BDSG oder Art. 6 Abs. 1 lit. f DSGVO)? Wurde diese Rechtsgrundlage ausreichend dokumentiert und begründet?  Ist eine Datenschutzfolgeabschätzung nach der DSGVO erforderlich? Wenn ja, wurde diese sorgfältig durchgeführt und dokumentiert? Welche Maßnahmen wurden hierbei identifiziert, um das Risiko für die Betroffenen zu minimieren? Wer ist für die Umsetzung dieser Maßnahmen verantwortlich?  Soll die Untersuchung auf eine Einwilligung der betroffenen Mitarbeiter gestützt werden (Achtung: Mitarbeitereinwilligungen sind grundsätzlich nicht freiwillig, es sei denn, die betroffenen Mitarbeiter sind leitende Angestellte oder gehören zur Geschäftsführung)?   Wird die Untersuchung oder Ermittlung in Zusammenarbeit mit einem externen Dienstleister durchgeführt (zum Beispiel forensischer Dienstleister, e-Discovery-Dienstleister) und wurde mit diesem Dienstleister ein Auftragsverarbeitungsvertrag gem. Art. 28 DSGVO geschlossen? Sitzt dieser Dienstleister (oder eingebundene Sub-unternehmer) gegebenenfalls außerhalb der EU mit der Folge einer internationalen Datenübermittlung (Art. 44 ff. DSGVO)?  Sind dem Dienstleister schriftliche Anweisungen gegeben worden, wie er die Untersuchung vornehmen soll (Stichworte, Zeitraum etc.) und wie er private oder nicht relevante E-Mails behandeln soll (zum Beispiel “sofort schließen” “nicht lesen”, “nicht kopieren”, “nicht weiterleiten”, “nicht drucken”)?  Werden die Ergebnisse der Untersuchung (zum Beispiel die Ergebnisse der E-Mail-Durchsuchung oder Interview-Mitschriften bei Mitarbeiterbefragungen) an Dritte übermittelt (insbesondere an andere Unternehmen der Gruppe, die möglicherweise außerhalb der EU sitzen, oder an externe Rechtsberater) und – sofern die Antwort “ja” ist – ist die Zulässigkeit der Übermittlung überprüft worden und ist beim Empfänger, soweit erforderlich, ein angemessenes Datenschutzniveau sichergestellt (Art. 44 ff. DSGVO)?  Werden die Ergebnisse der Dokumenten-Durchsuchung oder Interview-Mitschriften bei Mitarbeiterbefragungen vor Weiterleitung anonymisiert oder pseudonymisiert? Wenn nein, warum?  Sind die Aufbewahrungs- und Löschungsfristen für Untersuchungsergebnisse klar und wird die Löschung von Untersuchungsergebnissen eingehalten sowie kontrolliert?  Hat sich das Unternehmen Gedanken darüber gemacht, dass rechtswidrig erhobene Beweise in einem späteren gerichtlichen Verfahren möglicherweise einem Beweisverwertungsverbot unterliegen und deshalb nicht nutzbar gemacht werden können?  Bestehen bei den untersuchten Vergehen mögliche Anzeigepflichten gegenüber staatlichen Strafverfolgungsbehörden?    Checkliste Arbeitsrecht Besteht ein Betriebsrat?  Bestehen Betriebsvereinbarungen zu Kontrollmaßnahmen bei Mitarbeitern beziehungsweise zur Kontrolle der IT/E-Mail-Systeme?  Sind Benachrichtigungspflichten gegenüber dem Betriebsrat und/oder Mitbestimmungsrechte des Betriebsrats eingehalten worden?  Handelt es sich bei dem zu befragenden Mitarbeiter um einen Verdächtigen oder einen Beschuldigten?  Müssen Mitarbeiter zu Interviewterminen erscheinen und auf Fragen antworten?  Ist Mitarbeitern bei Interviews ein Anwalt (auf Kosten des Arbeitgebers) beizustellen?  Sind Mitarbeiter darauf hinzuweisen, dass sie sich nicht selbst belasten müssen? Wenn ja, in welcher Form?  Sind Vertreter des Betriebsrats berechtigt, an den Interviews oder sonstigen Untersuchungsmaßnahmen teilzunehmen?  Hat der Betriebsrat ein Recht, die Untersuchungsergebnisse zu erhalten oder einzusehen?  Haben die Mitarbeiter ein Recht, die Untersuchungsergebnisse zu erhalten oder einzusehen?  Müssen die Untersuchungsergebnisse in die Personalakte?  Hat sich das Unternehmen Gedanken gemacht, dass rechtswidrig erhobene Beweise in einem späteren gerichtlichen Verfahren möglicherweise einem Beweisverwertungsverbot unterliegen und deshalb nicht nutzbar gemacht werden können?  Auch wenn eine Totalüberwachung der Mitarbeitenden technisch jederzeit möglich wäre, ist allenfalls eine teilweise Überwachung rechtlich zulässig. Dabei hängt die Zulässigkeit oftmals maßgeblich von der Abwägung zwischen den berechtigten Arbeitgeberinteressen und dem allgemeinen Persönlichkeitsrecht der Mitarbeitenden ab. Darüber hinaus sind stets die gesetzlichen Vorgaben zu berücksichtigen. Insbesondere muss der Mitarbeiter transparent über die konkrete Datenverarbeitung im Rahmen der Mitarbeiterüberwachung informiert werden. Außerdem ist das gegebenenfalls bestehende Mitbestimmungserfordernis des Betriebsrates sowie der Abschluss einer erforderlichen Betriebsvereinbarung zu beachten. (pg/fm) 

Wie viel Mitarbeiterüberwachung die DSGVO erlaubt​ Die Datenschutzgrundverordnung (DSGVO) gewährt Arbeitnehmern zwar einen hohen Datenschutzgrad – dennoch haben Arbeitgeber Möglichkeiten, ihre Belegschaft zu überwachen.DC Studio | shutterstock.com

In der Praxis erfolgt die Mitarbeiterüberwachung regelmäßig im Rahmen von internen Untersuchungen oder mithilfe von IT-Überwachungstools. Die stetige Veränderung der Arbeitswelt und die damit einhergehende, wachsende Bedeutung des Homeoffice steigert zudem das Bedürfnis der Arbeitgeber, Arbeitszeiten und Arbeitsleistung der Mitarbeiter durch IT-Systeme zu kontrollieren.  

Die EU-Datenschutzgrundverordnung (DSGVO) ist sieben Jahre nach dem Beginn ihrer Anwendbarkeit zwar fester Bestandteil der Arbeitswelt geworden, dennoch stellen die Datenschutzanforderungen Arbeitgeber weiterhin vor erhebliche Herausforderungen, wenn es um die Überwachung und Kontrolle von Mitarbeitern geht. Zum einen sind den Arbeitgebern dabei datenschutzrechtliche, zum anderen auch arbeitsrechtliche Grenzen gesetzt. Die Mitarbeiterüberwachung ist ein Grundrechtseingriff in das allgemeine Persönlichkeitsrecht der Beschäftigten, der verhältnismäßig sein muss. Über das Datenschutz- und Arbeitsrecht hinaus kann die Überwachung und Kontrolle der Mitarbeiter auch die Einhaltung von telekommunikationsrechtlichen Grenzen erfordern. Zum anderen kann der Arbeitgeber ein Bedürfnis zur Kontrolle aus Compliance-Gesichtspunkten haben, zum Beispiel die Sicherstellung der Einhaltung von rechtlichen Anforderungen oder internen Richtlinien. Dieses Spannungsverhältnis macht es zunehmend schwerer, sich rechtskonform zu verhalten.  

Wegen der Vielfältigkeit der Datenverarbeitungsprozesse, der unterschiedlichen rechtlichen Anforderungen und der neuen politischen und rechtlichen Entwicklungen muss die rechtliche Zulässigkeit der Kontrolle und Überwachung im Arbeitsverhältnis stets im Einzelfall beurteilt werden. Typische Anwendungsfälle werden nachfolgend aus rechtlicher Sicht erläutert.  

Mitarbeiterüberwachung – neue Entwicklungen

Neue politische und rechtliche Entwicklungen haben in letzter Zeit die Verunsicherung bei der rechtskonformen Mitarbeiterüberwachung erhöht. So wurde zwar im Oktober 2024 ein Referentenentwurf eines neuen Beschäftigtendatenschutzgesetzes vorgelegt, der unter anderem spezielle Regelungen für Überwachungsmaßnahmen durch Arbeitgeber vorsah. Mit dem Scheitern der Ampelkoalition scheiterte jedoch auch dieser Referentenentwurf. Somit existiert nach wie vor kein eigenständiges Gesetz für den Mitarbeiterdatenschutz und es muss weiterhin auf die generellen Vorschriften der DSGVO sowie auf die Ergänzungen im Bundesdatenschutzgesetz (BDSG) zurückgegriffen werden. Außerdem haben sich die rechtlichen Rahmenbedingungen bei der Nutzung von Telekommunikationssystemen in den vergangenen Jahren wiederholt geändert, erst durch die Einführung des Telekommunikation-Telemedien-Datenschutz-Gesetz (TTDSG) im Jahr 2021, das wiederum 2024 durch das Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz (TDDDG) ersetzt wurde.  

Zudem haben deutsche Bundesgerichte und auch der Europäische Gerichtshof (EuGH) in den letzten Jahren Entscheidungen getroffen, die auch für den Beschäftigtendatenschutz, insbesondere auch für die Überwachung von Mitarbeitern, erhebliche Auswirkungen haben. So führt die Entscheidung des Bundesarbeitsgerichts zur teilweisen Unwirksamkeit der Generalklausel zum Beschäftigtendatenschutz in § 26 Abs.1 Satz 1 BDSG zu Unsicherheit dahingehend, auf welcher Rechtsgrundlage und mit welchen Argumenten Beschäftigtendaten in Deutschland nun verarbeitet werden dürfen. Außerdem hat der EuGH klargestellt, dass Betriebsvereinbarungen, die von manchen Arbeitgebern gerne als datenschutzrechtliche Erlaubnisnorm für die Datenverarbeitung herangezogen werden, nicht als Persilschein für Datenschutz-Compliance herangezogen werden können. 

 

Berufliche E-Mails und Nachrichten einsehen

Teil eines robusten Compliance Managements ist es, möglichen kartellrechtswidrigen Absprachen, dem Missbrauch von Geschäftsgeheimnissen oder auch Meldungen von möglichen Rechtsverstößen intern nachzugehen. Im Rahmen dieser internen Untersuchungen sollen regelmäßig die E-Mails oder ähnliche elektronische Nachrichten der Mitarbeiter, die mittels geschäftlicher E-Mail-Systeme oder anderer Tools verschickt werden, gesichtet werden. Oftmals ist in diesen Tools aber nicht nur berufliche Kommunikation gespeichert, sondern auch private. Um nicht selbst einen Compliance-Verstoß zu begehen, müssen Arbeitgeber einiges beachten.  

Durchsuchung von beruflichen E-Mails und das Problem des Fernmeldegeheimnisses  

Die größte Herausforderung bei der Durchsicht von E-Mails im Rahmen von internen Untersuchungen ist das Fernmeldegeheimnis, welches nun im TDDDG geregelt ist. Diese, größtenteils durch einen akademischen Streit angeheizte Herausforderung, hat deshalb nicht an Brisanz verloren, weil ein Verstoß gegen das Fernmeldegeheimnis möglicherweise als Straftat angesehen wird. Ob die E-Mails der Mitarbeiter, die über den beruflichen E-Mail-Account versendet oder empfangen werden, dem Fernmeldegeheimnis unterliegen, ist trotz des jahrelangen Streits nicht geklärt. Jedenfalls soll kein Schutz des Fernmeldegeheimnisses bestehen, wenn der Arbeitgeber die Privatnutzung entweder ausdrücklich verboten hat und dieses Verbot auch wirksam durchsetzt – oder über ein eher komplexes Konzept von “Verbot der Privatnutzung mit einzelfallbezogener Erlaubnis der Privatnutzung bei gleichzeitigem Verzicht auf das Fernmeldegeheimnis” den Schutz des Fernmeldegeheimnisses umgeht.  

Ob infolge einer erlaubten oder zumindest geduldeten Privatnutzung des beruflichen E-Mail-Accounts die versendeten und empfangenen Nachrichten dem Fernmeldegeheimnisschutz unterliegen, wird seit Jahrzehnten diskutiert. Ausgangspunkt dieses Streits ist die Überlegung, dass der Arbeitgeber als ein Anbieter von Telekommunikationsdiensten unter dem ehemaligen Telekommunikationsgesetz (TKG) gelten könnte, wenn die Mitarbeiter das berufliche Telekommunikationssystem wie den E-Mail-Account auch für private Zwecken nutzen dürfen. Als Telekommunikationsanbieter würde der Arbeitgeber dann auch dem gesetzlichen Fernmeldegeheimnis unterliegen.  

Seit dem Inkrafttreten des TDDDG, das nunmehr die hierfür relevanten Bestimmungen des TKG in leicht geänderter Form fortführt, werden die Stimmen in der juristischen Literatur immer lauter, dass Arbeitgeber im Falle der Privatnutzung keine Telekommunikationsanbieter sind und somit auch nicht den Schutz des Fernmeldegeheimnisses wahren müssen. Dieser Ansicht folgen nun auch einige Aufsichtsbehörden in Deutschland, wie im Jahresbericht 2023 des Landesbeauftragten für Datenschutz und Informationsfreiheit Nordrhein-Westfalen mitgeteilt wird. Trotz der steigenden Tendenz gegen die Anwendbarkeit des Fernmeldegeheimnisses bei Privatnutzung im Arbeitsverhältnis sind Unternehmen wegen der Risiken einer Strafbarkeit bei Verletzung des Fernmeldegeheimnisses teilweise weiterhin zurückhaltend, dieser unternehmensfreundlichen Ansicht zu folgen. Um dieses Risiko zu reduzieren, bleibt Unternehmen nur, die Privatnutzung entweder komplett zu verbieten und dieses Verbot auch durchzusetzen oder das komplexe Konzept von „Generellem Verbot von Privatnutzung mit Erlaubnis der Privatnutzung bei gleichzeitigem Verzicht auf das Fernmeldegeheimnis“ einzuführen. Letzteres ist jedoch im Gegensatz zum Komplettverbot mitbestimmungspflichtig und erfordert eine Einbindung des Betriebsrats, sofern einer vorhanden ist. 

Durchsuchung von beruflichen E-Mails und die datenschutzrechtlichen Grenzen 

Wenn die Hürden des Fernmeldegeheimnisses – in welcher Form auch immer – überwunden sind, stellt sich vor dem Zugriff und der Sichtung von beruflichen E-Mails die Frage, welche datenschutzrechtliche Rechtsgrundlage dies gestattet und welchen Voraussetzungen diese Rechtsgrundlage unterliegt. Bei jeder Durchsuchung von E-Mails werden inhärent auch die darin enthaltenen und damit verbundenen personenbezogenen Daten von Betroffenen verarbeitet, insbesondere des Senders und des Empfängers der E-Mail. Grundprinzip des Datenschutzrechts ist es, dass personenbezogenen Daten nur dann verarbeitet werden dürfen, wenn diese Verarbeitung von einer Rechtsgrundlage gestattet ist. 

Im Rahmen einer internen Untersuchung kann eine Durchsuchung der beruflichen E-Mails zur Aufdeckung von Straftaten oder schwerwiegenden Pflichtverletzungen des Mitarbeiters durch die Rechtsgrundlage in § 26 Abs. 1 S. 2 BDSG gestattet sein, vorausgesetzt,  

dokumentierte tatsächliche Anhaltspunkte begründen den Verdacht, dass der betroffene Mitarbeiter im Beschäftigungsverhältnis eine Straftat oder schwerwiegende Pflichtverletzung begangen hat,  

die Durchsuchung ist zur Aufdeckung erforderlich und  

das schutzwürdige Interesse des Mitarbeiters gegen die Durchsuchung der E-Mails überwiegt nicht.  

Die Erfüllung dieser Voraussetzungen sind vom Arbeitgeber im Detail zu dokumentieren, auch um den Vorwurf einer rechtswidrigen Datenerhebung, die zu einem Beweisverwertungsverbot führen könnte (siehe unten Ziff. 7) wirksam entgegentreten zu können.  

Darüber hinaus muss der Arbeitgeber die generellen Datenschutzprinzipien einhalten; er sollte die hierfür ergriffenen Maßnahmen schriftlich dokumentieren. Dies erfordert insbesondere, dass die Mitarbeiter zumindest grundsätzlich vorab informiert wurden, wie ihre personenbezogenen Daten für die Zwecke interner Untersuchungen verarbeitet werden können (im Regelfall wird eine konkrete Information wegen der möglichen Gefährdung des Untersuchungszweckes vorab nicht möglich sein). Zudem muss die Datenverarbeitung auf das erforderliche Maß minimiert werden, insbesondere durch eine strenge Begrenzung der Personen, die in die Durchsuchung der E-Mails involviert sind, und durch Begrenzung der Daten und E-Mails, die der Durchsuchung unterliegen sollen, beispielsweise durch Begrenzung des Zeitraums der zu durchsuchenden E-Mails und Vorab-Filterung der E-Mails nach relevanten Schlagwörtern. Zur Wahrung der Grundsätze von Erforderlichkeit und Verhältnismäßigkeit sollten weitere Maßnahmen ergriffen werden, um die Auswirkungen auf die Privatsphäre des Betroffenen so gering wie möglich zu halten. Zu denken wäre an die automatisierte Aussortierung von E-Mails, die an private E-Mail-Adressen gehen oder aufgrund von Schlagwörtern sensible Informationen enthalten könnten, an die Einbindung des betrieblichen Datenschutzbeauftragten oder eines Vertreters des Betriebsrats bei der manuellen Durchsuchung oder an die vorläufige Nichtberücksichtigung von E-Mails in privaten Ordern.  

Idealerweise werden die Prozesse für eine solche E-Mail-Durchsuchung in internen Richtlinien geregelt, wodurch zum einen Transparenz gegenüber den Mitarbeitern bezüglich der möglichen Verarbeitung ihrer personenbezogenen Daten in beruflichen E-Mails geschaffen wird und zum anderen die Maßnahmen zur Einhaltung der Datenschutzprinzipien dokumentiert werden. Je nach Umständen des Einzelfalls kann eine Durchsuchung der beruflichen E-Mails auch die Durchführung und Verschriftlichung einer Datenschutzfolgeabschätzung nach der DSGVO erfordern. 

Die Anforderungen des Datenschutzrechts verlangen, dass jede Durchsuchung von beruflichen E-Mails anhand der Umstände des Einzelfalls betrachtet und bewertet wird. Nichteinhaltung dieser Anforderungen kann sowohl zu Beweisverwertungsverboten als auch zu Bußgeldern, Schadensersatzforderungen und Unterlassungsverfahren führen. 

Durchsuchung von Nachrichten in anderen beruflichen Kommunikations-Tools  

Neben E-Mail stellen Arbeitgeber regelmäßig auch niedrigschwellige Tools für die schnelle interne Kommunikation zur Verfügung, wie MS Teams, Slack oder auch WhatsApp.   

Der Zugriff auf diese Kommunikation durch den Arbeitgeber im Rahmen einer internen Untersuchung unterliegt den gleichen Voraussetzungen und Einschränkungen wie der Zugriff auf berufliche E-Mails. Hinzu kommt allerdings, dass die Interessen des Arbeitnehmers auf Privatsphäre und Schutz seiner Persönlichkeitsrechte hier sogar höher liegen können aufgrund der gängigen Nutzung dieser Tools als einfache, schnelle und gefühlt inoffizielle Kommunikationsmittel. Auch bei einem Verbot der Privatnutzung werden diese Tools regelmäßig für privat veranlasste Kommunikation oder vertrauliche Gespräche zwischen Kollegen genutzt. Diese Aspekte sind bei der Festlegung der Maßnahmen zum Schutz der Interessen des Mitarbeiters zu berücksichtigen, mit der Folge, dass der Zugriff auf diese Kommunikation einen größeren Rechtfertigungs- und Begründungsaufwand erfordern kann als der Zugriff auf die E-Mails in beruflichen E-Mail-Accounts.  

Dauerhafte Überwachung der Kommunikation der Mitarbeiter 

Aus den strengen datenschutzrechtlichen Anforderungen, beruhend auf den Grundprinzipen von Erforderlichkeit, Verhältnismäßigkeit und Datenminimierung, folgt auch, dass eine permanente Kontrolle und ein anlassunabhängiges Mitlesen der Kommunikation unzulässig ist.  

Betriebsrat 

Die konkrete Überwachungsmaßnahme im Einzelfall, wie die Durchsuchung von beruflicher Kommunikation eines einer Pflichtverletzung verdächtigten Arbeitnehmers, unterliegt zwar für sich genommen nicht dem Mitbestimmungsrecht des Betriebsrats. Da diese Überwachungsmaßnahmen aber regelmäßig mit technischen Einrichtungen (wie dem beruflichen E-Mail-System oder den software-basierten Kommunikationstools) erfolgen, greift das Mitbestimmungsrecht des Betriebsrates für diese technische Einrichtung. Dies folgt daraus, dass dem Betriebsrat bei der Einführung und Nutzung von technischen Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen, ein Mitbestimmungsrecht nach dem Betriebsverfassungsgesetz zusteht.  

Typischerweise werden die Voraussetzungen und das Verfahren, unter denen der Arbeitgeber die Kommunikation der Mitarbeiter mithilfe dieser technischen Einrichtungen überwachen kann, bereits vorab in der Betriebsvereinbarung zu der jeweiligen technischen Einrichtung geregelt. Der in der Betriebsvereinbarung festgelegte Zweck der Durchsuchung sollte dabei sowohl die Ermittlung von möglichen Rechtsverstößen als auch von möglichen Verstößen gegen interne Richtlinien oder sonstige Pflichtverletzungen betreffen. Umfang und Reichweite des Mitbestimmungsrechts wird kontrovers diskutiert. Die Meinungen gehen dabei weit auseinander.  

Der Betriebsrat hat grundsätzlich keinen gesetzlichen Anspruch vor der Ergreifung von Überwachungsmaßnahmen bei einem konkreten Verdacht eingebunden zu werden. Teilweise sehen aber Betriebsvereinbarungen Mitsprache- beziehungsweise Informationsrechte bei konkreten Verdachtsfällen vor.  

Wenn eine Durchsuchungsmaßnahme unter Verstoß gegen eine Betriebsvereinbarung vorgenommen wurde, führt dieser Verstoß gegen die Betriebsvereinbarung nicht zu einem Beweisverwertungsverbot, das heißt zu einem Verbot, die durch die Durchsuchung gewonnenen Beweise in einem nachfolgenden gerichtlichen Prozess (zum Beispiel Kündigungsschutzprozess) als Beweismittel zu würdigen. Dies gilt selbst dann, wenn die Betriebsvereinbarung ein solches Beweisverwertungsverbot vorsieht. Gleichwohl kann sich ein Beweisverwertungsverbot aus anderen Gründen ergeben (siehe unten Ziff. 7). 

E-Mails und Internetnutzung überwachen

Um vertrauliche Informationen, Geschäftsgeheimnisse und personenbezogene Daten vor ungewolltem Abfluss oder unberechtigtem Zugriff zu schützen, setzen Arbeitgeber regelmäßig Software-Tools wie Data Loss Prevention Tools, Virenfilter oder SSL-Entschlüsselungs-Systeme ein. Selbst wenn diese Werkzeuge dem Zweck dienen sollen, auch den Zugriff auf personenbezogene Daten zu verhindern, sind bei der Implementierung und dem Betrieb dieser Tools die oben beschriebenen Anforderungen zu berücksichtigen. 

Da diese Tools auch die ein- und ausgehende Kommunikation der Mitarbeiter mit überwachen können, kann auch hier die Problematik des Fernmeldegeheimnisses relevant werden.   

Außerdem muss die mithilfe der Tools durchgeführte Datenverarbeitung, insbesondere das automatische Screening und Filtern von Kommunikationsdaten und -inhalten, die Speicherung von Logfiles, oder die Löschung von Daten, den datenschutzrechtlichen Anforderungen genügen. Die datenschutzrechtliche Rechtsgrundlage wird regelmäßig das überwiegende berechtigte Interesse des Arbeitgebers sein. Diese Rechtsgrundlage erfordert aber eine sorgfältige Bewertung und Dokumentation dieser Abwägung zwischen den berechtigen Interessen des Arbeitgebers und der Interessen des Arbeitnehmers. Zudem setzt diese Rechtsgrundlage voraus, dass der Arbeitgeber auch alle anderen Anforderungen aus dem Datenschutzrecht ordnungsgemäß umsetzt, insbesondere transparente Information an die Mitarbeiter, funktionierende Prozesse für die Geltendmachung von datenschutzrechtlichen Rechten sowie – soweit erforderlich – die Durchführung einer Datenschutzfolgeabschätzung. Aspekte wie Erforderlichkeit, Verhältnismäßigkeit und Datenminimierung erfordern typischerweise ein stufenweises Vorgehen, um die Auswirkungen auf die Privatsphäre und Persönlichkeitsrechte des Mitarbeiters so gering wie möglich zu halten, beispielsweise durch Pseudonymisierungsprozesse, automatisierte Warnungen, kurze Speicherfristen für Logfiles, und längere Speicherfristen nur bei verifizierten Verstößen.   

Anwesenheitskontrolle im Büro & Homeoffice

Nach der Covid-19-Pandemie ist eine Tendenz der Arbeitgeber zu beobachten, die Arbeit aus dem Homeoffice zumindest teilweise zu verbieten und die Rückkehr ins Büro zu verlangen. Oftmals gibt es Anwesenheitsquoten von 50 Prozent oder Vorgaben, drei von fünf Wochenarbeitstagen im Büro anwesend zu sein. Eine Kontrolle der Einhaltung der Anwesenheitspflicht kann zum Beispiel mittels Auslesen von Chipkarten, die für den Zugang zum Büro verwendet werden, oder durch Speicherung und Auswertung der IP-Adresse des Mitarbeitergeräts erfolgen, die eine Rückschluss auf den ungefähren Standort des Geräts bei der Nutzung des Internets erlaubt. Da hierbei personenbezogenen Daten des Mitarbeiters verarbeitet werden, sind die datenschutzrechtlichen Anforderungen zu beachten.

Insbesondere müssen die Arbeitgeber ihre Mitarbeiter darüber informieren, dass die Einhaltung dieser Regelungen mittels der IP-Adresse stichprobenartig überwacht und bei Verdachtsfällen auch zu einer regelmäßigen Überwachung führen kann. Wegen des Grundsatzes der Datenminimierung und Verhältnismäßigkeit unterliegen diese Daten Speicherfristen, typischerweise von sieben Tagen. Werden die Daten länger gespeichert und dann zur Kontrolle der Homeoffice-Regelungen genutzt, kann dies zu einem Beweisverwertungsverbot führen. Darüber hinaus ist die Ermittlung und Dokumentierung der datenschutzrechtlichen Rechtsgrundlage (siehe hierzu oben 2b) und 3) erforderlich. 

Taschen und Schubladen kontrollieren

Zufällige, anlasslose und verdachtsunabhängige Kontrollen von Taschen (zum Beispiel am Ausgang zur Verhinderung von Diebstählen) in Anwesenheit des Mitarbeiters können dann datenschutzrechtlich zulässig sein, wenn die Grundprinzipien des Datenschutzrechts beachtet werden (insbesondere transparente Information), Maßnahmen zum Schutz der Privatsphäre ergriffen wurden (wie Taschenbereiche, die von der Kontrolle ausgenommen sind) und wenn es Nachweise gibt, dass solche Verstöße in der Vergangenheit bereits vorgekommen sind und mit diesen Kontrollen wirksam verhindert werden können. Auch wenn die Sichtung der Taschen keine typische automatisierte Datenverarbeitung darstellt, kann diese Maßnahme eine Verarbeitung von personenbezogenen Daten in Form der Gewinnung von Informationen über den Mitarbeiter aus dem Inhalt der Tasche darstellen, selbst wenn diese Informationen nicht in einem Dateisystem gespeichert werden. 

Leistung überwachen 

Die Hauptleistungspflicht des Arbeitnehmers ist seine Arbeitsleistung. Aus diesem Grund ist das Interesse der Arbeitgeber an Leistungskontrollen ihrer Mitarbeiter groß.  Auch eine Schlecht- oder Minderleistung kann eine Verletzung arbeitsvertraglicher Pflichten darstellen, die der Arbeitgeber durch entsprechende Kontrollmaßnahmen identifizieren und unterbinden möchte. Diese Leistungskontrollen sind aber ebenfalls nur unter der Berücksichtigung des Datenschutzrechts zulässig.  

Eine permanente Überwachung kann laut der Rechtsprechung wegen des damit verbundenen unverhältnismäßigen Eingriffs in das allgemeine Persönlichkeitsrecht unzulässig sein. Das ist vor allem der Fall, wenn durch die Leistungskontrolle ein schwerwiegender und dauerhafter Anpassungsdruck für die Mitarbeiter entsteht. Bei der Beurteilung, ob eine Leistungskontrolle zulässig oder unzulässig ist, muss eine Abwägung zwischen den Arbeitgeberinteressen an der Verarbeitung der Beschäftigtendaten und dem allgemeinen Persönlichkeitsrecht des Mitarbeiters vorgenommen werden, und diese Interessenabwägung muss zugunsten des Arbeitgebers ausfallen; anderenfalls ist die Kontrolle unzulässig. Darüber hinaus kommt es auf den konkreten Zweck der Datenverarbeitung an, insbesondere darauf, ob dieser in der gezielten Durchführung einer Leistungskontrolle besteht und ob die Datenverarbeitung heimlich erfolgt und die Mitarbeiter nicht vorab über die Datenverarbeitung und deren Zweck informiert worden sind.  

Im Jahr 2023 hatte ein Gericht über das Leistungskontrollverfahren in einem globalen Vertriebszentrum von Amazon in Deutschland zu entscheiden. Die automatisierte Steuerung der Logistikprozesse ermöglichte die Aufzeichnung der einzelnen Arbeitsschritte des Mitarbeiters bei der Auswahl und Verpackung der Ware einschließlich der unproduktiven Arbeitszeiten. Aus datenschutzrechtlicher Sicht überraschend entschied das Gericht, dass die Erhebung und Verarbeitung dieser Logistikprozessdaten datenschutzrechtlich zulässig sei, um die termingerechte Lieferung der Waren sicherzustellen. Es liege keine unzulässige Kontrolle der Mitarbeiter vor, weil die Leistungen lediglich objektiv gemessen werden und die Grundsätze der Verhältnismäßigkeit im Einzelfall gewahrt waren.  

Stichprobenartige, nach abstrakten Kriterien durchgeführte und transparent kommunizierte Kontrollmaßnahmen können laut Bundesarbeitsgericht auch ohne Anlass zulässig sein. Auch hier gilt, dass jede Art der Leistungskontrolle im Einzelfall datenschutzrechtlich beurteilt werden muss, um eine mögliche Rechtsgrundlage und die zu ergreifenden Maßnahmen zum Schutz der Arbeitnehmerinteressen zu ermitteln. Vor dem Hintergrund der Sensibilität der Mitarbeiter bei Leistungskontrollen sollte stets eine Datenschutzfolgenabschätzung detailliert durchgeführt und dokumentiert werden.  

Beweisverwertungsverbot

Von großer Relevanz, insbesondere im Rahmen von Kündigungsschutzprozessen, ist die Frage, wann ein Verwertungsverbot für einen vom Arbeitgeber unter Verstoß gegen die Vorschriften der DSGVO erlangten Beweise besteht. Nach der Rechtsprechung ist in diesen Fällen kein absolutes Beweisverwertungsverbot anzunehmen. Vielmehr ist eine sorgfältige Abwägung der Interessen und Grundrechte der Beteiligten durchzuführen. Nur wenn diese Abwägung das Überwiegen der Interessen und Grundrechte des von dem DSGVO-Verstoß Betroffenen ergibt, kann ein Beweisverwertungsverbot angenommen werden. Ein Datenschutzverstoß steht der Beweisverwertbarkeit grundsätzlich nicht entgegen, wenn die Daten offen erhoben wurden und eine vorsätzlich begangene Pflichtverletzung des Mitarbeiters aufzuklären ist. Im Falle einer solchen Pflichtverletzung hat das allgemeine Persönlichkeitsrecht des Mitarbeiters regelmäßig hinter dem Beweisinteresse des Arbeitgebers zurückzutreten. Beweismittel des Arbeitgebers müssen daher unter Umständen auch dann durch die Arbeitsgerichte verwertet werden, wenn diese unter Missachtung von Datenschutzbestimmungen gewonnen worden sind. Datenschutz ist weiterhin kein Tatenschutz.  

Checklisten für interne Untersuchungen

Die folgenden Checklisten sind Leitfäden für die vielen rechtlichen Fragen, die sich stellen, bevor man mit einer internen Untersuchung beginnen kann, und können in ähnlicher Weise auch für sonstige Überwachungsmaßnahmen angewendet werden. Klare Ja-/Nein-Antworten auf die einzelnen Fragen gibt es nicht – sie wären auch irreführend. Die Situationen sind teilweise noch nie gerichtlich, jedenfalls nicht höchstrichterlich, geklärt worden. Die Beantwortung dieser Checkliste wird regelmäßig die Einbeziehung von Entscheidungsträgern aus den Bereichen IT, Personal, Recht und Datenschutz, einschließlich des Datenschutzbeauftragten, fordern. 

 

Checkliste Datenschutz und Strafrecht 

Was ist der konkrete rechtliche Vorwurf, der untersucht werden soll? Zum Beispiel Verstoß gegen arbeitsvertragliche Pflichten, interne Richtlinien oder gesetzliche Vorgaben? 

Was ist der konkrete Gegenstand und Umfang der internen Untersuchung? Wie lassen sich Gegenstand und Umfang bestmöglich eingrenzen? Gibt es schon konkrete Stichworte und einen Zeitraum für die zu durchsuchenden Dokumente? – Je weniger Daten durchsucht werden, desto besser. 

Was soll durchsucht werden? E-Mails, sonstige Nachrichten, Dokumentenarchive, SMS-Nachrichten, Kommunikations-Log-Files?  

Sollen auch Interviews durchgeführt werden? 

Welche Mitarbeiter sind Gegenstand der internen Untersuchung und warum? (Beschuldigte, mögliche Mitwisser, mögliche Zeugen, mögliche Inhaber von relevanten Dokumenten?) 

In welchen Systemen sind diese Dokumente gespeichert und wer hat Zugriff auf diese Dokumente? 

Ist die Privatnutzung für diese Systeme entweder ausdrücklich erlaubt oder geduldet? Gibt es hierzu eine IT-Richtlinie, Nutzungsrichtlinie, Nutzungsvereinbarung, arbeitsvertragliche Regelung und/oder Betriebsvereinbarung? Gibt es bereits eine Risikoentscheidung für den Umgang mit dem möglichen Fernmeldegeheimnis? 

Wird im Rahmen der internen Untersuchung auf Daten zugegriffen, die gegen unberechtigten Zugriff besonders gesichert sind und deren Zugangssicherung besonders überwunden werden muss? 

Werden im Rahmen von Untersuchungsmaßnahmen private Daten verändert oder gelöscht? 

Wurden die Mitarbeiter entsprechend der Informationspflicht gemäß Art. 13 bzw. Art. 14 DSGVO über die Durchführung von internen Untersuchung- / Überwachungs- und Kontrollmaßnahmen ausreichend und transparent informiert? 

Auf welcher Rechtsgrundlage der DSGVO und des BDSG dürfen die personenbezogenen Daten der Mitarbeiter für den Zweck der internen Untersuchung verarbeitet werden (typischerweise § 26 Abs. 1 Satz 2 BDSG oder Art. 6 Abs. 1 lit. f DSGVO)? Wurde diese Rechtsgrundlage ausreichend dokumentiert und begründet? 

Ist eine Datenschutzfolgeabschätzung nach der DSGVO erforderlich? Wenn ja, wurde diese sorgfältig durchgeführt und dokumentiert? Welche Maßnahmen wurden hierbei identifiziert, um das Risiko für die Betroffenen zu minimieren? Wer ist für die Umsetzung dieser Maßnahmen verantwortlich? 

Soll die Untersuchung auf eine Einwilligung der betroffenen Mitarbeiter gestützt werden (Achtung: Mitarbeitereinwilligungen sind grundsätzlich nicht freiwillig, es sei denn, die betroffenen Mitarbeiter sind leitende Angestellte oder gehören zur Geschäftsführung)?  

Wird die Untersuchung oder Ermittlung in Zusammenarbeit mit einem externen Dienstleister durchgeführt (zum Beispiel forensischer Dienstleister, e-Discovery-Dienstleister) und wurde mit diesem Dienstleister ein Auftragsverarbeitungsvertrag gem. Art. 28 DSGVO geschlossen? Sitzt dieser Dienstleister (oder eingebundene Sub-unternehmer) gegebenenfalls außerhalb der EU mit der Folge einer internationalen Datenübermittlung (Art. 44 ff. DSGVO)? 

Sind dem Dienstleister schriftliche Anweisungen gegeben worden, wie er die Untersuchung vornehmen soll (Stichworte, Zeitraum etc.) und wie er private oder nicht relevante E-Mails behandeln soll (zum Beispiel “sofort schließen” “nicht lesen”, “nicht kopieren”, “nicht weiterleiten”, “nicht drucken”)? 

Werden die Ergebnisse der Untersuchung (zum Beispiel die Ergebnisse der E-Mail-Durchsuchung oder Interview-Mitschriften bei Mitarbeiterbefragungen) an Dritte übermittelt (insbesondere an andere Unternehmen der Gruppe, die möglicherweise außerhalb der EU sitzen, oder an externe Rechtsberater) und – sofern die Antwort “ja” ist – ist die Zulässigkeit der Übermittlung überprüft worden und ist beim Empfänger, soweit erforderlich, ein angemessenes Datenschutzniveau sichergestellt (Art. 44 ff. DSGVO)? 

Werden die Ergebnisse der Dokumenten-Durchsuchung oder Interview-Mitschriften bei Mitarbeiterbefragungen vor Weiterleitung anonymisiert oder pseudonymisiert? Wenn nein, warum? 

Sind die Aufbewahrungs- und Löschungsfristen für Untersuchungsergebnisse klar und wird die Löschung von Untersuchungsergebnissen eingehalten sowie kontrolliert? 

Hat sich das Unternehmen Gedanken darüber gemacht, dass rechtswidrig erhobene Beweise in einem späteren gerichtlichen Verfahren möglicherweise einem Beweisverwertungsverbot unterliegen und deshalb nicht nutzbar gemacht werden können? 

Bestehen bei den untersuchten Vergehen mögliche Anzeigepflichten gegenüber staatlichen Strafverfolgungsbehörden? 

 

Checkliste Arbeitsrecht

Besteht ein Betriebsrat? 

Bestehen Betriebsvereinbarungen zu Kontrollmaßnahmen bei Mitarbeitern beziehungsweise zur Kontrolle der IT/E-Mail-Systeme? 

Sind Benachrichtigungspflichten gegenüber dem Betriebsrat und/oder Mitbestimmungsrechte des Betriebsrats eingehalten worden? 

Handelt es sich bei dem zu befragenden Mitarbeiter um einen Verdächtigen oder einen Beschuldigten? 

Müssen Mitarbeiter zu Interviewterminen erscheinen und auf Fragen antworten? 

Ist Mitarbeitern bei Interviews ein Anwalt (auf Kosten des Arbeitgebers) beizustellen? 

Sind Mitarbeiter darauf hinzuweisen, dass sie sich nicht selbst belasten müssen? Wenn ja, in welcher Form? 

Sind Vertreter des Betriebsrats berechtigt, an den Interviews oder sonstigen Untersuchungsmaßnahmen teilzunehmen? 

Hat der Betriebsrat ein Recht, die Untersuchungsergebnisse zu erhalten oder einzusehen? 

Haben die Mitarbeiter ein Recht, die Untersuchungsergebnisse zu erhalten oder einzusehen? 

Müssen die Untersuchungsergebnisse in die Personalakte? 

Hat sich das Unternehmen Gedanken gemacht, dass rechtswidrig erhobene Beweise in einem späteren gerichtlichen Verfahren möglicherweise einem Beweisverwertungsverbot unterliegen und deshalb nicht nutzbar gemacht werden können? 

Auch wenn eine Totalüberwachung der Mitarbeitenden technisch jederzeit möglich wäre, ist allenfalls eine teilweise Überwachung rechtlich zulässig. Dabei hängt die Zulässigkeit oftmals maßgeblich von der Abwägung zwischen den berechtigten Arbeitgeberinteressen und dem allgemeinen Persönlichkeitsrecht der Mitarbeitenden ab. Darüber hinaus sind stets die gesetzlichen Vorgaben zu berücksichtigen. Insbesondere muss der Mitarbeiter transparent über die konkrete Datenverarbeitung im Rahmen der Mitarbeiterüberwachung informiert werden. Außerdem ist das gegebenenfalls bestehende Mitbestimmungserfordernis des Betriebsrates sowie der Abschluss einer erforderlichen Betriebsvereinbarung zu beachten. (pg/fm)

Wie viel Mitarbeiterüberwachung die DSGVO erlaubt​ Weiterlesen »

Was ist Hyperscript?​

Allgemein

Kann Hyperscript für Umwälzungen in Sachen Frontend-Entwicklung sorgen? Foto: scott bauer photo – shutterstock.com Vielleicht erinnern Sie sich noch an Hypercard oder haben – ein gewisses Alter vorausgesetzt – sogar gelernt, mit der Sprache zu programmieren. Hyperscript ist eine neuere Technologie, die sich einige Vorteile von HyperCard – insbesondere ihre einfache (englischsprachige) Syntax – zunutze macht und diese auf eine Browser-Umgebung überträgt. Man könnte Hyperscript auch als eine Art JavaScript-Ersatz sehen, der entweder eigenständig oder in Kombination mit HTMX eingesetzt werden kann, um gängige Skripterfordernisse auf dem JavaScript-Frontend zu vereinfachen. Ein Hyperscript-Beispiel Um zu veranschaulichen, wie das in der Praxis aussieht, werfen wir zunächst einen Blick auf ein simples Hyperscript-Beispiel: Using fetch() API… Es ist ziemlich offensichtlich, was dieser Code bewirkt – der Unterstrich kennzeichnet dabei Hyperscript. In JavaScript würde die identische Funktion etwa so aussehen: In natürliche Sprache übertragen, sagt dieser Code: “Wenn das div-Element geladen ist, sende eine asynchrone Anfrage an ‘https://stuff’ und füge die Ergebnisse in das div ein.” Hyperscript definiert Hyperscript ist eine Art vereinfachtes, englischsprachiges JavaScript. Wie State-of-JavaScript-Initiator Sacha Greif im Interview erklärte, kann man es auch als domänenspezifische Sprache (Domain-specific Language; DSL) betrachten. Im Wesentlichen reduziert Hyperscript JavaScript auf eine Syntax, die explizit auf häufige und wiederkehrende Anforderungen ausgerichtet ist, wenn es darum geht Front-End-UIs zu erstellen. Um die Kodierung prägnanter zu machen, setzt Hyperscript auf eine Reihe von Konventionen. Hyperscript ist zudem ein Schwesterprojekt von HTMX und entspringt dem Geist desselben Entwicklers – Carson Gross. Beide Projekte spiegeln seine Liebe zur Simplizität und seine Leidenschaft wider, diese unermüdlich auf aktive Problembereiche anzuwenden. HTMX ist wiederum ein leistungsfähigeres HTML, das das Gros der Komplexität beseitigen könnte, die in den letzten Jahren dadurch entstanden ist, dass Entwickler das Front-End-Paradigma von reaktiven Frameworks + JSON + REST-ähnlichen APIs übernommen haben. Hyperscript bietet eine Alternative zur scheinbar unendlichen Erweiterung der JavaScript-Sprachkompetenzen. Frontend-Komplexität bewältigen Frontend-Entwickler sind in der Praxis des Öfteren überfordert. Wer würde sich nicht wünschen, JavaScript durch eine ausdrucksstarke Sprache ersetzen zu können, die leicht zu merken ist? Im folgenden Hyperscript-Snippet wird das kanonische Beispiel für den Button-Klick-Zähler zu: Click Me — Hier das gleiche Beispiel in React: import React from “react”; const Counter = () => { const [x, setX] = React.useState(0); const handleClick = () => { setX((prevX) => { if (prevX return prevX + 1; } else { return 3; } }); }; return ( Click Me {x} ); }; export default Counter; Natürlich bedeutet kürzer nicht unbedingt einfacher. In diesem Fall kann das selbsterklärende Hyperscript jedoch im Vergleich zu React glänzen. Hyperscript-Schöpfer Caron Gross weist darauf hin, dass es sich bei der Sprache um ein “spekulatives” Projekt handelt. Nichtsdestotrotz ist es gut durchdacht, leistungsfähig und ehrgeizig – es ist durchaus vorstellbar, dass Hyperscript künftig für Anwendungen im Enterprise-Bereich eingesetzt wird. Das größte Hindernis für Hyperscript ist dabei sehr wahrscheinlich die kollektive Vertrautheit und Bindung der Softwareentwickler an JavaScript. Sollte sich Hyperscript tatsächlich durchsetzen, wird es bei den meisten Projekten wahrscheinlich in Kombination mit JavaScript zum Einsatz kommen. Asynchrone Events in Hyperscript Werfen wir einen Blick darauf, wie Hyperscript mit Events umgeht: Send Foo Send Bar No Events Yet… Reaktive Programmierung stellt einen bedeutenden Handlungsstrang in der Geschichte der Programmierung dar, den sich Hyperscript vollständig zu eigen macht. Im obigen Beispiel sehen Sie, wie Hyperscript mit asynchronen Ereignissen umgeht. Das Event-System ist recht leistungsfähig und umfasst eine Reihe reaktiver Funktionen wie Filtering, Event Message Objects oder Queuing. Beachten Sie dabei auch, dass die Phrase “the next ” auf ein anderes Element im DOM verweisen kann, nämlich auf das nächste -Element – und das Ereignis an dieses senden kann. Das ist ein sehr präziser, offensichtlicher Weg, um etwas zu tun, was sonst ziemlich langatmig und klobig wäre oder zumindest stückweise erfordern würde, reaktiv zu programmieren. Looping, Conditionals und Logging Looping ist in manchen Frontend-Kontexten (wie JSX für React) eine heikle Angelegenheit. Hier ein Looping-Beispiel für Hyperscript: for x in [1, 2, 3] index i log i, “is”, x End Dieses Beispiel demonstriert auch, wie Hyperscript das Thema Logging handhabt: Die Werte werden einfach durch ein Komma getrennt. Wir haben bereits gesehen, wie Hyperscript den if-Befehl mit einem else behandelt. Beachten Sie, dass der Befehl mit dem Schlüsselwort End endet (es sei denn, Sie befinden sich ohnehin am Ende des Skripts, wie es bei einer Elementeigenschaft der Fall ist): if 😡 put 😡 into the next else put ‘3 is the max…’ into the next End Hyperscript unterstützt auch einen “unless“-Modifikator, der auf Dinge wie CSS-Eigenschaften verweisen kann: Toggle Next Border _=”on click toggle .red unless I match .bordered”> Toggle My Background Dieses Code-Stück bewirkt, dass die zweite Schaltfläche ihre Farbe ändert, sofern sie nicht die .bordered-Class besitzt. Das ist ein ziemlich prägnanter Umgang mit einem ansonsten unhandlichen Stück JavaScript mit CSS und HTML. Locality of Behavior Ein Grundsatz, der neuen Programmierern mit Nachdruck eingebläut wird, ist die sogenannte Separation of Concerns (SoC). In den meisten Fällen ist dieser Grundsatz auch richtig. Durch die Implementierung von SoC erhalten Sie entkoppelte Komponenten, was Systeme widerstandsfähiger macht. Es gibt jedoch auch eine Gegenströmung, die Hyperscript-Vater Gross als Locality of Behavior bezeichnet. Diese Idee hat er auch in Hyperscript eingebettet. Die Idee dahinter: Die SoC kann in Systemen resultieren, die schwieriger zu verfolgen sind. Separation of Concerns bedeutet in Sachen Frontend normalerweise, Markup (View), JavaScript (Behavior) und CSS (Presentation) an einem jeweils eigenen Ort vorzuhalten. Der gestalterische Nutzen all dieser Maßnahmen ist bestenfalls zweifelhaft – SoC kommt in der Regel in architektonischen Situationen zu Hilfe: Bei Projekten, die auf HTML, CSS und JavaScript basieren, ist es oft mühsam, zwischen den Kontexten hin- und herzuspringen und dabei alle Tasks im Auge zu behalten. Das ist einer der Gründe für den Reiz von JSX und die Motivation hinter dem Styled Components Framework. Hyperscript übernimmt einen Großteil der Routinearbeit, die Sie in JavaScript extrahieren würden, und verpackt sie in Hyperscript-Syntax, so dass Sie ziemlich aufwändige Funktionen direkt in das Markup einfügen können. Das macht es einfach, die Dinge zusammenzuhalten, und sorgt für eine bessere Selbstdokumentation. Die Kehrseite der Medaille: Wenn Sie Veränderungen am Verhalten vornehmen müssen, die über die integrierte Syntax hinausgehen, kann es zu Problemen kommen. Soll heißen: Wenn Sie außerhalb der Standards arbeiten müssen, werden Sie feststellen, dass Ihre stark gekoppelten Komponenten auf die Hyperscript-Engine angewiesen sind – die Sie dann ändern müssen. Es ist auch möglich, JavaScript und Hyperscript nebeneinander laufen zu lassen, so dass ein gewisser Spielraum für iterative Erweiterungen entsteht. Hyperscript – das neue JavaScript? Kann Hyperscript JavaScript auf absehbarer Zeit verdrängen? Meiner Meinung nach nicht. Aber ich kann mir eine Welt vorstellen, in der HTMX und Hyperscript das JavaScript-Frontend stark vereinfachen. Es ist bekannt, dass Komplexität wenn es um Software geht, oft das Todesurteil für Kreativität und Produktivität ist. Softwareentwickler laufen immer Gefahr, die eine Abstraktion zu viel einzubauen – die das Projekt zum Scheitern bringt. Hyperscript kann neue Ideen einbringen und könnte wie HTMX dazu beitragen, die allgemeine Experience der Webentwicklung zu verbessern. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Hyperscript?​ Kann Hyperscript für Umwälzungen in Sachen Frontend-Entwicklung sorgen?
Foto: scott bauer photo – shutterstock.com

Vielleicht erinnern Sie sich noch an Hypercard oder haben – ein gewisses Alter vorausgesetzt – sogar gelernt, mit der Sprache zu programmieren.

Hyperscript ist eine neuere Technologie, die sich einige Vorteile von HyperCard – insbesondere ihre einfache (englischsprachige) Syntax – zunutze macht und diese auf eine Browser-Umgebung überträgt. Man könnte Hyperscript auch als eine Art JavaScript-Ersatz sehen, der entweder eigenständig oder in Kombination mit HTMX eingesetzt werden kann, um gängige Skripterfordernisse auf dem JavaScript-Frontend zu vereinfachen.

Ein Hyperscript-Beispiel

Um zu veranschaulichen, wie das in der Praxis aussieht, werfen wir zunächst einen Blick auf ein simples Hyperscript-Beispiel:

Using fetch() API…

Es ist ziemlich offensichtlich, was dieser Code bewirkt – der Unterstrich kennzeichnet dabei Hyperscript. In
JavaScript würde die identische Funktion etwa so aussehen:

In natürliche Sprache übertragen, sagt dieser Code: “Wenn das div-Element geladen ist, sende eine asynchrone Anfrage an ‘https://stuff’ und füge die Ergebnisse in das div ein.”

Hyperscript definiert

Hyperscript ist eine Art vereinfachtes, englischsprachiges JavaScript. Wie State-of-JavaScript-Initiator Sacha Greif im Interview erklärte, kann man es auch als domänenspezifische Sprache (Domain-specific Language; DSL) betrachten. Im Wesentlichen reduziert Hyperscript JavaScript auf eine Syntax, die explizit auf häufige und wiederkehrende Anforderungen ausgerichtet ist, wenn es darum geht Front-End-UIs zu erstellen. Um die Kodierung prägnanter zu machen, setzt Hyperscript auf eine Reihe von Konventionen.

Hyperscript ist zudem ein Schwesterprojekt von HTMX und entspringt dem Geist desselben Entwicklers – Carson Gross. Beide Projekte spiegeln seine Liebe zur Simplizität und seine Leidenschaft wider, diese unermüdlich auf aktive Problembereiche anzuwenden.

HTMX ist wiederum ein leistungsfähigeres HTML, das das Gros der Komplexität beseitigen könnte, die in den letzten Jahren dadurch entstanden ist, dass Entwickler das Front-End-Paradigma von reaktiven Frameworks + JSON + REST-ähnlichen APIs übernommen haben. Hyperscript bietet eine Alternative zur scheinbar unendlichen Erweiterung der JavaScript-Sprachkompetenzen.

Frontend-Komplexität bewältigen

Frontend-Entwickler sind in der Praxis des Öfteren überfordert. Wer würde sich nicht wünschen, JavaScript durch eine ausdrucksstarke Sprache ersetzen zu können, die leicht zu merken ist?

Im folgenden Hyperscript-Snippet wird das kanonische Beispiel für den Button-Klick-Zähler zu:

Click Me

Hier das gleiche Beispiel in React:

import React from “react”;

const Counter = () => {

const [x, setX] = React.useState(0);

const handleClick = () => {

setX((prevX) => {

if (prevX

return prevX + 1;

} else {

return 3;

}

});

};

return (

Click Me

{x}

);

};

export default Counter;

Natürlich bedeutet kürzer nicht unbedingt einfacher. In diesem Fall kann das selbsterklärende Hyperscript jedoch im Vergleich zu React glänzen. Hyperscript-Schöpfer Caron Gross weist darauf hin, dass es sich bei der Sprache um ein “spekulatives” Projekt handelt. Nichtsdestotrotz ist es gut durchdacht, leistungsfähig und ehrgeizig – es ist durchaus vorstellbar, dass Hyperscript künftig für Anwendungen im Enterprise-Bereich eingesetzt wird.

Das größte Hindernis für Hyperscript ist dabei sehr wahrscheinlich die kollektive Vertrautheit und Bindung der Softwareentwickler an JavaScript. Sollte sich Hyperscript tatsächlich durchsetzen, wird es bei den meisten Projekten wahrscheinlich in Kombination mit JavaScript zum Einsatz kommen.

Asynchrone Events in Hyperscript

Werfen wir einen Blick darauf, wie Hyperscript mit Events umgeht:

Send Foo

Send Bar

No Events Yet…

Reaktive Programmierung stellt einen bedeutenden Handlungsstrang in der Geschichte der Programmierung dar, den sich Hyperscript vollständig zu eigen macht. Im obigen Beispiel sehen Sie, wie Hyperscript mit asynchronen Ereignissen umgeht. Das Event-System ist recht leistungsfähig und umfasst eine Reihe reaktiver Funktionen wie

Filtering,

Event Message Objects oder

Queuing.

Beachten Sie dabei auch, dass die Phrase “the next ” auf ein anderes Element im DOM
verweisen kann, nämlich auf das nächste -Element – und das Ereignis an dieses senden
kann. Das ist ein sehr präziser, offensichtlicher Weg, um etwas zu tun, was sonst ziemlich langatmig und klobig
wäre oder zumindest stückweise erfordern würde, reaktiv zu programmieren.

Looping, Conditionals und Logging

Looping ist in manchen Frontend-Kontexten (wie JSX für React) eine heikle Angelegenheit. Hier ein Looping-Beispiel für Hyperscript:

for x in [1, 2, 3] index i

log i, “is”, x

End

Dieses Beispiel demonstriert auch, wie Hyperscript das Thema Logging handhabt: Die Werte werden einfach durch ein
Komma getrennt.

Wir haben bereits gesehen, wie Hyperscript den if-Befehl mit einem else behandelt.
Beachten Sie, dass der Befehl mit dem Schlüsselwort End endet (es sei denn, Sie befinden sich
ohnehin am Ende des Skripts, wie es bei einer Elementeigenschaft der Fall ist):

if 😡

put 😡 into the next

else

put ‘3 is the max…’ into the next

End

Hyperscript unterstützt auch einen “unless“-Modifikator, der auf Dinge wie CSS-Eigenschaften
verweisen kann:

Toggle Next Border

_=”on click toggle .red unless I match .bordered”>

Toggle My Background

Dieses Code-Stück bewirkt, dass die zweite Schaltfläche ihre Farbe ändert, sofern sie nicht die .bordered-Class besitzt. Das ist ein ziemlich prägnanter Umgang mit einem ansonsten unhandlichen Stück JavaScript mit CSS und HTML.

Locality of Behavior

Ein Grundsatz, der neuen Programmierern mit Nachdruck eingebläut wird, ist die sogenannte Separation of Concerns (SoC). In den meisten Fällen ist dieser Grundsatz auch richtig. Durch die Implementierung von SoC erhalten Sie entkoppelte Komponenten, was Systeme widerstandsfähiger macht. Es gibt jedoch auch eine Gegenströmung, die Hyperscript-Vater Gross als Locality of Behavior bezeichnet. Diese Idee hat er auch in Hyperscript eingebettet.

Die Idee dahinter: Die SoC kann in Systemen resultieren, die schwieriger zu verfolgen sind. Separation of Concerns bedeutet in Sachen Frontend normalerweise, Markup (View), JavaScript (Behavior) und CSS (Presentation) an einem jeweils eigenen Ort vorzuhalten.

Der gestalterische Nutzen all dieser Maßnahmen ist bestenfalls zweifelhaft – SoC kommt in der Regel in architektonischen Situationen zu Hilfe: Bei Projekten, die auf HTML, CSS und JavaScript basieren, ist es oft mühsam, zwischen den Kontexten hin- und herzuspringen und dabei alle Tasks im Auge zu behalten. Das ist einer der Gründe für den Reiz von JSX und die Motivation hinter dem Styled Components Framework.

Hyperscript übernimmt einen Großteil der Routinearbeit, die Sie in JavaScript extrahieren würden, und verpackt sie in Hyperscript-Syntax, so dass Sie ziemlich aufwändige Funktionen direkt in das Markup einfügen können. Das macht es einfach, die Dinge zusammenzuhalten, und sorgt für eine bessere Selbstdokumentation.

Die Kehrseite der Medaille: Wenn Sie Veränderungen am Verhalten vornehmen müssen, die über die integrierte Syntax hinausgehen, kann es zu Problemen kommen. Soll heißen: Wenn Sie außerhalb der Standards arbeiten müssen, werden Sie feststellen, dass Ihre stark gekoppelten Komponenten auf die Hyperscript-Engine angewiesen sind – die Sie dann ändern müssen.

Es ist auch möglich, JavaScript und Hyperscript nebeneinander laufen zu lassen, so dass ein gewisser Spielraum für iterative Erweiterungen entsteht.

Hyperscript – das neue JavaScript?

Kann Hyperscript JavaScript auf absehbarer Zeit verdrängen? Meiner Meinung nach nicht. Aber ich kann mir eine Welt vorstellen, in der HTMX und Hyperscript das JavaScript-Frontend stark vereinfachen. Es ist bekannt, dass Komplexität wenn es um Software geht, oft das Todesurteil für Kreativität und Produktivität ist. Softwareentwickler laufen immer Gefahr, die eine Abstraktion zu viel einzubauen – die das Projekt zum Scheitern bringt.

Hyperscript kann neue Ideen einbringen und könnte wie HTMX dazu beitragen, die allgemeine Experience der Webentwicklung zu verbessern.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Hyperscript?​ Weiterlesen »

Was ist JavaScript?​

Allgemein

JavaScript hat sich vom belächelten Java-Sidekick zum Full-Stack-“Star” unter den Programmiersprachen entwickelt. Foto: iinspiration | shutterstock.com So gut wie alle interaktiven oder animierten Webseiten-Elemente werden heute in JavaScript gerendert. Dank serverseitiger Frameworks ist die Sprache auch außerhalb des Browsers einsetzbar und wird für alle möglichen Applikationen genutzt, von Clients über Server bis hin zu Cloud-basiert. Im Jahr 2023 war JavaScript zudem die gefragteste Programmiersprache, was Jobs für Softwareentwickler betrifft: Laut einer Studie von DevJobsScanner erforderten 29 Prozent der Stellenangebote für Developer im Jahr 2023 JavaScript- oder TypeScript-Knowhow. Für den Erfolg von JavaScript gibt es diverse Gründe – angefangen bei der Tatsache, dass es sich um einen offenen Standard handelt, der nicht von einem Anbieter kontrolliert wird. Darüber hinaus kann JavaScript mit zahlreichen Implementierungen und einer leicht zu erlernenden Syntax punkten. In diesem Artikel lesen Sie alles, was Sie (grundlegend) über JavaScript wissen sollten. Die JavaScript-Historie (in kurz) Wie der Name bereits nahelegt, handelt es sich bei JavaScript um eine Skriptsprache. Traditionelle Programmiersprachen wie C++ werden kompiliert, bevor sie in eine ausführbare Binärform gebracht werden. Dabei überprüft der Compiler das gesamte Programm auf Fehler, bevor der Prozess abgeschlossen ist. Bei Skriptsprachen wird hingegen eine Zeile nach der anderen von einem anderen Programm – dem Interpreter – ausgeführt. Skriptsprachen haben sich aus Shell-Befehlen entwickelt, die ursprünglich verwendet wurden, um andere Programme auszuführen. Ihre Flexibilität und Benutzerfreundlichkeit sorgten dafür, dass sie sich als eigene Kategorie von Programmiersprachen etablieren konnten. Mit dem Aufkommen des World Wide Web gewannen Skriptsprachen schließlich erheblich an Bedeutung – allen voran JavaScript, das im Jahr 1995 vom damaligen Netscape-Entwickler Brendan Eich ersonnen wurde. Wenn Sie sich nun fragen, was es mit dem “Java”-Part in der Nomenklatur auf sich hat: Java und JavaScript sind in der selben Ära entstanden und spielten eine Schlüsselrolle bei der Entstehung des Internets. Ihre Geschichte ist eng miteinander verwoben, aber es handelt sich um zwei verschiedene Dinge. Ursprünglich hieß JavaScript auch LiveScript – lediglich ihre Syntax ähnelte oberflächlich der von Java, um dessen wachsende Community zu erreichen. Gleichwohl JavaScript parallel zu Java populär wurde, galt es lange Zeit als eine Art minderwertiger Java-Sidekick. Das änderte sich spätestens im Jahr 1997, als die European Computer Manufacturers Association (ECMA) einen Standard veröffentlichte, der JavaScript definierte und der allgemein implementiert werden konnte. Der Grund für diesen Schritt: Die Marke Java war zu diesem Zeitpunkt Eigentum von Sun Microsystems – lediglich Netscape hatte eine Lizenz, diesen zu nutzen. Die neue, standardisierte Version von JavaScript wurde auf den Namen ECMAScript getauft. Wo JavaScript zum Einsatz kommt In erster Linie wurde JavaScript entwickelt, um interaktive Webseiten zu erstellen. Das ist bis heute ein wesentlicher Use Case. Entwickler binden JavaScript in den Code ihrer Website ein, wo es vom Interpreter im Browser des Benutzers ausgeführt wird. Der JavaScript-Code erstellt oder ändert HTML im laufenden Betrieb, um dynamische Inhalte zu erzeugen und mit Backend-Datenspeichern zu interagieren. Wenn JavaScript auf diese Weise verwendet wird, spricht man von einer Client-seitigen Sprache. Zu deren lukrativsten Anwendungsfällen gehören Mobile Games. Serverseitige Frameworks wie Node.js erweitern JavaScript zudem für besser skalierbare und ereignisgesteuerte Anwendungen. Weil JavaScript-Knowhow auf Arbeitgeberseite wie bereits erwähnt höchst gefragt ist, müssen Entwickler auf Jobsuche damit rechnen, dass Personalverantwortliche diese Kenntnisse abfragen. Unter Umständen werden sie direkt im Rahmen des Bewerbungsgesprächs gebeten, ein kleines JavaScript-Programm zu schreiben. Glücklicherweise finden sich im Netz zahlreiche Beispielfragen, die in solchen Situationen auf Sie zukommen können. Eine empfehlenswerte Zusammenstellung finden Sie beispielsweise beim Personaldienstleister Toptal oder im Blogbeitrag von Softwareentwickler Naren Yellavula. Welche Vorteile JavaScript erschließt JavaScript zu nutzen, kann zahlreiche Benefits bringen. Zunächst ist es vergleichsweise einfach, damit schnell brauchbaren Code zu schreiben. Und während interpretierte Sprachen im Vergleich mit kompiliertem Code oft nicht sonderlich gut abschneiden, hat JavaScript hier einen echten Vorteil – schließlich wurde es initial für Webbrowser entwickelt. Zudem konkurrieren mit Microsoft, Apple und Google gleich drei der weltweit größten Softwareunternehmen, wenn es darum geht, leistungsstarke JavaScript-Interpreter zu entwickeln. Infolgedessen hat sich JavaScript zu einer bemerkenswert robusten und skalierbaren Programmiersprache entwickelt. Den bescheidenen Anfängen zum Trotz. Spätestens seit auch nicht-Browser-basierte JavaScript-Runtimes allgemein verfügbar sind, sind aus Webentwicklern, die die Sprache gut beherrschen, gefragte Full-Stack-Entwickler geworden. Das JavaScript-Tool-Ökosystem kann darüber hinaus die Entwicklerproduktivität steigern und bei zahlreichen Tasks mit Code unterstützen. Weil JavaScript so populär ist, wird es zudem auch häufig aktualisiert. Die Programmiersprache ist ein klassisches Beispiel für einen positiven Kreislauf, bei dem die Popularität die Akzeptanz fördert. JavaScript-Bibliotheken und -Frameworks Ist von “Vanilla JavaScript” die Rede, ist damit gemeint, dass eine Anwendung von Grund auf in JavaScript geschrieben wird. Das ist für überschaubare Funktionalitäten in Ordnung, in größerem Maßstab allerdings nicht mehr umsetzbar – wie wohl jeder Enterprise Developer bestätigen kann. Deshalb greifen viele JavaScript-Programmierer auf die in einer Vielzahl verfügbaren Bibliotheken zurück. Dabei handelt es sich im Grunde um vorformulierten Drittanbieter-Code, der in der Regel kostenlos und quelloffen ist, ein gängiges Problem löst und in das Projekt integriert werden kann. Daneben gibt es auch Frameworks, also Sammlungen von Bibliotheken, die darauf konzipiert sind, zusammenzuwirken, um die Grundlage für Enterprise-Apps zu bilden. Ein solches Rahmenwerk einzusetzen, ermöglicht den Developern, sich auf die technischen Aspekte ihrer Arbeit zu konzentrieren. Die bekanntesten JavaScript-Frameworks sind: Angular, React und Vue. Obwohl es früher üblich war, werden die meisten Entwickler ihre JavaScript-Programme heutzutage nicht mehr in einem einfachen Texteditor kreieren. Stattdessen sollten Sie eine JavaScript-IDE oder einen spezialisierten Editor finden, der für Ihre Zwecke geeignet ist. Dieser Artikel erleichtert Ihnen die Auswahl möglicherweise. Was es mit Typescript auf sich hat Ein wichtiger Aspekt des JavaScript-Ökosystems ist TypeScript. Dieses Superset ähnelt JavaScript sehr stark, erweitert es jedoch um einige Funktionen, wie eine starke Typisierung von Variablen und anderen Datenstrukturen. TypeScript wurde ursprünglich bei Microsoft entwickelt. Die TypeScript-Syntax unterscheidet sich in Teilen von ihrem JavaScript-Pendant. TypeScript-Code wird in normales JavaScript transpiliert, so dass er in Browsern und auf Standard-JavaScript-Runtimes ausgeführt werden kann. In diesem Artikel erfahren Sie mehr darüber, worin sich TypeScript und JavaScript unterscheiden. Ressourcen, um JavaScript zu lernen Wenn Sie sich eingehender mit der Materie befassen wollen, legen wir Ihnen folgende JavaScript-Ressourcen ans Herz: JavaScript-Tutorial von W3Schools The Modern JavaScript Tutorial Tutorial Republic JavaScript Examples JavaScript Snake Tutorial Bereit loszulegen? Weil es sich bei JavaScript um eine interpretierte Sprache handelt, müssen Sie nichts herunterladen. Starten Sie einfach Ihren bevorzugten Editor (oder eine IDE) und schreiben Sie Code. Ein JavaScript-Interpreter ist in jeden Webbrowser integriert, der Befehle ausführt. Sie können Ihr JavaScript also einfach in ein HTML-Dokument einbetten und es zu Testzwecken laden. Wenn Sie JavaScript-Code in einer Desktop-Umgebung ausführen möchten, die Ihnen unter anderem Zugriff auf das Dateisystem bietet, empfiehlt sich der Download der Laufzeitumgebung Node.js. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist JavaScript?​ JavaScript hat sich vom belächelten Java-Sidekick zum Full-Stack-“Star” unter den Programmiersprachen entwickelt.
Foto: iinspiration | shutterstock.com

So gut wie alle interaktiven oder animierten Webseiten-Elemente werden heute in JavaScript gerendert. Dank serverseitiger Frameworks ist die Sprache auch außerhalb des Browsers einsetzbar und wird für alle möglichen Applikationen genutzt, von Clients über Server bis hin zu Cloud-basiert. Im Jahr 2023 war JavaScript zudem die gefragteste Programmiersprache, was Jobs für Softwareentwickler betrifft: Laut einer Studie von DevJobsScanner erforderten 29 Prozent der Stellenangebote für Developer im Jahr 2023 JavaScript- oder TypeScript-Knowhow.

Für den Erfolg von JavaScript gibt es diverse Gründe – angefangen bei der Tatsache, dass es sich um einen offenen Standard handelt, der nicht von einem Anbieter kontrolliert wird. Darüber hinaus kann JavaScript mit zahlreichen Implementierungen und einer leicht zu erlernenden Syntax punkten. In diesem Artikel lesen Sie alles, was Sie (grundlegend) über JavaScript wissen sollten.

Die JavaScript-Historie (in kurz)

Wie der Name bereits nahelegt, handelt es sich bei JavaScript um eine Skriptsprache. Traditionelle Programmiersprachen wie C++ werden kompiliert, bevor sie in eine ausführbare Binärform gebracht werden. Dabei überprüft der Compiler das gesamte Programm auf Fehler, bevor der Prozess abgeschlossen ist. Bei Skriptsprachen wird hingegen eine Zeile nach der anderen von einem anderen Programm – dem Interpreter – ausgeführt. Skriptsprachen haben sich aus Shell-Befehlen entwickelt, die ursprünglich verwendet wurden, um andere Programme auszuführen. Ihre Flexibilität und Benutzerfreundlichkeit sorgten dafür, dass sie sich als eigene Kategorie von Programmiersprachen etablieren konnten. Mit dem Aufkommen des World Wide Web gewannen Skriptsprachen schließlich erheblich an Bedeutung – allen voran JavaScript, das im Jahr 1995 vom damaligen Netscape-Entwickler Brendan Eich ersonnen wurde.

Wenn Sie sich nun fragen, was es mit dem “Java”-Part in der Nomenklatur auf sich hat: Java und JavaScript sind in der selben Ära entstanden und spielten eine Schlüsselrolle bei der Entstehung des Internets. Ihre Geschichte ist eng miteinander verwoben, aber es handelt sich um zwei verschiedene Dinge. Ursprünglich hieß JavaScript auch LiveScript – lediglich ihre Syntax ähnelte oberflächlich der von Java, um dessen wachsende Community zu erreichen. Gleichwohl JavaScript parallel zu Java populär wurde, galt es lange Zeit als eine Art minderwertiger Java-Sidekick.

Das änderte sich spätestens im Jahr 1997, als die European Computer Manufacturers Association (ECMA) einen Standard veröffentlichte, der JavaScript definierte und der allgemein implementiert werden konnte. Der Grund für diesen Schritt: Die Marke Java war zu diesem Zeitpunkt Eigentum von Sun Microsystems – lediglich Netscape hatte eine Lizenz, diesen zu nutzen. Die neue, standardisierte Version von JavaScript wurde auf den Namen ECMAScript getauft.

Wo JavaScript zum Einsatz kommt

In erster Linie wurde JavaScript entwickelt, um interaktive Webseiten zu erstellen. Das ist bis heute ein wesentlicher Use Case. Entwickler binden JavaScript in den Code ihrer Website ein, wo es vom Interpreter im Browser des Benutzers ausgeführt wird. Der JavaScript-Code erstellt oder ändert HTML im laufenden Betrieb, um dynamische Inhalte zu erzeugen und mit Backend-Datenspeichern zu interagieren.

Wenn JavaScript auf diese Weise verwendet wird, spricht man von einer Client-seitigen Sprache. Zu deren lukrativsten Anwendungsfällen gehören Mobile Games. Serverseitige Frameworks wie Node.js erweitern JavaScript zudem für besser skalierbare und ereignisgesteuerte Anwendungen.

Weil JavaScript-Knowhow auf Arbeitgeberseite wie bereits erwähnt höchst gefragt ist, müssen Entwickler auf Jobsuche damit rechnen, dass Personalverantwortliche diese Kenntnisse abfragen. Unter Umständen werden sie direkt im Rahmen des Bewerbungsgesprächs gebeten, ein kleines JavaScript-Programm zu schreiben. Glücklicherweise finden sich im Netz zahlreiche Beispielfragen, die in solchen Situationen auf Sie zukommen können. Eine empfehlenswerte Zusammenstellung finden Sie beispielsweise beim Personaldienstleister Toptal oder im Blogbeitrag von Softwareentwickler Naren Yellavula.

Welche Vorteile JavaScript erschließt

JavaScript zu nutzen, kann zahlreiche Benefits bringen. Zunächst ist es vergleichsweise einfach, damit schnell brauchbaren Code zu schreiben. Und während interpretierte Sprachen im Vergleich mit kompiliertem Code oft nicht sonderlich gut abschneiden, hat JavaScript hier einen echten Vorteil – schließlich wurde es initial für Webbrowser entwickelt.

Zudem konkurrieren mit Microsoft, Apple und Google gleich drei der weltweit größten Softwareunternehmen, wenn es darum geht, leistungsstarke JavaScript-Interpreter zu entwickeln. Infolgedessen hat sich JavaScript zu einer bemerkenswert robusten und skalierbaren Programmiersprache entwickelt. Den bescheidenen Anfängen zum Trotz. Spätestens seit auch nicht-Browser-basierte JavaScript-Runtimes allgemein verfügbar sind, sind aus Webentwicklern, die die Sprache gut beherrschen, gefragte Full-Stack-Entwickler geworden.

Das JavaScript-Tool-Ökosystem kann darüber hinaus die Entwicklerproduktivität steigern und bei zahlreichen Tasks mit Code unterstützen. Weil JavaScript so populär ist, wird es zudem auch häufig aktualisiert. Die Programmiersprache ist ein klassisches Beispiel für einen positiven Kreislauf, bei dem die Popularität die Akzeptanz fördert.

JavaScript-Bibliotheken und -Frameworks

Ist von “Vanilla JavaScript” die Rede, ist damit gemeint, dass eine Anwendung von Grund auf in JavaScript geschrieben wird. Das ist für überschaubare Funktionalitäten in Ordnung, in größerem Maßstab allerdings nicht mehr umsetzbar – wie wohl jeder Enterprise Developer bestätigen kann. Deshalb greifen viele JavaScript-Programmierer auf die in einer Vielzahl verfügbaren Bibliotheken zurück. Dabei handelt es sich im Grunde um vorformulierten Drittanbieter-Code, der in der Regel kostenlos und quelloffen ist, ein gängiges Problem löst und in das Projekt integriert werden kann.

Daneben gibt es auch Frameworks, also Sammlungen von Bibliotheken, die darauf konzipiert sind, zusammenzuwirken, um die Grundlage für Enterprise-Apps zu bilden. Ein solches Rahmenwerk einzusetzen, ermöglicht den Developern, sich auf die technischen Aspekte ihrer Arbeit zu konzentrieren. Die bekanntesten JavaScript-Frameworks sind:

Angular,

React und

Vue.

Obwohl es früher üblich war, werden die meisten Entwickler ihre JavaScript-Programme heutzutage nicht mehr in einem einfachen Texteditor kreieren. Stattdessen sollten Sie eine JavaScript-IDE oder einen spezialisierten Editor finden, der für Ihre Zwecke geeignet ist. Dieser Artikel erleichtert Ihnen die Auswahl möglicherweise.

Was es mit Typescript auf sich hat

Ein wichtiger Aspekt des JavaScript-Ökosystems ist TypeScript. Dieses Superset ähnelt JavaScript sehr stark, erweitert es jedoch um einige Funktionen, wie eine starke Typisierung von Variablen und anderen Datenstrukturen. TypeScript wurde ursprünglich bei Microsoft entwickelt.

Die TypeScript-Syntax unterscheidet sich in Teilen von ihrem JavaScript-Pendant. TypeScript-Code wird in normales JavaScript transpiliert, so dass er in Browsern und auf Standard-JavaScript-Runtimes ausgeführt werden kann. In diesem Artikel erfahren Sie mehr darüber, worin sich TypeScript und JavaScript unterscheiden.

Ressourcen, um JavaScript zu lernen

Wenn Sie sich eingehender mit der Materie befassen wollen, legen wir Ihnen folgende JavaScript-Ressourcen ans Herz:

JavaScript-Tutorial von W3Schools

The Modern JavaScript Tutorial

Tutorial Republic JavaScript Examples

JavaScript Snake Tutorial

Bereit loszulegen? Weil es sich bei JavaScript um eine interpretierte Sprache handelt, müssen Sie nichts herunterladen. Starten Sie einfach Ihren bevorzugten Editor (oder eine IDE) und schreiben Sie Code. Ein JavaScript-Interpreter ist in jeden Webbrowser integriert, der Befehle ausführt. Sie können Ihr JavaScript also einfach in ein HTML-Dokument einbetten und es zu Testzwecken laden.

Wenn Sie JavaScript-Code in einer Desktop-Umgebung ausführen möchten, die Ihnen unter anderem Zugriff auf das Dateisystem bietet, empfiehlt sich der Download der Laufzeitumgebung Node.js. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist JavaScript?​ Weiterlesen »

Die Lösung aller DevOps-Probleme?​

Allgemein

System Initiative schafft ein “lebendiges” Infrastrukturdiagramm – mit Hilfe von Digital Twins.Emily Marie Wilson | shutterstock.com Den radikalen technologischen Veränderungen der letzten Jahre zum Trotz, hat sich im Bereich der Infrastrukturautomatisierung nur wenig getan. Natürlich hat sich auch dieser Bereich weiterentwickelt – in erster Linie dank Tools wie Terraform und OpenTofu. Die Grundprämisse des deklarativen Konfigurationsmanagements existiert jedoch bereits seit den 1990er Jahren. Das macht sich insbesondere mit Blick auf Infrastructure as Code (IaC) bemerkbar: Das ist grundsätzlich ein guter Ansatz, allerdings wird es zunehmend schwerer, diesen mit Multicloud und DevOps-Kollaborationen in größerem Maßstab in Einklang zu halten. Letztendlich steht IaC immer noch für statische Konfigurationsdateien in GitHub-Repositories, die regelmäßig überprüft, getestet und aktualisiert werden müssen. Bei entsprechendem Umfang zieht das einen hohen Wartungsaufwand nach sich. Und weil sich Umgebungen ständig ändern, sind Diskrepanzen zwischen Konfigurationen und der tatsächlichen Infrastruktur ein dauerhaftes Problem. Die Open-Source-Software (von) System Initiative stellt diesbezüglich einen Paradigmenwechsel in Aussicht. Die IaC-Probleme, die System Initiative lösen will Infrastructure as Code zu implementieren, ist in der Regel mit einer Lernkurve verbunden. Um die Infrastruktur zu definieren, zu managen und Konfigurationen in Git zusammen mit dem Anwendungscode zu versionieren, greifen Engineers im Regelfall auf Tools wie Terraform, Pulumi, AWS CloudFormation oder Azure Resource Manager zurück. Dabei können kleine Änderungen an der Infrastrukturkonfiguration große Auswirkungen für alle beteiligten Teams nach sich ziehen. Das führt möglicherweise dazu, dass: Deployments fehlschlagen, Regressionen Einzug halten, und Kollaborationsiniativen erlahmen. “Konfigurationen zu programmieren ist schlimmer als Anwendungen zu erstellen. Macht man dabei einen Fehler, funktioniert per Definition nichts”, hält Adam Jacob, CEO und Mitbegründer von System Initiative fest. Laut Jacob bestehe das eigentliche Problem darin, dass die Branche Infrastrukturautomatisierung nicht als eigenständigen Bereich betrachte. Während beispielsweise Architekten auf AutoCAD und Spieleentwickler auf Unity zurückgreifen könnten, fehle in Sachen DevOps ein vergleichbarer Standard. Bislang. Denn künftig soll System Initiative Engineers als Engine dienen, mit der sich Infrastruktur als “lebendiges” Modell aufbauen und warten lässt: “Sobald man diese Engine hat, muss man sich weniger Gedanken darüber machen, wie man die einzelnen Teile zusammenfügt. Stattdessen geht es mehr darum, wie man mit der Engine interagiert”, erklärt Jacob. Etwas konkreter formuliert, übersetzt System Initiative den Code, der normalerweise genutzt wird, um die Infrastruktur zu konfigurieren, in Daten. Anschließend erstellt die Software daraus digitale Zwillinge, die die Infrastruktur modellieren. Dabei werden bestimmte Tasks wie Server neu zu starten oder komplexe Bereitstellungen umzusetzen, als Funktionen ausgedrückt und anschließend in einer dynamischen grafischen Benutzeroberfläche miteinander verknüpft. Im Ergebnis steht ein “lebendiges” Diagramm der Infrastruktur, das sich aktualisiert, sobald Änderungen vorgenommen werden. Das Digital-Twin-Konzept ermöglicht dabei, Workflows und Statusänderungen automatisch abzuleiten. “Wenn Sie beispielsweise einen Docker-Container mit einer neuen Instanz des Amazon Elastic Container Service verbinden, erkennt System Initiative die Beziehung und aktualisiert das Modell entsprechend”, erklärt System-Initiative-CEO Jacob. Für Entwickler bedeute das, Workflows mit nur wenigen Klicks in wiederverwendbare Modelle umwandeln zu können, was vor allem Geschwindigkeitsvorteile verwirkliche. Die GUI-gesteuerte Plattform generiere dabei im Hintergrund automatisch API-Calls an die Cloud-Infrastruktur. Laut dem System-Initiative-CEO erleichtert das visuelle Modell der Umgebung DevOps-Teams zudem die Zusammenarbeit – und trage dazu bei, Engpässe zu beseitigen, Feedback-Schleifen zu verkürzen und die Time-to-Value zu beschleunigen. Laut Jacob soll System Initiative künftig zudem auch über AWS hinauswachsen und zusätzlich Microsoft Azure und Google Cloud Platform unterstützen. Weil die Infrastruktur je nach Unternehmen und dessen individuellen Anforderungen an Security, Compliance und Deployment stark variiert, könnte eine Abstraktionsschicht, wie sie System Initiative verspricht, eine Lösung darstellen, die die nötige Flexibilität bietet und parallel auch den Infrastrukturbetrieb Cloud-übergreifend vereinheitlicht. Das ist insbesondere in Zusammenhang mit Multicloud-Architekturen interessant, die im Unternehmensumfeld zunehmend populärer werden. Gleichzeitig gibt es derzeit jedoch nur wenige wirklich performante Tools, um diese Umgebungen zu managen.   System Initiative in der Praxis Community-Entwicklung bei Rocky Linux Zu den Anwendern von System Initiative gehört unter anderem das Rocky-Linux-Projekt (ein kostenloser Ersatz für CentOS). Das Team hinter dem Projekt setzt die Open-Source-Software ein, um eine neue Infrastruktur für den MirrorManager von Rocky Linux aufzusetzen. Dabei handelt es sich um einen Service, der Bestandteil aller Rocky-Linux-Installationen ist und dazu dient, geografisch nahe gelegene Package-Mirrors zu finden. Zuvor nutzten die Community-Ingenieure von Rocky Linux Terraform, Ansible und andere Tools, um die Infrastruktur Stück für Stück zu managen. Allerdings war dieser Ansatz nicht erweiterbar und stellte für jeden, der nicht mit fundiertem Knowhow gesegnet war, eine hohe Hürde dar, wie Neil Hanlon, Gründer und Infrastructure Lead bei Rocky Linux, erklärt. “Das gestaltete es schwierig, anderen Teams die Ownership für ihre Anwendungen zu übertragen.” Zwar sei die Einführung von System Initiative noch nicht abgeschlossen, dennoch gebe es bereits erste Collaboration-Erfolge, berichtet Hanlon. System Initiative adressiere aus seiner Sicht die Probleme von Open-Source-Organisationen in besonderem Maß. “Wir haben eine relativ dezentrale Führungs- und Organisationsstruktur – in der es allerdings vor allem darauf ankommt, die Übersicht zu behalten. Ein zentraler Ort, an dem wir unsere Infrastruktur über beliebig viele Clouds oder Services hinweg managen, inspizieren und verändern können, ist ein unglaublich leistungsfähiges Tool – und unsere Sicherheits-, Infrastruktur- und Release-Teams schlafen jetzt auch etwas besser”, so der Rocky-Linux-Gründer. Für ihn besteht kein Zweifel daran, dass System Initiative die Zukunft von DevOps darstellt. IaC-Demokratisierung bei Cloud Life Ein weiterer System-Initiative-Anwender ist Cloud Life, ein US-Beratungsunternehmen, das auf AWS-Migrationen und IaC spezialisiert ist. Entsprechend stark ist die Arbeit der Consultants auf den jeweiligen Kunden zugeschnitten – was entsprechenden Aufwand nach sich zog, wie Ryan Ryke, CEO von Cloud Life, verrät: “Wir haben über Jahre Terraform-Module gehackt, um spezifische Projektanforderungen zu erfüllen. Es gab nie ein Modul, das für alle passte und keines ließ sich für den nächsten Kunden wiederverwenden.” Schon die Einführung von Terraform sei chaotisch verlaufen, wie Ryke berichtet. Einige Kunden würden das IaC-Tool sogar in den Quellcode einbinden, was stundenlange Updates für kleine Änderungen nach sich ziehe. “Wir hatten genug davon – den Versionsänderungen, dem Hin und Her mit den Kunden und den DevOps-Wartungskosten, die niemand bezahlen will. Aus Geschäftsführer-Perspektive war das alles mehr als ärgerlich.” In der Konsequenz hat sich Cloud Life entscheiden, standardmäßig auf System Initiative zu setzen – und die Software in AWS-Services gebündelt. “Der Paradigmenwechsel besteht darin, dass System Initiative die reale Welt verwaltet und nicht nur einen deklarativen Zustand”, konstatiert Ryke. Er fügt hinzu: “Letztendlich interessiert die Endbenutzer die Infrastrukturwartung nicht. Für die Kunden zählt die Anwendung und wo sie läuft. Wir können ihnen nun ein visuelles Modell der Infrastruktur zur Wartung übergeben.” Auf System Initiative umsteigen? Da es sich bei System Initiative um ein grundlegend neues Modell handelt, wird die Migration für Teams mit umfangreichen, vorgefertigten Automatisierungen eine Herausforderung darstellen. CEO Jacob empfiehlt deshalb: iterative Tests durchzuführen, Änderungen im Workflow zu beobachten und Teile nach und nach zu ersetzen. Als “Low-Hanging Fruits” betrachtet der System-Initiative-Gründer dabei in erster Linie Greenfield-Anwendungen oder groß angelegte Deployments, bei denen IaC noch nicht implementiert wurde. Die mögliche Skepsis gegenüber dem neuen Ansatz kann ein weiteres Hemmnis darstellen, wie Cloud-Experte Ryke preisgibt: “Viele Hardcore-Anwender sind davon abgeschreckt. Es ist ein bisschen so, wie damals mit den anfänglichen Vorbehalten gegenüber der Umstellung auf die Cloud”. Für sein eigenes Unternehmen sieht Ryke keine Nachteile durch den Umstieg auf das System-Initiative-Modell. Allerdings könne dieses für vorhersehbarere, wiederholbare Infrastrukturen einem “Overkill” gleichkommen: “Wenn man jeden Tag genau das Gleiche macht, ist die programmatische Natur von IaC durchaus sinnvoll.” Umstiegsinteressierte sollten sich zudem bewusst sein, dass sich System Initiative noch in einer frühen Wachstumsphase befindet, so Ryke: “Hier und da gibt es noch einige Reibungspunkte, aber das Team ist bestrebt, Fehler schnell zu beheben. Für die Zukunft hoffen wir auf bessere Funktionen, um Informationen abzufragen und einen breiter gefächerten Betriebssystem-Support.” Die Kosten und die Offenheit könnten potenzielle Anwender ebenfalls als nachteilig empfinden: Obwohl System Initiative vollständig auf quelloffenem Code basiert, ist das Produkt selbst kostenpflichtig. “Es gibt keine kostenlose Version von System Initiative”, stellt Jacob klar. Skeptiker könnten sich an dieser Stelle zudem fragen, warum man nicht einfach generative KI für IaC-Zwecke einsetzen sollte. Laut Jacob sind dabei jedoch die Daten das Problem – oder vielmehr der Mangel daran: “Viele Menschen halten LLMs für magisch, was sie aber nicht sind.” LLM-gestützte Agenten benötigten strukturierte, relational reichhaltige Daten, um agieren zu können, etwas, das herkömmliche Infrastruktur-Tools in der Regel nicht bieten könnten – im Gegensatz zu System Initiative: “Insofern könnten sich System Initiative und Large Language Models in Zukunft hervorragend ergänzen und dazu beitragen, den KI-Einsatz im Bereich DevOps zu steigern”, meint der Manager.    System Initiative verspricht sowohl DevOps zu revolutionieren, als auch IaC-Probleme zu beseitigen. Potenzielle Anwender sollten sich aber auch der Lücken bewusst sein, die derzeit noch bestehen – etwa der AWS-exklusive Support und eine überschaubare Zahl von bewährten Case Studies. Insbesondere besteht auch die Gefahr, sich an ein proprietäres Execution-Modell zu binden, das den traditionellen IaC-Ansatz ersetzt. Das alles könnte allerdings auch gar keine Rolle mehr spielen, wenn System Initiative zum Erfolg wird, weitere Anwendungsfälle hinzukommen und der Digital-Twin-Ansatz die gewünschten Ergebnisse liefert. Dann würde eine völlig neue DevOps-Ära anbrechen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die Lösung aller DevOps-Probleme?​ System Initiative schafft ein “lebendiges” Infrastrukturdiagramm – mit Hilfe von Digital Twins.Emily Marie Wilson | shutterstock.com

Den radikalen technologischen Veränderungen der letzten Jahre zum Trotz, hat sich im Bereich der Infrastrukturautomatisierung nur wenig getan. Natürlich hat sich auch dieser Bereich weiterentwickelt – in erster Linie dank Tools wie Terraform und OpenTofu. Die Grundprämisse des deklarativen Konfigurationsmanagements existiert jedoch bereits seit den 1990er Jahren.

Das macht sich insbesondere mit Blick auf Infrastructure as Code (IaC) bemerkbar: Das ist grundsätzlich ein guter Ansatz, allerdings wird es zunehmend schwerer, diesen mit Multicloud und DevOps-Kollaborationen in größerem Maßstab in Einklang zu halten. Letztendlich steht IaC immer noch für statische Konfigurationsdateien in GitHub-Repositories, die regelmäßig überprüft, getestet und aktualisiert werden müssen. Bei entsprechendem Umfang zieht das einen hohen Wartungsaufwand nach sich. Und weil sich Umgebungen ständig ändern, sind Diskrepanzen zwischen Konfigurationen und der tatsächlichen Infrastruktur ein dauerhaftes Problem.

Die Open-Source-Software (von) System Initiative stellt diesbezüglich einen Paradigmenwechsel in Aussicht.

Die IaC-Probleme, die System Initiative lösen will

Infrastructure as Code zu implementieren, ist in der Regel mit einer Lernkurve verbunden. Um die Infrastruktur zu definieren, zu managen und Konfigurationen in Git zusammen mit dem Anwendungscode zu versionieren, greifen Engineers im Regelfall auf Tools wie Terraform, Pulumi, AWS CloudFormation oder Azure Resource Manager zurück. Dabei können kleine Änderungen an der Infrastrukturkonfiguration große Auswirkungen für alle beteiligten Teams nach sich ziehen. Das führt möglicherweise dazu, dass:

Deployments fehlschlagen,

Regressionen Einzug halten, und

Kollaborationsiniativen erlahmen.

“Konfigurationen zu programmieren ist schlimmer als Anwendungen zu erstellen. Macht man dabei einen Fehler, funktioniert per Definition nichts”, hält Adam Jacob, CEO und Mitbegründer von System Initiative fest. Laut Jacob bestehe das eigentliche Problem darin, dass die Branche Infrastrukturautomatisierung nicht als eigenständigen Bereich betrachte. Während beispielsweise Architekten auf AutoCAD und Spieleentwickler auf Unity zurückgreifen könnten, fehle in Sachen DevOps ein vergleichbarer Standard. Bislang. Denn künftig soll System Initiative Engineers als Engine dienen, mit der sich Infrastruktur als “lebendiges” Modell aufbauen und warten lässt: “Sobald man diese Engine hat, muss man sich weniger Gedanken darüber machen, wie man die einzelnen Teile zusammenfügt. Stattdessen geht es mehr darum, wie man mit der Engine interagiert”, erklärt Jacob.

Etwas konkreter formuliert, übersetzt System Initiative den Code, der normalerweise genutzt wird, um die Infrastruktur zu konfigurieren, in Daten. Anschließend erstellt die Software daraus digitale Zwillinge, die die Infrastruktur modellieren. Dabei werden bestimmte Tasks wie Server neu zu starten oder komplexe Bereitstellungen umzusetzen, als Funktionen ausgedrückt und anschließend in einer dynamischen grafischen Benutzeroberfläche miteinander verknüpft. Im Ergebnis steht ein “lebendiges” Diagramm der Infrastruktur, das sich aktualisiert, sobald Änderungen vorgenommen werden.

Das Digital-Twin-Konzept ermöglicht dabei, Workflows und Statusänderungen automatisch abzuleiten. “Wenn Sie beispielsweise einen Docker-Container mit einer neuen Instanz des Amazon Elastic Container Service verbinden, erkennt System Initiative die Beziehung und aktualisiert das Modell entsprechend”, erklärt System-Initiative-CEO Jacob. Für Entwickler bedeute das, Workflows mit nur wenigen Klicks in wiederverwendbare Modelle umwandeln zu können, was vor allem Geschwindigkeitsvorteile verwirkliche. Die GUI-gesteuerte Plattform generiere dabei im Hintergrund automatisch API-Calls an die Cloud-Infrastruktur.

Laut dem System-Initiative-CEO erleichtert das visuelle Modell der Umgebung DevOps-Teams zudem die Zusammenarbeit – und trage dazu bei,

Engpässe zu beseitigen,

Feedback-Schleifen zu verkürzen und

die Time-to-Value zu beschleunigen.

Laut Jacob soll System Initiative künftig zudem auch über AWS hinauswachsen und zusätzlich Microsoft Azure und Google Cloud Platform unterstützen.

Weil die Infrastruktur je nach Unternehmen und dessen individuellen Anforderungen an Security, Compliance und Deployment stark variiert, könnte eine Abstraktionsschicht, wie sie System Initiative verspricht, eine Lösung darstellen, die die nötige Flexibilität bietet und parallel auch den Infrastrukturbetrieb Cloud-übergreifend vereinheitlicht. Das ist insbesondere in Zusammenhang mit Multicloud-Architekturen interessant, die im Unternehmensumfeld zunehmend populärer werden. Gleichzeitig gibt es derzeit jedoch nur wenige wirklich performante Tools, um diese Umgebungen zu managen.  

System Initiative in der Praxis

Community-Entwicklung bei Rocky Linux

Zu den Anwendern von System Initiative gehört unter anderem das Rocky-Linux-Projekt (ein kostenloser Ersatz für CentOS). Das Team hinter dem Projekt setzt die Open-Source-Software ein, um eine neue Infrastruktur für den MirrorManager von Rocky Linux aufzusetzen. Dabei handelt es sich um einen Service, der Bestandteil aller Rocky-Linux-Installationen ist und dazu dient, geografisch nahe gelegene Package-Mirrors zu finden.

Zuvor nutzten die Community-Ingenieure von Rocky Linux Terraform, Ansible und andere Tools, um die Infrastruktur Stück für Stück zu managen. Allerdings war dieser Ansatz nicht erweiterbar und stellte für jeden, der nicht mit fundiertem Knowhow gesegnet war, eine hohe Hürde dar, wie Neil Hanlon, Gründer und Infrastructure Lead bei Rocky Linux, erklärt. “Das gestaltete es schwierig, anderen Teams die Ownership für ihre Anwendungen zu übertragen.”

Zwar sei die Einführung von System Initiative noch nicht abgeschlossen, dennoch gebe es bereits erste Collaboration-Erfolge, berichtet Hanlon. System Initiative adressiere aus seiner Sicht die Probleme von Open-Source-Organisationen in besonderem Maß. “Wir haben eine relativ dezentrale Führungs- und Organisationsstruktur – in der es allerdings vor allem darauf ankommt, die Übersicht zu behalten. Ein zentraler Ort, an dem wir unsere Infrastruktur über beliebig viele Clouds oder Services hinweg managen, inspizieren und verändern können, ist ein unglaublich leistungsfähiges Tool – und unsere Sicherheits-, Infrastruktur- und Release-Teams schlafen jetzt auch etwas besser”, so der Rocky-Linux-Gründer. Für ihn besteht kein Zweifel daran, dass System Initiative die Zukunft von DevOps darstellt.

IaC-Demokratisierung bei Cloud Life

Ein weiterer System-Initiative-Anwender ist Cloud Life, ein US-Beratungsunternehmen, das auf AWS-Migrationen und IaC spezialisiert ist. Entsprechend stark ist die Arbeit der Consultants auf den jeweiligen Kunden zugeschnitten – was entsprechenden Aufwand nach sich zog, wie Ryan Ryke, CEO von Cloud Life, verrät: “Wir haben über Jahre Terraform-Module gehackt, um spezifische Projektanforderungen zu erfüllen. Es gab nie ein Modul, das für alle passte und keines ließ sich für den nächsten Kunden wiederverwenden.”

Schon die Einführung von Terraform sei chaotisch verlaufen, wie Ryke berichtet. Einige Kunden würden das IaC-Tool sogar in den Quellcode einbinden, was stundenlange Updates für kleine Änderungen nach sich ziehe. “Wir hatten genug davon – den Versionsänderungen, dem Hin und Her mit den Kunden und den DevOps-Wartungskosten, die niemand bezahlen will. Aus Geschäftsführer-Perspektive war das alles mehr als ärgerlich.”

In der Konsequenz hat sich Cloud Life entscheiden, standardmäßig auf System Initiative zu setzen – und die Software in AWS-Services gebündelt. “Der Paradigmenwechsel besteht darin, dass System Initiative die reale Welt verwaltet und nicht nur einen deklarativen Zustand”, konstatiert Ryke. Er fügt hinzu: “Letztendlich interessiert die Endbenutzer die Infrastrukturwartung nicht. Für die Kunden zählt die Anwendung und wo sie läuft. Wir können ihnen nun ein visuelles Modell der Infrastruktur zur Wartung übergeben.”

Auf System Initiative umsteigen?

Da es sich bei System Initiative um ein grundlegend neues Modell handelt, wird die Migration für Teams mit umfangreichen, vorgefertigten Automatisierungen eine Herausforderung darstellen. CEO Jacob empfiehlt deshalb:

iterative Tests durchzuführen,

Änderungen im Workflow zu beobachten und

Teile nach und nach zu ersetzen.

Als “Low-Hanging Fruits” betrachtet der System-Initiative-Gründer dabei in erster Linie Greenfield-Anwendungen oder groß angelegte Deployments, bei denen IaC noch nicht implementiert wurde.

Die mögliche Skepsis gegenüber dem neuen Ansatz kann ein weiteres Hemmnis darstellen, wie Cloud-Experte Ryke preisgibt: “Viele Hardcore-Anwender sind davon abgeschreckt. Es ist ein bisschen so, wie damals mit den anfänglichen Vorbehalten gegenüber der Umstellung auf die Cloud”. Für sein eigenes Unternehmen sieht Ryke keine Nachteile durch den Umstieg auf das System-Initiative-Modell. Allerdings könne dieses für vorhersehbarere, wiederholbare Infrastrukturen einem “Overkill” gleichkommen: “Wenn man jeden Tag genau das Gleiche macht, ist die programmatische Natur von IaC durchaus sinnvoll.”

Umstiegsinteressierte sollten sich zudem bewusst sein, dass sich System Initiative noch in einer frühen Wachstumsphase befindet, so Ryke: “Hier und da gibt es noch einige Reibungspunkte, aber das Team ist bestrebt, Fehler schnell zu beheben. Für die Zukunft hoffen wir auf bessere Funktionen, um Informationen abzufragen und einen breiter gefächerten Betriebssystem-Support.”

Die Kosten und die Offenheit könnten potenzielle Anwender ebenfalls als nachteilig empfinden: Obwohl System Initiative vollständig auf quelloffenem Code basiert, ist das Produkt selbst kostenpflichtig. “Es gibt keine kostenlose Version von System Initiative”, stellt Jacob klar. Skeptiker könnten sich an dieser Stelle zudem fragen, warum man nicht einfach generative KI für IaC-Zwecke einsetzen sollte. Laut Jacob sind dabei jedoch die Daten das Problem – oder vielmehr der Mangel daran: “Viele Menschen halten LLMs für magisch, was sie aber nicht sind.”

LLM-gestützte Agenten benötigten strukturierte, relational reichhaltige Daten, um agieren zu können, etwas, das herkömmliche Infrastruktur-Tools in der Regel nicht bieten könnten – im Gegensatz zu System Initiative: “Insofern könnten sich System Initiative und Large Language Models in Zukunft hervorragend ergänzen und dazu beitragen, den KI-Einsatz im Bereich DevOps zu steigern”, meint der Manager.   

System Initiative verspricht sowohl DevOps zu revolutionieren, als auch IaC-Probleme zu beseitigen. Potenzielle Anwender sollten sich aber auch der Lücken bewusst sein, die derzeit noch bestehen – etwa der AWS-exklusive Support und eine überschaubare Zahl von bewährten Case Studies. Insbesondere besteht auch die Gefahr, sich an ein proprietäres Execution-Modell zu binden, das den traditionellen IaC-Ansatz ersetzt. Das alles könnte allerdings auch gar keine Rolle mehr spielen, wenn System Initiative zum Erfolg wird, weitere Anwendungsfälle hinzukommen und der Digital-Twin-Ansatz die gewünschten Ergebnisse liefert. Dann würde eine völlig neue DevOps-Ära anbrechen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die Lösung aller DevOps-Probleme?​ Weiterlesen »

Softwareentwicklung mit KI: menschliche Governance ist entscheidend​

Allgemein

KI zeigt ihren größten Nutzen, wenn sie auf einzelne Phasen des Software-Entwicklungszyklus abgestimmt ist. Daher lässt sich mit individuell entwickelten KI-Agenten voraussichtlich ein höherer ROI erzielen.Reply Viele Unternehmen stehen unter Druck, Software in kürzerer Zeit bereitzustellen, ohne Qualitätseinbußen oder steigende Kosten in Kauf nehmen zu müssen. Lange Zeit lag die Antwort in höherer Effizienz trotz knapper Ressourcen. Heute eröffnet generative KI neue Wege. Sie durchbricht die klassische, lineare Softwareentwicklung. Prozesse beschleunigen sich, Fehlerquoten sinken und die Time-to-Market schrumpft. Laut Marc Benioff, CEO von Salesforce, hat KI die Produktivität im Unternehmen bereits um 30 Prozent gesteigert. Vom Engpass zum Treiber Traditionelle Entwicklungsprozesse leiden häufig unter Fachkräftemangel, Wissenssilos und technischen Schulden (Technical Debt). Diese Schwächen lassen sich mit KI ausgleichen. Sie übersetzt Anforderungen in Code, automatisiert Tests und erkennt Fehler, bevor diese in die Produktion gelangen. Doch ein Tool allein reicht nicht aus. Unternehmen brauchen eine KI-Strategie, die neben der Technologie auch Prozesse, Rollen und Governance umfasst. Erst dann entfaltet KI ihr volles Potenzial. Phase für Phase: Spezialisierung bringt Effizienz KI zeigt ihren größten Nutzen, wenn sie auf einzelne Phasen des Software-Entwicklungszyklus (Software Development Lifecycle, SDLC) abgestimmt ist. Unternehmen, die individuell entwickelte KI-Agenten einsetzen, werden voraussichtlich einen höheren ROI für ihre KI-Investitionen erzielen. Denn die Anforderungen unterscheiden sich stark: Analyse erfordert ein tiefes Businessverständnis, Testen braucht Präzision und Deployment setzt Prozessautomatisierung voraus. Wer KI entsprechend dieser Logik einsetzt, vermeidet Ineffizienz und nutzt menschliches Know-how gezielter. Spezialisierte KI-Agenten sind generischen Tools überlegen. Sie reduzieren Reibungsverluste, erhöhen die Qualität und entlasten die Teams. Neue Rollen, neues Denken Durch KI-gestützte Multi-Agenten-Systeme verändert sich die Arbeitsweise des gesamten Teams. Entwickler schreiben nicht mehr nur Code. Sie analysieren, wie sich Anforderungen optimal umsetzen lassen, verbessern Abläufe und orchestrieren KI-Agenten. Designer gestalten KI-gestützte Nutzererlebnisse. Analysten und Architekten benötigen ein breiteres Wissen. Auf diese Weise rückt die Interaktion zwischen Menschen und Maschine in den Mittelpunkt. Die klassischen Rollen – Entwickler, Analysten, Architekten und Tester – verschmelzen zunehmend. Ein Beispiel: Entwickler müssen nicht nur Code schreiben, sondern auch verstehen, warum eine Anforderung kein korrektes Ergebnis liefert und wie sich dies automatisiert verbessern lässt. Fachkräfte benötigen daher ein breiteres Kompetenzspektrum, das ein tiefes Verständnis für Businesslogik, Nutzerbedürfnisse und Automatisierung umfasst. Unternehmen sollten die vorhandenen Fähigkeiten analysieren und gezielt weiterentwickeln. Prototypen in Minuten KI erstellt auf Basis einfacher Anforderungen in kurzer Zeit Wireframes, Mock-ups oder funktionale Prototypen. So können Teams bereits im ersten Kundengespräch funktionsfähige Modelle präsentieren und schneller entscheiden, ob eine Idee tragfähig ist. Im Designprozess bewertet die KI die Skalierbarkeit, Performance und Sicherheit – vorausgesetzt, sie wurde mit unternehmensspezifischem Wissen trainiert. Diese kontextuelle Intelligenz bedeutet, dass die KI interne IT-Architekturen, Richtlinien und Sicherheitsvorgaben berücksichtigt. KI generiert nicht nur Code, sondern auch passende Testszenarien, selbst für Sonderfälle, die manuell oft übersehen werden. Dadurch verbessert sich die Softwarequalität und der Testaufwand reduziert sich. Nach der Einführung übernimmt KI die Systemüberwachung, schlägt Optimierungen vor und erkennt potenzielle Ausfälle frühzeitig. Dadurch wird Wartung planbar – mittels sogenannter Predictive-Maintenance-Modelle, die Fehlerpotenziale anhand realer Nutzungsdaten identifizieren. Fortschrittliche Unternehmen setzen auf autonome Agenten, die Aufgaben selbstständig ausführen und sich gegenseitig koordinieren. Das Ziel ist eine weitgehend selbstorganisierte Entwicklungsumgebung. Fünf Hebel für eine erfolgreiche KI-Strategie Wie lässt sich die Effektivität von KI-Integrationen messen? Ohne Metriken bleibt der Nutzen schwer greifbar. Diese fünf Kriterien machen Erfolge sichtbar: Vom Proof of Concept zur Skalierung: Die Zeit isolierter Pilotprojekte ist vorbei. Ein echter Wandel beginnt mit der Integration von KI in die Unternehmensarchitektur, Planung und Governance. End-to-End statt Insellösungen: Einzelne Tools liefern Teilerfolge. Doch nur eine durchgängige Einbettung in alle SDLC-Phasen erschließt das volle Potenzial. Wissen wird lesbar: KI dokumentiert Anforderungen, Tests und Entscheidungen laufend mit. So bleibt Wissen nicht mehr in einzelnen Köpfen, sondern wird für alle nutzbar, besonders für neue Teammitglieder. Governance auf Datenbasis: Entscheidungen über Budgets, Prioritäten und Ressourcen erfolgen nicht mehr intuitiv, sondern basieren auf Echtzeitdaten zu Codequalität, Geschwindigkeit und Teameffizienz. Sicherheit von Anfang an: Compliance und Security wandern an den Anfang des Entwicklungsprozesses. KI erkennt Schwachstellen frühzeitig und Resilienz wird Teil des Designs. Der Weg zur intelligenten Skalierung Der größte Hebel liegt nicht in einzelnen Tools, sondern im Zusammenspiel spezialisierter KI-Agenten, die mit Kontextwissen und klarer Zielsetzung arbeiten. Wer technologische Innovation mit strategischer Führung, integrierten Prozessen und gezieltem Kompetenzaufbau verbindet, kann schneller, besser und zukunftssicherer entwickeln. „Silicon Shoring“ ist ein neuer Ansatz in der Softwareentwicklung. Eine Multi-Agenten-Architektur ermöglicht die nahtlose Zusammenarbeit spezialisierter KI-Agenten über alle Phasen hinweg. So lassen sich Komplexität reduzieren, Compliance sichern und Softwareprozesse effizient skalieren. Wie Ihr Unternehmen von Silicon Shoring profitieren kann, erfahren Sie hier. Hier mehr erfahren: Warum Cybersecurity jetzt neu gedacht werden muss. 

Softwareentwicklung mit KI: menschliche Governance ist entscheidend​ KI zeigt ihren größten Nutzen, wenn sie auf einzelne Phasen des Software-Entwicklungszyklus abgestimmt ist. Daher lässt sich mit individuell entwickelten KI-Agenten voraussichtlich ein höherer ROI erzielen.Reply

Viele Unternehmen stehen unter Druck, Software in kürzerer Zeit bereitzustellen, ohne Qualitätseinbußen oder steigende Kosten in Kauf nehmen zu müssen. Lange Zeit lag die Antwort in höherer Effizienz trotz knapper Ressourcen.

Heute eröffnet generative KI neue Wege. Sie durchbricht die klassische, lineare Softwareentwicklung. Prozesse beschleunigen sich, Fehlerquoten sinken und die Time-to-Market schrumpft. Laut Marc Benioff, CEO von Salesforce, hat KI die Produktivität im Unternehmen bereits um 30 Prozent gesteigert.

Vom Engpass zum Treiber

Traditionelle Entwicklungsprozesse leiden häufig unter Fachkräftemangel, Wissenssilos und technischen Schulden (Technical Debt). Diese Schwächen lassen sich mit KI ausgleichen. Sie übersetzt Anforderungen in Code, automatisiert Tests und erkennt Fehler, bevor diese in die Produktion gelangen.

Doch ein Tool allein reicht nicht aus. Unternehmen brauchen eine KI-Strategie, die neben der Technologie auch Prozesse, Rollen und Governance umfasst. Erst dann entfaltet KI ihr volles Potenzial.

Phase für Phase: Spezialisierung bringt Effizienz

KI zeigt ihren größten Nutzen, wenn sie auf einzelne Phasen des Software-Entwicklungszyklus (Software Development Lifecycle, SDLC) abgestimmt ist. Unternehmen, die individuell entwickelte KI-Agenten einsetzen, werden voraussichtlich einen höheren ROI für ihre KI-Investitionen erzielen.

Denn die Anforderungen unterscheiden sich stark: Analyse erfordert ein tiefes Businessverständnis, Testen braucht Präzision und Deployment setzt Prozessautomatisierung voraus. Wer KI entsprechend dieser Logik einsetzt, vermeidet Ineffizienz und nutzt menschliches Know-how gezielter. Spezialisierte KI-Agenten sind generischen Tools überlegen. Sie reduzieren Reibungsverluste, erhöhen die Qualität und entlasten die Teams.

Neue Rollen, neues Denken

Durch KI-gestützte Multi-Agenten-Systeme verändert sich die Arbeitsweise des gesamten Teams.

Entwickler schreiben nicht mehr nur Code. Sie analysieren, wie sich Anforderungen optimal umsetzen lassen, verbessern Abläufe und orchestrieren KI-Agenten.

Designer gestalten KI-gestützte Nutzererlebnisse.

Analysten und Architekten benötigen ein breiteres Wissen.

Auf diese Weise rückt die Interaktion zwischen Menschen und Maschine in den Mittelpunkt. Die klassischen Rollen – Entwickler, Analysten, Architekten und Tester – verschmelzen zunehmend.

Ein Beispiel: Entwickler müssen nicht nur Code schreiben, sondern auch verstehen, warum eine Anforderung kein korrektes Ergebnis liefert und wie sich dies automatisiert verbessern lässt. Fachkräfte benötigen daher ein breiteres Kompetenzspektrum, das ein tiefes Verständnis für Businesslogik, Nutzerbedürfnisse und Automatisierung umfasst. Unternehmen sollten die vorhandenen Fähigkeiten analysieren und gezielt weiterentwickeln.

Prototypen in Minuten

KI erstellt auf Basis einfacher Anforderungen in kurzer Zeit Wireframes, Mock-ups oder funktionale Prototypen. So können Teams bereits im ersten Kundengespräch funktionsfähige Modelle präsentieren und schneller entscheiden, ob eine Idee tragfähig ist.

Im Designprozess bewertet die KI die Skalierbarkeit, Performance und Sicherheit – vorausgesetzt, sie wurde mit unternehmensspezifischem Wissen trainiert. Diese kontextuelle Intelligenz bedeutet, dass die KI interne IT-Architekturen, Richtlinien und Sicherheitsvorgaben berücksichtigt.

KI generiert nicht nur Code, sondern auch passende Testszenarien, selbst für Sonderfälle, die manuell oft übersehen werden. Dadurch verbessert sich die Softwarequalität und der Testaufwand reduziert sich.

Nach der Einführung übernimmt KI die Systemüberwachung, schlägt Optimierungen vor und erkennt potenzielle Ausfälle frühzeitig. Dadurch wird Wartung planbar – mittels sogenannter Predictive-Maintenance-Modelle, die Fehlerpotenziale anhand realer Nutzungsdaten identifizieren.

Fortschrittliche Unternehmen setzen auf autonome Agenten, die Aufgaben selbstständig ausführen und sich gegenseitig koordinieren. Das Ziel ist eine weitgehend selbstorganisierte Entwicklungsumgebung.

Fünf Hebel für eine erfolgreiche KI-Strategie

Wie lässt sich die Effektivität von KI-Integrationen messen? Ohne Metriken bleibt der Nutzen schwer greifbar. Diese fünf Kriterien machen Erfolge sichtbar:

Vom Proof of Concept zur Skalierung: Die Zeit isolierter Pilotprojekte ist vorbei. Ein echter Wandel beginnt mit der Integration von KI in die Unternehmensarchitektur, Planung und Governance.

End-to-End statt Insellösungen: Einzelne Tools liefern Teilerfolge. Doch nur eine durchgängige Einbettung in alle SDLC-Phasen erschließt das volle Potenzial.

Wissen wird lesbar: KI dokumentiert Anforderungen, Tests und Entscheidungen laufend mit. So bleibt Wissen nicht mehr in einzelnen Köpfen, sondern wird für alle nutzbar, besonders für neue Teammitglieder.

Governance auf Datenbasis: Entscheidungen über Budgets, Prioritäten und Ressourcen erfolgen nicht mehr intuitiv, sondern basieren auf Echtzeitdaten zu Codequalität, Geschwindigkeit und Teameffizienz.

Sicherheit von Anfang an: Compliance und Security wandern an den Anfang des Entwicklungsprozesses. KI erkennt Schwachstellen frühzeitig und Resilienz wird Teil des Designs.

Der Weg zur intelligenten Skalierung

Der größte Hebel liegt nicht in einzelnen Tools, sondern im Zusammenspiel spezialisierter KI-Agenten, die mit Kontextwissen und klarer Zielsetzung arbeiten. Wer technologische Innovation mit strategischer Führung, integrierten Prozessen und gezieltem Kompetenzaufbau verbindet, kann schneller, besser und zukunftssicherer entwickeln.

„Silicon Shoring“ ist ein neuer Ansatz in der Softwareentwicklung. Eine Multi-Agenten-Architektur ermöglicht die nahtlose Zusammenarbeit spezialisierter KI-Agenten über alle Phasen hinweg. So lassen sich Komplexität reduzieren, Compliance sichern und Softwareprozesse effizient skalieren.

Wie Ihr Unternehmen von Silicon Shoring profitieren kann, erfahren Sie hier.

Hier mehr erfahren: Warum Cybersecurity jetzt neu gedacht werden muss.

Softwareentwicklung mit KI: menschliche Governance ist entscheidend​ Weiterlesen »

Unerwartete Kosten treiben On-Premises-Computing voran​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>On-Premises-Computing ist auch in den kommenden Jahren nicht wegzudenken.Shutterstock/Gorodenkoff Der Managed-Hosting-Anbieter Liquid Web befragte über 1.000 Fachleute aus verschiedenen Branchen und Unternehmensgrößen. Ergebnis: On-Premises-Computing bleibt ein zentrales Element der IT-Architektur – aus verschiedenen Gründen. Dazu zählen unter anderem Compliance-Anforderungen, Kostenkontrolle, Leistung und Zuverlässigkeit. Ein zentrales Problem waren unvorhergesehene Kosten für die Cloud-Nutzung: 47 Prozent der IT-Experten gaben an, dass sie von unerwarteten Kosten überrascht wurden, meist im Bereich zwischen 5.000 und 25.000 Dollar. Allerdings ist dies nicht der wichtigste Grund für die Rückkehr. 55 Prozent der IT-Fachleute nannten die Möglichkeit zur vollständigen Individualisierung als wichtigstes Argument für dedizierte Infrastrukturen gegenüber der Cloud. Ziel: (Kosten)Kontrolle zurückgewinnen Auch wenn beide Gründe unterschiedlich wirken, haben sie eine gemeinsame Wurzel. „Dass IT-Fachleute Workloads aus der Public Cloud zurück in dedizierte Umgebungen migrieren, zeigt eine bewusste Strategie, um Kontrolle, Anpassungsmöglichkeiten und vorhersehbare Kosten zurückzugewinnen“, schreibt Ryan MacDonald, Chief Technology Officer bei Liquid Web. „Dedizierte Server bieten die Kontrolle, Leistung und Sicherheit, die IT-Verantwortliche benötigen, um zukunftssichere Architekturen aufzubauen.“ Die Cloud mag beliebt sein und Cloud-Migration vieldiskutiert, aber On-Premises-Lösungen werden nicht verschwinden, so MacDonald. In den letzten zwölf Monaten hätten 42 Prozent der IT-Experten Workloads aus der öffentlichen Cloud zurück auf dedizierte Server migriert. „Diese Umkehrung stellt die Annahme in Frage, dass die Cloud immer das ultimative Ziel ist, und unterstreicht die wachsenden Bedenken hinsichtlich Kostenvorhersagbarkeit, Kontrolle und Leistung in gemeinsam genutzten Cloud-Umgebungen“, erklärt MacDonald. In der Umfrage berichten 86 Prozent der IT-Fachkräfte, dass ihre Organisationen derzeit dedizierte Server nutzen – am häufigsten in der öffentlichen Verwaltung (93 Prozent), der IT-Branche (91 Prozent) und im Finanzwesen (90 Prozent). 53 Prozent der Befragten halten dedizierte Server weiterhin für unverzichtbar, und fast die Hälfte (45 Prozent) erwartet, dass ihre Bedeutung bis 2030 noch zunimmt. Die Mehrheit nutzt dedizierte Server vor allem für Datenbanken, aber auch für Dateispeicherung und Webhosting. Ein weiteres Ergebnis im Zusammenhang mit Individualisierung: 32 Prozent der IT-Fachkräfte glauben, dass ein Teil ihrer aktuellen Cloud-Ausgaben für Funktionen oder Kapazitäten verschwendet wird, die sie nicht vollständig nutzen. Cloud-Anbieter sind berüchtigt dafür, Funktionen bereitzustellen – ob man sie braucht oder nicht – und den Kunden keine Möglichkeit zu geben, diese abzuwählen und so Kosten zu sparen. On-Premises-Computing bleibt nicht nur stabil, sondern wächst sogar. Mehr als ein Drittel der Befragten (34 Prozent) gab an, dass ihre Organisationen im Jahr 2024 die Ausgaben für dedizierte Server erhöht haben – im Vergleich zu 24 Prozent im Jahr 2023 und 26 Prozent im Jahr 2022. IT-Manager sehen ihre größte Herausforderung darin, den Mehrwert dedizierter Infrastrukturen gegenüber der Unternehmensführung zu erklären. Fast ein Drittel (31 Prozent) fühlt sich nicht sicher dabei, Infrastrukturentscheidungen gegenüber nicht-technischen Führungskräften zu erläutern. Zudem sind 70 Prozent der befragten IT-Fachkräfte der Meinung, dass das Top-Management die Bedeutung dedizierter Server in einer modernen Technologiearchitektur unterschätzt. (mb) 

Unerwartete Kosten treiben On-Premises-Computing voran​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2204212037_Gorodenkoff_6b35e3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>On-Premises-Computing ist auch in den kommenden Jahren nicht wegzudenken.Shutterstock/Gorodenkoff

Der Managed-Hosting-Anbieter Liquid Web befragte über 1.000 Fachleute aus verschiedenen Branchen und Unternehmensgrößen. Ergebnis: On-Premises-Computing bleibt ein zentrales Element der IT-Architektur – aus verschiedenen Gründen.

Dazu zählen unter anderem Compliance-Anforderungen, Kostenkontrolle, Leistung und Zuverlässigkeit. Ein zentrales Problem waren unvorhergesehene Kosten für die Cloud-Nutzung: 47 Prozent der IT-Experten gaben an, dass sie von unerwarteten Kosten überrascht wurden, meist im Bereich zwischen 5.000 und 25.000 Dollar.

Allerdings ist dies nicht der wichtigste Grund für die Rückkehr. 55 Prozent der IT-Fachleute nannten die Möglichkeit zur vollständigen Individualisierung als wichtigstes Argument für dedizierte Infrastrukturen gegenüber der Cloud.

Ziel: (Kosten)Kontrolle zurückgewinnen

Auch wenn beide Gründe unterschiedlich wirken, haben sie eine gemeinsame Wurzel. „Dass IT-Fachleute Workloads aus der Public Cloud zurück in dedizierte Umgebungen migrieren, zeigt eine bewusste Strategie, um Kontrolle, Anpassungsmöglichkeiten und vorhersehbare Kosten zurückzugewinnen“, schreibt Ryan MacDonald, Chief Technology Officer bei Liquid Web. „Dedizierte Server bieten die Kontrolle, Leistung und Sicherheit, die IT-Verantwortliche benötigen, um zukunftssichere Architekturen aufzubauen.“

Die Cloud mag beliebt sein und Cloud-Migration vieldiskutiert, aber On-Premises-Lösungen werden nicht verschwinden, so MacDonald. In den letzten zwölf Monaten hätten 42 Prozent der IT-Experten Workloads aus der öffentlichen Cloud zurück auf dedizierte Server migriert.

„Diese Umkehrung stellt die Annahme in Frage, dass die Cloud immer das ultimative Ziel ist, und unterstreicht die wachsenden Bedenken hinsichtlich Kostenvorhersagbarkeit, Kontrolle und Leistung in gemeinsam genutzten Cloud-Umgebungen“, erklärt MacDonald.

In der Umfrage berichten 86 Prozent der IT-Fachkräfte, dass ihre Organisationen derzeit dedizierte Server nutzen – am häufigsten in der öffentlichen Verwaltung (93 Prozent), der IT-Branche (91 Prozent) und im Finanzwesen (90 Prozent). 53 Prozent der Befragten halten dedizierte Server weiterhin für unverzichtbar, und fast die Hälfte (45 Prozent) erwartet, dass ihre Bedeutung bis 2030 noch zunimmt.

Die Mehrheit nutzt dedizierte Server vor allem für Datenbanken, aber auch für Dateispeicherung und Webhosting.

Ein weiteres Ergebnis im Zusammenhang mit Individualisierung: 32 Prozent der IT-Fachkräfte glauben, dass ein Teil ihrer aktuellen Cloud-Ausgaben für Funktionen oder Kapazitäten verschwendet wird, die sie nicht vollständig nutzen. Cloud-Anbieter sind berüchtigt dafür, Funktionen bereitzustellen – ob man sie braucht oder nicht – und den Kunden keine Möglichkeit zu geben, diese abzuwählen und so Kosten zu sparen.

On-Premises-Computing bleibt nicht nur stabil, sondern wächst sogar. Mehr als ein Drittel der Befragten (34 Prozent) gab an, dass ihre Organisationen im Jahr 2024 die Ausgaben für dedizierte Server erhöht haben – im Vergleich zu 24 Prozent im Jahr 2023 und 26 Prozent im Jahr 2022.

IT-Manager sehen ihre größte Herausforderung darin, den Mehrwert dedizierter Infrastrukturen gegenüber der Unternehmensführung zu erklären. Fast ein Drittel (31 Prozent) fühlt sich nicht sicher dabei, Infrastrukturentscheidungen gegenüber nicht-technischen Führungskräften zu erläutern. Zudem sind 70 Prozent der befragten IT-Fachkräfte der Meinung, dass das Top-Management die Bedeutung dedizierter Server in einer modernen Technologiearchitektur unterschätzt. (mb)

Unerwartete Kosten treiben On-Premises-Computing voran​ Weiterlesen »

10 Tipps für schnellere Python-Apps​

Allgemein

Mit diesen zehn Hardcore-Coding-Tipps beschleunigen Sie Ihre Python-Anwendungen. Foto: Carrastock | shutterstock.com Python ist nicht unbedingt wegen seiner Performanz populär, sondern weil es eine bequeme und entwicklerfreundliche Programmiersprache ist. Doch auch bei Python müssen Sie nicht unbedingt zwischen Ausführungs- und Entwicklungsgeschwindigkeit entscheiden. Richtig optimiert, sind Python-Applikationen überraschend performant. Auch wenn sie nicht die Geschwindigkeitsvorteile von Java oder C realisieren – für Webanwendungen, Data Analytics sowie Management- und Automatisierungs-Tools reicht es. Genauso wie für die meisten anderen Zwecke. Die Python-Performance zu optimieren, ist allerdings nicht von einem einzelnen Faktor abhängig: Vielmehr kommt es darauf an, alle verfügbaren Best Practices anzuwenden – respektive diejenigen auszuwählen, die für das jeweilige Szenario am besten geeignet sind. Die Entwicklungsabteilung von Dropbox liefert eines der eindrucksvollsten Beispiele dafür, was mit Python-Optimierungen möglich ist. 10 Wege zu mehr Python-Speed Dieser Artikel stellt zehn gängige Optimierungsmöglichkeiten für Python-Applikationen vor. Dabei handelt es sich um einen Mix aus eher simplen Sofortmaßnahmen und komplexeren Detailarbeiten. 1. Messen, messen, messen “Was man nicht misst, kann man nicht steuern”, wusste schon Management-Guru Peter Drucker. Entsprechend werden Sie wohl nur schwer herauszufinden, warum eine bestimmte Python-App suboptimal läuft, ohne der Sache auf den Grund zu gehen. Ein optimaler Startpunkt ist deswegen ein einfaches Profiling ihres Codes mit Hilfe des in Python integrierten cProfile-Moduls. Wenn Sie mehr Präzision oder tiefere Einblicke benötigen, sollten Sie zu einem leistungsfähigeren Profiler wechseln (dazu später mehr). Die Erkenntnisse, die eine grundlegende Funktionsprüfung einer Anwendung zu Tage fördert, sind oft mehr als ausreichend. Über das profilehooks–Modul können Sie Profildaten für einzelne Funktionen abrufen. Die Frage, warum ein bestimmter Teil der Anwendung besonders langsam ist und wie man das Problem beheben kann, erfordert unter Umständen eine detailliertere Analyse. Dabei geht es darum, den Fokus einzugrenzen, eine Grundlinie mit konkreten Metriken festzulegen und wann immer möglich eine Vielzahl von Nutzungs- und Deployment-Szenarien zu testen. Aber optimieren sie nicht voreilig: Vermutungen bringen Sie nicht weiter. Das oben erwähnte Beispiel von Dropbox zeigt, wie nützlich dieses Profiling ist. “Erst die Messungen gaben Aufschluss darüber, dass das HTML Escaping von Anfang an zu langsam war. Und ohne die Performance zu messen, wären wir nie darauf gekommen, dass die String Interpolation so langsam ist wie sie war”, heißt es im Blogbeitrag. 2. Wiederkehrende Daten cachen Warum sollten Sie Tasks tausendfach erledigen, wenn diese auch einmal erledigt und die Ergebnisse abgespeichert werden können? Eine häufig aufgerufene Funktion, die vorhersehbare Ergebnisse liefert, kann in Python zwischengespeichert werden (im Python-Jargon nennt man diesen Vorgang auch “Memoization”). Nachfolgende Calls, die das gleiche Ergebnis liefern, werden nahezu sofort zurückgegeben. Es gibt diverse Beispiele für die Funktionsweise – einer unser Memoization-Favoriten ist dieses Minimalbeispiel. Allerdings ist diese Funktionalität in Python bereits standardmäßig integriert: Die native Python-Bibliothek functools verfügt über den @functools.lru_cache–Dekorator, der die n letzten Aufrufe einer Funktion zwischenspeichert. Dies ist praktisch, wenn sich der Wert, den Sie zwischenspeichern, ändert, aber innerhalb eines bestimmten Zeitfensters relativ statisch bleibt. Eine Liste der im Laufe des Tages zuletzt verwendeten Items wäre ein gutes Beispiel. Gut zu wissen ist in diesem Zusammenhang: Verwenden Sie das performantere @functools.cache, wenn Sie sicher sein können, dass sich die Anzahl der Function Calls innerhalb eines vernünftigen Rahmens bewegt (beispielsweise 100 verschiedene zwischengespeicherte Resultate). 3. Mathematik auf NumPy verlagern… Wenn Sie mit Matrix- oder Array-basierter Mathematik zu tun haben und keinen Wert auf den Python-Interpreter legen, nutzen Sie NumPy. Damit können Sie Arrays schneller verarbeiten – zudem werden numerische Daten effizienter gespeichert als über die in Python integrierten Datenstrukturen. Ein weiterer Benefit von NumPy: Bei größeren Objekten wird der Speicher effizienter genutzt. Etwa, wenn es um Listen mit Millionen von Einträgen geht. Solche Objekte bringen es in NumPy auf etwa ein Viertel des Platzbedarfs – im Vergleich zu konventionellem Python. Zu beachten ist dabei, mit der richtigen Datenstruktur an die Sache heranzugehen. Das stellt für sich bereits eine Optimierung dar. Python-Algorithmen für die Verwendung von NumPy umzuschreiben, ist allerdings mit Aufwand verbunden, weil Array-Objekte mit der NumPy-Syntax deklariert werden müssen. Zudem lassen sich die größten Geschwindigkeitssteigerungen durch die NumPy-spezifischen Broadcasting-Techniken erzielen, bei denen eine Funktion oder ein Verhalten auf ein Array angewendet wird. Nehmen Sie sich die Zeit und beschäftigen Sie sich ausgiebig mit der NumPy-Dokumentation. Das Wichtigste zum Schluss: NumPy eignet sich nicht, um mathematische Berechnungen zu beschleunigen, die außerhalb von NumPy-Arrays oder -Matrizen durchgeführt werden. Bei mathematischen Operationen, die konventionelle Python-Objekte einbeziehen, ist folglich kein Geschwindigkeitszuwachs drin. 4. …oder auf Numba Eine weitere leistungsstarke Bibliothek für schnellere mathematische Berechnungen ist Numba. Schreiben Sie Python-Code für numerische Manipulationen und verpacken Sie ihn mit dem Just-in-Time-Compiler von Numba – der resultierende Code wird mit maschinen-nativer Geschwindigkeit ausgeführt. Dabei bietet Numba nicht nur GPU-getriebene Beschleunigung (sowohl CUDA als auch ROC), sondern verfügt auch über einen speziellen “nopython“-Modus. Dieser versucht, die Performance zu maximieren, indem er wann immer möglich auf den Python-Interpreter verzichtet. Numba arbeitet darüber hinaus auch Hand in Hand mit NumPy. Das bedeutet für Sie, das Beste aus zwei Welten miteinander kombinieren zu können: NumPy für alle Operationen, die es lösen kann (siehe oben) – Numba für den Rest. 5. C-Bibliotheken nutzen In C geschriebene Bibliotheken zu verwenden, ist generell eine gute Strategie. Falls eine C-Bibliothek existiert, die genau das tut, was Sie brauchen, bietet das Python-Ökosystem mehrere Möglichkeiten, um diese (und ihre Geschwindigkeitsvorteile) zu nutzen. Die gebräuchlichste Möglichkeit, das zu bewerkstelligen, bietet die ctypes–Library von Python. Weil sie weitgehend mit anderen Python-Anwendungen (und -Laufzeiten) kompatibel ist, bildet sie den optimalen Ausgangspunkt – ist aber bei weitem nicht die einzige Lösung. So bietet beispielsweise das Projekt CFFI eine elegantere Schnittstelle zu C. Um eigene C-Bibliotheken zu schreiben oder externe, bereits vorhandene Bibliotheken zu ummanteln, können Sie auch Cython (siehe Punkt 6) verwenden. Die besten Ergebnisse werden Sie erzielen, wenn Sie die Anzahl der Übergänge zwischen C und Python minimieren. Jedes Mal, wenn Daten zwischen den beiden Programmiersprachen übertragen werden, resultiert das in Leistungseinbußen. Wenn Sie also die Wahl haben, entweder eine C-Bibliothek in einem engen Loop zu callen, oder eine komplette Datenstruktur in die C-Bibliothek zu integrieren und dort das In-Loop-Processing zu erledigen, sollten Sie sich für Zweiteres entscheiden. Sie werden deutlich weniger “Domain-Roundtrips” machen. 6. Zu Cython konvertieren C-Code zu schreiben, heißt für Python-Programmierer unter anderem, die Syntax erlernen und mit C-Toolchains hantieren zu müssen. Außer sie benutzen Cython – dann können die Geschwindigkeitsvorteile von C ganz komfortabel und ohne viel Aufwand genutzt werden. Das Python-Superset ermöglicht es, vorhandenen Python-Code schrittweise nach C zu konvertieren. Dazu wird der C-Code zunächst kompiliert und anschließend um Typ-Annotationen für mehr Speed ergänzt. Doch auch Cython ist kein Zaubertrank: Ohne Type Annotations läuft der Code “lediglich” 15 bis 50 Prozent schneller. Das ist dem Umstand geschuldet, dass sich die meisten Optimierungen auf dieser Ebene darauf konzentrieren, nämlich den Overhead des Python-Interpreters zu reduzieren. Die größten Vorteile ergeben sich, wenn Ihre Variablen als C-Typen annotiert werden können – zum Beispiel ein 64-Bit-Integer auf Maschinenebene (anstelle des Python-Typs int). Die daraus resultierenden Geschwindigkeitszuwächse können enorm ausfallen. CPU-gebundener Code profitiert am ehesten von Cython: Wenn Sie ein Code Profiling durchgeführt und dabei festgestellt haben, dass bestimmte Teile das Gros der CPU-Zeit vereinnahmen, sind die optimal geeignet, um in Cython konvertiert zu werden. E/A-gebundener Code – beispielsweise langfristig laufende Netzwerkoperationen – wird von Cython wenig bis gar nicht profitieren. Ähnlich wie bei den C-Bibliotheken empfiehlt es sich auch bei Cython, so wenig Umwege wie möglich zu gehen: Sehen Sie davon ab, Loops zu schreiben, die wiederholt eine “cythonisierte” Funktion aufrufen. Implementieren Sie den Loop stattdessen in Cython und übergeben Sie die Daten “am Stück”. 7. Multiprocessing nutzen Traditionelle Python-Apps, die in CPython implementiert sind, führen jeweils nur einen einzigen Thread aus, um zu verhindern, dass Probleme auftreten. Das ist der berühmt-berüchtigte Global Interpreter Lock (GIL). Es gibt gute Gründe für seine Existenz – was das Konstrukt allerdings nicht weniger unangenehm macht. Obwohl im Laufe der Zeit deutlich effizienter gestaltet, bleibt das Kernproblem bestehen: CPython erlaubt Multiprocessing nicht wirklich. Abhilfe schafft an dieser Stelle das Multiprocessing-Modul, das mehrere Instanzen des Python-Interpreters auf separaten Kernen ausführt. Der State kann über gemeinsam genutzten Speicher oder Serverprozesse geteilt, Daten zwischen Prozessinstanzen über “Queues” oder “Pipes” übergeben werden. Zwischen den Prozessen müssen Sie den State jedoch immer noch manuell managen. Zudem ist es mit einem nicht unerheblichen Overhead verbunden, mehrere Python-Instanzen zu starten und Objekte zwischen ihnen zu übergeben. Die Multiprocessing-Bibliothek ist jedoch insbesondere dann nützlich, wenn es um langfristig laufende Prozesse geht, die von der Parallelität über Kerne hinweg profitieren. Eine Bemerkung am Rande: Python-Module und -Packages, die C-Bibliotheken nutzen (wie NumPy oder Cython), können den GIL vollständig umgehen. 8. Wissen, was Bibliotheken tun… Natürlich ist es höchst komfortabel, über include foobar im Handumdrehen auf die Errungenschaften unzähliger anderer Programmierer zuzugreifen. Dabei sollten Sie sich allerdings darüber bewusst sein, dass Drittanbieter-Bibliotheken sich auf die Performance Ihrer Anwendung auswirken können – und zwar nicht unbedingt positiv. Das ist manchmal relativ offensichtlich (Profiling hilft auch an dieser Stelle) – manchmal eher nicht. Ein Beispiel: die Bibliothek Pyglet. Sie aktiviert automatisch einen Debug-Modus, der die Performance dramatisch drückt – solange, bis das explizit abgestellt wird. Wenn Sie darüber allerdings nicht informiert sind, fällt es Ihnen möglicherweise gar nicht erst auf. 9. …und die Plattform Python funktioniert zwar plattformübergreifend, das bedeutet allerdings nicht, dass die Eigenheiten der einzelnen Betriebssysteme einfach verschwinden. In den allermeisten Fällen lohnt es sich, plattformspezifische Besonderheiten wie Namenskonventionen auf dem Schirm zu haben, für die Hilfsfunktionen zur Verfügung stehen. Das Modul pathlib abstrahiert beispielsweise solche plattformspezifischen Pfadkonventionen. Auch die Konsole wird unter den jeweiligen Betriebssystemen sehr unterschiedlich gehändelt – daher erfreuen sich abstrahierende Bibliotheken steigender Beliebtheit. Ein weiteres Beipsiel in diesem Bereich ist rich. Bestimmte Funktionen werden auf manchen Plattformen überhaupt nicht unterstützt. Das kann sich auf die Art und Weise auswirken, wie Sie Python-Code schreiben: Windows kennt zum Beispiel das Process-Forking-Konzept nicht, weswegen einige Multiprocessing-Funktionen anders funktionieren. Schließlich spielt auch die Art und Weise eine Rolle, wie Python selbst auf der jeweiligen Plattform installiert und ausgeführt wird. Unter Linux wird pip beispielsweise in der Regel getrennt von Python installiert – im Gegensatz zu Windows. 10. PyPy verwenden Bei CPython hat Kompatibilität Vorrang vor Geschwindigkeit. Speed-affine Programmierer setzen deshalb oft auf PyPy, ein Drop-In-Ersatz für CPython. Dieser ist mit einem Just-in-Time-Compiler ausgestattet, was die Ausführung von Code beschleunigt, und bietet eine der simpelsten Möglichkeiten, um schnell Leistungsschübe zu erzielen. Die Mehrheit der gängigen Python-Apps muss für PyPy nicht angepasst werden. Trotzdem bleiben Testing- und Experimentier-Sessions nicht aus, wenn Sie die Benefits von PyPy optimal für sich nutzen wollen. Sie werden dabei feststellen, dass langfristig laufende Applikationen am meisten von PyPy profitieren, weil dessen Compiler die Execution im Zeitverlauf analysiert, um zu ermitteln, wie sich die Performanz steigern lässt. Für kurze Skripte, die nur ausgeführt und dann beendet werden, eignet sich CPython meist besser, weil die Performance-Zugewinne den JIT-Overhead nicht ausgleichen können. Behalten Sie dabei im Hinterkopf, dass PyPy der jeweils aktuellsten Python-Version “hinterherhinkt”: Zu dem Zeitpunkt, als Python 3.12 aktuell war, bot PyPy beispielsweise lediglich Support bis Version 3.10. Außerdem wichtig: Python-Anwendungen, die ctypes nutzen, verhalten sich möglicherweise nicht immer wie erwartet. Wenn Sie etwas schreiben, das sowohl auf PyPy als auch auf CPython laufen könnte, ist es unter Umständen sinnvoll, für jeden Interpreter einen separaten Use Case zu fahren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Tipps für schnellere Python-Apps​ Mit diesen zehn Hardcore-Coding-Tipps beschleunigen Sie Ihre Python-Anwendungen.
Foto: Carrastock | shutterstock.com

Python ist nicht unbedingt wegen seiner Performanz populär, sondern weil es eine bequeme und entwicklerfreundliche Programmiersprache ist. Doch auch bei Python müssen Sie nicht unbedingt zwischen Ausführungs- und Entwicklungsgeschwindigkeit entscheiden. Richtig optimiert, sind Python-Applikationen überraschend performant. Auch wenn sie nicht die Geschwindigkeitsvorteile von Java oder C realisieren – für Webanwendungen, Data Analytics sowie Management- und Automatisierungs-Tools reicht es. Genauso wie für die meisten anderen Zwecke.

Die Python-Performance zu optimieren, ist allerdings nicht von einem einzelnen Faktor abhängig: Vielmehr kommt es darauf an, alle verfügbaren Best Practices anzuwenden – respektive diejenigen auszuwählen, die für das jeweilige Szenario am besten geeignet sind. Die Entwicklungsabteilung von Dropbox liefert eines der eindrucksvollsten Beispiele dafür, was mit Python-Optimierungen möglich ist.

10 Wege zu mehr Python-Speed

Dieser Artikel stellt zehn gängige Optimierungsmöglichkeiten für Python-Applikationen vor. Dabei handelt es sich um einen Mix aus eher simplen Sofortmaßnahmen und komplexeren Detailarbeiten.

1. Messen, messen, messen

“Was man nicht misst, kann man nicht steuern”, wusste schon Management-Guru Peter Drucker. Entsprechend werden Sie wohl nur schwer herauszufinden, warum eine bestimmte Python-App suboptimal läuft, ohne der Sache auf den Grund zu gehen.

Ein optimaler Startpunkt ist deswegen ein einfaches Profiling ihres Codes mit Hilfe des in Python integrierten cProfile-Moduls. Wenn Sie mehr Präzision oder tiefere Einblicke benötigen, sollten Sie zu einem leistungsfähigeren Profiler wechseln (dazu später mehr). Die Erkenntnisse, die eine grundlegende Funktionsprüfung einer Anwendung zu Tage fördert, sind oft mehr als ausreichend. Über das profilehooks–Modul können Sie Profildaten für einzelne Funktionen abrufen.

Die Frage, warum ein bestimmter Teil der Anwendung besonders langsam ist und wie man das Problem beheben kann, erfordert unter Umständen eine detailliertere Analyse. Dabei geht es darum, den Fokus einzugrenzen, eine Grundlinie mit konkreten Metriken festzulegen und wann immer möglich eine Vielzahl von Nutzungs- und Deployment-Szenarien zu testen. Aber optimieren sie nicht voreilig: Vermutungen bringen Sie nicht weiter.

Das oben erwähnte Beispiel von Dropbox zeigt, wie nützlich dieses Profiling ist. “Erst die Messungen gaben Aufschluss darüber, dass das HTML Escaping von Anfang an zu langsam war. Und ohne die Performance zu messen, wären wir nie darauf gekommen, dass die String Interpolation so langsam ist wie sie war”, heißt es im Blogbeitrag.

2. Wiederkehrende Daten cachen

Warum sollten Sie Tasks tausendfach erledigen, wenn diese auch einmal erledigt und die Ergebnisse abgespeichert werden können? Eine häufig aufgerufene Funktion, die vorhersehbare Ergebnisse liefert, kann in Python zwischengespeichert werden (im Python-Jargon nennt man diesen Vorgang auch “Memoization”). Nachfolgende Calls, die das gleiche Ergebnis liefern, werden nahezu sofort zurückgegeben.

Es gibt diverse Beispiele für die Funktionsweise – einer unser Memoization-Favoriten ist dieses Minimalbeispiel. Allerdings ist diese Funktionalität in Python bereits standardmäßig integriert: Die native Python-Bibliothek functools verfügt über den @functools.lru_cache–Dekorator, der die n letzten Aufrufe einer Funktion zwischenspeichert. Dies ist praktisch, wenn sich der Wert, den Sie zwischenspeichern, ändert, aber innerhalb eines bestimmten Zeitfensters relativ statisch bleibt. Eine Liste der im Laufe des Tages zuletzt verwendeten Items wäre ein gutes Beispiel.

Gut zu wissen ist in diesem Zusammenhang: Verwenden Sie das performantere @functools.cache, wenn Sie sicher sein können, dass sich die Anzahl der Function Calls innerhalb eines vernünftigen Rahmens bewegt (beispielsweise 100 verschiedene zwischengespeicherte Resultate).

3. Mathematik auf NumPy verlagern…

Wenn Sie mit Matrix- oder Array-basierter Mathematik zu tun haben und keinen Wert auf den Python-Interpreter legen, nutzen Sie NumPy. Damit können Sie Arrays schneller verarbeiten – zudem werden numerische Daten effizienter gespeichert als über die in Python integrierten Datenstrukturen. Ein weiterer Benefit von NumPy: Bei größeren Objekten wird der Speicher effizienter genutzt. Etwa, wenn es um Listen mit Millionen von Einträgen geht. Solche Objekte bringen es in NumPy auf etwa ein Viertel des Platzbedarfs – im Vergleich zu konventionellem Python. Zu beachten ist dabei, mit der richtigen Datenstruktur an die Sache heranzugehen. Das stellt für sich bereits eine Optimierung dar.

Python-Algorithmen für die Verwendung von NumPy umzuschreiben, ist allerdings mit Aufwand verbunden, weil Array-Objekte mit der NumPy-Syntax deklariert werden müssen. Zudem lassen sich die größten Geschwindigkeitssteigerungen durch die NumPy-spezifischen Broadcasting-Techniken erzielen, bei denen eine Funktion oder ein Verhalten auf ein Array angewendet wird. Nehmen Sie sich die Zeit und beschäftigen Sie sich ausgiebig mit der NumPy-Dokumentation.

Das Wichtigste zum Schluss: NumPy eignet sich nicht, um mathematische Berechnungen zu beschleunigen, die außerhalb von NumPy-Arrays oder -Matrizen durchgeführt werden. Bei mathematischen Operationen, die konventionelle Python-Objekte einbeziehen, ist folglich kein Geschwindigkeitszuwachs drin.

4. …oder auf Numba

Eine weitere leistungsstarke Bibliothek für schnellere mathematische Berechnungen ist Numba. Schreiben Sie Python-Code für numerische Manipulationen und verpacken Sie ihn mit dem Just-in-Time-Compiler von Numba – der resultierende Code wird mit maschinen-nativer Geschwindigkeit ausgeführt. Dabei bietet Numba nicht nur GPU-getriebene Beschleunigung (sowohl CUDA als auch ROC), sondern verfügt auch über einen speziellen “nopython“-Modus. Dieser versucht, die Performance zu maximieren, indem er wann immer möglich auf den Python-Interpreter verzichtet.

Numba arbeitet darüber hinaus auch Hand in Hand mit NumPy. Das bedeutet für Sie, das Beste aus zwei Welten miteinander kombinieren zu können: NumPy für alle Operationen, die es lösen kann (siehe oben) – Numba für den Rest.

5. C-Bibliotheken nutzen

In C geschriebene Bibliotheken zu verwenden, ist generell eine gute Strategie. Falls eine C-Bibliothek existiert, die genau das tut, was Sie brauchen, bietet das Python-Ökosystem mehrere Möglichkeiten, um diese (und ihre Geschwindigkeitsvorteile) zu nutzen.

Die gebräuchlichste Möglichkeit, das zu bewerkstelligen, bietet die ctypes–Library von Python. Weil sie weitgehend mit anderen Python-Anwendungen (und -Laufzeiten) kompatibel ist, bildet sie den optimalen Ausgangspunkt – ist aber bei weitem nicht die einzige Lösung. So bietet beispielsweise das Projekt CFFI eine elegantere Schnittstelle zu C. Um eigene C-Bibliotheken zu schreiben oder externe, bereits vorhandene Bibliotheken zu ummanteln, können Sie auch Cython (siehe Punkt 6) verwenden.

Die besten Ergebnisse werden Sie erzielen, wenn Sie die Anzahl der Übergänge zwischen C und Python minimieren. Jedes Mal, wenn Daten zwischen den beiden Programmiersprachen übertragen werden, resultiert das in Leistungseinbußen. Wenn Sie also die Wahl haben,

entweder eine C-Bibliothek in einem engen Loop zu callen, oder

eine komplette Datenstruktur in die C-Bibliothek zu integrieren und dort das In-Loop-Processing zu erledigen,

sollten Sie sich für Zweiteres entscheiden. Sie werden deutlich weniger “Domain-Roundtrips” machen.

6. Zu Cython konvertieren

C-Code zu schreiben, heißt für Python-Programmierer unter anderem, die Syntax erlernen und mit C-Toolchains hantieren zu müssen. Außer sie benutzen Cython – dann können die Geschwindigkeitsvorteile von C ganz komfortabel und ohne viel Aufwand genutzt werden. Das Python-Superset ermöglicht es, vorhandenen Python-Code schrittweise nach C zu konvertieren. Dazu wird der C-Code zunächst kompiliert und anschließend um Typ-Annotationen für mehr Speed ergänzt.

Doch auch Cython ist kein Zaubertrank: Ohne Type Annotations läuft der Code “lediglich” 15 bis 50 Prozent schneller. Das ist dem Umstand geschuldet, dass sich die meisten Optimierungen auf dieser Ebene darauf konzentrieren, nämlich den Overhead des Python-Interpreters zu reduzieren. Die größten Vorteile ergeben sich, wenn Ihre Variablen als C-Typen annotiert werden können – zum Beispiel ein 64-Bit-Integer auf Maschinenebene (anstelle des Python-Typs int). Die daraus resultierenden Geschwindigkeitszuwächse können enorm ausfallen.

CPU-gebundener Code profitiert am ehesten von Cython: Wenn Sie ein Code Profiling durchgeführt und dabei festgestellt haben, dass bestimmte Teile das Gros der CPU-Zeit vereinnahmen, sind die optimal geeignet, um in Cython konvertiert zu werden. E/A-gebundener Code – beispielsweise langfristig laufende Netzwerkoperationen – wird von Cython wenig bis gar nicht profitieren.

Ähnlich wie bei den C-Bibliotheken empfiehlt es sich auch bei Cython, so wenig Umwege wie möglich zu gehen: Sehen Sie davon ab, Loops zu schreiben, die wiederholt eine “cythonisierte” Funktion aufrufen. Implementieren Sie den Loop stattdessen in Cython und übergeben Sie die Daten “am Stück”.

7. Multiprocessing nutzen

Traditionelle Python-Apps, die in CPython implementiert sind, führen jeweils nur einen einzigen Thread aus, um zu verhindern, dass Probleme auftreten. Das ist der berühmt-berüchtigte Global Interpreter Lock (GIL). Es gibt gute Gründe für seine Existenz – was das Konstrukt allerdings nicht weniger unangenehm macht. Obwohl im Laufe der Zeit deutlich effizienter gestaltet, bleibt das Kernproblem bestehen: CPython erlaubt Multiprocessing nicht wirklich.

Abhilfe schafft an dieser Stelle das Multiprocessing-Modul, das mehrere Instanzen des Python-Interpreters auf separaten Kernen ausführt. Der State kann über gemeinsam genutzten Speicher oder Serverprozesse geteilt, Daten zwischen Prozessinstanzen über “Queues” oder “Pipes” übergeben werden. Zwischen den Prozessen müssen Sie den State jedoch immer noch manuell managen. Zudem ist es mit einem nicht unerheblichen Overhead verbunden, mehrere Python-Instanzen zu starten und Objekte zwischen ihnen zu übergeben. Die Multiprocessing-Bibliothek ist jedoch insbesondere dann nützlich, wenn es um langfristig laufende Prozesse geht, die von der Parallelität über Kerne hinweg profitieren.

Eine Bemerkung am Rande: Python-Module und -Packages, die C-Bibliotheken nutzen (wie NumPy oder Cython), können den GIL vollständig umgehen.

8. Wissen, was Bibliotheken tun…

Natürlich ist es höchst komfortabel, über include foobar im Handumdrehen auf die Errungenschaften unzähliger anderer Programmierer zuzugreifen. Dabei sollten Sie sich allerdings darüber bewusst sein, dass Drittanbieter-Bibliotheken sich auf die Performance Ihrer Anwendung auswirken können – und zwar nicht unbedingt positiv.

Das ist manchmal relativ offensichtlich (Profiling hilft auch an dieser Stelle) – manchmal eher nicht. Ein Beispiel: die Bibliothek Pyglet. Sie aktiviert automatisch einen Debug-Modus, der die Performance dramatisch drückt – solange, bis das explizit abgestellt wird. Wenn Sie darüber allerdings nicht informiert sind, fällt es Ihnen möglicherweise gar nicht erst auf.

9. …und die Plattform

Python funktioniert zwar plattformübergreifend, das bedeutet allerdings nicht, dass die Eigenheiten der einzelnen Betriebssysteme einfach verschwinden. In den allermeisten Fällen lohnt es sich, plattformspezifische Besonderheiten wie Namenskonventionen auf dem Schirm zu haben, für die Hilfsfunktionen zur Verfügung stehen. Das Modul pathlib abstrahiert beispielsweise solche plattformspezifischen Pfadkonventionen. Auch die Konsole wird unter den jeweiligen Betriebssystemen sehr unterschiedlich gehändelt – daher erfreuen sich abstrahierende Bibliotheken steigender Beliebtheit. Ein weiteres Beipsiel in diesem Bereich ist rich.

Bestimmte Funktionen werden auf manchen Plattformen überhaupt nicht unterstützt. Das kann sich auf die Art und Weise auswirken, wie Sie Python-Code schreiben: Windows kennt zum Beispiel das Process-Forking-Konzept nicht, weswegen einige Multiprocessing-Funktionen anders funktionieren.

Schließlich spielt auch die Art und Weise eine Rolle, wie Python selbst auf der jeweiligen Plattform installiert und ausgeführt wird. Unter Linux wird pip beispielsweise in der Regel getrennt von Python installiert – im Gegensatz zu Windows.

10. PyPy verwenden

Bei CPython hat Kompatibilität Vorrang vor Geschwindigkeit. Speed-affine Programmierer setzen deshalb oft auf PyPy, ein Drop-In-Ersatz für CPython. Dieser ist mit einem Just-in-Time-Compiler ausgestattet, was die Ausführung von Code beschleunigt, und bietet eine der simpelsten Möglichkeiten, um schnell Leistungsschübe zu erzielen. Die Mehrheit der gängigen Python-Apps muss für PyPy nicht angepasst werden.

Trotzdem bleiben Testing- und Experimentier-Sessions nicht aus, wenn Sie die Benefits von PyPy optimal für sich nutzen wollen. Sie werden dabei feststellen, dass langfristig laufende Applikationen am meisten von PyPy profitieren, weil dessen Compiler die Execution im Zeitverlauf analysiert, um zu ermitteln, wie sich die Performanz steigern lässt. Für kurze Skripte, die nur ausgeführt und dann beendet werden, eignet sich CPython meist besser, weil die Performance-Zugewinne den JIT-Overhead nicht ausgleichen können.

Behalten Sie dabei im Hinterkopf, dass PyPy der jeweils aktuellsten Python-Version “hinterherhinkt”: Zu dem Zeitpunkt, als Python 3.12 aktuell war, bot PyPy beispielsweise lediglich Support bis Version 3.10. Außerdem wichtig: Python-Anwendungen, die ctypes nutzen, verhalten sich möglicherweise nicht immer wie erwartet. Wenn Sie etwas schreiben, das sowohl auf PyPy als auch auf CPython laufen könnte, ist es unter Umständen sinnvoll, für jeden Interpreter einen separaten Use Case zu fahren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Tipps für schnellere Python-Apps​ Weiterlesen »

So viel weiß Whatsapp über Sie und so ändern Sie das​

Allgemein

JarTee / Shutterstock.com Rund 80 Prozent der deutschsprachigen Bevölkerung ab 14 Jahren nutzt Whatsapp als Messenger-App. Hinter der vertrauten Benutzeroberfläche sammelt Whatsapp – und damit Meta – allerdings eine beachtliche Menge an Informationen: über Sie, Ihre Kontakte, Ihren Standort und Ihre Aktivitäten. Und das selbst dann, wenn Sie gerade gar nicht aktiv chatten. Das Gute ist: Sie können etwas dagegen tun, ohne gleich ganz auf Whatsapp verzichten zu müssen. Wir zeigen Ihnen, wie. Beunruhigend: Was Whatsapp alles über Sie weiß Whatsapp verlangt beim ersten Start über 40 Berechtigungen – je nach Betriebssystem, Gerätemodell und Nutzung sogar noch mehr. Damit erhält die App umfassenden Einblick in Ihr digitales Leben. Zu diesen Berechtigungen gehören unter anderem: Zugriff auf Ihre Kontaktliste Standortdaten in Echtzeit Ihre Fotos und Videos Mikrofon- und Kamera-Zugriff Geräteinformationen und Nutzungsverhalten Kalender, Anrufverlauf und Gerätespeicher Besonders brisant: Auch wenn Sie selbst Whatsapp nicht nutzen, kann Meta Daten über Sie speichern – etwa wenn Ihre Nummer in einem Adressbuch eines anderen Whatsapp-Nutzers gespeichert ist. Datenauskunft nach DSGVO – so geht’s Sie möchten genau wissen, was Whatsapp über Sie gespeichert hat? Die DSGVO gibt Ihnen das Recht auf Auskunft. In der App unter Einstellungen → Account → Konto-Info anfordern können Sie ein vollständiges Datenpaket anfordern – inklusive Metadaten, Geräteinformationen, Profilbilder und vielem mehr. Mikrofon-Zugriff: Hört Whatsapp mit? Whatsapp kann – mit Ihrer Zustimmung – auf das Mikrofon Ihres Smartphones zugreifen. Das ist technisch notwendig: Für das Senden von Sprachnachrichten sowie Telefonate und Videoanrufe braucht die App Mikrofonzugriff. Die Kehrseite davon ist, dass der Mikrofonzugriff auch dann aktiv bleiben kann, wenn Sie gerade gar nichts aufnehmen. Whatsapp läuft oft im Hintergrund – und wenn Sie die Berechtigung einmal erteilt haben, ist das Mikrofon potenziell ständig verfügbar. Sichtbar wird das nur durch einen kleinen Punkt in der Statusleiste (orange bei iOS, grün bei Android). Es ist also rein technisch möglich, dass Geräusche oder Gespräche erfasst werden, ohne dass Sie davon aktiv etwas mitbekommen. Zwar verspricht Whatsapp, keine Daten ohne Anlass mitzuschneiden. Doch allein die Möglichkeit wirft datenschutzrechtlich Fragen auf und hinterlässt ein mulmiges Gefühl. Tipp: Prüfen Sie in den Smartphone-Einstellungen, ob Whatsapp dauerhaft Zugriff aufs Mikrofon hat. Wenn ja, setzen Sie die Berechtigung im Zweifel auf „Nur bei Verwendung“. So behalten Sie die Kontrolle. So entziehen Sie Whatsapp überflüssige Berechtigungen Wenn Sie Ihre Privatsphäre schützen möchten, sollten Sie Whatsapp nicht alles erlauben. In den App-Einstellungen Ihres Smartphones (unter „Apps“ oder „Anwendungen“) können Sie gezielt Berechtigungen deaktivieren: Kamera & Mikrofon: Nur bei aktiver Nutzung oder deaktivieren, wenn nicht in Nutzung Standort: Nur bei aktiver Nutzung oder ganz blockieren Fotos & Medien: Zugriff einschränken oder gezielt freigeben Kontakte & Anrufliste: Optional – Whatsapp funktioniert auch ohne Zugriff Musik & Audio: Gezielt freigeben, wenn nötig SMS & Geräte in der Nähe: Optional – am besten deaktivieren Beachten Sie: Einige Funktionen (zum Beispiel Sprachnachrichten oder das Teilen von Bildern) sind ohne diese Berechtigungen eingeschränkt oder gar nicht nutzbar. Zusätzlich sollten Sie prüfen, welche internen Datenschutz-Einstellungen Sie in Whatsapp anpassen können, um Ihre Privatsphäre und Sichtbarkeit in der App gezielt zu steuern. PC-Welt (PC-Welt) 

So viel weiß Whatsapp über Sie und so ändern Sie das​ JarTee / Shutterstock.com

Rund 80 Prozent der deutschsprachigen Bevölkerung ab 14 Jahren nutzt Whatsapp als Messenger-App. Hinter der vertrauten Benutzeroberfläche sammelt Whatsapp – und damit Meta – allerdings eine beachtliche Menge an Informationen: über Sie, Ihre Kontakte, Ihren Standort und Ihre Aktivitäten. Und das selbst dann, wenn Sie gerade gar nicht aktiv chatten. Das Gute ist: Sie können etwas dagegen tun, ohne gleich ganz auf Whatsapp verzichten zu müssen. Wir zeigen Ihnen, wie.

Beunruhigend: Was Whatsapp alles über Sie weiß

Whatsapp verlangt beim ersten Start über 40 Berechtigungen – je nach Betriebssystem, Gerätemodell und Nutzung sogar noch mehr. Damit erhält die App umfassenden Einblick in Ihr digitales Leben. Zu diesen Berechtigungen gehören unter anderem:

Zugriff auf Ihre Kontaktliste

Standortdaten in Echtzeit

Ihre Fotos und Videos

Mikrofon- und Kamera-Zugriff

Geräteinformationen und Nutzungsverhalten

Kalender, Anrufverlauf und Gerätespeicher

Besonders brisant: Auch wenn Sie selbst Whatsapp nicht nutzen, kann Meta Daten über Sie speichern – etwa wenn Ihre Nummer in einem Adressbuch eines anderen Whatsapp-Nutzers gespeichert ist.

Datenauskunft nach DSGVO – so geht’s

Sie möchten genau wissen, was Whatsapp über Sie gespeichert hat? Die DSGVO gibt Ihnen das Recht auf Auskunft. In der App unter Einstellungen → Account → Konto-Info anfordern können Sie ein vollständiges Datenpaket anfordern – inklusive Metadaten, Geräteinformationen, Profilbilder und vielem mehr.

Mikrofon-Zugriff: Hört Whatsapp mit?

Whatsapp kann – mit Ihrer Zustimmung – auf das Mikrofon Ihres Smartphones zugreifen. Das ist technisch notwendig: Für das Senden von Sprachnachrichten sowie Telefonate und Videoanrufe braucht die App Mikrofonzugriff.

Die Kehrseite davon ist, dass der Mikrofonzugriff auch dann aktiv bleiben kann, wenn Sie gerade gar nichts aufnehmen. Whatsapp läuft oft im Hintergrund – und wenn Sie die Berechtigung einmal erteilt haben, ist das Mikrofon potenziell ständig verfügbar. Sichtbar wird das nur durch einen kleinen Punkt in der Statusleiste (orange bei iOS, grün bei Android).

Es ist also rein technisch möglich, dass Geräusche oder Gespräche erfasst werden, ohne dass Sie davon aktiv etwas mitbekommen. Zwar verspricht Whatsapp, keine Daten ohne Anlass mitzuschneiden. Doch allein die Möglichkeit wirft datenschutzrechtlich Fragen auf und hinterlässt ein mulmiges Gefühl.

Tipp: Prüfen Sie in den Smartphone-Einstellungen, ob Whatsapp dauerhaft Zugriff aufs Mikrofon hat. Wenn ja, setzen Sie die Berechtigung im Zweifel auf „Nur bei Verwendung“. So behalten Sie die Kontrolle.

So entziehen Sie Whatsapp überflüssige Berechtigungen

Wenn Sie Ihre Privatsphäre schützen möchten, sollten Sie Whatsapp nicht alles erlauben. In den App-Einstellungen Ihres Smartphones (unter „Apps“ oder „Anwendungen“) können Sie gezielt Berechtigungen deaktivieren:

Kamera & Mikrofon: Nur bei aktiver Nutzung oder deaktivieren, wenn nicht in Nutzung

Standort: Nur bei aktiver Nutzung oder ganz blockieren

Fotos & Medien: Zugriff einschränken oder gezielt freigeben

Kontakte & Anrufliste: Optional – Whatsapp funktioniert auch ohne Zugriff

Musik & Audio: Gezielt freigeben, wenn nötig

SMS & Geräte in der Nähe: Optional – am besten deaktivieren

Beachten Sie: Einige Funktionen (zum Beispiel Sprachnachrichten oder das Teilen von Bildern) sind ohne diese Berechtigungen eingeschränkt oder gar nicht nutzbar. Zusätzlich sollten Sie prüfen, welche internen Datenschutz-Einstellungen Sie in Whatsapp anpassen können, um Ihre Privatsphäre und Sichtbarkeit in der App gezielt zu steuern.

PC-Welt

(PC-Welt)

So viel weiß Whatsapp über Sie und so ändern Sie das​ Weiterlesen »

Python Packages “editable” installieren​

Allgemein

Änderungen im laufenden Betrieb können Zeit sparen.cristiano barni | shutterstock.com Wenn Sie Packages in eine Python-Instanz installieren, werden die darin enthaltenen Dateien standardmäßig in das Zielverzeichnis kopiert. Manchmal macht es allerdings mehr Sinn, diese Dateien nicht zu kopieren, sondern zu verknüpfen. So kann jede installierte Version des Pakets einfach aktualisiert werden, indem die verknüpfte Quelle editiert wird. Dieses Vorgehen wird auch als “Editable Install” (oder “bearbeitbare Installation“) bezeichnet und ist eine performante Methode, um ein Package zu nutzen und es parallel zu bearbeiten. Alle Änderungen an der Quelle des Packages werden direkt übernommen – überall, wo es installiert ist. Python-Projekte synchron halten mit Editable Installs Angenommen, Sie haben ein Python-Projekt namens pythingy auf Ihrem System – beispielsweise /usr/projects/pythingy oder D:/dev/pythingy. Sie verwenden pythingy als Dienstprogramm in verschiedenen anderen Python-Projekten, arbeiten aber auch ständig daran. Nach jeder einzelnen Änderung Kopien von pythingy in mehrere virtuelle Umgebungen zu installieren und diese zu aktualisieren, wäre allerdings ziemlich mühsam. An dieser Stelle kommen Editable Installs ins Spiel. Sie machen es möglich, dass jede virtuelle Umgebung, die in pythingy zum Einsatz kommt, einfach auf dessen ursprüngliches Quellverzeichnis verweist. Ändert sich der ursprüngliche Quellcode, werden auch alle damit verknüpften Kopien aktualisiert (weil sie lediglich Pointer auf das Original darstellen). Um ein Python-Paket im editierbaren Modus zu installieren, nutzen Sie das -e-Flag und übergeben den Pfad zum Verzeichnis des Pakets: pip install -e /usr/projects/pythingy Der Installationsvorgang sollte sich nicht verändern – abgesehen von der Art und Weise, wie auf das Projekt referenziert wird, wenn Sie pip list in einer beliebigen Umgebung verwenden, in der das Projekt installiert wurde: (.venv) PS D:Devpythingy> pip list Package Version Editable project location ——– ——- ——————————— pip 25.1.1 pythingy 0.1 D:devpythingy Der Editable project location-Pfad gibt an, wo sich die Originalquelle für das installierte Projekt befindet (falls Sie keine Packages haben, die Editable Installs sind, wird diese Spalte nicht angezeigt). Das Beste daran: Sie müssen pip install –update nicht für das Package ausführen, wenn Sie an diesem Änderungen vornehmen. Es gibt allerdings einige Ausnahmen (dazu gleich mehr). Bearbeitbare Installation trifft virtuelle Umgebung Eine weitere nützliche Methode bei der Python-Projektarbeit ist es, das Projekt “editable” in seine eigene virtuelle Umgebung zu installieren. Dazu nutzen Sie einfach pip install -e. aus dem Root des Projektverzeichnisses. Ein Projekt als bearbeitbare Installation seiner eigenen virtuellen Umgebung hinzuzufügen, bietet einige nützliche Vorteile: Es repliziert das Verhalten, das Endbenutzer zu Gesicht bekommen, wenn sie das Projekt nutzen. Wenn pythingy als Editable Install in seiner eigenen Umgebung vorliegt, lassen sich Aspekte des Projekts testen, die nur nach der Installation sichtbar werden – beispielsweise Entry-Point-Skripte. Im Projekt selbst müssen keine relativen Importe mehr verwendet werden. Wenn pythingy im Namespace der virtuellen Umgebung vorhanden ist, kann es als oberster Namespace für den Import verwendet werden. So ist nicht nur eindeutig, woher der Import stammt – es entfallen auch sämtliche Nebenwirkungen, die bei relativen Importen auftreten können und die relativ schwer zu debuggen sind. Und auch hier wird das Verhalten repliziert, das den Benutzer erwartet, wenn er das Projekt in einer virtuellen Umgebung installiert. Editable-Install-Limitationen Allerdings weisen auch bearbeitbare Installationen einige Einschränkungen auf, die zu beachten sind: Einen Remote-Endpunkt (etwa ein Remote-git-Repository) als Quelle für Editable Istalls zu verwenden, ist nicht zu empfehlen. Mit anderen Worten: Führen Sie keinen Befehl wie pip install -e git+https://github.com/foo/bar aus. Wenn Sie ein Remote-Repository als Quelle nutzen möchten, klonen Sie es lokal, führen Sie pip install -e /path/to/clone aus und halten Sie die geklonte Kopie mit der Remote-Quelle synchron. Die Quelle einer bearbeitbaren Installation zu ändern, löst darüber hinaus nicht automatisch erneute Build-Aktionen für die Quelle aus. Das äußert sich in der Regel in zwei wesentlichen Funktionen: Entry-Point-Skripte, mit denen Sie ein Python-Paket mit einem Shell-Befehl starten können, und Python-Erweiterungsmodule, die (in der Regel aus C-Quellcode) kompiliert werden. Wenn Ihre Änderungen an der Paketquelle eine dieser Funktionen betreffen, müssen Sie den Installationsvorgang erneut ausführen und den Build-Schritt erneut auslösen – das funktioniert mit pip install -e -U /path/to/source. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Python Packages “editable” installieren​ Änderungen im laufenden Betrieb können Zeit sparen.cristiano barni | shutterstock.com

Wenn Sie Packages in eine Python-Instanz installieren, werden die darin enthaltenen Dateien standardmäßig in das Zielverzeichnis kopiert. Manchmal macht es allerdings mehr Sinn, diese Dateien nicht zu kopieren, sondern zu verknüpfen. So kann jede installierte Version des Pakets einfach aktualisiert werden, indem die verknüpfte Quelle editiert wird.

Dieses Vorgehen wird auch als “Editable Install” (oder “bearbeitbare Installation“) bezeichnet und ist eine performante Methode, um ein Package zu nutzen und es parallel zu bearbeiten. Alle Änderungen an der Quelle des Packages werden direkt übernommen – überall, wo es installiert ist.

Python-Projekte synchron halten mit Editable Installs

Angenommen, Sie haben ein Python-Projekt namens pythingy auf Ihrem System – beispielsweise /usr/projects/pythingy oder D:/dev/pythingy. Sie verwenden pythingy als Dienstprogramm in verschiedenen anderen Python-Projekten, arbeiten aber auch ständig daran. Nach jeder einzelnen Änderung Kopien von pythingy in mehrere virtuelle Umgebungen zu installieren und diese zu aktualisieren, wäre allerdings ziemlich mühsam.

An dieser Stelle kommen Editable Installs ins Spiel. Sie machen es möglich, dass jede virtuelle Umgebung, die in pythingy zum Einsatz kommt, einfach auf dessen ursprüngliches Quellverzeichnis verweist. Ändert sich der ursprüngliche Quellcode, werden auch alle damit verknüpften Kopien aktualisiert (weil sie lediglich Pointer auf das Original darstellen).

Um ein Python-Paket im editierbaren Modus zu installieren, nutzen Sie das -e-Flag und übergeben den Pfad zum Verzeichnis des Pakets:

pip install -e /usr/projects/pythingy

Der Installationsvorgang sollte sich nicht verändern – abgesehen von der Art und Weise, wie auf das Projekt referenziert wird, wenn Sie pip list in einer beliebigen Umgebung verwenden, in der das Projekt installiert wurde:

(.venv) PS D:Devpythingy> pip list
Package Version Editable project location
——– ——- ———————————
pip 25.1.1
pythingy 0.1 D:devpythingy

Der Editable project location-Pfad gibt an, wo sich die Originalquelle für das installierte Projekt befindet (falls Sie keine Packages haben, die Editable Installs sind, wird diese Spalte nicht angezeigt). Das Beste daran: Sie müssen pip install –update nicht für das Package ausführen, wenn Sie an diesem Änderungen vornehmen. Es gibt allerdings einige Ausnahmen (dazu gleich mehr).

Bearbeitbare Installation trifft virtuelle Umgebung

Eine weitere nützliche Methode bei der Python-Projektarbeit ist es, das Projekt “editable” in seine eigene virtuelle Umgebung zu installieren. Dazu nutzen Sie einfach pip install -e. aus dem Root des Projektverzeichnisses.

Ein Projekt als bearbeitbare Installation seiner eigenen virtuellen Umgebung hinzuzufügen, bietet einige nützliche Vorteile:

Es repliziert das Verhalten, das Endbenutzer zu Gesicht bekommen, wenn sie das Projekt nutzen. Wenn pythingy als Editable Install in seiner eigenen Umgebung vorliegt, lassen sich Aspekte des Projekts testen, die nur nach der Installation sichtbar werden – beispielsweise Entry-Point-Skripte.

Im Projekt selbst müssen keine relativen Importe mehr verwendet werden. Wenn pythingy im Namespace der virtuellen Umgebung vorhanden ist, kann es als oberster Namespace für den Import verwendet werden. So ist nicht nur eindeutig, woher der Import stammt – es entfallen auch sämtliche Nebenwirkungen, die bei relativen Importen auftreten können und die relativ schwer zu debuggen sind. Und auch hier wird das Verhalten repliziert, das den Benutzer erwartet, wenn er das Projekt in einer virtuellen Umgebung installiert.

Editable-Install-Limitationen

Allerdings weisen auch bearbeitbare Installationen einige Einschränkungen auf, die zu beachten sind:

Einen Remote-Endpunkt (etwa ein Remote-git-Repository) als Quelle für Editable Istalls zu verwenden, ist nicht zu empfehlen. Mit anderen Worten: Führen Sie keinen Befehl wie pip install -e git+https://github.com/foo/bar aus. Wenn Sie ein Remote-Repository als Quelle nutzen möchten, klonen Sie es lokal, führen Sie pip install -e /path/to/clone aus und halten Sie die geklonte Kopie mit der Remote-Quelle synchron.

Die Quelle einer bearbeitbaren Installation zu ändern, löst darüber hinaus nicht automatisch erneute Build-Aktionen für die Quelle aus. Das äußert sich in der Regel in zwei wesentlichen Funktionen: Entry-Point-Skripte, mit denen Sie ein Python-Paket mit einem Shell-Befehl starten können, und Python-Erweiterungsmodule, die (in der Regel aus C-Quellcode) kompiliert werden. Wenn Ihre Änderungen an der Paketquelle eine dieser Funktionen betreffen, müssen Sie den Installationsvorgang erneut ausführen und den Build-Schritt erneut auslösen – das funktioniert mit pip install -e -U /path/to/source. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Python Packages “editable” installieren​ Weiterlesen »

Apple-Geräte ohne MDM verwalten?​

Allgemein

loading=”lazy” width=”400px”>Dinge wie Zero Touch Deployment ist bei Apple Devices mittlerweile State of the Art, Einrichtung und Verwaltung gehen aber auch händisch. PeopleImages / Getty Images Ist die Verwaltung von Apple-Geräten ohne MDM möglich? Technisch gesehen lautet die Antwort ja. Sie können dazu Konfigurationsprofile und Apple Configurator verwenden. Allerdingst ist dieser Ansatz nicht wirklich empfehlenswert. Da Anbieter von MDM-Lösungen (Mobile Device Management) ihre Software für nur einen Dollar pro Gerät oder Benutzer und Monat lizenzieren, sollte MDM die erste Wahl für alle sein, außer für diejenigen mit eingeschränktem Budget. Selbst für diese Gruppe gibt es mit Apple Business Essentials eine abgespeckte Lösung. MDM und Apple Business Manager (oder Apple Business Essentials) ermöglichen ein Zero-Touch-Deployment. Die IT-Abteilung muss das Gerät nicht einmal zu Gesicht bekommen: Es wird dem Mitarbeiter in der Originalverpackung zugeschickt und beim Start automatisch konfiguriert und in MDM registriert, wenn die Aktivierungsserver von Apple abgefragt werden. Zu Risiken und Nebenwirkungen… Im Gegensatz dazu kann die manuelle Verwaltung von Geräten äußerst zeitaufwendig sein, da Sie jedes Gerät bei der Installation von Konfigurationsprofilen manuell einrichten müssen. Außerdem müssen Sie jedes Mal, wenn Sie Änderungen vornehmen, das Gerät in die Hand nehmen. Die Installation von Sicherheits- oder Software-Updates kann nicht erzwungen werden, sodass es jedem Benutzer selbst überlassen bleibt, ob er sie installiert oder nicht. Wird ein Gerät dagegen über MDM verwaltet, findet eine ständige Kommunikation zwischen dem Gerät und dem MDM-Dienst Ihres Unternehmens statt. Dies ermöglicht eine Vielzahl von Funktionen, insbesondere Sicherheits-Features wie: die Abfrage des Gerätestatus, das Sperren/Entsperren des Geräts, die Installation von Software-Updates und das Hinzufügen von Anwendungen und anderen Inhalten über Funk. Sie erhalten auch die Möglichkeit, die berufliche und private Nutzung eines Geräts sicher voneinander zu trennen und Managed Apple IDs zu verwenden, anstatt sich auf die persönlichen Apple-Konten von Benutzern zu verlassen. Managed Apple IDs erfüllen die gleiche Funktion wie persönliche Apple-IDs, gehören jedoch einer Organisation und nicht dem Endbenutzer und sind mit den arbeitsbezogenen Konten eines Mitarbeiters verknüpft. Sie können auch so verwaltet werden, dass Benutzer auf die Continuity-Funktionen am Arbeitsplatz zugreifen können und ein arbeitsbezogenes iCloud-Konto erhalten. Ein großer Vorteil hierbei ist, dass arbeitsbezogene Passwörter und Passkeys auf allen Devices synchronisiert – und beim Ausscheiden des Mitarbeiters automatisch entfernt werden können. Ein weiterer Punkt, den Sie bedenken sollten, wenn Sie sparen möchten:  Wenn Ihr Unternehmen wächst, werden sich Ihre Anforderungen ändern – und Sie werden sich wahrscheinlich ohnehin mit der mühsamen Migration weg von der manuellen Verwaltung herumschlagen müssen. Ein weiterer Grund, davon Abstand zu nehmen, Apple-Geräte manuell verwalten zu wollen. Wenn es sein muss – so geht‘s Falls Sie wirklich entschlossen sind, auf MDM zu verzichten, oder sehr knapp bei Kasse sind und nur wenige Mitarbeiter und Geräte haben, sollten Sie Folgendes wissen: Die grundlegende Komponente, um Geräte zu managen, ist das Konfigurationsprofil. Dabei handelt es sich um eine XML-Datei, die die verschiedenen Optionen angibt, die Sie einrichten möchten. Diese Profile gibt es seit der Einführung des iPhone 3G im Jahr 2008, also zwei Jahre, bevor MDM überhaupt existierte. Diese Dateien bilden auch die Grundlage für die MDM-Konfiguration, aber über MDM erhalten Sie eine viel größere Auswahl an Konfigurationsoptionen und eine einfachere Benutzeroberfläche. Der Apple Configurator für Mac ist ein kostenloses Tool, das im App Store erhältlich ist. Es gibt auch eine iPhone-Version, die zur Registrierung von Geräten verwendet wird, wenn diese nicht für die Zero-Touch-Bereitstellung geeignet sind. Das sind in der Regel Geräte, die nicht über Unternehmen bei Apple oder bei einem autorisierten Reseller gekauft wurden. Die Mac-Version kann auch für diesen Zweck verwendet werden. Die neueste Version von Apple Configurator unterstützt die Verwaltung von iPhones, iPads und Apple TVs, aber – Achtung – nicht die Verwaltung von Macs. Dies ist ein weiterer Nachteil der manuellen Geräteverwaltung. Mit Apple Configurator können Sie eine Blaupause für verschiedene Gerätetypen erstellen und Konfigurationsprofile mit einer benutzerfreundlichen, grafischen Oberfläche anlegen. Anschließend können Sie Ihren Profilen Blaupausen zuweisen. Mit dem Configurator lassen sich auch Geräte für den Empfang von Konfigurationsprofilen vorbereiten, Geräte sichern und wiederherstellen. Zudem können Sie mithilfe der Apple-Überwachungsfunktionen, die eine zusätzliche Kontrolle über Geräte bieten, feststellen, ob sie funktionieren, und Apps auf ihnen installieren. Nachdem Sie Blaupausen eingerichtet und Konfigurationsprofile und Apps hinzugefügt haben, müssen Sie jedes Gerät über ein USB-zu-Lightning-Kabel (bei älteren Geräten) oder ein USB-C-Kabel (bei neueren Geräten) anschließen und das Gerät dann einer Blaupause zuweisen. Wenn Sie ein Gerät für Apple Configurator vorbereiten, können Sie verschiedene Schritte im Setup-Assistenten entfernen (genau wie bei MDM). Sie können auch den Gerätenamen, das Hintergrundbild und das Layout des Startbildschirms festlegen. Die Verwaltung von Macs funktioniert im Wesentlichen auf die gleiche Weise – durch die Erstellung von Konfigurationsprofilen. Diese müssen jedoch manuell auf jedem Mac installiert werden. Je nach Nutzlast des Profils und je nachdem, ob ein Benutzer über lokale Administratorrechte verfügt, kann der Mac-Benutzer möglicherweise installierte Konfigurationsprofile löschen. Apple Configurator kann auch verwendet werden, um die Firmware von Apple-Geräten (einschließlich Macs) wiederherzustellen oder zu reaktivieren. Apple stellt ein Benutzerhandbuch zur Verfügung, das zusätzliche Details und eine schrittweise Anleitung für Aufgaben in Apple Configurator bietet. Es ist also durchaus möglich, Apple-Geräte manuell zu managen – mit Abstrichen. Allerdings bietet es viele Vorteile, Geräte mit MDM (oder Apple Business Essentials) zu verwalten – von besserer Sicherheit bis hin zu einer geringeren IT-Arbeitsbelastung und einer verbesserten Benutzererfahrung. (mb) 

Apple-Geräte ohne MDM verwalten?​ loading=”lazy” width=”400px”>Dinge wie Zero Touch Deployment ist bei Apple Devices mittlerweile State of the Art, Einrichtung und Verwaltung gehen aber auch händisch. PeopleImages / Getty Images

Ist die Verwaltung von Apple-Geräten ohne MDM möglich? Technisch gesehen lautet die Antwort ja. Sie können dazu Konfigurationsprofile und Apple Configurator verwenden. Allerdingst ist dieser Ansatz nicht wirklich empfehlenswert. Da Anbieter von MDM-Lösungen (Mobile Device Management) ihre Software für nur einen Dollar pro Gerät oder Benutzer und Monat lizenzieren, sollte MDM die erste Wahl für alle sein, außer für diejenigen mit eingeschränktem Budget. Selbst für diese Gruppe gibt es mit Apple Business Essentials eine abgespeckte Lösung.

MDM und Apple Business Manager (oder Apple Business Essentials) ermöglichen ein Zero-Touch-Deployment. Die IT-Abteilung muss das Gerät nicht einmal zu Gesicht bekommen: Es wird dem Mitarbeiter in der Originalverpackung zugeschickt und beim Start automatisch konfiguriert und in MDM registriert, wenn die Aktivierungsserver von Apple abgefragt werden.

Zu Risiken und Nebenwirkungen…

Im Gegensatz dazu kann die manuelle Verwaltung von Geräten äußerst zeitaufwendig sein, da Sie jedes Gerät bei der Installation von Konfigurationsprofilen manuell einrichten müssen. Außerdem müssen Sie jedes Mal, wenn Sie Änderungen vornehmen, das Gerät in die Hand nehmen. Die Installation von Sicherheits- oder Software-Updates kann nicht erzwungen werden, sodass es jedem Benutzer selbst überlassen bleibt, ob er sie installiert oder nicht.

Wird ein Gerät dagegen über MDM verwaltet, findet eine ständige Kommunikation zwischen dem Gerät und dem MDM-Dienst Ihres Unternehmens statt. Dies ermöglicht eine Vielzahl von Funktionen, insbesondere Sicherheits-Features wie:

die Abfrage des Gerätestatus,

das Sperren/Entsperren des Geräts,

die Installation von Software-Updates und

das Hinzufügen von Anwendungen und anderen Inhalten über Funk.

Sie erhalten auch die Möglichkeit, die berufliche und private Nutzung eines Geräts sicher voneinander zu trennen und Managed Apple IDs zu verwenden, anstatt sich auf die persönlichen Apple-Konten von Benutzern zu verlassen.

Managed Apple IDs erfüllen die gleiche Funktion wie persönliche Apple-IDs, gehören jedoch einer Organisation und nicht dem Endbenutzer und sind mit den arbeitsbezogenen Konten eines Mitarbeiters verknüpft. Sie können auch so verwaltet werden, dass Benutzer auf die Continuity-Funktionen am Arbeitsplatz zugreifen können und ein arbeitsbezogenes iCloud-Konto erhalten. Ein großer Vorteil hierbei ist, dass arbeitsbezogene Passwörter und Passkeys auf allen Devices synchronisiert – und beim Ausscheiden des Mitarbeiters automatisch entfernt werden können.

Ein weiterer Punkt, den Sie bedenken sollten, wenn Sie sparen möchten:  Wenn Ihr Unternehmen wächst, werden sich Ihre Anforderungen ändern – und Sie werden sich wahrscheinlich ohnehin mit der mühsamen Migration weg von der manuellen Verwaltung herumschlagen müssen. Ein weiterer Grund, davon Abstand zu nehmen, Apple-Geräte manuell verwalten zu wollen.

Wenn es sein muss – so geht‘s

Falls Sie wirklich entschlossen sind, auf MDM zu verzichten, oder sehr knapp bei Kasse sind und nur wenige Mitarbeiter und Geräte haben, sollten Sie Folgendes wissen: Die grundlegende Komponente, um Geräte zu managen, ist das Konfigurationsprofil. Dabei handelt es sich um eine XML-Datei, die die verschiedenen Optionen angibt, die Sie einrichten möchten.

Diese Profile gibt es seit der Einführung des iPhone 3G im Jahr 2008, also zwei Jahre, bevor MDM überhaupt existierte. Diese Dateien bilden auch die Grundlage für die MDM-Konfiguration, aber über MDM erhalten Sie eine viel größere Auswahl an Konfigurationsoptionen und eine einfachere Benutzeroberfläche.

Der Apple Configurator für Mac ist ein kostenloses Tool, das im App Store erhältlich ist. Es gibt auch eine iPhone-Version, die zur Registrierung von Geräten verwendet wird, wenn diese nicht für die Zero-Touch-Bereitstellung geeignet sind. Das sind in der Regel Geräte, die nicht über Unternehmen bei Apple oder bei einem autorisierten Reseller gekauft wurden. Die Mac-Version kann auch für diesen Zweck verwendet werden.

Die neueste Version von Apple Configurator unterstützt die Verwaltung von iPhones, iPads und Apple TVs, aber – Achtung – nicht die Verwaltung von Macs. Dies ist ein weiterer Nachteil der manuellen Geräteverwaltung.

Mit Apple Configurator können Sie eine Blaupause für verschiedene Gerätetypen erstellen und Konfigurationsprofile mit einer benutzerfreundlichen, grafischen Oberfläche anlegen. Anschließend können Sie Ihren Profilen Blaupausen zuweisen. Mit dem Configurator lassen sich auch Geräte für den Empfang von Konfigurationsprofilen vorbereiten, Geräte sichern und wiederherstellen. Zudem können Sie mithilfe der Apple-Überwachungsfunktionen, die eine zusätzliche Kontrolle über Geräte bieten, feststellen, ob sie funktionieren, und Apps auf ihnen installieren.

Nachdem Sie Blaupausen eingerichtet und Konfigurationsprofile und Apps hinzugefügt haben, müssen Sie jedes Gerät über ein USB-zu-Lightning-Kabel (bei älteren Geräten) oder ein USB-C-Kabel (bei neueren Geräten) anschließen und das Gerät dann einer Blaupause zuweisen. Wenn Sie ein Gerät für Apple Configurator vorbereiten, können Sie verschiedene Schritte im Setup-Assistenten entfernen (genau wie bei MDM). Sie können auch den Gerätenamen, das Hintergrundbild und das Layout des Startbildschirms festlegen.

Die Verwaltung von Macs funktioniert im Wesentlichen auf die gleiche Weise – durch die Erstellung von Konfigurationsprofilen. Diese müssen jedoch manuell auf jedem Mac installiert werden. Je nach Nutzlast des Profils und je nachdem, ob ein Benutzer über lokale Administratorrechte verfügt, kann der Mac-Benutzer möglicherweise installierte Konfigurationsprofile löschen. Apple Configurator kann auch verwendet werden, um die Firmware von Apple-Geräten (einschließlich Macs) wiederherzustellen oder zu reaktivieren.

Apple stellt ein Benutzerhandbuch zur Verfügung, das zusätzliche Details und eine schrittweise Anleitung für Aufgaben in Apple Configurator bietet.

Es ist also durchaus möglich, Apple-Geräte manuell zu managen – mit Abstrichen. Allerdings bietet es viele Vorteile, Geräte mit MDM (oder Apple Business Essentials) zu verwalten – von besserer Sicherheit bis hin zu einer geringeren IT-Arbeitsbelastung und einer verbesserten Benutzererfahrung. (mb)

Apple-Geräte ohne MDM verwalten?​ Weiterlesen »

Nach oben scrollen
×