Computerhaus Quickborn

Blog

10 Windows-Sicherheitstipps​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken. 1. PUPs blockieren Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden. Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.   2. Verschlüsselung einsetzen Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“. Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen: Sie sind mit einem lokalen Konto angemeldet, oder Sie nutzen ein älteres Gerät, das die Option nicht unterstützt. Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.   3. Synchronisierungseinstellungen prüfen Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.   Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen. 4. Sicher(er) einloggen Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen. Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit. 5. Überwachten Ordnerzugriff aktivieren Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich. Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren. 6. Office-Updates sicherstellen Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“. Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion. 7. App-Stati checken Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist. Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel: das Windows-Befehlszeilen-Tool WinGet, oder das kostenlose Drittanbieter-Tool Home Updater. 8. Kernisolierung aktivieren Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“. Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend. 9. Sandboxing nutzen Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten. Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren. 10. Exploit-Schutz prüfen Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf. Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Windows-Sicherheitstipps​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com

Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken.

1. PUPs blockieren

Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden.

Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.  

2. Verschlüsselung einsetzen

Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“.

Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen:

Sie sind mit einem lokalen Konto angemeldet, oder

Sie nutzen ein älteres Gerät, das die Option nicht unterstützt.

Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.  

3. Synchronisierungseinstellungen prüfen

Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.  

Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen.

4. Sicher(er) einloggen

Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen.

Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit.

5. Überwachten Ordnerzugriff aktivieren

Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich.

Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren.

6. Office-Updates sicherstellen

Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“.

Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion.

7. App-Stati checken

Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist.

Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel:

das Windows-Befehlszeilen-Tool WinGet, oder

das kostenlose Drittanbieter-Tool Home Updater.

8. Kernisolierung aktivieren

Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“.

Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend.

9. Sandboxing nutzen

Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten.

Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren.

10. Exploit-Schutz prüfen

Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf.

Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Windows-Sicherheitstipps​ Weiterlesen »

CISO: Das muss ein Chief Information Security Officer können​

Allgemein

Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer. Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Foto: GaudiLab – shutterstock.com Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten. CISO – eine Definition Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern. In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung. IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs. Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten. Verantwortlichkeiten eines CISO Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf: Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst. Anforderungen an einen CISO Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position. Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle. Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen. Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten. Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren. Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security. Zertifizierung zum CISO Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor: Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten. Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position. Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten. In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele: Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP). Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an. Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten. Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an. CISO vs. CIO vs. CSO Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen. Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann. Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich. CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein. CISO-Jobprofil Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten. In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind. Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte. CISO Gehalt Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist. Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen. Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind. 

CISO: Das muss ein Chief Information Security Officer können​ Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer.

Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens.
Foto: GaudiLab – shutterstock.com

Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten.

CISO – eine Definition

Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern.

In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung.

IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs.

Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten.

Verantwortlichkeiten eines CISO

Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf:

Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst.

Anforderungen an einen CISO

Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position.

Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle.

Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen.

Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten.

Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren.

Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security.

Zertifizierung zum CISO

Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor:

Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten.

Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position.

Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten.

In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele:

Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP).

Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an.

Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten.

Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an.

CISO vs. CIO vs. CSO

Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen.

Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann.

Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich.

CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein.

CISO-Jobprofil

Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten.

In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind.

Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte.

CISO Gehalt

Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist.

Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen.

Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind.

CISO: Das muss ein Chief Information Security Officer können​ Weiterlesen »

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​

Allgemein

Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren. Vorsicht vor Datenlecks Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch: Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden. Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen. Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt. Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten. Halluzinationen mit Folgen Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche. Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen. Hinweis auf fehlende oder falsche Tools Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können. Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise. Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen. Aufklären statt nur verbieten Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem. Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden, welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen; welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen. Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird. Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen. Vertrauen ist gut, Kontrolle ist besser … Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen. Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden. Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering). Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten. Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt. 

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren.

Vorsicht vor Datenlecks

Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch:

Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden.

Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen.

Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt.

Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten.

Halluzinationen mit Folgen

Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche.

Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen.

Hinweis auf fehlende oder falsche Tools

Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können.

Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise.

Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen.

Aufklären statt nur verbieten

Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem.

Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden,

welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen;

welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie

auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen.

Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird.

Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen.

Vertrauen ist gut, Kontrolle ist besser …

Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen.

Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden.

Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering).

Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten.

Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt.

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Weiterlesen »

RPA Software: Die besten Tools für Robotic Process Automation​

Allgemein

Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools. Foto: klyaksun – shutterstock.com Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher. Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”. Was Robotic Process Automation leisten sollte Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig. Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten: Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift. Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen. Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen. Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”. Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten. Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps. Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können. Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert. Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren. Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen. Die besten RPA-Softwarelösungen Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten. Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet. Airslate Appian Automation Anywhere AutomationEdge AWS Lambda Cyclone Robotics Datamatics EdgeVerve Systems Fortra Automate IBM Laiye Microsoft Mulesoft (Salesforce) NiCE Nintex NTT-AT Pega Rocketbot Samsung SDS SAP ServiceNow SS&C Blue Prism Tungsten Automation (ehemals Kofax) UiPath WorkFusion (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox. 

RPA Software: Die besten Tools für Robotic Process Automation​ Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools.
Foto: klyaksun – shutterstock.com

Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher.

Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”.

Was Robotic Process Automation leisten sollte

Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig.

Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten:

Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift.

Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen.

Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen.

Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”.

Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten.

Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps.

Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können.

Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert.

Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren.

Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen.

Die besten RPA-Softwarelösungen

Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten.

Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet.

Airslate

Appian

Automation Anywhere

AutomationEdge

AWS Lambda

Cyclone Robotics

Datamatics

EdgeVerve Systems

Fortra Automate

IBM

Laiye

Microsoft

Mulesoft (Salesforce)

NiCE

Nintex

NTT-AT

Pega

Rocketbot

Samsung SDS

SAP

ServiceNow

SS&C Blue Prism

Tungsten Automation (ehemals Kofax)

UiPath

WorkFusion

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox.

RPA Software: Die besten Tools für Robotic Process Automation​ Weiterlesen »

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​

Allgemein

Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach. Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet. Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert. Glücksspiel-Parallelen Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst. Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”. Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.” Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos: kleine Einstiegskosten, unberechenbare Belohnungen, und das Versprechen des großen Durchbruchs. Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt. Das Prokrastinations-Paradox Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind. Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst. Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit. Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird. Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet. Credits als Kostenfalle Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten. Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro. Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken. Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen. Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt. Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.” Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen. Der Dopamin-Kreislauf Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt. Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst. Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange. Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen. Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen. So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen. Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität. Produktiv bleiben in der KI-Ära Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen: Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten. Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben. Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten. Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel. Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist. Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos. Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen. Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit. Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen. KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb) 

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com

Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach.

Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet.

Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert.

Glücksspiel-Parallelen

Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst.

Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”.

Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.”

Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos:

kleine Einstiegskosten,

unberechenbare Belohnungen, und

das Versprechen des großen Durchbruchs.

Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt.

Das Prokrastinations-Paradox

Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind.

Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst.

Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit.

Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird.

Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet.

Credits als Kostenfalle

Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten.

Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro.

Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken.

Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen.

Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt.

Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.”

Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen.

Der Dopamin-Kreislauf

Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt.

Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst.

Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange.

Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen.

Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen.

So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen.

Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität.

Produktiv bleiben in der KI-Ära

Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen:

Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten.

Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben.

Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten.

Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel.

Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist.

Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos.

Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen.

Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit.

Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen.

KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb)

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Weiterlesen »

Was ist LangChain?​

Allgemein

LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen. Foto: Idea99 – shutterstock.com Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln. Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise: Chatbots oder persönliche Assistenten erstellen, Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren, Code schreiben und besser verstehen, oder mit APIs interagieren. Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten. Wie LangChain funktioniert LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren. LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen. Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen. Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen. In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen: Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette. Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts). Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen. LangChain besteht aus sechs Modulen: Model I/O (Schnittstelle zu Sprachmodellen), Data Connection (Schnittstelle zu anwendungsspezifischen Daten), Chains (konstruieren Call-Sequenzen), Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen), Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain). Debugging mit LangSmith Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung. LangChain-Anwendungsfälle Zu den Anwendungsfällen für LangChain gehören: Q&As aus Dokumenten zu generieren, strukturierte Daten zu analysieren, mit APIs zu interagieren, Code zu verstehen, Agenten zu simulieren, autonome Agenten zu realisieren, Chatbots umzusetzen, Code zu generieren, Daten zu extrahieren, Graph-Daten zu analysieren, multimodale Outputs zu liefern, Self-Checking, Zusammenfassungen sowie Tagging. LangChain-Integrationen In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt: Callbacks, Chat-Modelle, Document Loader, Document Transformer, LLMs, Message Histories, Retriever, Text-Embedding-Modelle, Agents & Toolkits, Tools und Vector Stores. LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten. LangChain installieren Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren. Die grundlegende, minimale Installation starten Sie mit folgendem Befehl: pip install langchain Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie: pip install langchain[llms] Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl: pip install langchain[all] Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl: pip install ‘langchain[all]’ Um LangChain für JavaScript zu installieren, nutzen Sie: npm (npm install -S langchain), Yarn (yarn add langchain) oder pnpm (pnpm add langchain). Sie können LangChain für JavaScript verwenden mit: Node.js, Cloudflare Workers, Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen), Supabase Edge Functions, Webbrowsern und Deno. Weiterführende Informationen zu LangChain für JavaScript finden Sie hier. LangChain-Beispiel Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen. from langchain.chat_models import ChatOpenAI from langchain.prompts.chat import ( ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate, ) from langchain.chains import LLMChain from langchain.schema import BaseOutputParser class CommaSeparatedListOutputParser(BaseOutputParser): “””Parse the output of an LLM call to a comma-separated list.””” def parse(self, text: str): “””Parse the output of an LLM call.””” return text.strip().split(“, “) template = “””You are a helpful assistant who generates comma separated lists. A user will pass in a category, and you should generate 5 objects in that category in a comma separated list. ONLY return a comma separated list, and nothing more.””” system_message_prompt = SystemMessagePromptTemplate.from_template(template) human_template = “{text}” human_message_prompt = HumanMessagePromptTemplate.from_template(human_template) chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) chain = LLMChain( llm=ChatOpenAI(), prompt=chat_prompt, output_parser=CommaSeparatedListOutputParser() ) chain.run(“colors”) # >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’] Die LangChain Expression Language (LCEL) Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren. LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt: chain = prompt | model In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben: from langchain.prompts import ChatPromptTemplate from langchain.chat_models import ChatOpenAI model = ChatOpenAI() prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”) chain = prompt | model chain.invoke({“foo”: “bears”}) Der Output (wie auf der Website angegeben) sieht folgendermaßen aus: AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist LangChain?​ LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen.
Foto: Idea99 – shutterstock.com

Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln.

Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise:

Chatbots oder persönliche Assistenten erstellen,

Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren,

Code schreiben und besser verstehen, oder

mit APIs interagieren.

Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten.

Wie LangChain funktioniert

LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren.

LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen.

Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen.

Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen.

In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen:

Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette.

Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts).

Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen.

LangChain besteht aus sechs Modulen:

Model I/O (Schnittstelle zu Sprachmodellen),

Data Connection (Schnittstelle zu anwendungsspezifischen Daten),

Chains (konstruieren Call-Sequenzen),

Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen),

Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und

Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain).

Debugging mit LangSmith

Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung.

LangChain-Anwendungsfälle

Zu den Anwendungsfällen für LangChain gehören:

Q&As aus Dokumenten zu generieren,

strukturierte Daten zu analysieren,

mit APIs zu interagieren,

Code zu verstehen,

Agenten zu simulieren,

autonome Agenten zu realisieren,

Chatbots umzusetzen,

Code zu generieren,

Daten zu extrahieren,

Graph-Daten zu analysieren,

multimodale Outputs zu liefern,

Self-Checking,

Zusammenfassungen sowie

Tagging.

LangChain-Integrationen

In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt:

Callbacks,

Chat-Modelle,

Document Loader,

Document Transformer,

LLMs,

Message Histories,

Retriever,

Text-Embedding-Modelle,

Agents & Toolkits,

Tools und

Vector Stores.

LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten.

LangChain installieren

Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren.

Die grundlegende, minimale Installation starten Sie mit folgendem Befehl:

pip install langchain

Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie:

pip install langchain[llms]

Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl:

pip install langchain[all]

Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl:

pip install ‘langchain[all]’

Um LangChain für JavaScript zu installieren, nutzen Sie:

npm (npm install -S langchain),

Yarn (yarn add langchain) oder

pnpm (pnpm add langchain).

Sie können LangChain für JavaScript verwenden mit:

Node.js,

Cloudflare Workers,

Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen),

Supabase Edge Functions,

Webbrowsern und

Deno.

Weiterführende Informationen zu LangChain für JavaScript finden Sie hier.

LangChain-Beispiel

Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen.

from langchain.chat_models import ChatOpenAI

from langchain.prompts.chat import (

ChatPromptTemplate,

SystemMessagePromptTemplate,

HumanMessagePromptTemplate,

)

from langchain.chains import LLMChain

from langchain.schema import BaseOutputParser

class CommaSeparatedListOutputParser(BaseOutputParser):

“””Parse the output of an LLM call to a comma-separated list.”””

def parse(self, text: str):

“””Parse the output of an LLM call.”””

return text.strip().split(“, “)

template = “””You are a helpful assistant who generates comma separated lists.

A user will pass in a category, and you should generate 5 objects in that category in a comma separated list.

ONLY return a comma separated list, and nothing more.”””

system_message_prompt = SystemMessagePromptTemplate.from_template(template)

human_template = “{text}”

human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chain = LLMChain(

llm=ChatOpenAI(),

prompt=chat_prompt,

output_parser=CommaSeparatedListOutputParser()

)

chain.run(“colors”)

# >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’]

Die LangChain Expression Language (LCEL)

Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren.

LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt:

chain = prompt | model

In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben:

from langchain.prompts import ChatPromptTemplate

from langchain.chat_models import ChatOpenAI

model = ChatOpenAI()

prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”)

chain = prompt | model

chain.invoke({“foo”: “bears”})

Der Output (wie auf der Website angegeben) sieht folgendermaßen aus:

AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist LangChain?​ Weiterlesen »

14 KI-Algorithmen, die Sie kennen sollten​

Allgemein

Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein. Foto: ArtHead – shutterstock.com Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen? Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab, welches Problem Sie lösen möchten, wie viele Rechenressourcen zur Verfügung stehen, und welche Art von Daten vorliegt. Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet. Beliebte Machine-Learning-Algorithmen Linear regression Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht. Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort. Gradient descent Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern. Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam). Logistic regression Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist. Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen. Support vector machines Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear. Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”). Decision tree Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden. Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting. Random forest Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble. XGBoost eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat. Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen. K-means clustering K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet. Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden. K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist. Principal component analysis Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln. Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt. Beliebte Deep-Learning-Algorithmen Convolutional neural networks Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein. Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind. Recurrent neural networks Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen. Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter: Übersetzungen, Spracherkennung und -synthese, Bot-Steuerung, Time Series Prediction, Anomalieerkennung oder Handschrifterkennung. Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt. Long short-term memory Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser. Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen. Transformers Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google. Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA). Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen. Q-learning Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung. Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 KI-Algorithmen, die Sie kennen sollten​ Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein.
Foto: ArtHead – shutterstock.com

Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen?

Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab,

welches Problem Sie lösen möchten,

wie viele Rechenressourcen zur Verfügung stehen, und

welche Art von Daten vorliegt.

Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet.

Beliebte Machine-Learning-Algorithmen

Linear regression

Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht.

Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort.

Gradient descent

Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern.

Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam).

Logistic regression

Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist.

Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen.

Support vector machines

Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear.

Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”).

Decision tree

Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden.

Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting.

Random forest

Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble.

XGBoost

eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat.

Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen.

K-means clustering

K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet.

Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden.

K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist.

Principal component analysis

Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln.

Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt.

Beliebte Deep-Learning-Algorithmen

Convolutional neural networks

Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein.

Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind.

Recurrent neural networks

Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen.

Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter:

Übersetzungen,

Spracherkennung und -synthese,

Bot-Steuerung,

Time Series Prediction,

Anomalieerkennung oder

Handschrifterkennung.

Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt.

Long short-term memory

Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser.

Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen.

Transformers

Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google.

Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA).

Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen.

Q-learning

Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung.

Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 KI-Algorithmen, die Sie kennen sollten​ Weiterlesen »

Windows 12 kommt nicht 2025​

Allgemein

Von wegen Dreijahreszyklus bei Windows: Auch 2025 plant Microsoft nur ein Funktions-Update von Windows 11.ARVD73 – shutterstock.com Softwareriese Microsoft hat den Spekulationen über ein baldiges Release von Windows 12 ein vorläufiges Ende gesetzt. Wie das Unternehmen bekannt gab, handelt es sich bei dem für die zweite Jahreshälfte 2025 geplanten Funktions-Update nicht um Windows 12, sondern um Version 25H2 von Windows 11. Teilnehmer des Windows-Insider-Programms können erste Builds von 25H2 ab sofort testen, hieß es. Überschaubare Neuerungen Technisch betrachtet, handelt es sich ohnehin nicht um ein Major Upgrade. Laut Microsoft basieren Version 24H2 und 25H2 von Windows 11 auf dem gleichen Quellcode, lediglich einige zusätzliche Funktionen würden demnach aktiviert. Entsprechend einfach soll das Update vonstattengehen: „Sobald der neue Code fertiggestellt ist, wird er in den monatlichen kumulativen Updates (LCUs) für Windows 11, Version 24H2 in deaktiviertem Zustand mitgeliefert“, erklärt Microsoft. „Der Code bleibt danach so lange deaktiviert, bis das sogenannte eKB-Update (Enablement Package) empfangen wird. Dieses ändert bestimmte Flags im bereits vorhandenen Code von ‚Deaktiviert‘ auf ‚Aktiviert‘ – nach einem Neustart des Geräts sind die neuen Funktionen verfügbar.“ Das gestaltet den Übergang deutlich schneller als bei einem „Betriebssystemtausch“ wie etwa beim Wechsel von Version 23H2 auf 24H2, in dessen Rahmen sämtliche Installationsdateien durch neuere Versionen ersetzt werden mussten. Einmal ausgerollt, verlängert sich der Support bei Rechnern mit Windows 11 Enterprise und Education mit Version 25H2 um weitere 36 Monate. Bei Windows 11 Home, Pro, Pro Education und Pro for Workstation sind es wie üblich 24 Monate. 

Windows 12 kommt nicht 2025​ Von wegen Dreijahreszyklus bei Windows: Auch 2025 plant Microsoft nur ein Funktions-Update von Windows 11.ARVD73 – shutterstock.com

Softwareriese Microsoft hat den Spekulationen über ein baldiges Release von Windows 12 ein vorläufiges Ende gesetzt. Wie das Unternehmen bekannt gab, handelt es sich bei dem für die zweite Jahreshälfte 2025 geplanten Funktions-Update nicht um Windows 12, sondern um Version 25H2 von Windows 11.

Teilnehmer des Windows-Insider-Programms können erste Builds von 25H2 ab sofort testen, hieß es.

Überschaubare Neuerungen

Technisch betrachtet, handelt es sich ohnehin nicht um ein Major Upgrade. Laut Microsoft basieren Version 24H2 und 25H2 von Windows 11 auf dem gleichen Quellcode, lediglich einige zusätzliche Funktionen würden demnach aktiviert.

Entsprechend einfach soll das Update vonstattengehen: „Sobald der neue Code fertiggestellt ist, wird er in den monatlichen kumulativen Updates (LCUs) für Windows 11, Version 24H2 in deaktiviertem Zustand mitgeliefert“, erklärt Microsoft. „Der Code bleibt danach so lange deaktiviert, bis das sogenannte eKB-Update (Enablement Package) empfangen wird. Dieses ändert bestimmte Flags im bereits vorhandenen Code von ‚Deaktiviert‘ auf ‚Aktiviert‘ – nach einem Neustart des Geräts sind die neuen Funktionen verfügbar.“

Das gestaltet den Übergang deutlich schneller als bei einem „Betriebssystemtausch“ wie etwa beim Wechsel von Version 23H2 auf 24H2, in dessen Rahmen sämtliche Installationsdateien durch neuere Versionen ersetzt werden mussten.

Einmal ausgerollt, verlängert sich der Support bei Rechnern mit Windows 11 Enterprise und Education mit Version 25H2 um weitere 36 Monate. Bei Windows 11 Home, Pro, Pro Education und Pro for Workstation sind es wie üblich 24 Monate.

Windows 12 kommt nicht 2025​ Weiterlesen »

Lyon wirft Windows und Office raus​

Allgemein

Statt Microsoft will Lyon verstärkt französische Technologiefirmen stärken.kenzo885/Shutterstock Während sich die meisten Unternehmen in Europa schwertun, ihre Abhängigkeit von Microsoft & Co. zu reduzieren, gibt es im kommunalen Bereich langsam Fortschritte: Nach Dänemark und Schleswig-Holstein reiht sich nun Lyon in die Liste der Abtrünnigen, die künftig mithilfe von Open-Source-Alternativen mehr (Kosten-)Kontrolle über digitale Infrastruktur gewinnen wollen. Die zweitgrößte Metropole Frankreichs hat eine umfassende Transformation ihrer digitalen Infrastruktur angekündigt. Dabei ist geplant, mit Territoire Numérique Ouvert eine kostenlose und interoperable Collaboration-Suite zu nutzen. Gleichzeitig soll schrittweise eine kostenlose Office-Software in den kommunalen Diensten eingeführt werden, die Microsofts Office-Suite ersetzt. Territoire Numérique Ouvert als Teams-Alternative Die gemeinsam mit dem kommunalen IT-Dienstleister SITIV und der Metropole Lyon entwickelte Suite basiert auf Open-Source-Tools, die Videokonferenzen und Büroanwendungen mit gleichzeitiger Bearbeitung ermöglichen. Wie die Stadt betont, wurden dabei sämtliche öffentliche Aufträge an französische Firmen vergeben, mehr als die Hälfte davon an Unternehmen aus der Region Auvergne-Rhône-Alpes. Die Lösung wird in regionalen Rechenzentren betrieben und erhielt von der Agentur für territoriale Köhäsion (Agence nationale de la cohésion des territoires – ANCT) eine Förderung in Höhe von zwei Millionen Euro aus dem France-Relance-Plan. Derzeit sollen bereits mehrere Tausend Mitarbeitende die Lösung nutzen. Quelloffene Microsoft-Alternativen Gleichzeitig ersetzt die Stadt Lyon Microsoft-Software schrittweise durch kostenlose Alternativen, insbesondere OnlyOffice für Office-Anwendungen sowie Linux und PostgreSQL für Systeme und Datenbanken. Ziel des Übergangs ist dabei nicht nur, die technologische Souveränität des öffentlichen Dienstes zu stärken. Vielmehr soll gleichzeitig auch die Lebensdauer der IT-Geräte verlängert und somit deren ökologischer Fußabdruck verringert werden – augenscheinlich ein Hinweis auf die anstehende und bei vielen Rechnern nicht mehr unterstützte Umstellung auf Windows 11. Interessant ist dabei insbesondere die Wahl der Office-Suite: OnlyOffice von Ascensio Systems mit Sitz in Lettland ist eine eigenständige Open-Source-Produktivitätssuite, die in der Cloud bereitgestellt wird. Sie ist unter der GNU Affero General Public License verfügbar. 

Lyon wirft Windows und Office raus​ Statt Microsoft will Lyon verstärkt französische Technologiefirmen stärken.kenzo885/Shutterstock

Während sich die meisten Unternehmen in Europa schwertun, ihre Abhängigkeit von Microsoft & Co. zu reduzieren, gibt es im kommunalen Bereich langsam Fortschritte: Nach Dänemark und Schleswig-Holstein reiht sich nun Lyon in die Liste der Abtrünnigen, die künftig mithilfe von Open-Source-Alternativen mehr (Kosten-)Kontrolle über digitale Infrastruktur gewinnen wollen.

Die zweitgrößte Metropole Frankreichs hat eine umfassende Transformation ihrer digitalen Infrastruktur angekündigt. Dabei ist geplant, mit Territoire Numérique Ouvert eine kostenlose und interoperable Collaboration-Suite zu nutzen. Gleichzeitig soll schrittweise eine kostenlose Office-Software in den kommunalen Diensten eingeführt werden, die Microsofts Office-Suite ersetzt.

Territoire Numérique Ouvert als Teams-Alternative

Die gemeinsam mit dem kommunalen IT-Dienstleister SITIV und der Metropole Lyon entwickelte Suite basiert auf Open-Source-Tools, die Videokonferenzen und Büroanwendungen mit gleichzeitiger Bearbeitung ermöglichen.

Wie die Stadt betont, wurden dabei sämtliche öffentliche Aufträge an französische Firmen vergeben, mehr als die Hälfte davon an Unternehmen aus der Region Auvergne-Rhône-Alpes. Die Lösung wird in regionalen Rechenzentren betrieben und erhielt von der Agentur für territoriale Köhäsion (Agence nationale de la cohésion des territoires – ANCT) eine Förderung in Höhe von zwei Millionen Euro aus dem France-Relance-Plan. Derzeit sollen bereits mehrere Tausend Mitarbeitende die Lösung nutzen.

Quelloffene Microsoft-Alternativen

Gleichzeitig ersetzt die Stadt Lyon Microsoft-Software schrittweise durch kostenlose Alternativen, insbesondere OnlyOffice für Office-Anwendungen sowie Linux und PostgreSQL für Systeme und Datenbanken. Ziel des Übergangs ist dabei nicht nur, die technologische Souveränität des öffentlichen Dienstes zu stärken. Vielmehr soll gleichzeitig auch die Lebensdauer der IT-Geräte verlängert und somit deren ökologischer Fußabdruck verringert werden – augenscheinlich ein Hinweis auf die anstehende und bei vielen Rechnern nicht mehr unterstützte Umstellung auf Windows 11.

Interessant ist dabei insbesondere die Wahl der Office-Suite: OnlyOffice von Ascensio Systems mit Sitz in Lettland ist eine eigenständige Open-Source-Produktivitätssuite, die in der Cloud bereitgestellt wird. Sie ist unter der GNU Affero General Public License verfügbar.

Lyon wirft Windows und Office raus​ Weiterlesen »

Versteckte Preiserhöhungen bei SAP?​

Allgemein

SAP verschiebt mal wieder seine Paketierung und die Lizenzmetriken. Anwenderunterunternehmen sollten genau hinschauen, sonst drohen böse ÜberraschungenSAP SAP (NYSE:SAP) hat die Art und Weise verändert, wie ihre ERP-Software und die damit verbundenen KI-Funktionen lizenziert und abrechnet werden. Für CIOs, die mit knappen IT-Budgets zurechtkommen müssen, bedeutet das mehr Arbeit. Schließlich gilt es mit spitzem Bleistift zu rechnen, inwieweit sich der SAP-Einsatz auch lohnt. SAP hat kürzlich sein Premium-Paket von “Rise with SAP” mit Hosting- und Managed-ERP-Anwendungsservices in “Cloud ERP Private” umbenannt und “Rise with SAP Premium Plus” mit den zusätzlichen Funktionen Green Ledger, KI-Assistent und Lieferantenportal eingestellt. Der deutsche Softwarekonzern verwendet das Label “Rise with SAP” nun allgemeiner, um grundsätzlich den Prozess der Modernisierung seiner On-premises ERP-Software in Richtung Cloud zu beschreiben. Mit dem Rebranding gehen jedoch auch subtilere Änderungen in der Lizenzierung einher. Wer an dieser Stelle nicht genau aufpasst, welche Dienste in welchem Paket enthalten sind beziehungsweise wie zusätzliche Gebühren für die Nutzung von KI-Diensten berechnet werden, kann böse Überraschungen erleben. Neue SAP-Pakete – neue Preise “Mit Cloud ERP Private erhalten Unternehmen im Vergleich zu RISE with SAP Premium fast doppelt so viele gebündelte SKUs (Stock Keeping Units)”, erläutert Mike Tucciarone, VP Analyst bei Gartner. “Es gibt zwar strategische Ergänzungen wie LeanIX, aber es ist wichtig zu wissen, dass einige Funktionen wie SAP Datasphere nicht mehr enthalten sind.” In einer kürzlich veröffentlichten Research Note erläutern Tucciarone und Co-Autor Calum McDonald die Änderungen bei den Paket-Komponenten, der Preisgestaltung und anderen Details, die sich auf die Budgets und Business-Cases der CIOs für Cloud ERP Private auswirken könnten. Die Gartner-Analysten sprechen darin von erheblichen Auswirkungen auf die Verhandlungen für bestehende Paketkunden von RISE with SAP und neue Kunden, die eine Private Cloud ERP-Option wünschen. Sie verweisen auf Modifikationen an bestehenden Paketkomponenten und Berechtigungen, die zuvor im Premium-Paket von RISE with SAP Premium-Paket enthalten gewesen seien. SAP-Kunden zwischen Bundles, Preisstufen und FUEs Mit dem Wegfall des Premium-Plus-Pakets und den darin enthaltenen KI-Assistentenfunktionen ergeben sich weitere Änderungen bei der Art und Weise, wie SAP die KI-Nutzung abrechnet. “Wir haben das Premium Plus-Paket mit eingebetteten KI-Einheiten eingestellt. Diese werden jetzt als Add-on verkauft, und es liegt immer im Ermessen des Kunden, ob er sie kauft”, sagte ein SAP-Sprecher. Diese Entflechtung und der Verlust der KI-Bundles, auf die sich viele Kunden verlassen haben, verdeutlicht ein zentrales Dilemma auf Anbieterseite. Etliche Hersteller haben damit zu kämpfen, das Wertversprechen für ihre in den Produkten enthaltenen KI-Funktionen, zu formulieren und vor allem auch zu belegen. Schließlich lassen sich die Kunden nur so dazu zu bewegen, die zusätzlichen Kosten auch zu bezahlen, die durch die KI-Funktionen entstehen. Lesetipp: SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen Der anfängliche Ansatz von SAP bestand darin, den Zugang zu einigen KI-Funktionen zu bündeln und für diese erweiterte Nutzung Gebühren zu erheben. Später hat der Softwareanbieter die KI-Funktionen einer größeren Zahl von Kunden zugänglich gemacht, und es wurde ein abgestuftes Preissystem eingeführt, bei dem einige Nutzer mehr für den Zugang zahlten als andere. Jetzt wird wieder an diesem Preismodell herumgeschraubt. Grundsätzlich geht es um Änderungen am FUE-Modell (Full User Equivalent ) von SAP. Kunden zahlen pro FUE, wobei eine unterschiedliche Anzahl von Benutzern in verschiedenen Kategorien (Professional, Functional oder Productivity) jeweils ein bestimmtes FUE ausmacht. Heimliche Preiserhöhungen bei SAP? “Leider hat es den Anschein, dass SAP Funktionen, die zuvor einer niedrigeren, günstigeren Lizenzkategorie zugeordnet waren, in die teurere Professional-Lizenz verschiebt”, stellt Scott Bickley, Advisory Fellow bei der Info-Tech Research Group fest. “Dies ist eine heimliche Preiserhöhung, da SAP-Kunden dadurch gezwungen sind, zusätzliche, höherwertige Lizenzen zu erwerben, die exponentiell mehr kosten können, als die günstigeren Funktions- oder Produktivitätslizenzen.” Der SAP-Sprecher räumte ein, dass es bei einigen Funktionen Anpassungen an der FUE gegeben hat, verwies aber auch darauf, dass der Softwareanbieter manche Dinge in preiswertere Stufen verschoben habe. “Wir haben drei Berechtigungseinträge in unserem Regelwerk aktualisiert, was ungewöhnlich ist. In den meisten Fällen stufen wir diese Berechtigungen herab, was den Zugang für eine breiteren Gruppe von Personen ermöglicht. In diesem Fall waren diese Berechtigungen zuvor falsch eingestuft worden. Dies bedeutet jedoch keine direkte Erhöhung oder Senkung der Kosten, da es sich um einen eng begrenzten Funktionszugang handelt und die Benutzer mehrere Berechtigungen haben.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”> Angesichts solcher Änderungen rät Bickley den Anwenderunternehmen: “SAP-Kunden müssen in ihre TCO eine aktive und laufende Überwachung der SAP-Lizenzanforderungen und eine Überprüfung ihrer aktuellen Umgebung einbeziehen, um ihre SAP-Systeme Regel- und Vertragskonform zu betreiben.” SAP drängt Kunden mitzuhalten SAP habe seinen Kunden in der jüngeren Vergangenheit vom Kauf von On-premises-Lizenzen abgeraten, so Bickley, und den Kunden manchmal sogar mitgeteilt, dass diese schlichtweg nicht mehr verfügbar seien. Der Grund: Für SAP geht es vor allem darum, ihre Kunden zur Nutzung von S/4HANA in der Cloud zu bewegen. “SAP verfolgt ein einziges zentrales Ziel”, stellt Bickley klar. “SAP Public Cloud für S/4HANA oder Pleite gehen! Als SAP-Kunde sind Sie entweder an Bord oder Sie werden zurückgelassen”, so der Analyst. “SAP hat bereits damit begonnen, frühe Versionen von S/4HANA Any Premise abzuschaffen, und die Kunden können davon ausgehen, dass sich diese Praxis fortsetzen wird. Dadurch werden diese Kunden gezwungen, auf dem neuesten Stand von S/4HANA zu bleiben oder zu riskieren, den Support zu verlieren. Darüber hinaus sollten SAP-Kunden nicht erwarten, dass den On-premises-Versionen von S/4HANA innovative Funktionen hinzugefügt werden.” Lesetipp: SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung Dennoch gebe es weiterhin On-premises-Deals, beobachtet der Experte der Info-Tech Research Group. Allerdings machten die Rabatte an dieser Stelle nur einen Bruchteil dessen aus, was früher möglich gewesen sei. “Diese Angebote sollen im Vergleich zum Wechsel zu SAP S/4HANA in der Cloud unattraktiv sein. SAP-Kunden, die On-premises-Lizenzen erwerben möchten, sollten auch damit rechnen, dass SAP diese Anfragen nur langsam bearbeitet, da sie für den SAP-Vertrieb die niedrigste Priorität haben und wahrscheinlich nicht auf die Verkaufsquoten angerechnet werden.” Bei SAP will man von diesen Bedenken indes nichts wissen. Es gebe keine Änderungen an der Verfügbarkeit von On-premises-Lizenzen, ließ der deutsche Softwarekonzern wissen. Neue SAP-Regeln: Was CIOs nun tun sollten? Obwohl bestehende RISE with SAP-Kunden ihre Verträge verlängern können, schreiben die Gartner-Analysten in ihrer Research Note: “SAP-Kundenteams könnten einen Anreiz haben, Migrationen auf das Cloud ERP Private Paket zu priorisieren. Der Grund: Investitionen in bestimmte Komponenten wie zum Beispiel das von SAP übernommene LeanIX und die Notwendigkeit, den Investoren eine positive Dynamik zu zeigen.” Tucciarone rät daher: “Das entscheidende Thema für CIOs muss sein, ihr Bewusstsein für das Thema zu schärfen: Viele IT-Leiter treiben ihre Planung, Budgetierung und Verhandlungen voran, ohne zu wissen, dass das klassische RISE with SAP nach Juni 2025 eingestellt wird. Dieser Mangel an Transparenz könnte erhebliche Auswirkungen auf jede Technologie-Roadmap und kommerzielle Vereinbarungen mit SAP haben.” Gartner rät CIOs, sämtliche Komponenten des Cloud ERP Private-Angebots von SAP sorgfältig zu analysieren und von ihren Softwarelieferanten zu verlangen, dass dieser alle Änderungen, die sich auf ihre aktuelle Lösung auswirken werden, detailliert darlegt. Gartner empfiehlt den Unternehmen darüber hinaus, die vorgeschlagenen Rabatte nicht für bare Münze zu nehmen, sondern sie mit externen Quellen genau zu überprüfen. SAP-Lizenzierung gerät zum Balance-Akt “CIOs müssen sich nun schnell über das gesamte Ausmaß der Änderungen informieren – von den neuen Bundles bis hin zu neuen Preisstrukturen und Geschäftsbedingungen wie dem neuen Transformations-Incentive-Modell und dem flexiblen Cloud-Zusatz”, so Tucciarone. “Nur dann können CIOs die Auswirkungen auf ihren Technologie-Stack und ihr Budget genau einschätzen und sicherstellen, dass ihr Unternehmen nicht unvorbereitet erwischt wird.” Es ist ein Balanceakt – und einer, den SAP nicht unbedingt einfacher machen möchte, lautet das Fazit von Bickley. “Die SAP-Lizenzierung fühlt sich an wie eine Welt, in der einem ständig der Teppich unter den Füßen weggezogen wird.” (ba) 

Versteckte Preiserhöhungen bei SAP?​ SAP verschiebt mal wieder seine Paketierung und die Lizenzmetriken. Anwenderunterunternehmen sollten genau hinschauen, sonst drohen böse ÜberraschungenSAP

SAP (NYSE:SAP) hat die Art und Weise verändert, wie ihre ERP-Software und die damit verbundenen KI-Funktionen lizenziert und abrechnet werden. Für CIOs, die mit knappen IT-Budgets zurechtkommen müssen, bedeutet das mehr Arbeit. Schließlich gilt es mit spitzem Bleistift zu rechnen, inwieweit sich der SAP-Einsatz auch lohnt.

SAP hat kürzlich sein Premium-Paket von “Rise with SAP” mit Hosting- und Managed-ERP-Anwendungsservices in “Cloud ERP Private” umbenannt und “Rise with SAP Premium Plus” mit den zusätzlichen Funktionen Green Ledger, KI-Assistent und Lieferantenportal eingestellt. Der deutsche Softwarekonzern verwendet das Label “Rise with SAP” nun allgemeiner, um grundsätzlich den Prozess der Modernisierung seiner On-premises ERP-Software in Richtung Cloud zu beschreiben.

Mit dem Rebranding gehen jedoch auch subtilere Änderungen in der Lizenzierung einher. Wer an dieser Stelle nicht genau aufpasst, welche Dienste in welchem Paket enthalten sind beziehungsweise wie zusätzliche Gebühren für die Nutzung von KI-Diensten berechnet werden, kann böse Überraschungen erleben.

Neue SAP-Pakete – neue Preise

“Mit Cloud ERP Private erhalten Unternehmen im Vergleich zu RISE with SAP Premium fast doppelt so viele gebündelte SKUs (Stock Keeping Units)”, erläutert Mike Tucciarone, VP Analyst bei Gartner. “Es gibt zwar strategische Ergänzungen wie LeanIX, aber es ist wichtig zu wissen, dass einige Funktionen wie SAP Datasphere nicht mehr enthalten sind.”

In einer kürzlich veröffentlichten Research Note erläutern Tucciarone und Co-Autor Calum McDonald die Änderungen bei den Paket-Komponenten, der Preisgestaltung und anderen Details, die sich auf die Budgets und Business-Cases der CIOs für Cloud ERP Private auswirken könnten.

Die Gartner-Analysten sprechen darin von erheblichen Auswirkungen auf die Verhandlungen für bestehende Paketkunden von RISE with SAP und neue Kunden, die eine Private Cloud ERP-Option wünschen. Sie verweisen auf Modifikationen an bestehenden Paketkomponenten und Berechtigungen, die zuvor im Premium-Paket von RISE with SAP Premium-Paket enthalten gewesen seien.

SAP-Kunden zwischen Bundles, Preisstufen und FUEs

Mit dem Wegfall des Premium-Plus-Pakets und den darin enthaltenen KI-Assistentenfunktionen ergeben sich weitere Änderungen bei der Art und Weise, wie SAP die KI-Nutzung abrechnet. “Wir haben das Premium Plus-Paket mit eingebetteten KI-Einheiten eingestellt. Diese werden jetzt als Add-on verkauft, und es liegt immer im Ermessen des Kunden, ob er sie kauft”, sagte ein SAP-Sprecher.

Diese Entflechtung und der Verlust der KI-Bundles, auf die sich viele Kunden verlassen haben, verdeutlicht ein zentrales Dilemma auf Anbieterseite. Etliche Hersteller haben damit zu kämpfen, das Wertversprechen für ihre in den Produkten enthaltenen KI-Funktionen, zu formulieren und vor allem auch zu belegen. Schließlich lassen sich die Kunden nur so dazu zu bewegen, die zusätzlichen Kosten auch zu bezahlen, die durch die KI-Funktionen entstehen.

Lesetipp: SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen

Der anfängliche Ansatz von SAP bestand darin, den Zugang zu einigen KI-Funktionen zu bündeln und für diese erweiterte Nutzung Gebühren zu erheben. Später hat der Softwareanbieter die KI-Funktionen einer größeren Zahl von Kunden zugänglich gemacht, und es wurde ein abgestuftes Preissystem eingeführt, bei dem einige Nutzer mehr für den Zugang zahlten als andere. Jetzt wird wieder an diesem Preismodell herumgeschraubt.

Grundsätzlich geht es um Änderungen am FUE-Modell (Full User Equivalent ) von SAP. Kunden zahlen pro FUE, wobei eine unterschiedliche Anzahl von Benutzern in verschiedenen Kategorien (Professional, Functional oder Productivity) jeweils ein bestimmtes FUE ausmacht.

Heimliche Preiserhöhungen bei SAP?

“Leider hat es den Anschein, dass SAP Funktionen, die zuvor einer niedrigeren, günstigeren Lizenzkategorie zugeordnet waren, in die teurere Professional-Lizenz verschiebt”, stellt Scott Bickley, Advisory Fellow bei der Info-Tech Research Group fest. “Dies ist eine heimliche Preiserhöhung, da SAP-Kunden dadurch gezwungen sind, zusätzliche, höherwertige Lizenzen zu erwerben, die exponentiell mehr kosten können, als die günstigeren Funktions- oder Produktivitätslizenzen.”

Der SAP-Sprecher räumte ein, dass es bei einigen Funktionen Anpassungen an der FUE gegeben hat, verwies aber auch darauf, dass der Softwareanbieter manche Dinge in preiswertere Stufen verschoben habe. “Wir haben drei Berechtigungseinträge in unserem Regelwerk aktualisiert, was ungewöhnlich ist. In den meisten Fällen stufen wir diese Berechtigungen herab, was den Zugang für eine breiteren Gruppe von Personen ermöglicht. In diesem Fall waren diese Berechtigungen zuvor falsch eingestuft worden. Dies bedeutet jedoch keine direkte Erhöhung oder Senkung der Kosten, da es sich um einen eng begrenzten Funktionszugang handelt und die Benutzer mehrere Berechtigungen haben.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”>

Angesichts solcher Änderungen rät Bickley den Anwenderunternehmen: “SAP-Kunden müssen in ihre TCO eine aktive und laufende Überwachung der SAP-Lizenzanforderungen und eine Überprüfung ihrer aktuellen Umgebung einbeziehen, um ihre SAP-Systeme Regel- und Vertragskonform zu betreiben.”

SAP drängt Kunden mitzuhalten

SAP habe seinen Kunden in der jüngeren Vergangenheit vom Kauf von On-premises-Lizenzen abgeraten, so Bickley, und den Kunden manchmal sogar mitgeteilt, dass diese schlichtweg nicht mehr verfügbar seien. Der Grund: Für SAP geht es vor allem darum, ihre Kunden zur Nutzung von S/4HANA in der Cloud zu bewegen.

“SAP verfolgt ein einziges zentrales Ziel”, stellt Bickley klar. “SAP Public Cloud für S/4HANA oder Pleite gehen! Als SAP-Kunde sind Sie entweder an Bord oder Sie werden zurückgelassen”, so der Analyst. “SAP hat bereits damit begonnen, frühe Versionen von S/4HANA Any Premise abzuschaffen, und die Kunden können davon ausgehen, dass sich diese Praxis fortsetzen wird. Dadurch werden diese Kunden gezwungen, auf dem neuesten Stand von S/4HANA zu bleiben oder zu riskieren, den Support zu verlieren. Darüber hinaus sollten SAP-Kunden nicht erwarten, dass den On-premises-Versionen von S/4HANA innovative Funktionen hinzugefügt werden.”

Lesetipp: SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung

Dennoch gebe es weiterhin On-premises-Deals, beobachtet der Experte der Info-Tech Research Group. Allerdings machten die Rabatte an dieser Stelle nur einen Bruchteil dessen aus, was früher möglich gewesen sei. “Diese Angebote sollen im Vergleich zum Wechsel zu SAP S/4HANA in der Cloud unattraktiv sein. SAP-Kunden, die On-premises-Lizenzen erwerben möchten, sollten auch damit rechnen, dass SAP diese Anfragen nur langsam bearbeitet, da sie für den SAP-Vertrieb die niedrigste Priorität haben und wahrscheinlich nicht auf die Verkaufsquoten angerechnet werden.”

Bei SAP will man von diesen Bedenken indes nichts wissen. Es gebe keine Änderungen an der Verfügbarkeit von On-premises-Lizenzen, ließ der deutsche Softwarekonzern wissen.

Neue SAP-Regeln: Was CIOs nun tun sollten?

Obwohl bestehende RISE with SAP-Kunden ihre Verträge verlängern können, schreiben die Gartner-Analysten in ihrer Research Note: “SAP-Kundenteams könnten einen Anreiz haben, Migrationen auf das Cloud ERP Private Paket zu priorisieren. Der Grund: Investitionen in bestimmte Komponenten wie zum Beispiel das von SAP übernommene LeanIX und die Notwendigkeit, den Investoren eine positive Dynamik zu zeigen.”

Tucciarone rät daher: “Das entscheidende Thema für CIOs muss sein, ihr Bewusstsein für das Thema zu schärfen: Viele IT-Leiter treiben ihre Planung, Budgetierung und Verhandlungen voran, ohne zu wissen, dass das klassische RISE with SAP nach Juni 2025 eingestellt wird. Dieser Mangel an Transparenz könnte erhebliche Auswirkungen auf jede Technologie-Roadmap und kommerzielle Vereinbarungen mit SAP haben.”

Gartner rät CIOs, sämtliche Komponenten des Cloud ERP Private-Angebots von SAP sorgfältig zu analysieren und von ihren Softwarelieferanten zu verlangen, dass dieser alle Änderungen, die sich auf ihre aktuelle Lösung auswirken werden, detailliert darlegt. Gartner empfiehlt den Unternehmen darüber hinaus, die vorgeschlagenen Rabatte nicht für bare Münze zu nehmen, sondern sie mit externen Quellen genau zu überprüfen.

SAP-Lizenzierung gerät zum Balance-Akt

“CIOs müssen sich nun schnell über das gesamte Ausmaß der Änderungen informieren – von den neuen Bundles bis hin zu neuen Preisstrukturen und Geschäftsbedingungen wie dem neuen Transformations-Incentive-Modell und dem flexiblen Cloud-Zusatz”, so Tucciarone. “Nur dann können CIOs die Auswirkungen auf ihren Technologie-Stack und ihr Budget genau einschätzen und sicherstellen, dass ihr Unternehmen nicht unvorbereitet erwischt wird.”

Es ist ein Balanceakt – und einer, den SAP nicht unbedingt einfacher machen möchte, lautet das Fazit von Bickley. “Die SAP-Lizenzierung fühlt sich an wie eine Welt, in der einem ständig der Teppich unter den Füßen weggezogen wird.” (ba)

Versteckte Preiserhöhungen bei SAP?​ Weiterlesen »

HPE-Juniper-Deal nimmt wichtige Hürde​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Kauf von Juniper will sich HPE weitere KI-Funktionalitäten für das Netzwerk sichern. T. Schneider / Shutterstock.com Nachdem sich die Unternehmen auf einen Vergleich mit dem US-Justizministerium (Department of Justice; DOJ) geeinigt haben, kann die 14-Milliarden-Dollar-Übernahme von Juniper Networks durch Hewlett Packard Enterprise nun voranschreiten. Die Vereinbarung wurde am 27. Juni beim Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht und muss noch von einem Richter genehmigt werden. Die Einigung sieht außerdem vor, dass das fusionierte Unternehmen HPE-Juniper den Quellcode der Mist-AIOps-Software von Juniper lizenziert und HPEs „Instant On“-Geschäft mit drahtlosen Netzwerken abstößt. Was lange währt…, Im Januar hatte das DOJ Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an HPE zu blockieren. Damals erklärte das Ministerium, der größte Problempunkt der geplanten Übernahme sei der eingeschränkte Wettbewerb auf dem Markt für drahtlose Netzwerke. So seien HPE und Juniper nach dem Marktführer Cisco Systems die zweit- und drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA. Für viele Beobachter dürfte der interessanteste – und möglicherweise verwirrendste – Teil der neuen Einigung die Auflage des DOJ sein, wonach das fusionierte Unternehmen den Quellcode der AIOps-Software von Juniper versteigern muss. Die Einigung stelle sicher, dass wichtige Softwarekomponenten Wettbewerbern zur Verfügung stehen, die gegen das fusionierte Unternehmen antreten wollen, heißt es in einer DOJ-Pressemitteilung vom 28. Juni: „Die Parteien müssen eine Auktion zur Lizenzvergabe des Quellcodes von Junipers Mist AIOps abhalten – eine zentrale Komponente moderner WLAN-Systeme. Die Lizenz wird unbefristet, nicht exklusiv und mit optionalem Übergangs-Support und Personaltransfers versteigert, um den Wettbewerb zu erleichtern.“ Darüber hinaus erklärte das DOJ, dass die Einigung HPE dazu verpflichte, sein Instant-On-Geschäft zu veräußern und kritische Juniper-Software an unabhängige Wettbewerber zu lizenzieren. Konkret müsse HPE sein globales Instant-On-Campus- und -Filial-WLAN-Geschäft, einschließlich aller Assets, geistigen Eigentumsrechte, Mitarbeiter aus Forschung & Entwicklung sowie Kundenkontakte, innerhalb von 180 Tagen an einen vom DOJ genehmigten Käufer veräußern. Instant On richtet sich in erster Linie an kleine und mittlere Unternehmen und bietet laut HPE ein Cloud-basiertes Paket aus kabelgebundenen und drahtlosen Netzwerkgeräten, die sofort einsatzbereit sind und nur minimalen IT-Aufwand nach sich ziehen. In einer Pressemitteilung  reagiert HPE auf die Entscheidung des Gerichts: „Nach Abschluss der Transaktion wird HPE einen begrenzten Zugang zu der fortschrittlichen Mist-AIOps-Technologie von Juniper ermöglichen.“ Gute Miene zum bösen Spiel HPE und Juniper betonten in ihrer Reaktion auf die Einigung die positiven Aspekte. „Unsere Vereinbarung mit dem DOJ ebnet den Weg für den Abschluss der Übernahme von Juniper Networks durch HPE und bewahrt die beabsichtigten Vorteile dieser Transaktion für unsere Kunden und Aktionäre“, erklärt HPE-CEO Antonio Neri in einer schriftlichen Stellungnahme. „Zum ersten Mal haben Kunden nun eine moderne Netzwerkarchitektur-Alternative, die die Anforderungen von KI-Workloads optimal unterstützt“, so Neri weiter. Die Kombination von HPE Aruba Networking und Juniper Networks werde Kunden ein umfassendes Portfolio an sicheren, KI-nativen Netzwerklösungen bieten und HPEs Wachstumsmöglichkeiten in den Bereichen KI-Rechenzentren, Service Provider und Cloud berschleunigen. „Dies ist ein bedeutender Schritt nach vorn, um einem zentralen Kundenbedürfnis gerecht zu werden – einem vollständigen Portfolio moderner, sicherer Netzwerklösungen, das Unternehmen miteinander verbindet und die essenzielle Grundlage für Hybrid-Cloud und KI schafft“, fügt Rami Rahim, CEO von Juniper Networks, hinzu. HPE sichert sich KI-Technologie Seit der Bekanntgabe der Transaktion im Januar 2024 dreht sich ein Großteil der Diskussion in Zusammenhang mit dem Deal um den Zugewinn an KI-Technologie für HPE. „KI erfordert ein modernes Netzwerkfundament – von der Edge bis zur Cloud –, um Daten zu verbinden“, erklärte Neri auf der HPE Discover im November 2024 in Barcelona. Dieses Fundament werde genauso entscheidend sein wie die zugrunde liegende Hardware, wenn es darum geht, das Potenzial und den Wert von KI nutzbar zu machen. „Ein leistungsstarkes Netzwerk-Backbone ist unerlässlich, und wir heben unsere Netzwerkposition jetzt auf ein neues Niveau – eines, das die Branche verändern und unsere Kompetenz in den Bereichen Netzwerke und KI massiv ausbauen wird“, so der HPE-CEO. (mb) 

HPE-Juniper-Deal nimmt wichtige Hürde​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Kauf von Juniper will sich HPE weitere KI-Funktionalitäten für das Netzwerk sichern. T. Schneider / Shutterstock.com

Nachdem sich die Unternehmen auf einen Vergleich mit dem US-Justizministerium (Department of Justice; DOJ) geeinigt haben, kann die 14-Milliarden-Dollar-Übernahme von Juniper Networks durch Hewlett Packard Enterprise nun voranschreiten.

Die Vereinbarung wurde am 27. Juni beim Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht und muss noch von einem Richter genehmigt werden. Die Einigung sieht außerdem vor, dass das fusionierte Unternehmen HPE-Juniper den Quellcode der Mist-AIOps-Software von Juniper lizenziert und HPEs „Instant On“-Geschäft mit drahtlosen Netzwerken abstößt.

Was lange währt…,

Im Januar hatte das DOJ Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an HPE zu blockieren. Damals erklärte das Ministerium, der größte Problempunkt der geplanten Übernahme sei der eingeschränkte Wettbewerb auf dem Markt für drahtlose Netzwerke. So seien HPE und Juniper nach dem Marktführer Cisco Systems die zweit- und drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA.

Für viele Beobachter dürfte der interessanteste – und möglicherweise verwirrendste – Teil der neuen Einigung die Auflage des DOJ sein, wonach das fusionierte Unternehmen den Quellcode der AIOps-Software von Juniper versteigern muss.

Die Einigung stelle sicher, dass wichtige Softwarekomponenten Wettbewerbern zur Verfügung stehen, die gegen das fusionierte Unternehmen antreten wollen, heißt es in einer DOJ-Pressemitteilung vom 28. Juni: „Die Parteien müssen eine Auktion zur Lizenzvergabe des Quellcodes von Junipers Mist AIOps abhalten – eine zentrale Komponente moderner WLAN-Systeme. Die Lizenz wird unbefristet, nicht exklusiv und mit optionalem Übergangs-Support und Personaltransfers versteigert, um den Wettbewerb zu erleichtern.“

Darüber hinaus erklärte das DOJ, dass die Einigung HPE dazu verpflichte, sein Instant-On-Geschäft zu veräußern und kritische Juniper-Software an unabhängige Wettbewerber zu lizenzieren. Konkret müsse HPE sein globales Instant-On-Campus- und -Filial-WLAN-Geschäft, einschließlich aller Assets, geistigen Eigentumsrechte, Mitarbeiter aus Forschung & Entwicklung sowie Kundenkontakte, innerhalb von 180 Tagen an einen vom DOJ genehmigten Käufer veräußern.

Instant On richtet sich in erster Linie an kleine und mittlere Unternehmen und bietet laut HPE ein Cloud-basiertes Paket aus kabelgebundenen und drahtlosen Netzwerkgeräten, die sofort einsatzbereit sind und nur minimalen IT-Aufwand nach sich ziehen.

In einer Pressemitteilung  reagiert HPE auf die Entscheidung des Gerichts: „Nach Abschluss der Transaktion wird HPE einen begrenzten Zugang zu der fortschrittlichen Mist-AIOps-Technologie von Juniper ermöglichen.“

Gute Miene zum bösen Spiel

HPE und Juniper betonten in ihrer Reaktion auf die Einigung die positiven Aspekte. „Unsere Vereinbarung mit dem DOJ ebnet den Weg für den Abschluss der Übernahme von Juniper Networks durch HPE und bewahrt die beabsichtigten Vorteile dieser Transaktion für unsere Kunden und Aktionäre“, erklärt HPE-CEO Antonio Neri in einer schriftlichen Stellungnahme.

„Zum ersten Mal haben Kunden nun eine moderne Netzwerkarchitektur-Alternative, die die Anforderungen von KI-Workloads optimal unterstützt“, so Neri weiter. Die Kombination von HPE Aruba Networking und Juniper Networks werde Kunden ein umfassendes Portfolio an sicheren, KI-nativen Netzwerklösungen bieten und HPEs Wachstumsmöglichkeiten in den Bereichen KI-Rechenzentren, Service Provider und Cloud berschleunigen.

„Dies ist ein bedeutender Schritt nach vorn, um einem zentralen Kundenbedürfnis gerecht zu werden – einem vollständigen Portfolio moderner, sicherer Netzwerklösungen, das Unternehmen miteinander verbindet und die essenzielle Grundlage für Hybrid-Cloud und KI schafft“, fügt Rami Rahim, CEO von Juniper Networks, hinzu.

HPE sichert sich KI-Technologie

Seit der Bekanntgabe der Transaktion im Januar 2024 dreht sich ein Großteil der Diskussion in Zusammenhang mit dem Deal um den Zugewinn an KI-Technologie für HPE.

„KI erfordert ein modernes Netzwerkfundament – von der Edge bis zur Cloud –, um Daten zu verbinden“, erklärte Neri auf der HPE Discover im November 2024 in Barcelona. Dieses Fundament werde genauso entscheidend sein wie die zugrunde liegende Hardware, wenn es darum geht, das Potenzial und den Wert von KI nutzbar zu machen.

„Ein leistungsstarkes Netzwerk-Backbone ist unerlässlich, und wir heben unsere Netzwerkposition jetzt auf ein neues Niveau – eines, das die Branche verändern und unsere Kompetenz in den Bereichen Netzwerke und KI massiv ausbauen wird“, so der HPE-CEO. (mb)

HPE-Juniper-Deal nimmt wichtige Hürde​ Weiterlesen »

Apple, Google und Meta agitieren gegen EU AI Act​

Allgemein

loading=”lazy” width=”400px”>Noch ist vieles unsicher rund um den AI Act – wann bestimmte Regeln greifen und wie sie ausgestaltet werden sollen. Die Maschinerie der IT-Lobby läuft auf Hochtouren.Ivan Marc – shutterstock.com Die mächtige IT-Lobbygruppe Computer & Communications Industry Association (CCIA) geht gegen die KI-Regulierung in Europa vor. Anlässlich eines Treffens der europäischen Staats- und Regierungschefs Ende Juni in Brüssel forderten die Lobbyisten des von US-Konzernen dominierten Verbands, dass die Umsetzung des AI Act verschoben werden sollte. Ihre Begründung: Wichtige Bestimmungen des Regelwerks – einschließlich der entscheidenden Regeln für KI-Modelle für allgemeine Zwecke (sogenannte General Purpose Artificial Intelligence, GPAI), die am 2. August in Kraft treten sollen – seien noch immer unzureichend. Vertreter der CCIA meldeten Bedenken an angesichts der Tatsache, dass die Europäische Kommission die Umsetzungsfristen des Gesetzes zu versäumen drohe. Eine überstürzte Einführung des Gesetzes könnte die KI-Ambitionen Europas gefährden, einschließlich der von der EU-Kommission prognostizierten 3,4 Billionen Euro, die der KI-Einsatz der EU-Wirtschaft bis 2030 bringen soll. Tritt Europa auf die KI-Bremse? „Europa kann bei der KI nicht mit einem Fuß auf der Bremse vorangehen“, sagte Daniel Friedlaender, Senior Vice President & Head of Office der CCIA in Europa. „Da wichtige Teile des KI-Gesetzes nur wenige Wochen vor dem Inkrafttreten der Vorschriften noch fehlen, brauchen wir eine Pause, um das Gesetz in Ordnung zu bringen, oder wir riskieren, dass die Innovation gänzlich zum Stillstand kommt.“ Hier lesen Sie alle Hintergrundinformationen zum europäischen AI Act: AI Act verabschiedet: Was Unternehmen zum KI-Gesetz wissen müssen AI Act: Was Unternehmen beachten müssen Hilfe durch den AI-Act-Dschungel EU-AI-Act: Erste KI-Verbote ab Februar Tatsächlich scheint es derzeit noch etliche Unsicherheiten rund um die KI-Regulierung in Europa zu geben. Der schwedische Premierminister Ulf Kristersson nannte die Regeln zuletzt verwirrend, berichtete die Nachrichtenagentur Reuters. Und laut einer Umfrage des US-amerikanischen Cloud-Anbieters AWS hätten zwei Drittel der europäischen Unternehmen nach wie vor nicht verstanden, inwieweit sie im Zuge des AI Act verantwortlich für die KI-Nutzung in ihren Organisationen seien. Deutscher Digitalminister offen für Fristverlängerung Auch Karsten Wildberger, der neue Digitalminister für Deutschland, scheint eigenen Angaben offen dafür zu sein, eine Verlängerung der Durchführungsfristen für den AI Act zu prüfen. Fehlten Vorgaben, Normen und technische Standards, so bräuchten Unternehmen mehr Zeit, sich darauf vorzubereiten, sagte der Minister bei einem Treffen der europäischen Kommunikations- und Digitalminister Anfang Juni in Luxemburg. Deutschlands neuer Digitalminister Karsten Wildbergerschließt Verzögerungen bei der Einführung der nächsten AI-Act-Stufen nicht mehr aus.Juergen Nowak – shutterstock.com Andere Länder gehen sogar noch weiter. Wildbergers Kollegin aus Dänemark, Caroline Stage Olson, forderte sogar, sämtliche Regeln für den digitalen Raum in Europa zu reformieren, einschließlich der Datenschutzgrundverordnung (DSGVO). IT-Lobby warnt vor immensen Risiken einer Umsetzung des KI-Gesetzes Die Diskussionen dürften Wasser auf den Mühlen der IT-Lobby sein. Man schließe sich den Appellen verschiedener nationaler Regierungen und Mitglieder des Europäischen Parlaments an, hieß es von Seiten der CCIA. Der Lobbyverband forderte die Staats- und Regierungschefs der EU auf, „die immensen Risiken einer Umsetzung des KI-Gesetzes ohne einen endgültigen Rahmen anzuerkennen“. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> Die Staats- und Regierungschefs der EU müssten jetzt handeln und die Kommission anweisen, ihren unrealistischen Zeitplan anzupassen, um eine reibungslose und effektive Umsetzung des KI-Gesetzes zu gewährleisten, so die CCAI-Vertreter. „Eine mutige „Stop-the-clock“-Intervention ist dringend erforderlich, um KI-Entwicklern und -Einführern Rechtssicherheit zu geben, solange die notwendigen Standards nicht verfügbar sind oder sich verzögern.“ 

Apple, Google und Meta agitieren gegen EU AI Act​ loading=”lazy” width=”400px”>Noch ist vieles unsicher rund um den AI Act – wann bestimmte Regeln greifen und wie sie ausgestaltet werden sollen. Die Maschinerie der IT-Lobby läuft auf Hochtouren.Ivan Marc – shutterstock.com

Die mächtige IT-Lobbygruppe Computer & Communications Industry Association (CCIA) geht gegen die KI-Regulierung in Europa vor. Anlässlich eines Treffens der europäischen Staats- und Regierungschefs Ende Juni in Brüssel forderten die Lobbyisten des von US-Konzernen dominierten Verbands, dass die Umsetzung des AI Act verschoben werden sollte. Ihre Begründung: Wichtige Bestimmungen des Regelwerks – einschließlich der entscheidenden Regeln für KI-Modelle für allgemeine Zwecke (sogenannte General Purpose Artificial Intelligence, GPAI), die am 2. August in Kraft treten sollen – seien noch immer unzureichend.

Vertreter der CCIA meldeten Bedenken an angesichts der Tatsache, dass die Europäische Kommission die Umsetzungsfristen des Gesetzes zu versäumen drohe. Eine überstürzte Einführung des Gesetzes könnte die KI-Ambitionen Europas gefährden, einschließlich der von der EU-Kommission prognostizierten 3,4 Billionen Euro, die der KI-Einsatz der EU-Wirtschaft bis 2030 bringen soll.

Tritt Europa auf die KI-Bremse?

„Europa kann bei der KI nicht mit einem Fuß auf der Bremse vorangehen“, sagte Daniel Friedlaender, Senior Vice President & Head of Office der CCIA in Europa. „Da wichtige Teile des KI-Gesetzes nur wenige Wochen vor dem Inkrafttreten der Vorschriften noch fehlen, brauchen wir eine Pause, um das Gesetz in Ordnung zu bringen, oder wir riskieren, dass die Innovation gänzlich zum Stillstand kommt.“

Hier lesen Sie alle Hintergrundinformationen zum europäischen AI Act:

AI Act verabschiedet: Was Unternehmen zum KI-Gesetz wissen müssen

AI Act: Was Unternehmen beachten müssen

Hilfe durch den AI-Act-Dschungel

EU-AI-Act: Erste KI-Verbote ab Februar

Tatsächlich scheint es derzeit noch etliche Unsicherheiten rund um die KI-Regulierung in Europa zu geben. Der schwedische Premierminister Ulf Kristersson nannte die Regeln zuletzt verwirrend, berichtete die Nachrichtenagentur Reuters. Und laut einer Umfrage des US-amerikanischen Cloud-Anbieters AWS hätten zwei Drittel der europäischen Unternehmen nach wie vor nicht verstanden, inwieweit sie im Zuge des AI Act verantwortlich für die KI-Nutzung in ihren Organisationen seien.

Deutscher Digitalminister offen für Fristverlängerung

Auch Karsten Wildberger, der neue Digitalminister für Deutschland, scheint eigenen Angaben offen dafür zu sein, eine Verlängerung der Durchführungsfristen für den AI Act zu prüfen. Fehlten Vorgaben, Normen und technische Standards, so bräuchten Unternehmen mehr Zeit, sich darauf vorzubereiten, sagte der Minister bei einem Treffen der europäischen Kommunikations- und Digitalminister Anfang Juni in Luxemburg.

Deutschlands neuer Digitalminister Karsten Wildbergerschließt Verzögerungen bei der Einführung der nächsten AI-Act-Stufen nicht mehr aus.Juergen Nowak – shutterstock.com

Andere Länder gehen sogar noch weiter. Wildbergers Kollegin aus Dänemark, Caroline Stage Olson, forderte sogar, sämtliche Regeln für den digitalen Raum in Europa zu reformieren, einschließlich der Datenschutzgrundverordnung (DSGVO).

IT-Lobby warnt vor immensen Risiken einer Umsetzung des KI-Gesetzes

Die Diskussionen dürften Wasser auf den Mühlen der IT-Lobby sein. Man schließe sich den Appellen verschiedener nationaler Regierungen und Mitglieder des Europäischen Parlaments an, hieß es von Seiten der CCIA. Der Lobbyverband forderte die Staats- und Regierungschefs der EU auf, „die immensen Risiken einer Umsetzung des KI-Gesetzes ohne einen endgültigen Rahmen anzuerkennen“.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

Die Staats- und Regierungschefs der EU müssten jetzt handeln und die Kommission anweisen, ihren unrealistischen Zeitplan anzupassen, um eine reibungslose und effektive Umsetzung des KI-Gesetzes zu gewährleisten, so die CCAI-Vertreter. „Eine mutige „Stop-the-clock“-Intervention ist dringend erforderlich, um KI-Entwicklern und -Einführern Rechtssicherheit zu geben, solange die notwendigen Standards nicht verfügbar sind oder sich verzögern.“

Apple, Google und Meta agitieren gegen EU AI Act​ Weiterlesen »

Web-Apps mit Astro und Alpine entwickeln​

Allgemein

Astro und Alpine gehen in der Praxis gut zusammen.Dmytro Vietrov | shutterstock.com Softwareentwickler, die ihren Job gerne machen, sind immer offen für funktionale, qualitativ hochwertige Tools, die die Developer Experience bereichern können. Das trifft sowohl auf Astro als auch auf Alpine zu. Während das erstgenannte Framework eine stabile, Server-seitige Plattform bietet, um Web-Applikationen an den Start zu bringen, ist zweitgenanntes eine bevorzugte Option für Frontend-Minimalisten. Kombiniert man die beiden Rahmenwerke, ist das Ergebnis ein schlanker, aber sehr vielseitiger Stack, der einige der besten Features von Astro und Alpine zusammenbringt. In diesem Tutorial entwickeln wir eine Beispiel-Webanwendung, die dieses Zusammenspiel demonstriert. Der Astro-Alpine-Stack im Überblick Astro ist in erster Linie als Meta-Framework bekannt, um Reactive-Frameworks wie React und Svelte zu integrieren. Bei Alpine handelt es sich zwar ebenfalls um ein reaktives Framework, dieses ist aber so schlank designt, dass es in Kombination mit Astro anders funktioniert – in erster Linie, weil es einige Integrations-Formalitäten vermeidet. So bietet Astro bereits eine ganze Reihe von Funktionen, um Server-seitige Komponenten zu definieren. Die klare Syntax von Alpine erleichtert es schließlich, verschiedene Teile einer Anwendung um Interaktivität und API-Calls zu ergänzen. Weil Astro standardmäßig auch ein offizielles Alpine-Plugin enthält, funktioniert die Kombination der beiden Frameworks quasi nahtlos. Lediglich wenn es darum geht, eine Alpine-Komponente mit SSG (Static Site Generation) -Daten aus Astro zu steuern, sind ein paar kleinere Kniffe notwendig. Im Großen und Ganzen ist Astro plus Alpine aber eine sehr gute Idee, wenn Sie etwas entwickeln möchten, das größtenteils auf Astros SSG läuft und für raffiniertere Interaktionen auf Alpine zurückgreift. Der Hauptteil dieses Artikels gliedert sich in drei Entwicklungsebenen – die in aufsteigender Reihenfolge stärker auf Alpine basieren: Ebene 1 dreht sich um reines SSG mit simpler, Client-seitiger Erweiterung. Ebene 2 beschäftigt sich mit dynamischem Server-Side Rendering (SSR) inklusive Client-seitiger Erweiterung. Ebene 3 konzentriert sich auf Client-seitiges Rendering mit API-Aufrufen. Die Beispielanwendung und ihr Layout Um die einzelnen Ebenen und ihre Unterschiede deutlicher herauszuarbeiten, erstellen wir nachfolgend eine fiktive Webanwendung namens “Coast Mountain Adventures”. Die App soll aus drei verschiedenen Seiten bestehen, die die eben dargelegten Entwicklungsebenen repräsentieren: Auf Ebene 1 erstellen wir eine “About”-Seite, die eine einfache Akkordeonansicht mit statischen Inhalten beherbergt. Auf Ebene 2 erstellen wir eine “Gear Shops”-Seite, die lokale Outdoor-Einzelhandelsgeschäfte auflistet. Diese List wird mit Astro generiert und von Alpine gefiltert. Auf Ebene 3 erstellen wir eine “My Adventures”-Seite. Diese nimmt über eine API eine Benutzer-ID entgegen und gibt eine JSON-Antwort mit den Daten des Benutzers zurück, die von Alpine auf dem Client gerendert werden. Um loslegen zu können, müssen Sie zunächst Astro installieren, eine neue Anwendung damit erstellen und die Integration von Alpine starten (für ein einfaches responsives Styling haben wir zudem das Tailwind-Plugin installiert – CSS wird in diesem Tutorial allerdings nicht thematisiert). $ npm create astro@latest — –template minimal $ npx astro add alpinejs $ npx astro add tailwind Unser Framing-Material (das Layout) ist simpel und besteht lediglich aus einem Titel und ein paar Links. Astro fasst diese zusammen und liefert sie ohne JavaScript aus: — import ‘./src/styles/global.css’; — Astro Alpine Coast Mountain Adventures My Adventures Gear Shops About Beachten Sie in diesem Code-Snippet das Element ;: Hier wird Astro die Seiten ablegen, die dieses Layout verwenden (weitere Informationen zu Astro-Layouts finden Sie in der Dokumentation). Astro übernimmt auch das Routing der URLs an die richtigen Dateien auf der Festplatte im Verzeichnis /src/pages. Ebene 1: Die “About”-Seite Unsere “About”-Seite besteht aus drei Abschnitten: einer Haupt- und zwei Untersektionen. Für dieses Tutorial erstellen wir die beiden Unterabschnitte als Akkordeon-Panels, deren Inhalte per Klick ein- oder ausgeblendet werden.  — import Layout from ‘../layouts/Layout.astro’; — About Us We are a consortium of outdoor enthusiasts and locally owned gear shops and exchanges, dedicated to the truth that when nature and people come together, Good Things happen. Our Mission {/* Add the icon span */} ↓ {/* Down arrow character */} To connect people with nature and provide access to quality outdoor gear, experiences and curated resources. Our Values ↓ Community Sustainability Adventure Abgesehen vom Astro-Layout enthält diese Ebene ansonsten nichts Astro-Spezifisches. Es handelt sich lediglich um HTML mit einigen wenigen Alpine-Direktiven, nämlich: x-data (definiert das Datenobjekt für die Alpine-Komponente), x-on:click (definiert einen Onclick-Handler), sowie x-show (blendet das Element konditional ein oder aus). Das ist auch schon alles, was wir für unsere Akkordeons benötigen – plus ein wenig CSS für die Pfeilsymbole. So sieht unsere Seite momentan aus: Matthew Tyson Ebene 2: Die “Gear Shop”-Seite Für unsere “Gear Shop”-Seite möchten wir einen Teil der im Backend verfügbaren Daten so rendern, dass der Client sie filtern kann. Deshalb rendern wir die Daten mit Astro Server-seitig und erstellen eine Alpine-Komponente, die diese verarbeiten kann und dynamische UI-Interaktionen ermöglicht. Doch eins nach dem anderen – zunächst erstellen wir die Seite selbst: — // src/pages/gear-shops.astro import Layout from ‘../layouts/Layout.astro’; import GearShopList from ‘../components/GearShopList.astro’; const gearShops = [ { name: “Adventure Outfitters”, category: “Hiking” }, { name: “Peak Performance Gear”, category: “Climbing” }, { name: “River Rat Rentals”, category: “Kayaking” }, { name: “The Trailhead”, category: “Hiking” }, { name: “Vertical Ventures”, category: “Climbing” } ]; — Local Gear Shops Die Daten befinden sich in der Variablen gearShops. Sie könnten aus einer Datenbank, einer externen API, einem lokalen Dateisystem oder den integrierten Content Collections von Astro stammen. Der Punkt ist: Sie werden auf dem Server produziert. Der Trick besteht nun darin, sie als Live-JSON auf dem Client verfügbar zu machen – wo Alpine sie nutzen kann. Dazu müssen die Daten zunächst auf der shops-Property der GearShopList-Komponente in String-Form gebracht werden. Dadurch kann Astro sie serialisieren, wenn es die Ansicht an den Browser sendet (im Wesentlichen wird JSON.stringify(gearShops) in das HTML-Dokument eingefügt). Ein Blick auf GearShopList: — const { shops, initialCount } = Astro.props; // Receive the ‘shops’ prop if (!shops) { throw new Error(‘GearShopList component requires a “shops” prop that is an array.’); } — All Hiking Climbing () Dieser Code ist relativ selbsterklärend, mit Ausnahme des x-data-Attributs . Der Zweck ist klar: Wir wollen ein JavaScript-Objekt mit einem filter– und einem shops-Feld erstellen, wobei letzteres das Live-JavaScript-Objekt enthält, das wir zuvor auf dem Server erstellt haben. Die zusätzlichen Zeichen sind nötig, um das syntaktisch zu bewerkstelligen. Der Schlüssel, um x-data zu verstehen, ist dabei die {“}-Syntax – geschweifte Klammern mit zwei Backticks –, die zu einem leeren String aufgelöst wird. Soll heißen: Das x-data-Feld ist letztendlich ein String-Literal-Objekt, das die shops-Variable als JSON interpoliert. Alpine verarbeitet all das und wandelt es in ein Live-Objekt um, um die Komponente zu steuern (die Funktionsweise dieses Anwendungsteils lässt sich auch anhand dieser Astro-Alpine-Demo-Anwendung auf GitHub nachvollziehen). Neben dem x-data-Attribut bindet x-model den Auswahlwert an die filter-Variable. Mit x-for können wir über Shops iterieren.   So sieht unsere “Gear Shops”-Seite nun aus: Matthew Tyson Ebene 3: Die “Adventures”-Seite Im Fall der “Adventures”-Seite kommt schließlich Alpine zum Zug. Damit Astro nicht in Sachen SSG tätig wird, ist es an dieser Stelle nötig, seine Pre-Rendering-Funktion zu deaktivieren. — import Layout from ‘../layouts/Layout.astro’; export const prerender = false; // Important: Disable prerendering for this page — My Adventures Loading adventures… {/*… other adventure details… */} Diese Seite demonstriert die Vielseitigkeit und Performanz von Alpine: Das x-data-Attribut enthält sowohl die data-Property (adventures) als auch eine Fetching-Methode (fetchAdventures()). Wird x-init bei der Initialisierung der Komponenten aufgerufen, callt es die fetchAdventures()-Funktion, die wiederum unseren Server aufruft und adventures mit Daten befüllt. Dabei ist alles übersichtlich in einem kleinen Bereich zusammengefasst, in dem Daten, Verhalten und Ansicht logisch miteinander verknüpft sind. Anschließend verwenden wir x-if, um auf Basis von adventures.length entweder eine Loading Message oder die eigentliche Liste anzuzeigen. Die Adventures-API Zu guter Letzt benötigen wir noch einen Backend-Endpunkt, um die Adventures-JSON für diesen Call bereitzustellen: export async function GET() { const adventures = [ { id: 1, title: “Hiking Trip to Mount Hood”, date: “2024-08-15” }, { id: 2, title: “Kayaking Adventure on the Rogue River”, date: “2024-09-22” }, //… more adventures ]; return new Response(JSON.stringify(adventures), { status: 200, headers: { ‘Content-Type’: ‘application/json’ } }); } Ein Blick auf unsere “Adventures”-Seite: Matthew Tyson (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Web-Apps mit Astro und Alpine entwickeln​ Astro und Alpine gehen in der Praxis gut zusammen.Dmytro Vietrov | shutterstock.com

Softwareentwickler, die ihren Job gerne machen, sind immer offen für funktionale, qualitativ hochwertige Tools, die die Developer Experience bereichern können. Das trifft sowohl auf Astro als auch auf Alpine zu. Während das erstgenannte Framework eine stabile, Server-seitige Plattform bietet, um Web-Applikationen an den Start zu bringen, ist zweitgenanntes eine bevorzugte Option für Frontend-Minimalisten.

Kombiniert man die beiden Rahmenwerke, ist das Ergebnis ein schlanker, aber sehr vielseitiger Stack, der einige der besten Features von Astro und Alpine zusammenbringt. In diesem Tutorial entwickeln wir eine Beispiel-Webanwendung, die dieses Zusammenspiel demonstriert.

Der Astro-Alpine-Stack im Überblick

Astro ist in erster Linie als Meta-Framework bekannt, um Reactive-Frameworks wie React und Svelte zu integrieren. Bei Alpine handelt es sich zwar ebenfalls um ein reaktives Framework, dieses ist aber so schlank designt, dass es in Kombination mit Astro anders funktioniert – in erster Linie, weil es einige Integrations-Formalitäten vermeidet. So bietet Astro bereits eine ganze Reihe von Funktionen, um Server-seitige Komponenten zu definieren. Die klare Syntax von Alpine erleichtert es schließlich, verschiedene Teile einer Anwendung um Interaktivität und API-Calls zu ergänzen.

Weil Astro standardmäßig auch ein offizielles Alpine-Plugin enthält, funktioniert die Kombination der beiden Frameworks quasi nahtlos. Lediglich wenn es darum geht, eine Alpine-Komponente mit SSG (Static Site Generation) -Daten aus Astro zu steuern, sind ein paar kleinere Kniffe notwendig. Im Großen und Ganzen ist Astro plus Alpine aber eine sehr gute Idee, wenn Sie etwas entwickeln möchten, das größtenteils auf Astros SSG läuft und für raffiniertere Interaktionen auf Alpine zurückgreift.

Der Hauptteil dieses Artikels gliedert sich in drei Entwicklungsebenen – die in aufsteigender Reihenfolge stärker auf Alpine basieren:

Ebene 1 dreht sich um reines SSG mit simpler, Client-seitiger Erweiterung.

Ebene 2 beschäftigt sich mit dynamischem Server-Side Rendering (SSR) inklusive Client-seitiger Erweiterung.

Ebene 3 konzentriert sich auf Client-seitiges Rendering mit API-Aufrufen.

Die Beispielanwendung und ihr Layout

Um die einzelnen Ebenen und ihre Unterschiede deutlicher herauszuarbeiten, erstellen wir nachfolgend eine fiktive Webanwendung namens “Coast Mountain Adventures”. Die App soll aus drei verschiedenen Seiten bestehen, die die eben dargelegten Entwicklungsebenen repräsentieren:

Auf Ebene 1 erstellen wir eine “About”-Seite, die eine einfache Akkordeonansicht mit statischen Inhalten beherbergt.

Auf Ebene 2 erstellen wir eine “Gear Shops”-Seite, die lokale Outdoor-Einzelhandelsgeschäfte auflistet. Diese List wird mit Astro generiert und von Alpine gefiltert.

Auf Ebene 3 erstellen wir eine “My Adventures”-Seite. Diese nimmt über eine API eine Benutzer-ID entgegen und gibt eine JSON-Antwort mit den Daten des Benutzers zurück, die von Alpine auf dem Client gerendert werden.

Um loslegen zu können, müssen Sie zunächst Astro installieren, eine neue Anwendung damit erstellen und die Integration von Alpine starten (für ein einfaches responsives Styling haben wir zudem das Tailwind-Plugin installiert – CSS wird in diesem Tutorial allerdings nicht thematisiert).

$ npm create astro@latest — –template minimal

$ npx astro add alpinejs

$ npx astro add tailwind

Unser Framing-Material (das Layout) ist simpel und besteht lediglich aus einem Titel und ein paar Links. Astro fasst diese zusammen und liefert sie ohne JavaScript aus:


import ‘./src/styles/global.css’;

Astro Alpine

Coast Mountain Adventures

My Adventures
Gear Shops
About

Beachten Sie in diesem Code-Snippet das Element ;: Hier wird Astro die Seiten ablegen, die dieses Layout verwenden (weitere Informationen zu Astro-Layouts finden Sie in der Dokumentation). Astro übernimmt auch das Routing der URLs an die richtigen Dateien auf der Festplatte im Verzeichnis /src/pages.

Ebene 1: Die “About”-Seite

Unsere “About”-Seite besteht aus drei Abschnitten: einer Haupt- und zwei Untersektionen. Für dieses Tutorial erstellen wir die beiden Unterabschnitte als Akkordeon-Panels, deren Inhalte per Klick ein- oder ausgeblendet werden. 


import Layout from ‘../layouts/Layout.astro’;

About Us
We are a consortium of outdoor enthusiasts and locally owned gear shops and exchanges, dedicated to the truth that when nature and people come together, Good Things happen.

Our Mission
{/* Add the icon span */}
↓ {/* Down arrow character */}

To connect people with nature and provide access to quality outdoor gear, experiences and curated resources.

Our Values

Community
Sustainability
Adventure

Abgesehen vom Astro-Layout enthält diese Ebene ansonsten nichts Astro-Spezifisches. Es handelt sich lediglich um HTML mit einigen wenigen Alpine-Direktiven, nämlich:

x-data (definiert das Datenobjekt für die Alpine-Komponente),

x-on:click (definiert einen Onclick-Handler), sowie

x-show (blendet das Element konditional ein oder aus).

Das ist auch schon alles, was wir für unsere Akkordeons benötigen – plus ein wenig CSS für die Pfeilsymbole. So sieht unsere Seite momentan aus:

Matthew Tyson

Ebene 2: Die “Gear Shop”-Seite

Für unsere “Gear Shop”-Seite möchten wir einen Teil der im Backend verfügbaren Daten so rendern, dass der Client sie filtern kann. Deshalb rendern wir die Daten mit Astro Server-seitig und erstellen eine Alpine-Komponente, die diese verarbeiten kann und dynamische UI-Interaktionen ermöglicht.

Doch eins nach dem anderen – zunächst erstellen wir die Seite selbst:


// src/pages/gear-shops.astro
import Layout from ‘../layouts/Layout.astro’;
import GearShopList from ‘../components/GearShopList.astro’;

const gearShops = [
{ name: “Adventure Outfitters”, category: “Hiking” },
{ name: “Peak Performance Gear”, category: “Climbing” },
{ name: “River Rat Rentals”, category: “Kayaking” },
{ name: “The Trailhead”, category: “Hiking” },
{ name: “Vertical Ventures”, category: “Climbing” }
];

Local Gear Shops

Die Daten befinden sich in der Variablen gearShops. Sie könnten aus einer Datenbank, einer externen API, einem lokalen Dateisystem oder den integrierten Content Collections von Astro stammen. Der Punkt ist: Sie werden auf dem Server produziert. Der Trick besteht nun darin, sie als Live-JSON auf dem Client verfügbar zu machen – wo Alpine sie nutzen kann.

Dazu müssen die Daten zunächst auf der shops-Property der GearShopList-Komponente in String-Form gebracht werden. Dadurch kann Astro sie serialisieren, wenn es die Ansicht an den Browser sendet (im Wesentlichen wird JSON.stringify(gearShops) in das HTML-Dokument eingefügt).

Ein Blick auf GearShopList:


const { shops, initialCount } = Astro.props; // Receive the ‘shops’ prop

if (!shops) {
throw new Error(‘GearShopList component requires a “shops” prop that is an array.’);
}

All
Hiking
Climbing

()

Dieser Code ist relativ selbsterklärend, mit Ausnahme des x-data-Attributs . Der Zweck ist klar: Wir wollen ein JavaScript-Objekt mit einem filter– und einem shops-Feld erstellen, wobei letzteres das Live-JavaScript-Objekt enthält, das wir zuvor auf dem Server erstellt haben. Die zusätzlichen Zeichen sind nötig, um das syntaktisch zu bewerkstelligen. Der Schlüssel, um x-data zu verstehen, ist dabei die {“}-Syntax – geschweifte Klammern mit zwei Backticks –, die zu einem leeren String aufgelöst wird.

Soll heißen: Das x-data-Feld ist letztendlich ein String-Literal-Objekt, das die shops-Variable als JSON interpoliert. Alpine verarbeitet all das und wandelt es in ein Live-Objekt um, um die Komponente zu steuern (die Funktionsweise dieses Anwendungsteils lässt sich auch anhand dieser Astro-Alpine-Demo-Anwendung auf GitHub nachvollziehen). Neben dem x-data-Attribut bindet x-model den Auswahlwert an die filter-Variable. Mit x-for können wir über Shops iterieren.  

So sieht unsere “Gear Shops”-Seite nun aus:

Matthew Tyson

Ebene 3: Die “Adventures”-Seite

Im Fall der “Adventures”-Seite kommt schließlich Alpine zum Zug. Damit Astro nicht in Sachen SSG tätig wird, ist es an dieser Stelle nötig, seine Pre-Rendering-Funktion zu deaktivieren.


import Layout from ‘../layouts/Layout.astro’;

export const prerender = false; // Important: Disable prerendering for this page

My Adventures

Loading adventures…

{/*… other adventure details… */}

Diese Seite demonstriert die Vielseitigkeit und Performanz von Alpine: Das x-data-Attribut enthält sowohl die data-Property (adventures) als auch eine Fetching-Methode (fetchAdventures()).

Wird x-init bei der Initialisierung der Komponenten aufgerufen, callt es die fetchAdventures()-Funktion, die wiederum unseren Server aufruft und adventures mit Daten befüllt. Dabei ist alles übersichtlich in einem kleinen Bereich zusammengefasst, in dem Daten, Verhalten und Ansicht logisch miteinander verknüpft sind.

Anschließend verwenden wir x-if, um auf Basis von adventures.length entweder eine Loading Message oder die eigentliche Liste anzuzeigen.

Die Adventures-API

Zu guter Letzt benötigen wir noch einen Backend-Endpunkt, um die Adventures-JSON für diesen Call bereitzustellen:

export async function GET() {
const adventures = [
{ id: 1, title: “Hiking Trip to Mount Hood”, date: “2024-08-15” },
{ id: 2, title: “Kayaking Adventure on the Rogue River”, date: “2024-09-22” },
//… more adventures
];

return new Response(JSON.stringify(adventures), {
status: 200,
headers: {
‘Content-Type’: ‘application/json’
}
});
}

Ein Blick auf unsere “Adventures”-Seite:

Matthew Tyson

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Web-Apps mit Astro und Alpine entwickeln​ Weiterlesen »

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​

Allgemein

Ihre Cloud-Karriere voranzubringen, erfordert keine großen monetären Investitionen. Foto: wacomka – shutterstock.comWenn es darum geht, Ihre Cloud-Karriere zu optimieren, sollten Sie zunächst verinnerlichen, was nicht hilft: Sparen Sie sich teure Executive-MBA-Programme und ähnliches. Diese bringen selten den angestrebten Nutzen und vermitteln regelmäßig nicht die entscheidenden Skills, um Cloud-Computing-Systeme aufzubauen und bereitzustellen – von der Entwicklung eines Betriebsmodells, einer Cloud-Strategie oder eines -Geschäftsmodells ganz zu schweigen.Wenn Sie Ihre Cloud-Karriere wirklich voranbringen wollen, müssen Sie dazu nicht unbedingt Geld investieren. Unternehmen suchen Pragmatiker und Praktiker, die in der Lage sind, schnell einen Mehrwert für das Business zu erzielen. Darauf sollten Sie sich fokussieren – zum Beispiel, indem Sie folgende drei Tipps beherzigen.1. Professionell netzwerkenSoziale Karriereplattformen wie Linkedin sind längst nicht mehr optional. Sie bieten eine wertvolle Plattform, um Beziehungen zu anderen Cloud-Experten zu knüpfen – oder auch, um direkt einen Job zu finden. Versuchen Sie Inhalte zu posten, die für andere Experten interessant oder hilfreich sind – damit demonstrieren Sie, dass Sie die Entwicklung der Branche aufmerksam verfolgen. Das ist nicht nur ein Garant für steigende Follower-Zahlen, sondern kann sich auch bei Bewerbungen als echter Pluspunkt erweisen. Um professionell zu netzwerken, bieten sich darüber hinaus auch Branchen- und Community-Events an.2. Kontinuierlich lernenEgal, ob Sie regelmäßig aktuelle Artikel konsumieren oder einen kostenlosen Kurs buchen – stellen Sie sicher, sich in jeder Woche mit neuen Inhalten und/oder Trends zu beschäftigen. Das ist insbesondere in Vorstellungsgesprächen nützlich, um zu demonstrieren, dass Sie im aktuellen “Cloud-Game” mitreden können und im Bilde sind – etwa, wenn es um die Vor- und Nachteile von Cloud Native oder Serverless Computing geht.3. Komfortzone verlassenVersuchen Sie, gezielt Projekte und Jobs anzunehmen, die geeignet sind, Ihre Skills und Ihr Knowhow zu erweitern. Es mag zunächst einschüchternd wirken, sich etwa mit Cloud-Architekturen zu beschäftigen obwohl Sie bislang nur im Bereich Cloud Operations tätig waren. Sie dürften allerdings schnell feststellen, dass Ihre Teamkollegen Sie dabei unterstützen werden, zu lernen. Auf den gewonnenen Erfahrungswerten können Sie aufbauen, um Ihre Cloud-Karriere voranzubringen. Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​ Ihre Cloud-Karriere voranzubringen, erfordert keine großen monetären Investitionen.
Foto: wacomka – shutterstock.comWenn es darum geht, Ihre Cloud-Karriere zu optimieren, sollten Sie zunächst verinnerlichen, was nicht hilft: Sparen Sie sich teure Executive-MBA-Programme und ähnliches. Diese bringen selten den angestrebten Nutzen und vermitteln regelmäßig nicht die entscheidenden Skills, um Cloud-Computing-Systeme aufzubauen und bereitzustellen – von der Entwicklung eines Betriebsmodells, einer Cloud-Strategie oder eines -Geschäftsmodells ganz zu schweigen.Wenn Sie Ihre Cloud-Karriere wirklich voranbringen wollen, müssen Sie dazu nicht unbedingt Geld investieren. Unternehmen suchen Pragmatiker und Praktiker, die in der Lage sind, schnell einen Mehrwert für das Business zu erzielen. Darauf sollten Sie sich fokussieren – zum Beispiel, indem Sie folgende drei Tipps beherzigen.1. Professionell netzwerkenSoziale Karriereplattformen wie Linkedin sind längst nicht mehr optional. Sie bieten eine wertvolle Plattform, um Beziehungen zu anderen Cloud-Experten zu knüpfen – oder auch, um direkt einen Job zu finden. Versuchen Sie Inhalte zu posten, die für andere Experten interessant oder hilfreich sind – damit demonstrieren Sie, dass Sie die Entwicklung der Branche aufmerksam verfolgen. Das ist nicht nur ein Garant für steigende Follower-Zahlen, sondern kann sich auch bei Bewerbungen als echter Pluspunkt erweisen. Um professionell zu netzwerken, bieten sich darüber hinaus auch Branchen- und Community-Events an.2. Kontinuierlich lernenEgal, ob Sie regelmäßig aktuelle Artikel konsumieren oder einen kostenlosen Kurs buchen – stellen Sie sicher, sich in jeder Woche mit neuen Inhalten und/oder Trends zu beschäftigen. Das ist insbesondere in Vorstellungsgesprächen nützlich, um zu demonstrieren, dass Sie im aktuellen “Cloud-Game” mitreden können und im Bilde sind – etwa, wenn es um die Vor- und Nachteile von Cloud Native oder Serverless Computing geht.3. Komfortzone verlassenVersuchen Sie, gezielt Projekte und Jobs anzunehmen, die geeignet sind, Ihre Skills und Ihr Knowhow zu erweitern. Es mag zunächst einschüchternd wirken, sich etwa mit Cloud-Architekturen zu beschäftigen obwohl Sie bislang nur im Bereich Cloud Operations tätig waren. Sie dürften allerdings schnell feststellen, dass Ihre Teamkollegen Sie dabei unterstützen werden, zu lernen. Auf den gewonnenen Erfahrungswerten können Sie aufbauen, um Ihre Cloud-Karriere voranzubringen.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​ Weiterlesen »

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​

Allgemein

Eine individuelle Positionierung ist das A und O einer guten Bewerbung. Foto: Tero Vesalainen – shutterstock.comAuf welche fünf Besonderheiten bei der Bewerbung sowie später im Vorstellungsgespräch zu achten ist, wird im folgenden Beitrag erläutert.5 Bewerbungstipps: So heben Sie sich ab1. Individuelles Profil erarbeitenFür jede Bewerbung sind zwei Fragen wichtig. Einerseits: Welche Eigenschaften, Erfahrungen und Erfolge kann der Kandidat vorweisen, die er bereits in früheren beruflichen Stationen erworben hat? Andererseits: In welche Branchen und Jobs kann er diese Vorteile einbringen, wo ist er unter den gegebenen Bedingungen eine wertvolle Arbeitskraft?Diese individuelle Positionierung ist die Grundlage jeder erfolgreichen Bewerbung. Tatsächlich starten die meisten Bewerber ihre Jobsuche mit ihrem Lebenslauf und machen somit den zweiten Schritt vor dem ersten. Das macht sich allerdings auch in den Unterlagen bemerkbar – so geht nämlich keine Positionierung daraus hervor.2. Inhalte müssen genau auf die Stelle passenMit der Positionierung ist es zudem möglich, das Anschreiben und den Lebenslauf anhand der eben gewonnenen Ergebnisse anzupassen. Das ist wichtig, um jede Bewerbung individueller zu gestalten, den Inhalt aber zugleich so auszulegen, dass er sich je nach freier Stelle an den geforderten Kriterien orientiert.Auf Inhalte, die nicht in den Kontext passen, sollte komplett verzichtet werden. Dieses Vorgehen mag zusätzlichen Aufwand bedeuten, führt aber oft zum Erfolg. Neben früheren Tätigkeiten sollten vor allem Erfolge benannt werden. Schließlich kaufen sich Unternehmen erfolgreiche Mitarbeiter ein und nicht nur ihre berufliche Erfahrung. Daher ist eine Leistungsbilanz, auf die in Regel häufig verzichtet wird, nur zu empfehlen.3. Nicht nur freie Stellen anvisierenZudem ist es sinnvoll, den eigenen Fokus ein wenig zu erweitern und sich nicht allein auf offene Stellen zu beschränken. Vielmehr kann auch die Initiativbewerbung zu einer Anstellung führen. Je verantwortungsvoller die angestrebte Position dabei ist, desto mehr empfiehlt es sich, mit der Bewerbung nicht den Personalchef, sondern direkt die Unternehmensführung zu adressieren.4. Auf Stärken und Erfolge im Vorstellungsgespräch eingehen …Nicht alleine in der schriftlichen Bewerbung muss der Kandidat erkennen lassen, warum er für das Unternehmen so wichtig ist. Auch im Vorstellungsgespräch sollte er sich von anderen Bewerbern unterscheiden. Was also hat er in früheren Berufen erlebt, welche Erfolge hat er gemeistert? Welche Qualifikationen bringt er mit, um die freie Stelle optimal zu besetzen und was möchte er in Zukunft noch erreichen?5. … und Antworten parat haben nach schwierigen AufgabenIm Bewerbungsgespräch ist es üblich, dass sich Fragen und Antworten an der Critical-Incident-Methode orientieren. Das heißt, dass der Personalchef wissen möchte, in welchen schwierigen Situationen sich der Bewerber in früheren Jobs befunden und wie er diese gemeistert hat. Es lohnt sich daher, sich auf dieses Schema vorzubereiten – zumal sich auch damit eine Unterscheidung gegenüber anderen Bewerbern erreichen lässt. (hk) 

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​ Eine individuelle Positionierung ist das A und O einer guten Bewerbung.
Foto: Tero Vesalainen – shutterstock.comAuf welche fünf Besonderheiten bei der Bewerbung sowie später im Vorstellungsgespräch zu achten ist, wird im folgenden Beitrag erläutert.5 Bewerbungstipps: So heben Sie sich ab1. Individuelles Profil erarbeitenFür jede Bewerbung sind zwei Fragen wichtig. Einerseits: Welche Eigenschaften, Erfahrungen und Erfolge kann der Kandidat vorweisen, die er bereits in früheren beruflichen Stationen erworben hat? Andererseits: In welche Branchen und Jobs kann er diese Vorteile einbringen, wo ist er unter den gegebenen Bedingungen eine wertvolle Arbeitskraft?Diese individuelle Positionierung ist die Grundlage jeder erfolgreichen Bewerbung. Tatsächlich starten die meisten Bewerber ihre Jobsuche mit ihrem Lebenslauf und machen somit den zweiten Schritt vor dem ersten. Das macht sich allerdings auch in den Unterlagen bemerkbar – so geht nämlich keine Positionierung daraus hervor.2. Inhalte müssen genau auf die Stelle passenMit der Positionierung ist es zudem möglich, das Anschreiben und den Lebenslauf anhand der eben gewonnenen Ergebnisse anzupassen. Das ist wichtig, um jede Bewerbung individueller zu gestalten, den Inhalt aber zugleich so auszulegen, dass er sich je nach freier Stelle an den geforderten Kriterien orientiert.Auf Inhalte, die nicht in den Kontext passen, sollte komplett verzichtet werden. Dieses Vorgehen mag zusätzlichen Aufwand bedeuten, führt aber oft zum Erfolg. Neben früheren Tätigkeiten sollten vor allem Erfolge benannt werden. Schließlich kaufen sich Unternehmen erfolgreiche Mitarbeiter ein und nicht nur ihre berufliche Erfahrung. Daher ist eine Leistungsbilanz, auf die in Regel häufig verzichtet wird, nur zu empfehlen.3. Nicht nur freie Stellen anvisierenZudem ist es sinnvoll, den eigenen Fokus ein wenig zu erweitern und sich nicht allein auf offene Stellen zu beschränken. Vielmehr kann auch die Initiativbewerbung zu einer Anstellung führen. Je verantwortungsvoller die angestrebte Position dabei ist, desto mehr empfiehlt es sich, mit der Bewerbung nicht den Personalchef, sondern direkt die Unternehmensführung zu adressieren.4. Auf Stärken und Erfolge im Vorstellungsgespräch eingehen …Nicht alleine in der schriftlichen Bewerbung muss der Kandidat erkennen lassen, warum er für das Unternehmen so wichtig ist. Auch im Vorstellungsgespräch sollte er sich von anderen Bewerbern unterscheiden. Was also hat er in früheren Berufen erlebt, welche Erfolge hat er gemeistert? Welche Qualifikationen bringt er mit, um die freie Stelle optimal zu besetzen und was möchte er in Zukunft noch erreichen?5. … und Antworten parat haben nach schwierigen AufgabenIm Bewerbungsgespräch ist es üblich, dass sich Fragen und Antworten an der Critical-Incident-Methode orientieren. Das heißt, dass der Personalchef wissen möchte, in welchen schwierigen Situationen sich der Bewerber in früheren Jobs befunden und wie er diese gemeistert hat. Es lohnt sich daher, sich auf dieses Schema vorzubereiten – zumal sich auch damit eine Unterscheidung gegenüber anderen Bewerbern erreichen lässt. (hk)

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​ Weiterlesen »

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​

Allgemein

Viele Unternehmen und HR-Abteilungen unterschätzen die Bedeutung des “Kaffeetratschs” für den beruflichen Wissenstransfer. Fast 70 Prozent der Kompetenzerweiterung erfolgt durch informelles Lernen, nur rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung. Foto: Dragon Images – shutterstock.comJulia Schmidt war vergangene Woche endlich mal wieder im Büro: “Kolleginnen treffen, ohne sich explizit verabreden zu müssen; ein kurzes Gespräch beim Kaffee oder schnell nach nebenan gehen, um zu fragen, wie es beim Kunden XY gerade läuft – herrlich”, fasst die Key-Account-Managerin zusammen, was sie im Homeoffice vermisst. Von vielen Führungskräften als “unproduktive Zeit” verurteilt, ist das Plaudern mit Kollegen im Büro aber viel mehr als Klatsch und Tratsch: Ein großer Teil des Austauschs fällt nämlich in die Kategorie des informellen Lernens.Informelles Lernen: Das Gegenteil von unproduktiv “Beim informellen Lernen erhalten Lernende eine Information genau dann, wenn sie diese benötigen”, erklärt Nick Petch, Head of Learning Experience bei imc, einem Anbieter für digitale Trainingslösungen. “Beim formalen Lernen hingegen wird ein vorher definierter Inhalt zu einem bestimmten Zeitpunkt erlernt. Egal, ob das Wissen gerade gebraucht wird oder nicht”, erläutert der Bildungsexperte weiter. Die informelle Art, sich Wissen zu beschaffen, geschehe zumeist, ohne dass wir uns dessen bewusst sind. “In der Praxis lernen wir ständig informell, wenn wir beispielsweise googlen, in Wikipedia nachlesen oder eben zum Kollegen nach nebenan gehen, um konkret etwas zu erfragen”, so Petch. Weil informell erworbenes Wissen direkt genutzt und verarbeitet wird, kann sich der Mensch diese Informationen oft besser merken als Lernstoff, den wir auf formale Weise – etwa bei einer beruflichen Weiterbildung – einmal gelernt haben.In vielen Unternehmen fehlt es dem Management noch am nötigen Bewusstsein, wie wichtig ein informeller Austausch sein kann. Stattdessen widmen Personalentwickler ihre gesamte Aufmerksamkeit offiziellen Weiterbildungen. Dass dies nicht immer zielführend ist, zeigen unterschiedliche Studien, beispielsweise des Education Development Center: Fast 70 Prozent der Kompetenzerweiterung im betrieblichen Kontext geschieht durch informelles Lernen, lediglich rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.Informell lernen im Homeoffice: 3 Tipps“Es ist wichtig, eine ausgewogene Mischung aus formalem und informellem Lernen zu finden”, betont Petch. Beides müsse aufeinander aufbauen: “Beim formalen Lernen bekomme ich sozusagen die Werkzeuge an die Hand, beim informellen Lernen kann ich dann aussuchen, welches Werkzeug ich wann und wie nutze.” Sitzen wir alle im Homeoffice, kommt informelles Lernen häufig zu kurz. Der Experte für digitales Lernen gibt drei Tipps, wie es auch im Homeoffice gelingen kann, von informellem Lernen zu profitieren:Informelle Lerninhalte sichtbar machen: Behalten Sie informell erhaltene Informationen, die auch anderen helfen könnten, nicht für sich. Teilen Sie Ihr Wissen in internen Blogs oder Wikis. Eine weitere Möglichkeit sind regelmäßige Feedback-Runden per Webkonferenz, zum Beispiel nach abgeschlossenen Projekten, bei denen die gewonnenen Erkenntnisse miteinander geteilt und für alle festgehalten werden.Coaching und Mentoring: Nutzen Sie Möglichkeiten zum regelmäßigen Austausch. Ein (abteilungsübergreifendes) Coaching und Mentoring kann auch online stattfinden. Kontaktieren Sie diejenigen im Unternehmen, die Neuerungen immer als Erste anwenden oder in einem Fachgebiet sehr erfahren sind. Meist freuen sich Kolleginnen und Kollegen, wenn sie als Experten gelten und geben gerne ihre Expertise in einem Telefonat oder Chat weiter.Eine offene Lernkultur etablieren: Fehlt es bei Ihrem Arbeitgeber an einer offenen Lernkultur und ist die Weitergabe von Wissen nicht fest im Denken jedes Mitarbeitenden verankert, fällt es schwer, informelles Lernen ins Homeoffice zu transportieren. Gehen Sie dann mit gutem Beispiel voran und teilen Sie neue Informationen mit allen, die davon profitieren könnten. Kontaktieren Sie Kollegen, die ihr Wissen anscheinend wie einen Schatz horten. Regen Sie an, sich regelmäßig virtuell zu treffen, um sich unkompliziert austauschen zu können. Oft verblassen anfängliche Vorbehalte mit der Zeit, die manche Personen gegen informelle Wissensvermittlung haben, und es gelingt nach und nach, eine offene Lernkultur zu etablieren. (pg) 

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​ Viele Unternehmen und HR-Abteilungen unterschätzen die Bedeutung des “Kaffeetratschs” für den beruflichen Wissenstransfer. Fast 70 Prozent der Kompetenzerweiterung erfolgt durch informelles Lernen, nur rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.
Foto: Dragon Images – shutterstock.comJulia Schmidt war vergangene Woche endlich mal wieder im Büro: “Kolleginnen treffen, ohne sich explizit verabreden zu müssen; ein kurzes Gespräch beim Kaffee oder schnell nach nebenan gehen, um zu fragen, wie es beim Kunden XY gerade läuft – herrlich”, fasst die Key-Account-Managerin zusammen, was sie im Homeoffice vermisst. Von vielen Führungskräften als “unproduktive Zeit” verurteilt, ist das Plaudern mit Kollegen im Büro aber viel mehr als Klatsch und Tratsch: Ein großer Teil des Austauschs fällt nämlich in die Kategorie des informellen Lernens.Informelles Lernen: Das Gegenteil von unproduktiv “Beim informellen Lernen erhalten Lernende eine Information genau dann, wenn sie diese benötigen”, erklärt Nick Petch, Head of Learning Experience bei imc, einem Anbieter für digitale Trainingslösungen. “Beim formalen Lernen hingegen wird ein vorher definierter Inhalt zu einem bestimmten Zeitpunkt erlernt. Egal, ob das Wissen gerade gebraucht wird oder nicht”, erläutert der Bildungsexperte weiter. Die informelle Art, sich Wissen zu beschaffen, geschehe zumeist, ohne dass wir uns dessen bewusst sind. “In der Praxis lernen wir ständig informell, wenn wir beispielsweise googlen, in Wikipedia nachlesen oder eben zum Kollegen nach nebenan gehen, um konkret etwas zu erfragen”, so Petch. Weil informell erworbenes Wissen direkt genutzt und verarbeitet wird, kann sich der Mensch diese Informationen oft besser merken als Lernstoff, den wir auf formale Weise – etwa bei einer beruflichen Weiterbildung – einmal gelernt haben.In vielen Unternehmen fehlt es dem Management noch am nötigen Bewusstsein, wie wichtig ein informeller Austausch sein kann. Stattdessen widmen Personalentwickler ihre gesamte Aufmerksamkeit offiziellen Weiterbildungen. Dass dies nicht immer zielführend ist, zeigen unterschiedliche Studien, beispielsweise des Education Development Center: Fast 70 Prozent der Kompetenzerweiterung im betrieblichen Kontext geschieht durch informelles Lernen, lediglich rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.Informell lernen im Homeoffice: 3 Tipps“Es ist wichtig, eine ausgewogene Mischung aus formalem und informellem Lernen zu finden”, betont Petch. Beides müsse aufeinander aufbauen: “Beim formalen Lernen bekomme ich sozusagen die Werkzeuge an die Hand, beim informellen Lernen kann ich dann aussuchen, welches Werkzeug ich wann und wie nutze.” Sitzen wir alle im Homeoffice, kommt informelles Lernen häufig zu kurz. Der Experte für digitales Lernen gibt drei Tipps, wie es auch im Homeoffice gelingen kann, von informellem Lernen zu profitieren:Informelle Lerninhalte sichtbar machen: Behalten Sie informell erhaltene Informationen, die auch anderen helfen könnten, nicht für sich. Teilen Sie Ihr Wissen in internen Blogs oder Wikis. Eine weitere Möglichkeit sind regelmäßige Feedback-Runden per Webkonferenz, zum Beispiel nach abgeschlossenen Projekten, bei denen die gewonnenen Erkenntnisse miteinander geteilt und für alle festgehalten werden.Coaching und Mentoring: Nutzen Sie Möglichkeiten zum regelmäßigen Austausch. Ein (abteilungsübergreifendes) Coaching und Mentoring kann auch online stattfinden. Kontaktieren Sie diejenigen im Unternehmen, die Neuerungen immer als Erste anwenden oder in einem Fachgebiet sehr erfahren sind. Meist freuen sich Kolleginnen und Kollegen, wenn sie als Experten gelten und geben gerne ihre Expertise in einem Telefonat oder Chat weiter.Eine offene Lernkultur etablieren: Fehlt es bei Ihrem Arbeitgeber an einer offenen Lernkultur und ist die Weitergabe von Wissen nicht fest im Denken jedes Mitarbeitenden verankert, fällt es schwer, informelles Lernen ins Homeoffice zu transportieren. Gehen Sie dann mit gutem Beispiel voran und teilen Sie neue Informationen mit allen, die davon profitieren könnten. Kontaktieren Sie Kollegen, die ihr Wissen anscheinend wie einen Schatz horten. Regen Sie an, sich regelmäßig virtuell zu treffen, um sich unkompliziert austauschen zu können. Oft verblassen anfängliche Vorbehalte mit der Zeit, die manche Personen gegen informelle Wissensvermittlung haben, und es gelingt nach und nach, eine offene Lernkultur zu etablieren. (pg)

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​ Weiterlesen »

Kein Spaß im Job ist vergeudetes Leben​

Allgemein

Unternehmen können einen erheblichen Beitrag dazu leisten, dass ihre Mitarbeiter die Arbeit als sinnstiftenden Bestandteil ihres Lebens empfinden. Black Salmon – Shutterstock 2467295269 Nicht einmal jeder zweite Mitarbeiter gibt hierzulande im Job sein Bestes – so eine aktuelle Umfrage der Prüfungs- und Beratungsorganisation EY (Vier von zehn Angestellten denken über Jobwechsel nach | EY – Deutschland. Alarmierend: Deutschland liegt bei der Mitarbeitermotivation deutlich unter dem internationalen Durchschnitt. Die Folgen sind gravierend – für Unternehmen, die unter geringer Produktivität leiden, ebenso wie für die Mitarbeiter, die sich im Arbeitsalltag erschöpft und frustriert fühlen.   Dagegen sollten Unternehmen vorbeugen und alles dafür tun, die Motivation ihrer Mitarbeiter hochzuhalten und sie wertvolle Arbeitskräfte bei Laune zu halten.   Folgende sechs Ansätze sind für eine motivierende Arbeitskultur besonders wichtig:    1. Eigenverantwortung stärken Mitarbeiter sind besonders engagiert, wenn sie wissen, wofür sie arbeiten. Das ist eine alte Weisheit, die jeder Führungskraft bekannt sein sollte, aber oft der Realität nicht standhält. Management by Objectives (MbO) ist eine bewährte Führungsmethode, bei der Führungskräfte und Mitarbeiter gemeinsam messbare Ziele definieren.   Wer Mitarbeiter bei der Formulierung von Zielen einbindet, erhöht die Eigenverantwortung und Motivation – ein Ansatz, den bereits Bill Hewlett als Schlüssel zum Erfolg bei Hewlett-Packard betrachtete. Zur Stärkung der Eigenverantwortung gehört auch, dass Mitarbeiter selbst entscheiden, wann und wo sie am produktivsten arbeiten. Nicht wo der Stuhl steht, ist maßgebend, sondern ob jemand zur kollektiven Leistung des Teams beiträgt.      2. Eine offene Fehlerkultur leben Laut einer repräsentativen Studie aus dem Jahr 2024 trauen sich 44 Prozent der jungen Erwachsenen nicht, Fehler im Job offen zuzugeben. Unternehmen, die hingegen eine Fehlerkultur fördern, in der Missgeschicke als Lernchancen gelten, stärken das Selbstvertrauen ihrer Mitarbeiter. Die Folge: Sie treffen mutiger Entscheidungen und gehen auf Basis von Wissen, Erfahrung und einer realistischen Einschätzung wohlüberlegte Risiken ein. Wer Neues ausprobieren und aus Fehlern lernen darf, ist auch langfristig gesehen innovativer und leistungsfähiger.    3. Interne Karrierechancen geben Wenn Unternehmen neue Positionen besetzen, stellt sich die Frage: Talente aus den eigenen Reihen oder externe Bewerber? Trotz möglicher Risiken wie der Gefahr der Betriebsblindheit oder einer begrenzten Kandidatenauswahl überwiegen die Vorteile einer gezielten internen Förderung. Eine interne Rekrutierung spart nicht nur Zeit und Kosten, sondern schafft positive Erlebnisse, Beispiele und stärkt die Bindung.   Erfolg beginnt mit Chancen. Bei HPE haben manche Führungskräfte, die heute auf höchster Ebene arbeiten, ihre Karriere beispielsweise als Assistentin oder während des dualen Studiums im Unternehmen begonnen. Der individuelle Karriereweg beginnt damit, dass Mitarbeiter die Hand heben und signalisieren, dass sie nach links oder rechts springen wollen.   Ohne Eigeninitiative bleiben Chancen wirkungslos. Doch wenn sich Karrieren ohne vorgegebenen Pfad entwickeln können, stärkt das die Unternehmenskultur und zeigt: Erfolg ist kein Zufall, sondern gründet auf Leistung und Engagement.  4. Beruf und Privates in Einklang bringen Arbeit ist ein wichtiger Teil des Lebens, aber nicht das Leben selbst. Diese Überzeugung sollten Unternehmen verinnerlichen und Programme schaffen, die ihren Mitarbeitern helfen, eine Balance zwischen beruflicher Verwirklichung und privaten Verpflichtungen zu finden – sei es als Eltern, Vereinsmitglieder oder Freunde.   Mitarbeiter als höchstes Gut zu betrachten, kann mit hohen Investitionen verbunden sein, wie der sechsmonatige bezahlte Elternurlaub bei HPE zeigt, Er ist ein Angebot, das viele annehmen und das sich langfristig durch Leistungswillen sowie Mitarbeiterbindung auszahlt.   Oft wird vergessen, dass damit das Team auf eine Arbeitskraft verzichten muss. Wer übernimmt die Aufgaben? Gibt es für die Person angemessenen Ersatz? Dass Beruf und Privatleben in jeder Phase zusammenpassen, lässt sich nur als Gemeinschaftsaufgabe meistern. Individuelle Freiheit bedingt kollektive Verantwortung.     5. Wichtiges festhalten Die Welt ist im Umbruch und verunsichert viele. In stürmischen Zeiten drängen Fragen nach dem Sinn in den Mittelpunkt: Lohnt sich der Aufwand große Verantwortung zu tragen, wofür stehen ich und das Unternehmen? Die Konzentration auf das, was gleichbleibt, gibt Stabilität. Wichtiger als vollmundige Bekenntnisse und faktenreiche Reports ist, dass die Kernwerte und die Kultur erhalten bleiben.   Gleichzeitig ist Wandel immer auch eine Gelegenheit zu hinterfragen und zu experimentieren. Was wäre, wenn wir denken würden, wie noch nie zuvor gedacht wurde. In solchen Zeiten ist es wichtig, dass man eine Atmosphäre der „Open Minds“ schafft und der Jammerei Grenzen setzt. Zuversicht entsteht mit dem Zusammenhalt im Team.     6. Ermutigung zur Selbstreflexion Das schönste Arbeitsumfeld reicht nicht aus, wenn man nicht für sich selbst klärt, was einen erfüllt. Konstruktive, wertschätzende und klare Feedbackgespräche ermutigen Mitarbeiter, über ihre beruflichen Ziele, die eigene Arbeit und das Leben nachzudenken. Passt das, was ich tue zu mir? Bin ich an der richtigen Stelle eingesetzt? Bleibe ich mir treu, wenn ich Veränderungen erwäge?   Diese Fragen sind unbequem, aber wichtig – denn sie sind der Schlüssel, damit Mitarbeiter ihren Platz im Unternehmen finden. Denn zu einem erfüllten und selbstbestimmten Leben gehört auch die Zufriedenheit in der Arbeit. Zugespitzt formuliert: Macht der Job keinen Spaß, vergeudet man sein Leben.  

Kein Spaß im Job ist vergeudetes Leben​ Unternehmen können einen erheblichen Beitrag dazu leisten, dass ihre Mitarbeiter die Arbeit als sinnstiftenden Bestandteil ihres Lebens empfinden. Black Salmon – Shutterstock 2467295269

Nicht einmal jeder zweite Mitarbeiter gibt hierzulande im Job sein Bestes – so eine aktuelle Umfrage der Prüfungs- und Beratungsorganisation EY (Vier von zehn Angestellten denken über Jobwechsel nach | EY – Deutschland. Alarmierend: Deutschland liegt bei der Mitarbeitermotivation deutlich unter dem internationalen Durchschnitt. Die Folgen sind gravierend – für Unternehmen, die unter geringer Produktivität leiden, ebenso wie für die Mitarbeiter, die sich im Arbeitsalltag erschöpft und frustriert fühlen.  

Dagegen sollten Unternehmen vorbeugen und alles dafür tun, die Motivation ihrer Mitarbeiter hochzuhalten und sie wertvolle Arbeitskräfte bei Laune zu halten.  

Folgende sechs Ansätze sind für eine motivierende Arbeitskultur besonders wichtig: 

 

1. Eigenverantwortung stärken

Mitarbeiter sind besonders engagiert, wenn sie wissen, wofür sie arbeiten. Das ist eine alte Weisheit, die jeder Führungskraft bekannt sein sollte, aber oft der Realität nicht standhält. Management by Objectives (MbO) ist eine bewährte Führungsmethode, bei der Führungskräfte und Mitarbeiter gemeinsam messbare Ziele definieren.  

Wer Mitarbeiter bei der Formulierung von Zielen einbindet, erhöht die Eigenverantwortung und Motivation – ein Ansatz, den bereits Bill Hewlett als Schlüssel zum Erfolg bei Hewlett-Packard betrachtete. Zur Stärkung der Eigenverantwortung gehört auch, dass Mitarbeiter selbst entscheiden, wann und wo sie am produktivsten arbeiten. Nicht wo der Stuhl steht, ist maßgebend, sondern ob jemand zur kollektiven Leistung des Teams beiträgt.   

 

2. Eine offene Fehlerkultur leben

Laut einer repräsentativen Studie aus dem Jahr 2024 trauen sich 44 Prozent der jungen Erwachsenen nicht, Fehler im Job offen zuzugeben. Unternehmen, die hingegen eine Fehlerkultur fördern, in der Missgeschicke als Lernchancen gelten, stärken das Selbstvertrauen ihrer Mitarbeiter. Die Folge: Sie treffen mutiger Entscheidungen und gehen auf Basis von Wissen, Erfahrung und einer realistischen Einschätzung wohlüberlegte Risiken ein. Wer Neues ausprobieren und aus Fehlern lernen darf, ist auch langfristig gesehen innovativer und leistungsfähiger. 

 

3. Interne Karrierechancen geben

Wenn Unternehmen neue Positionen besetzen, stellt sich die Frage: Talente aus den eigenen Reihen oder externe Bewerber? Trotz möglicher Risiken wie der Gefahr der Betriebsblindheit oder einer begrenzten Kandidatenauswahl überwiegen die Vorteile einer gezielten internen Förderung. Eine interne Rekrutierung spart nicht nur Zeit und Kosten, sondern schafft positive Erlebnisse, Beispiele und stärkt die Bindung.  

Erfolg beginnt mit Chancen. Bei HPE haben manche Führungskräfte, die heute auf höchster Ebene arbeiten, ihre Karriere beispielsweise als Assistentin oder während des dualen Studiums im Unternehmen begonnen. Der individuelle Karriereweg beginnt damit, dass Mitarbeiter die Hand heben und signalisieren, dass sie nach links oder rechts springen wollen.  

Ohne Eigeninitiative bleiben Chancen wirkungslos. Doch wenn sich Karrieren ohne vorgegebenen Pfad entwickeln können, stärkt das die Unternehmenskultur und zeigt: Erfolg ist kein Zufall, sondern gründet auf Leistung und Engagement. 

4. Beruf und Privates in Einklang bringen

Arbeit ist ein wichtiger Teil des Lebens, aber nicht das Leben selbst. Diese Überzeugung sollten Unternehmen verinnerlichen und Programme schaffen, die ihren Mitarbeitern helfen, eine Balance zwischen beruflicher Verwirklichung und privaten Verpflichtungen zu finden – sei es als Eltern, Vereinsmitglieder oder Freunde.  

Mitarbeiter als höchstes Gut zu betrachten, kann mit hohen Investitionen verbunden sein, wie der sechsmonatige bezahlte Elternurlaub bei HPE zeigt, Er ist ein Angebot, das viele annehmen und das sich langfristig durch Leistungswillen sowie Mitarbeiterbindung auszahlt.  

Oft wird vergessen, dass damit das Team auf eine Arbeitskraft verzichten muss. Wer übernimmt die Aufgaben? Gibt es für die Person angemessenen Ersatz? Dass Beruf und Privatleben in jeder Phase zusammenpassen, lässt sich nur als Gemeinschaftsaufgabe meistern. Individuelle Freiheit bedingt kollektive Verantwortung.  

 

5. Wichtiges festhalten

Die Welt ist im Umbruch und verunsichert viele. In stürmischen Zeiten drängen Fragen nach dem Sinn in den Mittelpunkt: Lohnt sich der Aufwand große Verantwortung zu tragen, wofür stehen ich und das Unternehmen? Die Konzentration auf das, was gleichbleibt, gibt Stabilität. Wichtiger als vollmundige Bekenntnisse und faktenreiche Reports ist, dass die Kernwerte und die Kultur erhalten bleiben.  

Gleichzeitig ist Wandel immer auch eine Gelegenheit zu hinterfragen und zu experimentieren. Was wäre, wenn wir denken würden, wie noch nie zuvor gedacht wurde. In solchen Zeiten ist es wichtig, dass man eine Atmosphäre der „Open Minds“ schafft und der Jammerei Grenzen setzt. Zuversicht entsteht mit dem Zusammenhalt im Team.  

 

6. Ermutigung zur Selbstreflexion

Das schönste Arbeitsumfeld reicht nicht aus, wenn man nicht für sich selbst klärt, was einen erfüllt. Konstruktive, wertschätzende und klare Feedbackgespräche ermutigen Mitarbeiter, über ihre beruflichen Ziele, die eigene Arbeit und das Leben nachzudenken. Passt das, was ich tue zu mir? Bin ich an der richtigen Stelle eingesetzt? Bleibe ich mir treu, wenn ich Veränderungen erwäge?  

Diese Fragen sind unbequem, aber wichtig – denn sie sind der Schlüssel, damit Mitarbeiter ihren Platz im Unternehmen finden. Denn zu einem erfüllten und selbstbestimmten Leben gehört auch die Zufriedenheit in der Arbeit. Zugespitzt formuliert: Macht der Job keinen Spaß, vergeudet man sein Leben. 

Kein Spaß im Job ist vergeudetes Leben​ Weiterlesen »

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​

Allgemein

Foundry ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen. Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann (das klappt übrigens auch hervorragend, ohne dass Sie ChatGPT dafür bedrohen müssen). Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele. 1. E-Mails für Sie schreiben Foundry Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen. Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung. Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben. 2. Reiserouten und Zeitpläne erstellen Foundry Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben. Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich. Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen. 3. Schwierige Konzepte aufschlüsseln Foundry Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen. Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt! Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern. 4. Probleme analysieren und schwierige Entscheidungen treffen Foundry Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat. Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben. Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann. 5. Komplexe Projekte und Strategien planen Foundry Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile. ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich). Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen. 6. Recherchenotizen zusammenstellen Foundry Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam. Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen. Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage. Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen. 7. Artikel, Meetings und mehr zusammenfassen Foundry Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern. Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken. Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind. 8. Q&A-Karteikarten zum Lernen erstellen Foundry Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen. Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann. 9. Vorstellungsgespräche üben Foundry Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver. Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback. Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden. (PC-Welt) > >> 

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​ Foundry

ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen.

Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann (das klappt übrigens auch hervorragend, ohne dass Sie ChatGPT dafür bedrohen müssen). Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele.

1. E-Mails für Sie schreiben

Foundry

Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen.

Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung.

Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben.

2. Reiserouten und Zeitpläne erstellen

Foundry

Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben.

Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich.

Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen.

3. Schwierige Konzepte aufschlüsseln

Foundry

Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen.

Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt!

Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern.

4. Probleme analysieren und schwierige Entscheidungen treffen

Foundry

Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat.

Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben.

Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann.

5. Komplexe Projekte und Strategien planen

Foundry

Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile.

ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich).

Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen.

6. Recherchenotizen zusammenstellen

Foundry

Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam.

Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen.

Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage.

Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen.

7. Artikel, Meetings und mehr zusammenfassen

Foundry

Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern.

Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken.

Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind.

8. Q&A-Karteikarten zum Lernen erstellen

Foundry

Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen.

Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann.

9. Vorstellungsgespräche üben

Foundry

Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver.

Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback.

Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden.

(PC-Welt)

>

>>

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​ Weiterlesen »

So geht modernes Python​

Allgemein

Python entwickelt sich mit jeder Version weiter. Wenn Ihre Applikationen in den Genuss der besten neuen Funktionen kommen sollen, sollten Sie diese vier Kernbereiche verinnerlichen. Foto: Heiko Kiera | shutterstock.com Obwohl Python inzwischen bereits 33 Jahre auf dem Buckel hat, verbreitet sich die Programmiersprache erst seit einigen Jahren explosionsartig – und entwickelt sich beständig weiter. Dabei sind einige Features über den Lauf der Jahre unverändert geblieben und mit jeder neuen Python-Version einige neue hinzugekommen. In diesem Artikel stellen wir Ihnen die wichtigsten Konzepte vor, die Sie durchdringen sollten, wenn Sie moderne Python-Anwendungen programmieren wollen, die sich die gewinnbringendsten Idiome, Konzepte und Funktionen der Programmiersprache zunutze machen. Die folgenden vier Bereiche sind besonders relevant, um das in der Praxis umzusetzen. 1. Type Hints Die kürzlich in Python eingeführte Type-Hinting-Syntax ermöglicht den Einsatz von Linter- und Code-Quality-Tools von Drittanbietern. Diese durchforsten Ihren Code vor der Laufzeit auf mögliche Fehler. Je mehr Python-Code Sie erstellen und mit anderen teilen möchten, desto wahrscheinlicher ist es, dass Sie (und die, mit denen geteilt wird) davon profitieren, Type Hints zu verwenden. Da mit jeder neuen Python-Version raffiniertere und leistungsfähigere Type Annotations Einzug halten, tun Sie gut daran, sich regelmäßig mit dem Thema zu beschäftigen – auf lange Sicht haben Sie so weniger Schwierigkeiten, Schritt zu halten. Wichtig ist in Sachen Type Hinting jedoch vor allem, dass es sich um ein optionales Feature handelt – das nicht jedes Python-Projekt zwingend benötigt. Sinn machen Type Hints insbesondere bei größeren Projekten – weniger im Fall von Wegwerfskripten, die aus 50 Codezeilen bestehen. Darüber hinaus werden Type Hints zur Runtime nicht erzwungen. Sie können dazu jedoch die Datenvalidierungs-Bibliothek Pydantic verwenden, die sich im Python-Umfeld bereits vielfach bewährt hat. 2. Virtuelle Umgebungen & Package Management Für einfache Projekte und Dev-Aufgaben, die weniger anspruchsvoll sind, empfiehlt sich die Nutzung des Python-internen venv-Tools, um Projekte und Anforderungen getrennt zu halten. Die jüngsten Entwicklungsfortschritte in Sachen Python eröffnen allerdings weitere Möglichkeiten: Wenn Sie mehrere Python-Versionen installieren müssen, um verschiedenen Projektanforderungen gerecht zu werden, ermöglicht es Ihnen Pyenv, wahlweise global oder projektspezifisch zwischen ihnen zu wechseln. Das ist insbesondere dann nützlich, wenn Sie häufig mit verschiedenen Python-Editionen direkt über die Kommandozeile arbeiten – außerhalb des Kontexts einer projektbezogenen, virtuellen Umgebung. Das Tool bietet offiziell keinen Support für Windows. Es existiert jedoch eine inoffizielle Windows-Portierung. Um virtuelle Umgebungen sowie sämtliche Abhängigkeiten von Python-Projekten zu managen, empfiehlt sich Pipenv. Dieses Management-Tool stellt darüber hinaus sicher, dass die Abhängigkeiten deterministisch sind – Sie also genau die Version erhalten, die Sie wollen. Allerdings kommuniziert es in keiner Weise mit dem Packaging, weshalb Pipenv weniger gut für Projekte geeignet ist, die Sie über PyPI mit anderen teilen möchten. Projekte bei PyPI bereitzustellen, geht mit Poetry leichter von der Hand. Dieses Tool erweitert Pipenv und managt darüber hinaus auch Projekte und Anforderungen sowie Virtual Environments (getrennt von Ihren Projektverzeichnissen). Ein aktuelles Cutting-Edge-Projekt ist Python Development Master (PDM). Ähnlich wie Poetry und Pipenv bietet PDM ein singuläres Interface, um Projekte aufzusetzen, Abhängigkeiten zu managen und Distribution Artifacts zu erstellen. Darüber hinaus kommt bei diesem Tool auch der PEP-582-Standard zum Einsatz. Das gewährleistet, dass Packages für ein Projekt lokal gespeichert werden, wodurch es überflüssig wird, virtuelle Umgebungen für jedes einzelne Projekt zu kreieren. Auch das Projekt Hatch verschreibt sich dem Thema Projekt-Setup und -Management. Allerdings stellt das Tool auch ein Build-System, Packaging-Tools für Redistributionszwecke sowie Test Handling und weitere nützliche Funktionen bereit. Bei uv handelt es sich um ein Projekt, das von den Machern des Linting-Tools ruff auf die Beine gestellt wurde. Es zielt darauf ab, pip, venv und andere Python-Befehlszeilen-Tools zu substituieren und ist für mehr Speed in Rust geschrieben. Dabei ist uv relativ einfach zu erlernen, weil es in Sachen Befehlsstruktur den Tools, die es ersetzen will, sehr ähnlich ist. Wenn Sie neue Projekte erstellen, die in einer Teamumgebung bearbeitet oder an andere weitergegeben werden sollen (etwa über PyPI), sollten Sie das moderne pyproject.toml-Format für Ihre Anforderungen und die Projektkonfiguration sowie das damit verwendete Layout nutzen. Sie können trotzdem noch requirements.txt verwenden – pyproject.toml deckt jedoch einen größeren Use-Case-Bereich ab und macht Ihre Projekte zukunftskompatibel. 3. Neue Syntax Nicht nur das Ökosystem von Python – auch die Sprache selbst entwickelt sich regelmäßig weiter. Das hat sich in den letzten Versionen der Programmiersprache insbesondere in neuen, syntaktischen Konstruktionen niedergeschlagen, die es ermöglichen, prägnanter und performanter zu programmieren. Dabei sind drei neue Erweiterungen der Python-Syntax besonders erwähnenswert: Structural Pattern Matching wurde mit Python 3.10 eingeführt und ist mehr als nur ein “switch/case für Python” (wie es manchmal beschrieben wird). Das Feature ermöglicht es Entwicklern, Control-Flow-Entscheidungen auf Basis der Contents oder der Structure von Objekten zu treffen. Mit anderen Worten: Es handelt sich um eine Matching-Option, die auf Types oder deren Shapes (eine Liste mit int und string beispielsweise) abstellt, statt auf Values. Mit Python 3.8 hielt der sogenannte “Walrus Operator“ Einzug, dessen Name Programm ist ((:=)). Diese Syntax-Ergänzung ermöglicht “Assignment Expressions” – eine Option, um einen Value einer Variablen zuzuordnen und letztere anschließend direkt zu testen. Das sorgt dafür, dass der resultierende Python-Code in diversen Situationen prägnanter ausfällt. Zum Beispiel, wenn der Rückgabewert einer Funktion überprüft wird und parallel die Ergebnisse erhalten bleiben sollen. Eine kleinere, aber nicht weniger nützliche Ergänzung der Python-Syntax sind “Positional-Only Parameters“. Diese ermöglichen es Entwicklern, anzugeben, welche Funktionsparameter als positional spezifiziert werden müssen. Auch diese Funktion ist im Allgemeinen dazu gedacht, Python-Projekte übersichtlicher zu gestalten und erleichternes, eine Codebasis zu entwickeln. 4. Testing Geht es darum, Tests für Codebasen zu schreiben, verhält es sich ein bisschen wie mit der Nutzung von Zahnseide: Es besteht Einigkeit darüber, dass das sinnvoll ist. Trotzdem wenden es nur wenige regelmäßig an – richtig macht es eine noch kleinere Zahl. Das sollte sich – zumindest, wenn es um Testing geht – künftig ändern, denn die aktuellen Tools für Python in diesem Bereich machen es einfacher denn je, Test-Suiten aufzusetzen. Dabei verfügt Python zwar über das integrierte Framework unittest – dieses ist allerdings mit Blick auf Design und Behaviors ziemlich altbacken. Als gängiger Ersatz hat sich das Framework Pytest etabliert, das im Vergleich deutlich flexibler ist (Sie können Tests für jeden Teil Ihres Codes deklarieren, nicht nur ein Subset) und außerdem weit weniger Boilerplate-Code erfordert. Die Funktionalitäten von Pytest lassen sich zudem über diverse Add-Ons erweitern – beispielsweise, um auch asynchronen Code zu testen. Ein anderer wichtiger Testing-Aspekt ist die Code Coverage. Sie gibt Auskunft darüber, welchen Bereich der Codebasis die Tests tatsächlich abdecken. Das Coverage-Modul kann diese Anforderung abdecken – Pytest enthält ein entsprechendes Plugin. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht modernes Python​ Python entwickelt sich mit jeder Version weiter. Wenn Ihre Applikationen in den Genuss der besten neuen Funktionen kommen sollen, sollten Sie diese vier Kernbereiche verinnerlichen.
Foto: Heiko Kiera | shutterstock.com

Obwohl Python inzwischen bereits 33 Jahre auf dem Buckel hat, verbreitet sich die Programmiersprache erst seit einigen Jahren explosionsartig – und entwickelt sich beständig weiter. Dabei sind einige Features über den Lauf der Jahre unverändert geblieben und mit jeder neuen Python-Version einige neue hinzugekommen.

In diesem Artikel stellen wir Ihnen die wichtigsten Konzepte vor, die Sie durchdringen sollten, wenn Sie moderne Python-Anwendungen programmieren wollen, die sich die gewinnbringendsten Idiome, Konzepte und Funktionen der Programmiersprache zunutze machen. Die folgenden vier Bereiche sind besonders relevant, um das in der Praxis umzusetzen.

1. Type Hints

Die kürzlich in Python eingeführte Type-Hinting-Syntax ermöglicht den Einsatz von Linter- und Code-Quality-Tools von Drittanbietern. Diese durchforsten Ihren Code vor der Laufzeit auf mögliche Fehler. Je mehr Python-Code Sie erstellen und mit anderen teilen möchten, desto wahrscheinlicher ist es, dass Sie (und die, mit denen geteilt wird) davon profitieren, Type Hints zu verwenden. Da mit jeder neuen Python-Version raffiniertere und leistungsfähigere Type Annotations Einzug halten, tun Sie gut daran, sich regelmäßig mit dem Thema zu beschäftigen – auf lange Sicht haben Sie so weniger Schwierigkeiten, Schritt zu halten.

Wichtig ist in Sachen Type Hinting jedoch vor allem, dass es sich um ein optionales Feature handelt – das nicht jedes Python-Projekt zwingend benötigt. Sinn machen Type Hints insbesondere bei größeren Projekten – weniger im Fall von Wegwerfskripten, die aus 50 Codezeilen bestehen. Darüber hinaus werden Type Hints zur Runtime nicht erzwungen. Sie können dazu jedoch die Datenvalidierungs-Bibliothek Pydantic verwenden, die sich im Python-Umfeld bereits vielfach bewährt hat.

2. Virtuelle Umgebungen & Package Management

Für einfache Projekte und Dev-Aufgaben, die weniger anspruchsvoll sind, empfiehlt sich die Nutzung des Python-internen venv-Tools, um Projekte und Anforderungen getrennt zu halten. Die jüngsten Entwicklungsfortschritte in Sachen Python eröffnen allerdings weitere Möglichkeiten:

Wenn Sie mehrere Python-Versionen installieren müssen, um verschiedenen Projektanforderungen gerecht zu werden, ermöglicht es Ihnen Pyenv, wahlweise global oder projektspezifisch zwischen ihnen zu wechseln. Das ist insbesondere dann nützlich, wenn Sie häufig mit verschiedenen Python-Editionen direkt über die Kommandozeile arbeiten – außerhalb des Kontexts einer projektbezogenen, virtuellen Umgebung. Das Tool bietet offiziell keinen Support für Windows. Es existiert jedoch eine inoffizielle Windows-Portierung.

Um virtuelle Umgebungen sowie sämtliche Abhängigkeiten von Python-Projekten zu managen, empfiehlt sich Pipenv. Dieses Management-Tool stellt darüber hinaus sicher, dass die Abhängigkeiten deterministisch sind – Sie also genau die Version erhalten, die Sie wollen. Allerdings kommuniziert es in keiner Weise mit dem Packaging, weshalb Pipenv weniger gut für Projekte geeignet ist, die Sie über PyPI mit anderen teilen möchten.

Projekte bei PyPI bereitzustellen, geht mit Poetry leichter von der Hand. Dieses Tool erweitert Pipenv und managt darüber hinaus auch Projekte und Anforderungen sowie Virtual Environments (getrennt von Ihren Projektverzeichnissen).

Ein aktuelles Cutting-Edge-Projekt ist Python Development Master (PDM). Ähnlich wie Poetry und Pipenv bietet PDM ein singuläres Interface, um Projekte aufzusetzen, Abhängigkeiten zu managen und Distribution Artifacts zu erstellen. Darüber hinaus kommt bei diesem Tool auch der PEP-582-Standard zum Einsatz. Das gewährleistet, dass Packages für ein Projekt lokal gespeichert werden, wodurch es überflüssig wird, virtuelle Umgebungen für jedes einzelne Projekt zu kreieren.

Auch das Projekt Hatch verschreibt sich dem Thema Projekt-Setup und -Management. Allerdings stellt das Tool auch ein Build-System, Packaging-Tools für Redistributionszwecke sowie Test Handling und weitere nützliche Funktionen bereit.

Bei uv handelt es sich um ein Projekt, das von den Machern des Linting-Tools ruff auf die Beine gestellt wurde. Es zielt darauf ab, pip, venv und andere Python-Befehlszeilen-Tools zu substituieren und ist für mehr Speed in Rust geschrieben. Dabei ist uv relativ einfach zu erlernen, weil es in Sachen Befehlsstruktur den Tools, die es ersetzen will, sehr ähnlich ist.

Wenn Sie neue Projekte erstellen, die in einer Teamumgebung bearbeitet oder an andere weitergegeben werden sollen (etwa über PyPI), sollten Sie das moderne pyproject.toml-Format für Ihre Anforderungen und die Projektkonfiguration sowie das damit verwendete Layout nutzen. Sie können trotzdem noch requirements.txt verwenden – pyproject.toml deckt jedoch einen größeren Use-Case-Bereich ab und macht Ihre Projekte zukunftskompatibel.

3. Neue Syntax

Nicht nur das Ökosystem von Python – auch die Sprache selbst entwickelt sich regelmäßig weiter. Das hat sich in den letzten Versionen der Programmiersprache insbesondere in neuen, syntaktischen Konstruktionen niedergeschlagen, die es ermöglichen, prägnanter und performanter zu programmieren.

Dabei sind drei neue Erweiterungen der Python-Syntax besonders erwähnenswert:

Structural Pattern Matching wurde mit Python 3.10 eingeführt und ist mehr als nur ein “switch/case für Python” (wie es manchmal beschrieben wird). Das Feature ermöglicht es Entwicklern, Control-Flow-Entscheidungen auf Basis der Contents oder der Structure von Objekten zu treffen. Mit anderen Worten: Es handelt sich um eine Matching-Option, die auf Types oder deren Shapes (eine Liste mit int und string beispielsweise) abstellt, statt auf Values.

Mit Python 3.8 hielt der sogenannte “Walrus Operator“ Einzug, dessen Name Programm ist ((:=)). Diese Syntax-Ergänzung ermöglicht “Assignment Expressions” – eine Option, um einen Value einer Variablen zuzuordnen und letztere anschließend direkt zu testen. Das sorgt dafür, dass der resultierende Python-Code in diversen Situationen prägnanter ausfällt. Zum Beispiel, wenn der Rückgabewert einer Funktion überprüft wird und parallel die Ergebnisse erhalten bleiben sollen.

Eine kleinere, aber nicht weniger nützliche Ergänzung der Python-Syntax sind “Positional-Only Parameters“. Diese ermöglichen es Entwicklern, anzugeben, welche Funktionsparameter als positional spezifiziert werden müssen. Auch diese Funktion ist im Allgemeinen dazu gedacht, Python-Projekte übersichtlicher zu gestalten und erleichternes, eine Codebasis zu entwickeln.

4. Testing

Geht es darum, Tests für Codebasen zu schreiben, verhält es sich ein bisschen wie mit der Nutzung von Zahnseide: Es besteht Einigkeit darüber, dass das sinnvoll ist. Trotzdem wenden es nur wenige regelmäßig an – richtig macht es eine noch kleinere Zahl. Das sollte sich – zumindest, wenn es um Testing geht – künftig ändern, denn die aktuellen Tools für Python in diesem Bereich machen es einfacher denn je, Test-Suiten aufzusetzen.

Dabei verfügt Python zwar über das integrierte Framework unittest – dieses ist allerdings mit Blick auf Design und Behaviors ziemlich altbacken. Als gängiger Ersatz hat sich das Framework Pytest etabliert, das im Vergleich deutlich flexibler ist (Sie können Tests für jeden Teil Ihres Codes deklarieren, nicht nur ein Subset) und außerdem weit weniger Boilerplate-Code erfordert. Die Funktionalitäten von Pytest lassen sich zudem über diverse Add-Ons erweitern – beispielsweise, um auch asynchronen Code zu testen.

Ein anderer wichtiger Testing-Aspekt ist die Code Coverage. Sie gibt Auskunft darüber, welchen Bereich der Codebasis die Tests tatsächlich abdecken. Das Coverage-Modul kann diese Anforderung abdecken – Pytest enthält ein entsprechendes Plugin. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht modernes Python​ Weiterlesen »

So übersteht Ihr Smartphone diese irre Hitze​

Allgemein

Thaweeporn/Shutterstock.com Es ist wieder richtig heiß. Doch für Smartphone-Akkus ist Hitze Gift. Denn je höher die Temperatur ist, desto mehr oxidieren Lithium-Ionen und verlieren so irreversibel ihre Leitfähigkeit. Zudem steigt mit der Umgebungstemperatur auch die Selbstentladung. Apple empfiehlt beispielsweise, dass der ideale Bereich für die Akkus seiner Geräte im Temperaturbereich von 16 bis 22 Grad Celsius liege. Umgebungstemperaturen von über 35 Grad Celsius sollten “auf jeden Fall” vermieden werden, weil dadurch die Akku-Kapazität dauerhaft beeinträchtigt werden könnte. Noch weiter könnte der Geräte-Akku beschädigt werden, wenn eine Aufladung bei hoher Umgebungstemperatur erfolge. Heiße Sommertage sind also Stress für das Smartphone. Damit unser mobiler Begleiter in der Hitze nicht verbrutzelt und im Badewasser ertrinkt, hat das Telekommunikationsunternehmen Vodafone einige Tipps zusammengestellt, die wir noch durch einige weitere Empfehlungen ergänzt haben. Schutz vor Hitze-Schäden Display und Akku können bei Hitze Schaden nehmen. Liegt das Smartphone im Freien, kann ein Abdecktuch oder auch ein einfaches T-Shirt schon vor der direkten Sonneneinstrahlung schützen. Bei hochsommerlichen Temperaturen kann das Smartphone aber auch in der Hosen- oder Hemdtasche überhitzen. Hat man das Gefühl, das Gerät fühlt sich dauerhaft deutlich wärmer an als normal und muss häufiger an die Steckdose, sind das Signale für einen überhitzten Akku. Auf keinen Fall sollte man das Handy dann in den Kühlschrank oder gar das Gefrierfach legen, denn das schlagartige Abkühlen kann leicht zu Geräteschäden führen. Stattdessen sollte man das Gerät lieber ausschalten und bei Raumtemperatur langsam abkühlen lassen. Vermeiden Sie zudem Tätigkeiten, die das Handy besonders heiß werden lassen. Laut dem Branchenverband Bitkom sollten Sie besonders leistungshungrige Anwendungen wie Navigation, Fotografieren, Videos abspielen oder Spiele auf dem Smartphone vermeiden. Schutzhüllen führen zu einem Wärmestau. Deshalb sollten Sie diese bei starker Handybenutzung besser abnehmen. Lassen Sie das Handy nicht im Auto liegen und natürlich auch nicht in der Sonne. Der Bitkom rät zudem: Beim Aufladen sollte man einen möglicherweise verhängnisvollen Fehler vermeiden: Das Smartphone ans Netz hängen, wenn es warmgelaufen ist, etwa nach stundenlanger Navigation. Bei Laden wird der Akku noch wärmer – und das kann das Quäntchen sein, welches das Fass zum Überlaufen bringt und irreparablen Schaden anrichtet. Wenn es schon überhitzt ist, sollte man das Smartphone ausschalten, an einen kühlen Ort bringen oder wenigstens Schatten aufsuchen. Der Kühlschrank ist jedoch der falsche Ort: Der Temperatursturz kann im Inneren zerstörerisches Kondenswasser verursachen.Bitkom Schutz vor Wasserschäden Falls das Smartphone nicht wasserdicht ist: Schutz gegen Wasserschäden beim Baden bieten wasserdichte Schutzhüllen. Damit können Sie sogar Unterwasser-Fotos schießen. Bei normaler Verwendung am Strand kann schon ein Gefrierbeutel mit ZIP-Verschluss vor Schäden schützen. Kommt das Smartphone aber doch mit Wasser in Kontakt, so sollten Sie die Akku-Abdeckung öffnen (sofern das technisch möglich ist), Akku, SIM- und Speicherkarte entfernen und das Smartphone trocknen lassen. Das gilt aber nicht für einen fest verbauten Akku wie bei einem iPhone. Hierzu haben wir diesen Lese-Tipp:  iPhone ins Wasser gefallen: Was Sie – auf keinen Fall – tun sollten! Schutz gegen “Sand im Getriebe” Wenn Sand ins Smartphone gelangt, am besten ebenfalls Akku-, SIM- und Speicherkarte herausnehmen und pusten, eventuell mit einem Föhn mit kalter Luft nachhelfen. Falls Sie viel mit dem Smartphone am Strand unterwegs sind, empfiehlt sich der Kauf eines Smartphones mit mindestens einer IP-Zertifizierung, die sicher stellt, dass Ihr Handy bis zu einem gewissen Grad gegen Wasser- und Staub geschützt ist. Akku mit Sonnenkraft aufladen Solar-Ladegeräte können ihr Smartphone am Strand mit neuer Energie versorgen. Billiges Zweit-Handy mit Prepaidkarte Sie wollen Ihr kostbares Smartphone nicht Sand, Wasser und Langfingern aussetzen? Dann kaufen Sie sich doch ein einfaches Billighandy mit einer Prepaidkarte. Solche Handys, neudeutsch als “Feature Phones” bezeichnet, gibt es bereits für rund 20 Euro. Oft sogar mit integrierten UKW-Radio, Musikplayer für Ihre MP3-Sammlung und Bluetooth. Damit genießen Sie beste Unterhaltung am Strand, können jederzeit telefonieren und haben nie Angst vor einem leeren Akku. Und Langfinger interessieren sich nicht für Ihren Billigheimer. Klapphandy Kaufberatung: Cooles, sicheres, günstiges & robustes Zweit-Telefon Nokia 3210 im Test: Erfrischendes Kult-Handy mit Nano-SIM und Radio IDG Sollten Sie auch bei einem einfachen Handy besonderen Wert auf Robustheit legen, so können Sie sich ein spezielles Outdoor-Handy kaufen. Dieses kostet dann aber deutlich mehr. (PC-Welt) 

So übersteht Ihr Smartphone diese irre Hitze​ Thaweeporn/Shutterstock.com

Es ist wieder richtig heiß. Doch für Smartphone-Akkus ist Hitze Gift. Denn je höher die Temperatur ist, desto mehr oxidieren Lithium-Ionen und verlieren so irreversibel ihre Leitfähigkeit. Zudem steigt mit der Umgebungstemperatur auch die Selbstentladung.

Apple empfiehlt beispielsweise, dass der ideale Bereich für die Akkus seiner Geräte im Temperaturbereich von 16 bis 22 Grad Celsius liege. Umgebungstemperaturen von über 35 Grad Celsius sollten “auf jeden Fall” vermieden werden, weil dadurch die Akku-Kapazität dauerhaft beeinträchtigt werden könnte. Noch weiter könnte der Geräte-Akku beschädigt werden, wenn eine Aufladung bei hoher Umgebungstemperatur erfolge.

Heiße Sommertage sind also Stress für das Smartphone. Damit unser mobiler Begleiter in der Hitze nicht verbrutzelt und im Badewasser ertrinkt, hat das Telekommunikationsunternehmen Vodafone einige Tipps zusammengestellt, die wir noch durch einige weitere Empfehlungen ergänzt haben.

Schutz vor Hitze-Schäden

Display und Akku können bei Hitze Schaden nehmen. Liegt das Smartphone im Freien, kann ein Abdecktuch oder auch ein einfaches T-Shirt schon vor der direkten Sonneneinstrahlung schützen.

Bei hochsommerlichen Temperaturen kann das Smartphone aber auch in der Hosen- oder Hemdtasche überhitzen. Hat man das Gefühl, das Gerät fühlt sich dauerhaft deutlich wärmer an als normal und muss häufiger an die Steckdose, sind das Signale für einen überhitzten Akku. Auf keinen Fall sollte man das Handy dann in den Kühlschrank oder gar das Gefrierfach legen, denn das schlagartige Abkühlen kann leicht zu Geräteschäden führen. Stattdessen sollte man das Gerät lieber ausschalten und bei Raumtemperatur langsam abkühlen lassen.

Vermeiden Sie zudem Tätigkeiten, die das Handy besonders heiß werden lassen. Laut dem Branchenverband Bitkom sollten Sie besonders leistungshungrige Anwendungen wie Navigation, Fotografieren, Videos abspielen oder Spiele auf dem Smartphone vermeiden.

Schutzhüllen führen zu einem Wärmestau. Deshalb sollten Sie diese bei starker Handybenutzung besser abnehmen.

Lassen Sie das Handy nicht im Auto liegen und natürlich auch nicht in der Sonne.

Der Bitkom rät zudem:

Beim Aufladen sollte man einen möglicherweise verhängnisvollen Fehler vermeiden: Das Smartphone ans Netz hängen, wenn es warmgelaufen ist, etwa nach stundenlanger Navigation. Bei Laden wird der Akku noch wärmer – und das kann das Quäntchen sein, welches das Fass zum Überlaufen bringt und irreparablen Schaden anrichtet. Wenn es schon überhitzt ist, sollte man das Smartphone ausschalten, an einen kühlen Ort bringen oder wenigstens Schatten aufsuchen. Der Kühlschrank ist jedoch der falsche Ort: Der Temperatursturz kann im Inneren zerstörerisches Kondenswasser verursachen.Bitkom

Schutz vor Wasserschäden

Falls das Smartphone nicht wasserdicht ist: Schutz gegen Wasserschäden beim Baden bieten wasserdichte Schutzhüllen. Damit können Sie sogar Unterwasser-Fotos schießen. Bei normaler Verwendung am Strand kann schon ein Gefrierbeutel mit ZIP-Verschluss vor Schäden schützen.

Kommt das Smartphone aber doch mit Wasser in Kontakt, so sollten Sie die Akku-Abdeckung öffnen (sofern das technisch möglich ist), Akku, SIM- und Speicherkarte entfernen und das Smartphone trocknen lassen. Das gilt aber nicht für einen fest verbauten Akku wie bei einem iPhone. Hierzu haben wir diesen Lese-Tipp:  iPhone ins Wasser gefallen: Was Sie – auf keinen Fall – tun sollten!

Schutz gegen “Sand im Getriebe”

Wenn Sand ins Smartphone gelangt, am besten ebenfalls Akku-, SIM- und Speicherkarte herausnehmen und pusten, eventuell mit einem Föhn mit kalter Luft nachhelfen. Falls Sie viel mit dem Smartphone am Strand unterwegs sind, empfiehlt sich der Kauf eines Smartphones mit mindestens einer IP-Zertifizierung, die sicher stellt, dass Ihr Handy bis zu einem gewissen Grad gegen Wasser- und Staub geschützt ist.

Akku mit Sonnenkraft aufladen

Solar-Ladegeräte können ihr Smartphone am Strand mit neuer Energie versorgen.

Billiges Zweit-Handy mit Prepaidkarte

Sie wollen Ihr kostbares Smartphone nicht Sand, Wasser und Langfingern aussetzen? Dann kaufen Sie sich doch ein einfaches Billighandy mit einer Prepaidkarte. Solche Handys, neudeutsch als “Feature Phones” bezeichnet, gibt es bereits für rund 20 Euro. Oft sogar mit integrierten UKW-Radio, Musikplayer für Ihre MP3-Sammlung und Bluetooth. Damit genießen Sie beste Unterhaltung am Strand, können jederzeit telefonieren und haben nie Angst vor einem leeren Akku. Und Langfinger interessieren sich nicht für Ihren Billigheimer.

Klapphandy Kaufberatung: Cooles, sicheres, günstiges & robustes Zweit-Telefon

Nokia 3210 im Test: Erfrischendes Kult-Handy mit Nano-SIM und Radio

IDG

Sollten Sie auch bei einem einfachen Handy besonderen Wert auf Robustheit legen, so können Sie sich ein spezielles Outdoor-Handy kaufen. Dieses kostet dann aber deutlich mehr.

(PC-Welt)

So übersteht Ihr Smartphone diese irre Hitze​ Weiterlesen »

Nach oben scrollen
×