Computerhaus Quickborn

Juli 2025

10 Windows-Sicherheitstipps​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken. 1. PUPs blockieren Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden. Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.   2. Verschlüsselung einsetzen Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“. Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen: Sie sind mit einem lokalen Konto angemeldet, oder Sie nutzen ein älteres Gerät, das die Option nicht unterstützt. Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.   3. Synchronisierungseinstellungen prüfen Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.   Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen. 4. Sicher(er) einloggen Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen. Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit. 5. Überwachten Ordnerzugriff aktivieren Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich. Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren. 6. Office-Updates sicherstellen Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“. Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion. 7. App-Stati checken Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist. Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel: das Windows-Befehlszeilen-Tool WinGet, oder das kostenlose Drittanbieter-Tool Home Updater. 8. Kernisolierung aktivieren Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“. Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend. 9. Sandboxing nutzen Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten. Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren. 10. Exploit-Schutz prüfen Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf. Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Windows-Sicherheitstipps​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com

Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken.

1. PUPs blockieren

Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden.

Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.  

2. Verschlüsselung einsetzen

Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“.

Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen:

Sie sind mit einem lokalen Konto angemeldet, oder

Sie nutzen ein älteres Gerät, das die Option nicht unterstützt.

Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.  

3. Synchronisierungseinstellungen prüfen

Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.  

Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen.

4. Sicher(er) einloggen

Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen.

Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit.

5. Überwachten Ordnerzugriff aktivieren

Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich.

Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren.

6. Office-Updates sicherstellen

Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“.

Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion.

7. App-Stati checken

Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist.

Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel:

das Windows-Befehlszeilen-Tool WinGet, oder

das kostenlose Drittanbieter-Tool Home Updater.

8. Kernisolierung aktivieren

Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“.

Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend.

9. Sandboxing nutzen

Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten.

Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren.

10. Exploit-Schutz prüfen

Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf.

Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Windows-Sicherheitstipps​ Weiterlesen »

CISO: Das muss ein Chief Information Security Officer können​

Allgemein

Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer. Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Foto: GaudiLab – shutterstock.com Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten. CISO – eine Definition Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern. In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung. IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs. Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten. Verantwortlichkeiten eines CISO Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf: Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst. Anforderungen an einen CISO Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position. Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle. Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen. Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten. Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren. Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security. Zertifizierung zum CISO Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor: Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten. Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position. Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten. In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele: Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP). Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an. Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten. Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an. CISO vs. CIO vs. CSO Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen. Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann. Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich. CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein. CISO-Jobprofil Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten. In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind. Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte. CISO Gehalt Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist. Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen. Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind. 

CISO: Das muss ein Chief Information Security Officer können​ Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer.

Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens.
Foto: GaudiLab – shutterstock.com

Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten.

CISO – eine Definition

Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern.

In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung.

IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs.

Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten.

Verantwortlichkeiten eines CISO

Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf:

Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst.

Anforderungen an einen CISO

Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position.

Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle.

Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen.

Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten.

Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren.

Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security.

Zertifizierung zum CISO

Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor:

Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten.

Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position.

Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten.

In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele:

Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP).

Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an.

Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten.

Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an.

CISO vs. CIO vs. CSO

Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen.

Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann.

Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich.

CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein.

CISO-Jobprofil

Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten.

In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind.

Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte.

CISO Gehalt

Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist.

Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen.

Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind.

CISO: Das muss ein Chief Information Security Officer können​ Weiterlesen »

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​

Allgemein

Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren. Vorsicht vor Datenlecks Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch: Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden. Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen. Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt. Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten. Halluzinationen mit Folgen Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche. Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen. Hinweis auf fehlende oder falsche Tools Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können. Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise. Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen. Aufklären statt nur verbieten Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem. Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden, welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen; welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen. Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird. Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen. Vertrauen ist gut, Kontrolle ist besser … Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen. Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden. Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering). Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten. Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt. 

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren.

Vorsicht vor Datenlecks

Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch:

Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden.

Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen.

Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt.

Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten.

Halluzinationen mit Folgen

Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche.

Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen.

Hinweis auf fehlende oder falsche Tools

Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können.

Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise.

Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen.

Aufklären statt nur verbieten

Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem.

Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden,

welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen;

welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie

auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen.

Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird.

Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen.

Vertrauen ist gut, Kontrolle ist besser …

Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen.

Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden.

Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering).

Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten.

Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt.

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Weiterlesen »

RPA Software: Die besten Tools für Robotic Process Automation​

Allgemein

Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools. Foto: klyaksun – shutterstock.com Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher. Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”. Was Robotic Process Automation leisten sollte Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig. Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten: Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift. Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen. Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen. Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”. Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten. Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps. Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können. Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert. Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren. Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen. Die besten RPA-Softwarelösungen Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten. Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet. Airslate Appian Automation Anywhere AutomationEdge AWS Lambda Cyclone Robotics Datamatics EdgeVerve Systems Fortra Automate IBM Laiye Microsoft Mulesoft (Salesforce) NiCE Nintex NTT-AT Pega Rocketbot Samsung SDS SAP ServiceNow SS&C Blue Prism Tungsten Automation (ehemals Kofax) UiPath WorkFusion (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox. 

RPA Software: Die besten Tools für Robotic Process Automation​ Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools.
Foto: klyaksun – shutterstock.com

Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher.

Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”.

Was Robotic Process Automation leisten sollte

Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig.

Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten:

Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift.

Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen.

Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen.

Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”.

Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten.

Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps.

Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können.

Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert.

Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren.

Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen.

Die besten RPA-Softwarelösungen

Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten.

Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet.

Airslate

Appian

Automation Anywhere

AutomationEdge

AWS Lambda

Cyclone Robotics

Datamatics

EdgeVerve Systems

Fortra Automate

IBM

Laiye

Microsoft

Mulesoft (Salesforce)

NiCE

Nintex

NTT-AT

Pega

Rocketbot

Samsung SDS

SAP

ServiceNow

SS&C Blue Prism

Tungsten Automation (ehemals Kofax)

UiPath

WorkFusion

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox.

RPA Software: Die besten Tools für Robotic Process Automation​ Weiterlesen »

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​

Allgemein

Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach. Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet. Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert. Glücksspiel-Parallelen Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst. Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”. Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.” Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos: kleine Einstiegskosten, unberechenbare Belohnungen, und das Versprechen des großen Durchbruchs. Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt. Das Prokrastinations-Paradox Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind. Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst. Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit. Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird. Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet. Credits als Kostenfalle Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten. Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro. Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken. Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen. Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt. Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.” Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen. Der Dopamin-Kreislauf Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt. Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst. Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange. Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen. Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen. So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen. Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität. Produktiv bleiben in der KI-Ära Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen: Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten. Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben. Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten. Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel. Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist. Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos. Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen. Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit. Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen. KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb) 

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com

Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach.

Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet.

Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert.

Glücksspiel-Parallelen

Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst.

Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”.

Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.”

Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos:

kleine Einstiegskosten,

unberechenbare Belohnungen, und

das Versprechen des großen Durchbruchs.

Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt.

Das Prokrastinations-Paradox

Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind.

Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst.

Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit.

Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird.

Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet.

Credits als Kostenfalle

Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten.

Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro.

Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken.

Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen.

Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt.

Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.”

Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen.

Der Dopamin-Kreislauf

Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt.

Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst.

Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange.

Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen.

Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen.

So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen.

Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität.

Produktiv bleiben in der KI-Ära

Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen:

Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten.

Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben.

Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten.

Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel.

Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist.

Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos.

Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen.

Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit.

Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen.

KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb)

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Weiterlesen »

Was ist LangChain?​

Allgemein

LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen. Foto: Idea99 – shutterstock.com Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln. Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise: Chatbots oder persönliche Assistenten erstellen, Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren, Code schreiben und besser verstehen, oder mit APIs interagieren. Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten. Wie LangChain funktioniert LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren. LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen. Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen. Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen. In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen: Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette. Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts). Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen. LangChain besteht aus sechs Modulen: Model I/O (Schnittstelle zu Sprachmodellen), Data Connection (Schnittstelle zu anwendungsspezifischen Daten), Chains (konstruieren Call-Sequenzen), Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen), Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain). Debugging mit LangSmith Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung. LangChain-Anwendungsfälle Zu den Anwendungsfällen für LangChain gehören: Q&As aus Dokumenten zu generieren, strukturierte Daten zu analysieren, mit APIs zu interagieren, Code zu verstehen, Agenten zu simulieren, autonome Agenten zu realisieren, Chatbots umzusetzen, Code zu generieren, Daten zu extrahieren, Graph-Daten zu analysieren, multimodale Outputs zu liefern, Self-Checking, Zusammenfassungen sowie Tagging. LangChain-Integrationen In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt: Callbacks, Chat-Modelle, Document Loader, Document Transformer, LLMs, Message Histories, Retriever, Text-Embedding-Modelle, Agents & Toolkits, Tools und Vector Stores. LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten. LangChain installieren Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren. Die grundlegende, minimale Installation starten Sie mit folgendem Befehl: pip install langchain Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie: pip install langchain[llms] Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl: pip install langchain[all] Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl: pip install ‘langchain[all]’ Um LangChain für JavaScript zu installieren, nutzen Sie: npm (npm install -S langchain), Yarn (yarn add langchain) oder pnpm (pnpm add langchain). Sie können LangChain für JavaScript verwenden mit: Node.js, Cloudflare Workers, Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen), Supabase Edge Functions, Webbrowsern und Deno. Weiterführende Informationen zu LangChain für JavaScript finden Sie hier. LangChain-Beispiel Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen. from langchain.chat_models import ChatOpenAI from langchain.prompts.chat import ( ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate, ) from langchain.chains import LLMChain from langchain.schema import BaseOutputParser class CommaSeparatedListOutputParser(BaseOutputParser): “””Parse the output of an LLM call to a comma-separated list.””” def parse(self, text: str): “””Parse the output of an LLM call.””” return text.strip().split(“, “) template = “””You are a helpful assistant who generates comma separated lists. A user will pass in a category, and you should generate 5 objects in that category in a comma separated list. ONLY return a comma separated list, and nothing more.””” system_message_prompt = SystemMessagePromptTemplate.from_template(template) human_template = “{text}” human_message_prompt = HumanMessagePromptTemplate.from_template(human_template) chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) chain = LLMChain( llm=ChatOpenAI(), prompt=chat_prompt, output_parser=CommaSeparatedListOutputParser() ) chain.run(“colors”) # >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’] Die LangChain Expression Language (LCEL) Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren. LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt: chain = prompt | model In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben: from langchain.prompts import ChatPromptTemplate from langchain.chat_models import ChatOpenAI model = ChatOpenAI() prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”) chain = prompt | model chain.invoke({“foo”: “bears”}) Der Output (wie auf der Website angegeben) sieht folgendermaßen aus: AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist LangChain?​ LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen.
Foto: Idea99 – shutterstock.com

Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln.

Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise:

Chatbots oder persönliche Assistenten erstellen,

Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren,

Code schreiben und besser verstehen, oder

mit APIs interagieren.

Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten.

Wie LangChain funktioniert

LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren.

LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen.

Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen.

Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen.

In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen:

Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette.

Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts).

Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen.

LangChain besteht aus sechs Modulen:

Model I/O (Schnittstelle zu Sprachmodellen),

Data Connection (Schnittstelle zu anwendungsspezifischen Daten),

Chains (konstruieren Call-Sequenzen),

Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen),

Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und

Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain).

Debugging mit LangSmith

Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung.

LangChain-Anwendungsfälle

Zu den Anwendungsfällen für LangChain gehören:

Q&As aus Dokumenten zu generieren,

strukturierte Daten zu analysieren,

mit APIs zu interagieren,

Code zu verstehen,

Agenten zu simulieren,

autonome Agenten zu realisieren,

Chatbots umzusetzen,

Code zu generieren,

Daten zu extrahieren,

Graph-Daten zu analysieren,

multimodale Outputs zu liefern,

Self-Checking,

Zusammenfassungen sowie

Tagging.

LangChain-Integrationen

In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt:

Callbacks,

Chat-Modelle,

Document Loader,

Document Transformer,

LLMs,

Message Histories,

Retriever,

Text-Embedding-Modelle,

Agents & Toolkits,

Tools und

Vector Stores.

LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten.

LangChain installieren

Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren.

Die grundlegende, minimale Installation starten Sie mit folgendem Befehl:

pip install langchain

Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie:

pip install langchain[llms]

Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl:

pip install langchain[all]

Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl:

pip install ‘langchain[all]’

Um LangChain für JavaScript zu installieren, nutzen Sie:

npm (npm install -S langchain),

Yarn (yarn add langchain) oder

pnpm (pnpm add langchain).

Sie können LangChain für JavaScript verwenden mit:

Node.js,

Cloudflare Workers,

Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen),

Supabase Edge Functions,

Webbrowsern und

Deno.

Weiterführende Informationen zu LangChain für JavaScript finden Sie hier.

LangChain-Beispiel

Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen.

from langchain.chat_models import ChatOpenAI

from langchain.prompts.chat import (

ChatPromptTemplate,

SystemMessagePromptTemplate,

HumanMessagePromptTemplate,

)

from langchain.chains import LLMChain

from langchain.schema import BaseOutputParser

class CommaSeparatedListOutputParser(BaseOutputParser):

“””Parse the output of an LLM call to a comma-separated list.”””

def parse(self, text: str):

“””Parse the output of an LLM call.”””

return text.strip().split(“, “)

template = “””You are a helpful assistant who generates comma separated lists.

A user will pass in a category, and you should generate 5 objects in that category in a comma separated list.

ONLY return a comma separated list, and nothing more.”””

system_message_prompt = SystemMessagePromptTemplate.from_template(template)

human_template = “{text}”

human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chain = LLMChain(

llm=ChatOpenAI(),

prompt=chat_prompt,

output_parser=CommaSeparatedListOutputParser()

)

chain.run(“colors”)

# >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’]

Die LangChain Expression Language (LCEL)

Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren.

LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt:

chain = prompt | model

In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben:

from langchain.prompts import ChatPromptTemplate

from langchain.chat_models import ChatOpenAI

model = ChatOpenAI()

prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”)

chain = prompt | model

chain.invoke({“foo”: “bears”})

Der Output (wie auf der Website angegeben) sieht folgendermaßen aus:

AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist LangChain?​ Weiterlesen »

14 KI-Algorithmen, die Sie kennen sollten​

Allgemein

Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein. Foto: ArtHead – shutterstock.com Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen? Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab, welches Problem Sie lösen möchten, wie viele Rechenressourcen zur Verfügung stehen, und welche Art von Daten vorliegt. Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet. Beliebte Machine-Learning-Algorithmen Linear regression Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht. Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort. Gradient descent Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern. Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam). Logistic regression Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist. Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen. Support vector machines Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear. Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”). Decision tree Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden. Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting. Random forest Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble. XGBoost eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat. Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen. K-means clustering K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet. Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden. K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist. Principal component analysis Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln. Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt. Beliebte Deep-Learning-Algorithmen Convolutional neural networks Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein. Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind. Recurrent neural networks Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen. Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter: Übersetzungen, Spracherkennung und -synthese, Bot-Steuerung, Time Series Prediction, Anomalieerkennung oder Handschrifterkennung. Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt. Long short-term memory Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser. Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen. Transformers Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google. Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA). Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen. Q-learning Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung. Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 KI-Algorithmen, die Sie kennen sollten​ Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein.
Foto: ArtHead – shutterstock.com

Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen?

Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab,

welches Problem Sie lösen möchten,

wie viele Rechenressourcen zur Verfügung stehen, und

welche Art von Daten vorliegt.

Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet.

Beliebte Machine-Learning-Algorithmen

Linear regression

Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht.

Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort.

Gradient descent

Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern.

Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam).

Logistic regression

Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist.

Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen.

Support vector machines

Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear.

Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”).

Decision tree

Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden.

Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting.

Random forest

Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble.

XGBoost

eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat.

Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen.

K-means clustering

K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet.

Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden.

K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist.

Principal component analysis

Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln.

Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt.

Beliebte Deep-Learning-Algorithmen

Convolutional neural networks

Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein.

Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind.

Recurrent neural networks

Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen.

Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter:

Übersetzungen,

Spracherkennung und -synthese,

Bot-Steuerung,

Time Series Prediction,

Anomalieerkennung oder

Handschrifterkennung.

Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt.

Long short-term memory

Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser.

Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen.

Transformers

Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google.

Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA).

Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen.

Q-learning

Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung.

Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 KI-Algorithmen, die Sie kennen sollten​ Weiterlesen »

Nach oben scrollen
×