Computerhaus Quickborn

Allgemein

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​

Allgemein

loading=”lazy” width=”400px”>Sich abzuschotten, hilft der digitalen Souveränität nicht weiter. Im Gegenteil – man koppelt sich damit auch von innovativer Technik ab.SugaBom86 – shutterstock.com Stellen Sie sich vor, Ihr Streaming-Dienst erhöht kontinuierlich die Preise und plant für das kommende Jahr eine weitere Steigerung um bis zu 40 Prozent. Spätestens dann würden die meisten Nutzer wohl über einen Wechsel nachdenken. So ergeht es derzeit vielen deutschen Unternehmen und insbesondere der öffentlichen Verwaltung mit ihren Softwarelizenzen und Cloud-Diensten – allen voran bei Microsofts M365. Seit dem 1. April 2025 stiegen die Preise für Microsoft-365-Dienste um bis zu 40 Prozent. Doch der Wechsel ist hier oft keine triviale Option. Der Grund: Microsoft setzt auf proprietäre Schnittstellen und Feature-Kopplungen, die konkurrierende Produkte systematisch ausschließen. Die Folge: Marktdominanz, gebündelte Lizenzverträge und kaum Verhandlungsspielraum. Lesetipp: Digitale Souveränität: Wird Deutschland zum Vorbild in Europa? Dabei sollte die volkswirtschaftliche Dimension der Abhängigkeit nicht unterschätzt werden. Der Bund zahlte allein 2024 rund 204,5 Millionen Euro für Microsoft-Lizenzen – 6,8 Millionen Euro mehr als 2023 und fast das Dreifache von 2017. Eine aktuelle Studie des zentrum Nachhaltige Transformation (zNT) an der Quadriga-Hochschule quantifizierte dabei die Mehrkosten für den öffentlichen Sektor. Demnach zahlen öffentliche und kommunale Unternehmen jedes Jahr bis zu 120 Millionen Euro mehr, weil unfaire Lizenzbedingungen und Lock-in-Effekte den Wechsel in andere Clouds verteuern. Bundesländer zwischen Open Source und Microsoft-Cloud Schleswig-Holstein zieht daher nun konsequent die Reißleine und wechselt vollständig zu Open-Source-Lösungen. Bis September 2025 sollen Office, Exchange und SharePoint durch LibreOffice, Thunderbird und Nextcloud ersetzt und sogar ein Linux-Pilotprojekt gestartet werden. Auch Baden-Württemberg zieht Konsequenzen, wählt aber den hybriden Weg: Office-Desktops bleiben, doch eine eigene Landes-Cloud soll kritische Daten vor Ort belassen. Lesetipp: Ist Trump der Booster für Europas digitale Souveränität? Ganz anders verfahren dagegen sechs weitere Bundesländer – darunter Bayern, Niedersachsen und NRW –, die laut einer Umfrage der Heise-Publikation c’t vom Oktober 2024 Teams oder sogar das komplette Microsoft-365-Paket einführen wollen. Digitale Souveränität – nicht Abschottung sondern Wahlfreiheit Diese Spannbreite verdeutlicht dabei die Problematik: Der direkte Weg in die Microsoft-Cloud verstärkt die einseitige Abhängigkeit, während ein dogmatischer „Open-Source-Only“-Ansatz neue Engpässe schafft, da er die Innovationskraft der Hyperscaler aus Nordamerika ausblendet. Digitale Souveränität bedeutet nicht Abschottung oder Übergang zu einem einzigen Open-Source-Standard, sondern Wahlfreiheit. Unternehmen und Ländern soll es möglich sein, jederzeit zwischen den besten und innovativsten Anbietern und Betriebsmodellen zu wechseln – ganz nach ihren individuellen Bedürfnissen. Ein offener Cloud Markt als Lösung Das Bundesamt für Sicherheit in der Informationstechnik (BSI) denkt genau in diese Richtung. auf. Die Behörde schlägt vor, möglichst viele Kooperationsabkommen – vom nationalen Provider bis zu internationalen Hyperscalern – abzuschließen, um einen Marktplatz vertrauenswürdiger Cloud-Bausteine zu schaffen. Dieser soll Sicherheitsanforderungen gewährleisten und gleichzeitig das Risiko eines Vendor-Lock-ins reduzieren. Wenn diese Strategie gelingen soll, müssen zuvor jedoch bestehende missbräuchliche Marktstrukturen aufgebrochen werden. Bereits im September 2024 stellte das Bundeskartellamt Microsoft unter die erweiterte Missbrauchsaufsicht nach § 19a GWB. Parallel dazu attestierte die britische Wettbewerbsbehörde CMA im Januar 2025 dem Cloud-Markt „nachteilige Auswirkungen auf den Wettbewerb“: Egress-Gebühren, Lizenzkoppelungen und Rabattstrukturen erschwerten den Wechsel sowie den Multi-Cloud-Betrieb und ermöglichten es Unternehmen wie AWS und Microsoft, überdurchschnittliche Gewinne zu erzielen.  Europäische Souveränität braucht Wettbewerb und Interoperabilität Diese Befunde verdeutlichen die Notwendigkeit, dass es jetzt eine gemeinsame politische Antwort auf Bundes- und EU-Ebene braucht. Das Ziel muss sein, eine echte Interoperabilität zwischen allen Cloud- und Software-Diensten zu schaffen. Nur so kann die Grundlage für europäische digitale Souveränität geschaffen werden, die nicht in Abschottung endet, sondern die Kooperation mit den innovativsten Lösungen weltweit offenhält. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Konkret bedeutet das, alle Hürden für einen Anbieterwechsel abzubauen – unabhängig davon, ob der Anbieter innerhalb oder außerhalb Europas sitzt. So sollen US-Hyperscaler, europäische Open-Source-Akteure und außereuropäische Wettbewerber in denselben Preis-, Service- und Innovationswettbewerb treten. Microsoft zu regulieren ist notwendig Microsofts Marktmacht zu regulieren ist dabei zwingend nötig, aber so, dass Europa sich nicht ausgerechnet von wertvollen US-Technologien abkoppelt. Sonst droht ein transatlantisches Innovationsrennen, in dem die EU ohne Zugang zu Spitzenlösungen schwer bestehen könnte. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5dNJGnOX4iEG97iAYrzLbr?utm_source=oembed”> Dass Regulierung ohne Isolation möglich ist, zeigen die ersten Schritte der britischen Competition and Markets Authority (CMA) und des Bundeskartellamts. Die CMA hat Ende Januar 2025 in ihren vorläufigen Ergebnissen hohe Wechselbarrieren und Diskriminierung durch Software-Lizenzbündel festgestellt, das Bundeskartellamt hat Microsoft im September 2024 unter die verschärfte Missbrauchsaufsicht des § 19a GWB gestellt. Beide Behörden verfolgen das Ziel der freien Anbieterwahl, ohne den Markt gleich abzuriegeln – ein Modell, das Europa den Weg weist. Lesetipp: Wie souverän ist Microsofts Sovereign Cloud wirklich? Jetzt ist entscheidend, dass dieser Weg auch konsequent gegangen wird – national und vor allem auf EU-Ebene. Neben Kartellverfahren sind mutige europäische Regelungen erforderlich, die auch die grenzüberschreitende Reichweite des US Cloud Act adressieren. Erst dann gewinnen Länderverwaltungen die strukturelle Flexibilität, die gesamte Vielfalt und Innovationskraft digitaler Dienstleister zu nutzen. (ba) 

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​ loading=”lazy” width=”400px”>Sich abzuschotten, hilft der digitalen Souveränität nicht weiter. Im Gegenteil – man koppelt sich damit auch von innovativer Technik ab.SugaBom86 – shutterstock.com

Stellen Sie sich vor, Ihr Streaming-Dienst erhöht kontinuierlich die Preise und plant für das kommende Jahr eine weitere Steigerung um bis zu 40 Prozent. Spätestens dann würden die meisten Nutzer wohl über einen Wechsel nachdenken. So ergeht es derzeit vielen deutschen Unternehmen und insbesondere der öffentlichen Verwaltung mit ihren Softwarelizenzen und Cloud-Diensten – allen voran bei Microsofts M365.

Seit dem 1. April 2025 stiegen die Preise für Microsoft-365-Dienste um bis zu 40 Prozent. Doch der Wechsel ist hier oft keine triviale Option. Der Grund: Microsoft setzt auf proprietäre Schnittstellen und Feature-Kopplungen, die konkurrierende Produkte systematisch ausschließen. Die Folge: Marktdominanz, gebündelte Lizenzverträge und kaum Verhandlungsspielraum.

Lesetipp: Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?

Dabei sollte die volkswirtschaftliche Dimension der Abhängigkeit nicht unterschätzt werden. Der Bund zahlte allein 2024 rund 204,5 Millionen Euro für Microsoft-Lizenzen – 6,8 Millionen Euro mehr als 2023 und fast das Dreifache von 2017. Eine aktuelle Studie des zentrum Nachhaltige Transformation (zNT) an der Quadriga-Hochschule quantifizierte dabei die Mehrkosten für den öffentlichen Sektor. Demnach zahlen öffentliche und kommunale Unternehmen jedes Jahr bis zu 120 Millionen Euro mehr, weil unfaire Lizenzbedingungen und Lock-in-Effekte den Wechsel in andere Clouds verteuern.

Bundesländer zwischen Open Source und Microsoft-Cloud

Schleswig-Holstein zieht daher nun konsequent die Reißleine und wechselt vollständig zu Open-Source-Lösungen. Bis September 2025 sollen Office, Exchange und SharePoint durch LibreOffice, Thunderbird und Nextcloud ersetzt und sogar ein Linux-Pilotprojekt gestartet werden. Auch Baden-Württemberg zieht Konsequenzen, wählt aber den hybriden Weg: Office-Desktops bleiben, doch eine eigene Landes-Cloud soll kritische Daten vor Ort belassen.

Lesetipp: Ist Trump der Booster für Europas digitale Souveränität?

Ganz anders verfahren dagegen sechs weitere Bundesländer – darunter Bayern, Niedersachsen und NRW –, die laut einer Umfrage der Heise-Publikation c’t vom Oktober 2024 Teams oder sogar das komplette Microsoft-365-Paket einführen wollen.

Digitale Souveränität – nicht Abschottung sondern Wahlfreiheit

Diese Spannbreite verdeutlicht dabei die Problematik: Der direkte Weg in die Microsoft-Cloud verstärkt die einseitige Abhängigkeit, während ein dogmatischer „Open-Source-Only“-Ansatz neue Engpässe schafft, da er die Innovationskraft der Hyperscaler aus Nordamerika ausblendet.

Digitale Souveränität bedeutet nicht Abschottung oder Übergang zu einem einzigen Open-Source-Standard, sondern Wahlfreiheit. Unternehmen und Ländern soll es möglich sein, jederzeit zwischen den besten und innovativsten Anbietern und Betriebsmodellen zu wechseln – ganz nach ihren individuellen Bedürfnissen.

Ein offener Cloud Markt als Lösung

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) denkt genau in diese Richtung. auf. Die Behörde schlägt vor, möglichst viele Kooperationsabkommen – vom nationalen Provider bis zu internationalen Hyperscalern – abzuschließen, um einen Marktplatz vertrauenswürdiger Cloud-Bausteine zu schaffen. Dieser soll Sicherheitsanforderungen gewährleisten und gleichzeitig das Risiko eines Vendor-Lock-ins reduzieren.

Wenn diese Strategie gelingen soll, müssen zuvor jedoch bestehende missbräuchliche Marktstrukturen aufgebrochen werden. Bereits im September 2024 stellte das Bundeskartellamt Microsoft unter die erweiterte Missbrauchsaufsicht nach § 19a GWB. Parallel dazu attestierte die britische Wettbewerbsbehörde CMA im Januar 2025 dem Cloud-Markt „nachteilige Auswirkungen auf den Wettbewerb“: Egress-Gebühren, Lizenzkoppelungen und Rabattstrukturen erschwerten den Wechsel sowie den Multi-Cloud-Betrieb und ermöglichten es Unternehmen wie AWS und Microsoft, überdurchschnittliche Gewinne zu erzielen. 

Europäische Souveränität braucht Wettbewerb und Interoperabilität

Diese Befunde verdeutlichen die Notwendigkeit, dass es jetzt eine gemeinsame politische Antwort auf Bundes- und EU-Ebene braucht. Das Ziel muss sein, eine echte Interoperabilität zwischen allen Cloud- und Software-Diensten zu schaffen. Nur so kann die Grundlage für europäische digitale Souveränität geschaffen werden, die nicht in Abschottung endet, sondern die Kooperation mit den innovativsten Lösungen weltweit offenhält.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Konkret bedeutet das, alle Hürden für einen Anbieterwechsel abzubauen – unabhängig davon, ob der Anbieter innerhalb oder außerhalb Europas sitzt. So sollen US-Hyperscaler, europäische Open-Source-Akteure und außereuropäische Wettbewerber in denselben Preis-, Service- und Innovationswettbewerb treten.

Microsoft zu regulieren ist notwendig

Microsofts Marktmacht zu regulieren ist dabei zwingend nötig, aber so, dass Europa sich nicht ausgerechnet von wertvollen US-Technologien abkoppelt. Sonst droht ein transatlantisches Innovationsrennen, in dem die EU ohne Zugang zu Spitzenlösungen schwer bestehen könnte.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5dNJGnOX4iEG97iAYrzLbr?utm_source=oembed”>

Dass Regulierung ohne Isolation möglich ist, zeigen die ersten Schritte der britischen Competition and Markets Authority (CMA) und des Bundeskartellamts. Die CMA hat Ende Januar 2025 in ihren vorläufigen Ergebnissen hohe Wechselbarrieren und Diskriminierung durch Software-Lizenzbündel festgestellt, das Bundeskartellamt hat Microsoft im September 2024 unter die verschärfte Missbrauchsaufsicht des § 19a GWB gestellt. Beide Behörden verfolgen das Ziel der freien Anbieterwahl, ohne den Markt gleich abzuriegeln – ein Modell, das Europa den Weg weist.

Lesetipp: Wie souverän ist Microsofts Sovereign Cloud wirklich?

Jetzt ist entscheidend, dass dieser Weg auch konsequent gegangen wird – national und vor allem auf EU-Ebene. Neben Kartellverfahren sind mutige europäische Regelungen erforderlich, die auch die grenzüberschreitende Reichweite des US Cloud Act adressieren. Erst dann gewinnen Länderverwaltungen die strukturelle Flexibilität, die gesamte Vielfalt und Innovationskraft digitaler Dienstleister zu nutzen. (ba)

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​ Weiterlesen »

CISO: Das muss ein Chief Information Security Officer können​

Allgemein

Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer. Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Foto: GaudiLab – shutterstock.com Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten. CISO – eine Definition Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern. In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung. IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs. Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten. Verantwortlichkeiten eines CISO Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf: Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst. Anforderungen an einen CISO Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position. Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle. Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen. Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten. Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren. Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security. Zertifizierung zum CISO Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor: Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten. Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position. Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten. In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele: Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP). Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an. Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten. Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an. CISO vs. CIO vs. CSO Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen. Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann. Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich. CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein. CISO-Jobprofil Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten. In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind. Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte. CISO Gehalt Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist. Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen. Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind. 

CISO: Das muss ein Chief Information Security Officer können​ Ein Chief Information Security Officer (CISO) ist verantwortlich für die Informations- und Datensicherheit im gesamten Unternehmen. Gegenüber Rollen wie dem Chief Security Officer (CSO) oder dem Ressortleiter für Sicherheit ist das Aufgabenfeld größer.

Der CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens.
Foto: GaudiLab – shutterstock.com

Im Zuge der Digitalisierung durchdringt Software das gesamte Unternehmen, was die IT-Angriffsfläche signifikant vergrößert. Deshalb gewinnt die Rolle des CISO an Bedeutung. Es lohnt sich also, die spezifischen Verantwortlichkeiten, Pflichten und Voraussetzungen dieser Management-Funktion näher zu betrachten.

CISO – eine Definition

Ein CISO schlägt die Brücke zwischen den traditionell separaten Disziplinen IT, Sicherheit und dem Business eines Unternehmens. Die Funktion erarbeitet die IT-Security-Strategie von den Geschäftszielen aus und sorgt so für das nötige Schutzniveau, ohne die Agilität moderner Geschäftsprozesse zu behindern.

In der täglichen Arbeit ist ein CISO unter anderem verantwortlich für die Bereiche: Security Operations, Cyber-Risiken und -Intelligence, Schutz vor Datenverlust und Betrug, Sicherheits-Architektur, Identitäts- und Zugangsmanagement (IAM), Programm-Management, Forensik und Governance. Im Rahmen eines Information Security Management Systems (ISMS) auditiert ein CISO zudem die Sicherheit der IT und berichtet über die Ergebnisse an die Geschäftsführung.

IT-Security betrifft das gesamte Unternehmen auf allen Ebenen, so dass ein CISO einen ganzheitlichen Sicherheitsansatz verfolgen muss. Sowohl Technik und Organisation als auch Kultur und Lieferkette sind wichtige Faktoren, die es im Blick zu behalten gilt. Auch das Reputationsmanagement und Kommunikationsmaßnahmen im Krisenfall liegen im Verantwortungsbereich des IT-Sicherheitschefs.

Ein CISO ist meist dem Chief Information Officer (CIO) unterstellt, in anderen Fällen direkt dem Chief Executive Officer (CEO) oder der Geschäftsführung, da IT-Security nur eine Untermenge seiner Aufgaben darstellt. Die Rolle kümmert sich auch um die Sicherung und das Risikomanagement aller anderen (nicht digitalen) Informationswerte eines Unternehmens wie etwa Papierakten.

Verantwortlichkeiten eines CISO

Die Aufgaben eines CISO sind so unterschiedlich, wie das Unternehmen, für das sie oder er arbeitet. Stephen Katz gab in einem Interview einen guten Überblick zu den grundlegenden Aspekten der täglichen Arbeit. Katz gilt als Wegbereiter der CISO-Rolle, die er in den 90-er Jahren bei der Citigroup definierte und bekleidete. Er schlüsselt sie wie folgt auf:

Eine detaillierte Beschreibung der Pflichten eines CISOs hat der Schulungsanbieter SANS Institute in einem Whitepaper (PDF) zusammengefasst.

Anforderungen an einen CISO

Die Position eines CISO setzt eine solide technische Ausbildung voraus. Laut dem Informationsportal für IT-Security-Studenten Cyberdegrees.org benötigt ein CISO mindestens einen Bachelor-Abschluss in Computerwissenschaften oder einem verwandten Feld. Vermehrt legen Unternehmen aber auch auf einen Master-Abschluss mit Security-Fokus Wert. Zudem werden sieben bis 12 Jahre Berufserfahrung vorausgesetzt, mindestens fünf davon in einer Management-Position.

Des Weiteren sollte ein CISO eine Reihe von technischen Skills mitbringen. Grundlegende Kenntnisse in Programmierung und Systemadministration braucht jeder hochrangige Manager im Technikbereich. Darüber hinaus ist aber auch Wissen über Sicherheitstechnologie wichtig, wie beispielsweise DNS, Routing, Authentifikation, VPN, Proxy-Dienste und DDoS-Abwehr, Programmierverfahren, ethisches Hacking, Bedrohungsmodellierung und -analyse, Firewalls sowie Intrusion-Detection-and-Prevention-Protokolle.

Auch der Faktor Mensch rückt zunehmend in den Fokus des CISOs. Mit ausgefeiltem Phishing, E-Mail-Betrug oder Social Engineering umgehen Angreifer die technischen Schutzmaßnahmen von Unternehmen. Damit wird die Sensibilisierung und Schulung der Mitarbeiter durch Security-Awareness-Maßnahmen zu einer zentralen Aufgabe der Sicherheitsverantwortlichen.

Zusätzlich muss ein CISO auch Know-how im Compliance-Bereich besitzen, um dabei zu unterstützen, regulatorische Vorgaben einzuhalten. Darunter fallen beispielsweise je nach Branche und Kerngeschäft die DSGVO, der IT-Grundschutz, KRITIS– oder PCI-Vorgaben. Bei international agierenden Unternehmen gilt es, noch weitere Standards wie HIPAA, CCPA, NIST, GLBA oder SOX zu beachten.

Da CISOs Management-Aufgaben erledigen und im Idealfall einen engen Kontakt zu den Vorständen pflegen, reicht technisches Wissen allein nicht aus, um sich für diese Position zu qualifizieren. Larry Ponemon, Gründer des gleichnamigen Forschungsinstituts, fasste gegenüber der “SecureWorld” zusammen: “Die erfolgreichsten CISOs haben gute technische Grundlagen gepaart mit einem Business-Hintergrund.” Sie besäßen etwa einen MBA-Abschluss und könnten mit anderen C-Level-Managern oder dem Vorstand auf Augenhöhe kommunizieren.

Laut Paul Wallenberg, Manager bei der Personalvermittlung LaSalle Network, orientieren sich die geforderten nicht-technischen Skills stark am jeweiligen Unternehmen. “International agierende Betriebe suchen meist Kandidaten mit einem ganzheitlichen, funktionalen Security-Hintergrund.” Sie bewerten die Führungsqualitäten anhand des Lebenslaufs und vergangener Leistungen. Auf der anderen Seite suchten Unternehmen mit einem Web- oder Produktfokus CISOs mit speziellen Skillsets im Bereich Anwendungs- und Web-Security.

Zertifizierung zum CISO

Da es keinen vorgezeichneten Ausbildungsweg zum CISO gibt, existieren Zertifikate, die die nötige Fachkompetenz vermitteln sollen. Die Auswahl an Angeboten ist groß, Cyberdegrees.org listet allein sechs. LaSalle-Manager Wallenberg hebt drei davon als die seiner Meinung nach wichtigsten hervor:

Certified Information Systems Security Professional (CISSP) für IT-Profis, die Security zu ihrem Fokus machen möchten.

Certified Information Security Manager (CISM) ist beliebt, wenn sie Sicherheitswissen vertieft werden soll. Es ebnet den Weg in eine Führungs- oder Programm-Management-Position.

Certified Ethical Hacker (CEH) ist für Security-Experten geeignet, um detaillierteres Know-how über komplexe Bedrohungen für die Unternehmenssicherheit zu erhalten.

In Deutschland bieten auch einige Verbände und Weiterbildungsunternehmen Zertifizierungen für den hiesigen Markt an. Hier einige Beispiele:

Der Bundesverband IT-Sicherheit Teletrust offeriert Schulungen zum TeleTrusT Information Security Professional (TISP).

Die Akademie des Branchenverbandes Bitkom bietet einen Zertifikatslehrgang nach BSI IT-Grundschutz und ISO/IEC 27001/27002 an.

Beim TÜV Nord können Interessenten ein CISO-Seminar belegen, nach dessen erfolgreichem Abschluss die Teilnehmer ein TÜV-NORD-CERT-Zertifikat erhalten.

Der Consulting- und Trainingsdienstleister CBT bietet Kurse für den Erwerb des Zertifikats “Chief Information Security Officer CISO” an.

CISO vs. CIO vs. CSO

Sicherheitsverantwortliche tendieren manchmal dazu, Systeme abzuschotten, um sie sicherer zu machen. Das kann zu Konflikten mit der IT-Abteilung führen, die dafür verantwortlich ist, Informationen und Anwendungen möglichst reibungslos zur Verfügung zu stellen.

Diese Auseinandersetzung wird wahrscheinlich zwischen dem CISO und dem CIO ausgefochten. Dabei spielt es eine Rolle, wie die Top-Management-Ebene des Unternehmens organisiert ist. Berichtet ein CISO nicht direkt an den CEO, sondern ist dem CIO unterstellt, kann das zu Problemen führen. Strategische Security-Entscheidungen müssen sich dann unter Umständen der übergreifenden IT-Strategie des CIO unterordnen, was dem Sicherheitsniveau abträglich sein kann.

Ist ein CISO direkt unter der Geschäftsführung oder dem Vorstand angesiedelt, erhält er mehr Durchsetzungsvermögen. Damit könnte auch eine Titeländerung einhergehen. Laut der Global State of Information Security Survey wird ein CISO meist dem CIO unterstellt, während ein CSO eher auf derselben Hierarchieebene agiert. Zudem ist er dann auch für nicht-technische Sicherheitsthemen verantwortlich.

CIO und CISO auf Augenhöhe einzusetzen kann das Konfliktpotenzial senken und als Signal für das gesamte Unternehmen gelten, dass Sicherheit ernst genommen wird. Das bedeutet allerdings auch, dass der CISO technische Initiativen nicht blockierten sollte. Die gemeinsame Verantwortung für strategische Projekte verändert die Beziehungsdynamik der beiden Disziplinen und kann für einen neuen CISO das entscheidende Erfolgselement sein.

CISO-Jobprofil

Ist ein Unternehmen auf der Suche nach einem CISO, spielten viele der oben genannten Punkte in die Stellenbeschreibung mit hinein. “Firmen entscheiden zuerst, ob sie einen CISO anheuern wollen, dann holen sie Freigaben für die Hierarchiestufe, Berichtsstruktur und den offiziellen Titel der Position,” erklärt LaSalle-Manager Wallenberg. In kleineren Betrieben könne auch ein Ressortleiter oder Security-Director CISO werden. Abschließend gelte es, die minimalen Voraussetzungen und Qualifikationen für die Rolle zu formulieren und den internen oder externen Ausschreibungsprozess zu starten.

In der Stellenausschreibung selbst sollte das Engagement des Unternehmens für Sicherheit von Anfang an klar herausgestellt werden, um die Aufmerksamkeit hochqualifizierter Kandidaten zu bekommen. Dabei hilft es, genau zu beschreiben, wo ein CISO in der Unternehmenshierarchie angesiedelt ist und wie viele Berührungspunkte mit der Geschäftsführung oder dem Vorstand geplant sind.

Auch wenn die Stelle besetzt ist, sollte die Stellenbeschreibung regelmäßig auf den neuesten Stand gebracht und bereitgehalten werden. Es ist nicht immer klar, wann der Mitarbeiter zu einer neuen Herausforderung wechselt, und der CISO ist eine kritische Position, die nicht unbesetzt bleiben sollte.

CISO Gehalt

Der CISO hat eine hochrangige Position inne und wird meist auch entsprechend bezahlt – allerdings variiert der Betrag stark. Gehaltsrechner wie Glassdoor dotieren CISO-Stellen in Deutschland auf durchschnittlich etwa 95.000 Euro Grundgehalt pro Jahr mit viel Luft nach oben und unten. Andererseits sprechen Personalvermittler auch von CISO-Einkommen, die die 200.000-Euro-Marke beim Jahresgehalt sprengen – sofern der Kandidat der richtige Experte für die spezielle Position ist.

Allen CISOs und denen, die es werden wollen sei zudem unser neues Portal https://www.csoonline.com/de/ wärmstens empfohlen.

Aufgaben eines CISO Vorbeugung von Datenverlust und BetrugSicherstellen, dass Mitarbeiter keine Daten versehentlich, fahrlässig oder vorsätzlich missbrauchen oder stehlen.Security OperationsUnmittelbare Bedrohungen in Echtzeit analysieren und im Ernstfall sofortige Gegenmaßnahmen koordinieren.Cyber-Risiko und Intelligence Stets informiert bleiben über aufkommende Sicherheitsbedrohungen. Den Vorstand dabei unterstützen, mögliche Sicherheitsrisiken aufgrund von Akquisitionen oder anderen Geschäftsentscheidungen zu verstehen.Security-ArchitekturSecurity-Hard- und Software planen, einkaufen und in Betrieb nehmen. Sicherstellen, dass IT und Netzwerk anhand der geeignetsten Security Best Practices modelliert sind.Identitäts- und Zugriffsmanagement (IAM)Sicherstellen, dass nur berechtigtes Personal Zugriff auf sensible, geschützte Daten und Systeme hat.Programm-ManagementAufkommende Sicherheitsanforderungen erfüllen, indem Programme und Projekte eingeführt werden, die Risiken beseitigen. Darunter fallen beispielsweise regelmäßige System-Patches. Fehlersuche und Forensik Herausfinden, was bei einem Datenleck schiefgelaufen ist, die Verantwortlichen zur Rechenschaft ziehen, wenn sie aus dem eigenen Unternehmen stammen, und Pläne entwickeln, um ähnliche Krisen in Zukunft zu verhindern.GovernanceSicherstellen, dass alle zuvor genannten Initiativen fehlerlos laufen, ausreichend finanziert sind und die Unternehmensführung versteht, wie wichtig sie sind.

CISO: Das muss ein Chief Information Security Officer können​ Weiterlesen »

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​

Allgemein

Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren. Vorsicht vor Datenlecks Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch: Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden. Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen. Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt. Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten. Halluzinationen mit Folgen Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche. Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen. Hinweis auf fehlende oder falsche Tools Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können. Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise. Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen. Aufklären statt nur verbieten Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem. Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden, welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen; welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen. Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird. Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen. Vertrauen ist gut, Kontrolle ist besser … Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen. Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden. Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering). Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten. Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt. 

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Die Versuchung ist groß, OpenAIs ChatGPT, Google Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren.

Vorsicht vor Datenlecks

Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch:

Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden.

Bereits Ende 2023 zeigten Forscher von Google in einem Research Paper, dass es möglich ist, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen.

Zwar hat OpenAI den Fehler bereits kurz darauf behoben, es kann aber nie hundertprozentig ausgeschlossen werden, dass es keine Sicherheitslücken mehr gibt.

Und da die KI-Chatbots mit Open-Source– (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten.

Halluzinationen mit Folgen

Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche.

Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierten Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung “nur” die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen.

Hinweis auf fehlende oder falsche Tools

Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können.

Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft 365 Copilot, ChatGPT Team oder Enterprise.

Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen.

Aufklären statt nur verbieten

Apropos GenAI-Schulung: Im Jahr 2025 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und – bei knappen Budgets – von wem.

Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden,

welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen;

welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie

auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen.

Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen. KI-Kompetenz bei allen Mitarbeitern, die KI einsetzen, ist seit Februar 2025 ohnehin Pflicht. Allerdings ist noch immer nicht klar geregelt, wie eine entsprechende Schulung aussehen muss oder wie KI-Kompetenz geprüft wird.

Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen.

Vertrauen ist gut, Kontrolle ist besser …

Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und – noch wichtiger – den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen.

Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden.

Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering).

Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten.

Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt.

Datenlecks und Fehlinformationen vermeiden: So schützen Sie sich vor Schatten-KI​ Weiterlesen »

RPA Software: Die besten Tools für Robotic Process Automation​

Allgemein

Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools. Foto: klyaksun – shutterstock.com Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher. Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”. Was Robotic Process Automation leisten sollte Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig. Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten: Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift. Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen. Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen. Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”. Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten. Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps. Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können. Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert. Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren. Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen. Die besten RPA-Softwarelösungen Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten. Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet. Airslate Appian Automation Anywhere AutomationEdge AWS Lambda Cyclone Robotics Datamatics EdgeVerve Systems Fortra Automate IBM Laiye Microsoft Mulesoft (Salesforce) NiCE Nintex NTT-AT Pega Rocketbot Samsung SDS SAP ServiceNow SS&C Blue Prism Tungsten Automation (ehemals Kofax) UiPath WorkFusion (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox. 

RPA Software: Die besten Tools für Robotic Process Automation​ Robotic Process Automation birgt für Unternehmen viele Vorteile. Wir zeigen Ihnen die besten RPA Tools.
Foto: klyaksun – shutterstock.com

Eine Art magische Taste zur Automatisierung langweiliger und repetitiver Aufgaben am Arbeitsplatz – und damit vereinfachte Arbeitsabläufe und mehr Zeit für wichtige Tasks – das ist das Versprechen von Robotic Process Automation (RPA). RPA integriert auch neue KI-Algorithmen in alte Technologie-Stacks: Viele Plattformen bieten Computer Vision und Machine Learning Tools. Dennoch: RPA ist kein Automatismus, ein beträchtliches Maß an manuellen Eingriffen und Anpassungen ist während des Trainings entsprechender Modelle erforderlich. Noch gibt es einige Tasks, die vorkonfigurierte Bots nicht erledigen können – allerdings werden die Softwareroboter zunehmend intelligenter und ihr Training einfacher.

Der RPA-Markt bietet eine Mischung aus neuen, speziell entwickelten Tools und älteren Werkzeugen, die mit zusätzlichen Automatisierungsfunktionen ausgestattet wurden. Einige Anbieter vermarkten ihre Tools unter dem Begriff “Workflow-Automatisierung” oder “Work Process Management”, andere sprechen von “Geschäftsprozessautomatisierung”.

Was Robotic Process Automation leisten sollte

Bevor Sie sich für ein RPA-Produkt entscheiden, sollten Sie sich darüber im Klaren sein, dass jedes Produkt seine eigenen proprietären Dateiformate zum Einsatz bringt. Deshalb sind RPA-Lösungen nicht miteinander kompatibel. Die Konsequenz für Sie als Anwender: Sie sollten in Frage kommende Produkte vorab sorgfältig evaluieren und einen Proof of Concept durchführen. Nachträglich auf ein anderes Produkt umzusteigen, ist in der Regel relativ mühsam – und kostspielig.

Stellen Sie sicher, dass sämtliche grundlegenden und speziellen Funktionen, die Sie benötigen, auch im Zusammenspiel mit Ihrer IT-Umgebung funktionieren. Auf folgende Faktoren gilt es dabei besonders zu achten:

Bots sollten simpel einzurichten sein. Zudem sind verschiedene Möglichkeiten, um RPA-Bots für unterschiedliche Personas aufzusetzen, essenziell. Ein Recorder sollte die normalen Aktionen von Business-Nutzern erfassen. Citizen Developer sollten Low-Code-Umgebungen nutzen können, um Bots und Business-Regeln zu definieren. Und Profi-Devs sollten echten Automatisierungs-Code erstellen können, der auf die APIs des RPA-Tools zugreift.

Low-Code-Funktionen sind unerlässlich. In der Regel vereint Low-Code eine Drag-and-Drop-Zeitleiste mit einer Aktions-Toolbox und Property-Formularen – ab und an muss auch ein Code-Snippet erstellt werden. Das geht deutlich schneller, als Business-Regeln mit herkömmlichen Verfahren zu erstellen.

Die Lösung der Wahl sollte sowohl Attended als auch Unattended Bots unterstützen. Manche Bots sind nur sinnvoll, um sie on Demand (attended) auszuführen – etwa wenn es darum geht, einen genau definierten Task auszuführen. Andere eignen sich, um auf bestimmte Events zu reagieren (unattended) – etwa Due-Diligence-Prüfungen für übermittelte Kreditanträge. Sie benötigen beide Formen.

Machine-Learning-Fähigkeiten sind Pflicht. Noch vor wenigen Jahren hatten viele RPA-Tools Probleme, Informationen aus unstrukturierten Dokumenten zu extrahieren.  Heutzutage kommen ML-Lernfunktionen zum Einsatz, um solche Daten zu analysieren. Das bezeichnen einige Anbieter und Analysten auch als “Hyperautomation”.

Der Faktor Mensch braucht Raum. Kategoriale maschinelle Lernmodelle schätzen in der Regel die Wahrscheinlichkeit möglicher Ergebnisse. Ein Modell zur Vorhersage von Kreditausfällen, das eine Ausfallwahrscheinlichkeit von 90 Prozent angibt, könnte beispielsweise empfehlen, den Kredit abzulehnen, während ein Modell, das eine Ausfallwahrscheinlichkeit von 5 Prozent berechnet, empfehlen könnte, diesen zu gewähren. Zwischen diesen Wahrscheinlichkeiten sollte Spielraum für ein menschliches Urteil bestehen. Das RPA-Tool Ihrer Wahl sollte deshalb die Möglichkeit für manuelle Reviews bieten.

Bots müssen sich mit ihren Enterprise Apps integrieren lassen – ansonsten können sie keine Informationen daraus abrufen und bringen entsprechend wenig. Die Integration geht in der Regel einfacher vonstatten, als PDF-Dateien zu parsen. Nichtsdestotrotz benötigen Sie dafür Treiber, Plugins und Anmeldedaten für sämtliche Datenbanken, Buchhaltungs- und HR-Systeme sowie weitere Unternehmens-Apps.

Orchestrierungsmöglichkeiten sind unverzichtbar. Bevor Sie Bots ausführen können, müssen Sie sie konfigurieren und die dafür erforderlichen Anmeldedaten bereitstellen, in der Regel über einen eigens abgesicherten Credential Store. Zudem müssen Benutzer autorisiert werden, um Bots erstellen und ausführen zu können.

Cloud-Bots können zusätzliche Benefits bringen. Als RPA eingeführt wurde, liefen die Bots ausschließlich auf den Desktops der Benutzer oder den Servern des Unternehmens. Mit dem Wachstum der Cloud haben sich jedoch virtuelle Cloud-Maschinen für diesen Zweck etabliert. Einige RPA-Anbieter haben auch bereits Cloud-native Bots implementiert, die als Cloud-Apps mit Cloud-APIs ausgeführt werden, anstatt auf virtuellen Windows-, macOS- oder Linux-Maschinen. Selbst wenn Sie derzeit nur wenig in Cloud-Anwendungen investiert haben, ist diese Funktion mit Blick auf die Zukunft empfehlenswert.

Process-Mining-Fähigkeiten können Aufwand reduzieren. Der zeitaufwändigste Teil einer RPA-Implementierung besteht im Regelfall darin, Prozesse zu identifizieren, die automatisiert werden können – und diese entsprechend zu priorisieren. Je besser die RPA-Lösung Ihrer Wahl Sie in Sachen Process Mining und Task Discovery unterstützen kann, desto schneller und einfacher können Sie automatisieren.

Skalierbarkeit ist das A und O. Wenn Sie RPA unternehmensweit einführen und sukzessive ausbauen möchten, können leicht Skalierungsprobleme auftreten – insbesondere, wenn es um Unattended Bots geht. Dagegen hilft oft eine Cloud-Implementierung, insbesondere, wenn die Orchestrierungskomponente in der Lage ist, bei Bedarf zusätzliche Bots bereitzustellen.

Die besten RPA-Softwarelösungen

Im Folgenden haben wir die aktuell wichtigsten Anbieter und Lösungen im Bereich Robotic Process Automation für Sie zusammengestellt. Die Auflistung erhebt keinen Anspruch auf Vollständigkeit und basiert unter anderem auf den Bewertungen von Anwendern sowie den Einschätzungen von Analysten.

Zu beachten ist dabei, dass KI-Agenten klassischen RPA-Lösungen zunehmend den Rang ablaufen, da sie weitergehende, intelligentere Automatisierungsinitiativen ermöglichen: Während Robotic Process Automation vor allem regelbasiert funktioniert, “lernen” KI-Agenten aus Daten. Diverse Anbieter haben bereits auf den Trend reagiert und ihr Automatisierungsangebot entsprechend neu ausgerichtet.

Airslate

Appian

Automation Anywhere

AutomationEdge

AWS Lambda

Cyclone Robotics

Datamatics

EdgeVerve Systems

Fortra Automate

IBM

Laiye

Microsoft

Mulesoft (Salesforce)

NiCE

Nintex

NTT-AT

Pega

Rocketbot

Samsung SDS

SAP

ServiceNow

SS&C Blue Prism

Tungsten Automation (ehemals Kofax)

UiPath

WorkFusion

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox.

RPA Software: Die besten Tools für Robotic Process Automation​ Weiterlesen »

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​

Allgemein

Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach. Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet. Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert. Glücksspiel-Parallelen Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst. Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”. Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.” Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos: kleine Einstiegskosten, unberechenbare Belohnungen, und das Versprechen des großen Durchbruchs. Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt. Das Prokrastinations-Paradox Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind. Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst. Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit. Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird. Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet. Credits als Kostenfalle Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten. Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro. Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken. Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen. Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt. Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.” Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen. Der Dopamin-Kreislauf Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt. Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst. Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange. Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen. Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen. So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen. Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität. Produktiv bleiben in der KI-Ära Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen: Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten. Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben. Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten. Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel. Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist. Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos. Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen. Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit. Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen. KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb) 

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Auch wenn man sich mit der Nutzung von KI-Tools (vermeintlich) für die Zukunft weiterbildet, sollte man das Hier und Jetzt nicht aus den Augen verlieren. Zivica Kerkez – Shutterstock.com

Es ist 14 Uhr an einem Dienstag. Sie wollten eigentlich an Ihrem wichtigen Projekt arbeiten. Stattdessen testen Sie seit drei Stunden das neueste KI-Tool, das Sie auf LinkedIn entdeckt haben. “Nur mal kurz ausprobieren”, dachten Sie sich. Jetzt sind 50 Euro für Credits weg, der Nachmittag verloren – und das Projekt liegt immer noch brach.

Diese Szene wiederholt sich täglich in zahlreichen Büros und Homeoffices. KI-Tools versprechen uns, produktiver zu werden. Doch für viele Menschen werden sie zur größten Produktivitätsbremse. Was als harmloses Experimentieren beginnt, entwickelt sich schnell zu einer Zeit- und Kostenfalle, die sowohl Privatpersonen als auch Unternehmen Millionen kostet.

Als Autor dieses Artikels muss ich gestehen: Auch ich bin in diese Falle getappt. Diesen Monat musste ich schockiert feststellen, dass ich einen größeren vierstelligen Betrag in KI-Tools investiert hatte. Die vielen kleinen Investitionen – hier 20 Euro für Credits, dort 50 Euro für ein Premium-Abo – haben sich am Monatsende zum „Eye Opener“ summiert.

Glücksspiel-Parallelen

Diese Erfahrung erinnerte mich schmerzhaft an meine Zeit als World-of-Warcraft-Spieler. Damals floss meine ganze Zeit in eine Parallelwelt aus Farmen, Raids und endlosen Quests. Die Monatsbeiträge hielten mich im Spiel gefangen. Um ständig gut ausgestattet zu sein, bezahlte ich sogar sogenannte „China-Farmer-Bots“, die meine Figur mit virtuellem Gold belieferten oder meine Charaktere levelten, während ich arbeitete oder schlief. Ich verlor komplett den Bezug zu Geld und Zeit – zum Glück wurde mir das noch rechtzeitig bewusst.

Die Parallelen zwischen damals und heute sind erschreckend. Beide Male kleine, scheinbar harmlose Ausgaben. Beide Male der Verlust des Zeitgefühls und die Illusion, etwas Produktives zu tun, während ich eigentlich nur Zeit und Geld verschwendete. Der einzige Unterschied: Heute tarnt sich die Sucht als “berufliche Weiterbildung” und “Vorbereitung auf die Zukunft”.

Das Problem ist vielschichtig. Einerseits wollen wir angesichts der rasanten KI-Entwicklung “am Ball bleiben”. Andererseits führt das ständige Ausprobieren neuer Tools zu einer modernen Form der Prokrastination, die sich hinter dem Deckmantel der “Weiterbildung” versteckt. Ein Nutzer beschreibt den KI-Bildgenerator Midjourney auf Reddit so: “Es ist wie ein Spielautomat für Kreativität. Das addiktivste Tool, das ich je benutzt habe.”

Die Parallelen zum Glücksspiel sind kein Zufall. KI-Unternehmen nutzen dieselben psychologischen Tricks wie Casinos:

kleine Einstiegskosten,

unberechenbare Belohnungen, und

das Versprechen des großen Durchbruchs.

Erste Studien belegen die Folgen. So ergab eine Untersuchung von OpenAI und MIT Media Lab Research, dass ChatGPT-Poweruser Entzugserscheinungen entwickeln, ständig an die KI denken und echte Arbeit und Beziehungen vernachlässigen. Was als Produktivitätssteigerung verkauft wird, entpuppt sich oft als das Gegenteil – eine digitale Ablenkung, die wertvolle Zeit und viel Geld verschlingt.

Das Prokrastinations-Paradox

Die moderne Arbeitswelt stellt uns vor ein Paradox: Wir beschäftigen uns so intensiv mit Produktivitäts-Tools, dass wir nicht mehr produktiv sind.

Dieses Phänomen hat auch einen Namen: “Tool-Hopping” oder “Shiny Object Syndrome”. Jeden Tag erscheinen neue KI-Anwendungen auf dem Markt. Product Hunt, LinkedIn und Tech-Blogs bombardieren uns mit Versprechen revolutionärer Durchbrüche. “Diese KI wird Ihr Business transformieren”, “Das Tool, das alles verändert”, “Endlich: KI, die wirklich funktioniert” – solche Headlines triggern unseren Innovationsdrang und parallel unsere Verlustangst.

Das Problem verstärkt sich durch die niedrigen Einstiegshürden. Die meisten KI-Anbieter bieten kostenlose Testversionen oder günstige Starter-Pakete ihrer Tools an. “Nur mal kurz reinschauen” kostet ja nichts. Doch diese scheinbare Harmlosigkeit ist trügerisch. Zeit ist auch Geld, und die Stunden, die wir damit verbringen neue Tools zu testen, fehlen für die eigentliche Arbeit.

Ein typisches Beispiel: Ein Marketing-Manager entdeckt ein neues KI-Tool für Social Media Posts. Er investiert zwei Stunden, um es zu verstehen, weitere drei Stunden um es einzurichten und nochmals vier für erste Tests. Am Ende des Tages hat er neun Stunden in ein Tool investiert, das er möglicherweise nie wieder nutzen wird.

Besonders perfide: Viele Menschen fühlen sich produktiv, obwohl sie es nicht sind. Psychologen nennen das “Pseudo-Produktivität” – die Illusion, etwas Wichtiges zu tun, während man eigentlich nur Zeit verschwendet.

Credits als Kostenfalle

Die Finanzierung von KI-Tools folgt einem nicht minder perfiden System, das die wahren Kosten verschleiert. Ähnlich wie Casinos mit Chips arbeiten, nutzen KI-Anbieter Credits, Tokens oder Punkte. Diese Abstraktion von echtem Geld senkt die psychologische Hemmschwelle und führt dazu, dass die Nutzer mehr ausgeben, als sie ursprünglich geplant hatten.

Ein typisches Szenario: Sie kaufen 1.000 Credits für 20 Euro. Das klingt nach einem fairen Deal. Doch schnell stellen Sie fest, dass komplexere Anfragen mehr Credits verbrauchen als erwartet. Ein hochwertiges Bild kostet 50 Credits, ein längerer Text 100. Nach wenigen Stunden sind die Credits aufgebraucht, das gewünschte Ergebnis aber noch nicht erreicht. Also kaufen Sie nach – wieder 20 Euro, dann nochmals 20 Euro.

Diese Microtransaction-Strategie stammt aus der Gaming-Industrie und ist psychologisch hocheffektiv. Kleine Beträge fühlen sich harmlos an, summieren sich aber schnell zu erheblichen Summen. Viele Nutzer geben monatlich mehr für KI-Tools aus als für ihre Streaming-Abos – ohne es zu merken.

Besonders problematisch: Die Preisgestaltung ist oft intransparent. Was kostet eine Bildgeneration wirklich? Wie viele Tokens verbraucht eine komplexe Textanfrage? Die meisten Anbieter machen diese Informationen bewusst schwer zugänglich. Nutzer kaufen Credits “auf Verdacht” und hoffen, dass sie ausreichen.

Die Kostenfalle wird durch die variable Qualität der Ergebnisse verstärkt. Nicht jeder KI-Output ist brauchbar. Oft müssen Sie mehrere Versuche starten, bis das Ergebnis stimmt. Aber jeder Versuch kostet Credits. So kann ein einziges brauchbares Bild schnell 200 bis 300 Credits kosten, obwohl der Anbieter mit “nur 10 Credits pro Bild” wirbt.

Ein Freelance-Designer berichtet: “Ich wollte nur mal Midjourney ausprobieren. Am Ende des Monats hatte ich 180 Euro ausgegeben – für Bilder, die ich größtenteils nicht verwenden konnte. Mein Creative-Suite-Abo von Adobe ist günstiger.”

Unternehmen sind davon in besonderem Maße betroffen: Wenn mehrere Mitarbeiter gleichzeitig verschiedene KI-Tools testen, können schnell vierstellige Beträge zusammenkommen.

Der Dopamin-Kreislauf

Unser Gehirn ist nicht für die digitale Welt gemacht. Die Mechanismen, die uns beim Überleben geholfen haben, werden heute gegen uns eingesetzt.

Der Schlüssel liegt im Dopamin: Entgegen der landläufigen Meinung macht das Hormon nicht glücklich – sondern hungrig nach mehr. Deswegen wird Dopamin auch nicht ausgeschüttet, wenn wir eine Belohnung erhalten, sondern wenn wir diese erwarten. Der Moment vor dem Klick auf “Generieren” ist spannender als das Ergebnis selbst.

Wissenschaftler haben in einer Untersuchung herausgefunden: Unberechenbare Belohnungen lösen die stärkste Dopamin-Ausschüttung aus. Wenn Sie nie wissen, wann Sie gewinnen, bleibt die Spannung hoch. KI-Tools nutzen genau dieses Prinzip. Sie wissen nie, ob das nächste generierte Bild brillant wird oder doch nur mittelmäßig ausfällt. Diese Ungewissheit hält Sie bei der Stange.

Das Problem dabei: Die meisten Ergebnisse sind mittelmäßig – wie die kleinen Gewinne am Spielautomaten. Aber ab und zu kommt ein “Jackpot”-Erlebnis. Ein Bild, das perfekt ist. Ein Text, der genau passt. Diese seltenen Treffer motivieren uns, weiterzumachen.

Die Situation wird durch die Vermenschlichung der KI verstärkt. Chatbots wie ChatGPT sind so programmiert, dass sie möglichst menschlich wirken. Sie verwenden Emoticons, stellen Rückfragen und scheinen Verständnis zu zeigen. Das macht sie noch verführerischer. Menschen bauen Beziehungen zu den Systemen auf, als wären es reale Personen.

So bestätigt eine Studie von OpenAI und MIT: Menschen, die intensiv ChatGPT nutzen, entwickeln eine emotionale Bindung an die KI. Sie denken ständig an die Technologie, fühlen sich unwohl, wenn sie sie nicht nutzen können und vernachlässigen echte Beziehungen.

Besonders gefährdet sind dabei Menschen, die einsam sind oder unzufrieden mit ihrer Arbeit. Sie suchen in KI-Tools eine Zuflucht vor der Realität. Die KI urteilt nicht, ist immer verfügbar und gibt stets eine Rückmeldung. Das kann zu einer parasozialen Beziehung führen – einer einseitigen, emotionalen Bindung an eine künstliche Entität.

Produktiv bleiben in der KI-Ära

Die Lösung liegt nicht darin, KI-Tools komplett zu meiden. Die Technologie bietet enormes Potenzial für Produktivität und Kreativität. Das Problem liegt in der Art, wie wir sie nutzen. Mit der richtigen Strategie können Sie die Vorteile genießen, ohne in die Zeit- und Kostenfalle zu tappen. Im Folgenden einige Tipps, um das umzusetzen:

Setzen Sie sich klare Grenzen. Entscheiden Sie im Voraus, wie viel Zeit und Geld Sie für KI-Experimente ausgeben wollen. Behandeln Sie es wie ein Hobby-Budget – mit festen Limits, die Sie nicht überschreiten.

Unterscheiden Sie zwischen produktiver Nutzung und Prokrastination. Fragen Sie sich vor jeder KI-Session: “Löse ich damit ein konkretes Problem, oder experimentiere ich nur aus Neugier?” Wenn Sie kein klares Ziel haben, lassen Sie es bleiben.

Planen Sie feste Zeiten für KI-Experimente ein – zum Beispiel eine Stunde am Freitagnachmittag. Außerhalb dieser Zeiten sollten KI-Tools tabu sein. Nutzen Sie Timer und Apps, die Ihre Bildschirmzeit begrenzen. Ihr Gehirn braucht Zeit, um die Ergebnisse zu verarbeiten.

Konzentrieren Sie sich auf wenige, bewährte Tools, anstatt ständig neue auszuprobieren. Werden Sie erst zum Experten in einem Tool, bevor Sie das nächste testen. Qualität statt Quantität ist der Schlüssel.

Messen Sie den tatsächlichen Nutzen. Führen Sie ein Logbuch über Zeit- und Geldaufwand für KI-Tools. Dokumentieren Sie, welche konkreten Ergebnisse Sie damit erzielt haben. Sie werden überrascht sein, wie oft das Kosten-Nutzen-Verhältnis negativ ist.

Für Unternehmen empfiehlt sich eine zentrale KI-Strategie. Anstatt jeden Mitarbeitenden wild experimentieren zu lassen, sollten wenige Experten neue Tools evaluieren und bewährte Lösungen für das ganze Team bereitstellen. Das spart Zeit, Geld und verhindert Chaos.

Lernen Sie auch, mit mittelmäßigen Ergebnissen zufrieden zu sein. Nicht jedes KI-Ergebnis muss perfekt sein. Oft ist “gut genug” wirklich gut genug. Perfektionismus ist ein Treiber für exzessive Nutzung. Akzeptieren Sie, dass KI-Tools Werkzeuge sind, keine Wundermaschinen.

Diversifizieren Sie Ihre Fähigkeiten. Verlassen Sie sich nicht nur auf KI für Kreativität oder Problemlösung. Nutzen Sie auch traditionelle Methoden. Zeichnen Sie mit Stift und Papier. Schreiben Sie ohne KI-Hilfe. Lösen Sie Probleme im Gespräch mit echten Menschen. Das schärft Ihre Skills und reduziert die Abhängigkeit.

Besonders bei Chatbots sollten Sie vorsichtig sein. Behandeln Sie sie als Werkzeuge, nicht als „Freunde“. Erzählen Sie Bots keine intimen Details. Suchen Sie bei emotionalen Problemen Hilfe bei echten Menschen – Freunden, Familie oder Therapeuten. KI kann informieren und inspirieren, aber sie kann keine echten Beziehungen ersetzen.

KI-Tools sind gekommen, um zu bleiben. Die Zukunft gehört denen, die KI intelligent einsetzen können. Das bedeutet nicht, möglichst viel Zeit mit den Tools zu verbringen, sondern sie zur richtigen Zeit für die richtigen Zwecke zu nutzen. Qualität statt Quantität, Strategie statt Chaos, Produktivität statt Prokrastination – das sind die Schlüssel für erfolgreichen KI-Einsatz. (mb)

Wie KI-Tools zur Zeit- und Kostenfalle werden (können)​ Weiterlesen »

14 KI-Algorithmen, die Sie kennen sollten​

Allgemein

Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein. Foto: ArtHead – shutterstock.com Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen? Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab, welches Problem Sie lösen möchten, wie viele Rechenressourcen zur Verfügung stehen, und welche Art von Daten vorliegt. Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet. Beliebte Machine-Learning-Algorithmen Linear regression Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht. Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort. Gradient descent Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern. Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam). Logistic regression Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist. Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen. Support vector machines Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear. Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”). Decision tree Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden. Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting. Random forest Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble. XGBoost eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat. Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen. K-means clustering K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet. Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden. K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist. Principal component analysis Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln. Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt. Beliebte Deep-Learning-Algorithmen Convolutional neural networks Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein. Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind. Recurrent neural networks Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen. Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter: Übersetzungen, Spracherkennung und -synthese, Bot-Steuerung, Time Series Prediction, Anomalieerkennung oder Handschrifterkennung. Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt. Long short-term memory Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser. Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen. Transformers Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google. Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA). Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen. Q-learning Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung. Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 KI-Algorithmen, die Sie kennen sollten​ Diese Machine- und Deep-Learning-Algorithmen sollten Ihnen geläufig sein.
Foto: ArtHead – shutterstock.com

Bei all der Hysterie um ChatGPT, Gemini, Claude und Co., lohnt es sich, einen Schritt zurückzutreten, um sich die ganze Bandbreite der KI-Algorithmen und ihre Anwendungsfälle zu verdeutlichen. Schließlich lösen viele “traditionelle” Machine-Learning-Algorithmen schon seit Jahrzehnten diverse bedeutende Probleme – und zwar erfolgreich. Warum sollten also lediglich Large Language Models (LLMs) im Rampenlicht stehen?

Machine Learning (ML) ist eine Klasse von Methoden, um automatisiert Prognosemodelle aus Daten zu erstellen. ML-Algorithmen sind dabei der Motor: Sie “verwandeln” einen Datensatz in ein Modell. Welche Art von Algorithmus sich dabei am besten eignet, hängt davon ab,

welches Problem Sie lösen möchten,

wie viele Rechenressourcen zur Verfügung stehen, und

welche Art von Daten vorliegt.

Nachfolgend stellen wir Ihnen 14 der am häufigsten verwendeten Algorithmen für Machine- und Deep Learning vor – und erklären Ihnen, wie diese jeweils unter anderem mit Vorhersagemodellen, Klassifikation, Bild- und Sprachverarbeitung sowie Generative AI zusammenhängen. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollständigkeit – die Algorithmen sind (grob) aufsteigend nach Komplexität geordnet.

Beliebte Machine-Learning-Algorithmen

Linear regression

Die lineare Regression ist der simpelste (supervised) Algorithmus für maschinelles Lernen, um numerische Werte vorherzusagen. In einigen Fällen ist für die lineare Regression nicht einmal ein Optimizer erforderlich, da sie in geschlossener Form lösbar ist. Anderenfalls lässt sie sich einfach durch Gradientenabstieg (dazu später mehr) optimieren. Der Ausgangspunkt bei der linearen Regression: Die Zielfunktion korreliert linear mit den unabhängigen Variablen. Das kann für Ihre Daten zutreffen, muss es aber nicht.

Zur Verzweiflung von Datenwissenschaftlern wenden Business-Analysten lineare Regression oft unbedarft auf Prediction-Probleme an und hören dann auf, ohne Streudiagramme zu erstellen oder Korrelationen zu berechnen. Somit überprüfen sie nicht, ob die zugrundeliegende Annahme überhaupt vernünftig ist. Tappen Sie nicht in diese Falle. Es ist gar nicht so schwer, eine explorative Datenanalyse durchzuführen und dann den Computer alle sinnvollen Machine-Learning-Algorithmen ausprobieren zu lassen, um zu sehen, welche am besten funktionieren. Versuchen Sie es auf jeden Fall mit einer linearen Regression, aber betrachten Sie das Ergebnis eher als Grundlage, denn als abschließende Antwort.

Gradient descent

Optimierungsmethoden für maschinelles Lernen – einschließlich neuronaler Netze – verwenden in der Regel eine Form von Gradientenabstiegs-Algorithmus, um die Back Propagation zu steuern.

Dabei kommt oft ein Mechanismus zum Einsatz, der verhindert, dass man in lokalen Minima stecken bleibt, etwa der Optimierung zufällig ausgewählter Mini-Batches und die Anwendung von Impulskorrekturen auf den Gradienten. Einige Optimierungsalgorithmen passen auch die Lernraten der Modellparameter an, indem sie den Verlauf des Gradienten betrachten (AdaGrad, RMSProp oder Adam).

Logistic regression

Klassifizierungsalgorithmen können Lösungen für Probleme im Bereich Supervised Learning finden, bei denen eine Auswahl (oder Wahrscheinlichkeitsbestimmung) zwischen zwei oder mehr Klassen erforderlich ist.

Die logistische Regression ist eine Methode, um kategorische Klassifizierungsprobleme zu lösen, bei denen eine lineare Regression innerhalb einer Sigmoid– oder Logit-Funktion verwendet wird. Das komprimiert die Werte auf einen Bereich von 0 bis 1 und gibt eine Wahrscheinlichkeit aus. Ähnlich wie die lineare Regression für numerische Vorhersagen bildet die logistische Regression einen guten Startpunkt für kategorische Vorhersagen.

Support vector machines

Support vector machines (SVMs) sind eine Art parametrisches Klassifizierungsmodell – eine geometrische Methode, um zwei Label-Klassen zu trennen und zu klassifizieren. Im einfachsten Fall (gut getrennten Klassen mit zwei Variablen) finden SVMs die gerade Linie, die die beiden Gruppen auf einer Ebene am besten trennt. In komplizierteren Fällen können die Punkte in einen höherdimensionalen Raum projiziert werden, und die SVM findet die Ebene oder Hyperebene, die die Klassen am besten voneinander trennt. Die Projektion wird als Kernel bezeichnet – der Prozess als Kernel-Trick. Nach der Umkehrung der Projektion ist die resultierende Grenze oft nichtlinear.

Wenn es mehr als zwei Klassen gibt, werden SVMs paarweise auf die Klassen angewendet. Wenn sich die Klassen überschneiden, können Sie einen Penalty Factor für falsch klassifizierte Punkte hinzufügen (“soft margin”).

Decision tree

Decision trees (DTs) oder Entscheidungsbäume sind eine nichtparametrische, überwachte Lernmethode, die sowohl für Klassifizierung als auch für Regression geeignet ist. Das Ziel: Ein Modell zu erstellen, das den Wert einer Zielvariablen vorhersagt, indem es einfache Entscheidungsregeln erlernt, die aus den Datenmerkmalen abgeleitet werden. Ein DT kann als eine stückweise konstante Annäherung betrachtet werden.

Entscheidungsbäume sind einfach zu interpretieren und kostengünstig in der Anwendung. Sie ziehen allerdings rechenintensive Trainingsprozesse nach sich und sind anfällig für Overfitting.

Random forest

Das Random-Forest-Modell erzeugt ein Ensemble von zufälligen DTs und wird ebenfalls sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet. Das aggregierte Ensemble kombiniert die Votes entweder modal oder mittelt die Wahrscheinlichkeiten der Entscheidungsbäume. Random Forest ist eine Art von Bagging-Ensemble.

XGBoost

eXtreme Gradient Boosting ist ein skalierbares, durchgängiges Tree-Boosting-System, das bereits bei diversen ML-Herausforderungen hervorragende Ergebnisse erzielt hat.

Bagging und Boosting werden oft in einem Atemzug genannt. Der Unterschied besteht darin, dass Gradient Tree Boosting mit einem einzigen Entscheidungs- oder Regressionsbaum beginnt, diesen optimiert und dann den nächsten Baum aus den Überresten des ersten DT erstellt, statt ein Ensemble von randomisierten Trees zu erzeugen.

K-means clustering

K-means clustering versucht, n Beobachtungen unter Verwendung der euklidischen Abstandsmetrik in k Cluster zu unterteilen. Das Ziel ist es, die Varianz (Summe der Quadrate) innerhalb jedes Clusters zu minimieren. Es handelt sich um eine nicht überwachte Methode der Vektorquantisierung, die nützlich ist um Merkmale zu lernen und sich gut als Ausgangspunkt für andere Algorithmen eignet.

Lloyds Algorithm ist die am häufigsten verwendete Heuristik zur Lösung des Problems. Er ist relativ effizient, bietet aber keine Garantie für globale Konvergenz. Um das zu optimieren, wird der Algorithmus oft mehrmals mit zufälligen anfänglichen Clusterschwerpunkten ausgeführt, die mit der Forgy- oder anderen zufälligen Partitionierungsmethoden erzeugt werden.

K-means geht von kugelförmigen Clustern aus, die trennbar sind, so dass der Mittelwert gegen das Clusterzentrum konvergiert. Zudem geht der Algorithmus davon aus, dass die Reihenfolge der Datenpunkte keine Rolle spielt. Der Hintergrund: Es wird davon ausgegangen, dass die Cluster eine ähnliche Größe haben, so dass die Zuordnung zum nächstgelegenen Clusterzentrum korrekt ist.

Principal component analysis

Die Principal component analysis (PCA, auch Hauptkomponentenanalyse) ist ein statistisches Verfahren, das orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter numerischer Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln.

Die PCA kann durch Eigenwertzerlegung einer Datenkovarianzmatrix (oder Korrelationsmatrix) oder durch Singulärwertzerlegung (SVD) einer Datenmatrix durchgeführt werden – in der Regel nach einem auf die Ausgangsdaten angewandten Normalisierungsschritt.

Beliebte Deep-Learning-Algorithmen

Convolutional neural networks

Convolutional Neural Networks (CNNs) kommen häufig für Machine Vision zum Einsatz und bringen die erstrebenswerte Eigenschaft mit, positionsunabhängig zu sein.

Wenn ein Convolutional Layer auf Bilder angewendet wird, “gleitet” dieser (verständlich zusammengefasst) über das Bild und berechnet Dot Products (Skalarprodukte). Dabei teilt sich jede Unit im Layer ein Set von Weights. Ein CNN verwendet in der Regel mehrere Convolutional Layer, die mit Aktivierungsfunktionen durchsetzt sind. CNNs können auch Layer aufweisen, die verknüpft oder in Pools zusammengefasst sind.

Recurrent neural networks

Rekurrente neuronale Netze (RNNs) eignen sich zwar gut für die Bildanalyse, verfügen aber nicht wirklich über einen Mechanismus, der Zeitreihen und Sequenzen berücksichtigt, da es sich um reine Feed-Forward-Netze handelt. RNNs enthalten explizite Feedback-Loops, die ihnen ein “Gedächtnis” verleihen und zeitlich dynamisches Handeln ermöglichen.

Das heißt nicht, dass CNNs für Natural Language Processing nutzlos sind, sondern vielmehr, dass RNNs zeitbasierte Informationen modellieren können, die CNNs entgehen. Und es bedeutet auch nicht, dass RNNs nur Sequenzen verarbeiten können: RNNs und ihre Derivate haben eine Vielzahl von Anwendungsgebieten, darunter:

Übersetzungen,

Spracherkennung und -synthese,

Bot-Steuerung,

Time Series Prediction,

Anomalieerkennung oder

Handschrifterkennung.

Ein gewöhnliches RNN kann theoretisch Informationen über eine unbestimmte Anzahl von Schritten übertragen. In der Praxis ist das im Allgemeinen nicht möglich, ohne dabei den Kontext zu verlieren. Eine Ursache für dieses Problem: Der Gradient des Netzes neigt dazu, über viele Schritte zu verschwinden, was die Konvergenz eines gradientenbasierten Optimizers wie dem stochastischen Gradientenabstieg (SGD) beeinträchtigt.

Long short-term memory

Long-short-term-memory (LSTM)-Netze wurden entwickelt, um das Problem des verschwindenden Gradienten zu umgehen und langfristige Abhängigkeiten zu berücksichtigen. Das Design eines LSTM ist im Vergleich zum Zelldesign eines RNN etwas komplexer, funktioniert aber bei langen Sequenzen deutlich besser.

Bei LSTMs kann das Netz sowohl frühere Informationen vergessen (Gating) als auch erinnern – in beiden Fällen funktioniert das, indem die Weights verändert werden. Dadurch erhält ein LSTM sowohl ein Langzeit- als auch ein Kurzzeitgedächtnis und löst das Problem des verschwindenden Gradienten. LSTMs können mit Sequenzen von Hunderten historischer Eingaben umgehen.

Transformers

Transformers sind neuronale Netze, die ausschließlich Attention-Mechanismen verwenden und auf Rekurrenz und Faltung völlig verzichten. Erfunden wurden sie bei Google.

Attention Units (und Transformatoren) sind Teil von Googles BERT– (.pdf) und OpenAIs GPT-2-Algorithmus (Transformatormodell mit unbeaufsichtigtem Pre-Training) für die Verarbeitung natürlicher Sprache. Transformatoren sind weiterhin integraler Bestandteil der neuronalen Architektur der neuesten großen Sprachmodelle wie ChatGPT/Bing Chat (basierend auf GPT-3.5 oder GPT-4) und Bard (basierend auf LaMDA).

Attention Units reagieren im Gegensatz zu RNNs nicht sehr empfindlich darauf, wie nahe zwei Wörter in einem Satz beieinander liegen. Deswegen eignen sie sich gut für Tasks, die RNNs weniger gut erledigen – etwa, Antezedenten von Pronomen zu identifizieren, die von den Referentenpronomen durch mehrere Sätze getrennt sein können. Anders ausgedrückt: Attention Units sind gut darin, einen größeren Kontext zu betrachten – statt nur die letzten paar Wörter, die dem aktuellen Wort vorausgehen.

Q-learning

Q-learning ist ein modellfreier, Value-basierter Algorithmus für Reinforcement Learning, der die beste Aktionsfolge gemessen am aktuellen Zustand findet. Das “Q” in der Nomenklatur steht für Qualität. Die gibt an, wie wertvoll die Aktion für die Maximierung zukünftiger Belohnungen ist. Q-Learning ist also im Wesentlichen Lernen durch Erfahrung.

Q-Learning wird häufig mit neuronalen Netzen kombiniert. Es wird zum Beispiel mit Convolutional Neural Networks verwendet, um bestimmte Features aus Videoeinzelbildern zu extrahieren. In der Praxis kann das zum Beispiel dazu beitragen, einem Rechner Videospiele oder die Steuerung von Robotern beizubringen. AlphaGo und AlphaZero sind berühmte erfolgreiche Programme von Google DeepMind, die mit Reinforcement Learning und neuronalen Netzen trainiert wurden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 KI-Algorithmen, die Sie kennen sollten​ Weiterlesen »

Was ist LangChain?​

Allgemein

LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen. Foto: Idea99 – shutterstock.com Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln. Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise: Chatbots oder persönliche Assistenten erstellen, Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren, Code schreiben und besser verstehen, oder mit APIs interagieren. Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten. Wie LangChain funktioniert LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren. LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen. Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen. Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen. In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen: Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette. Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts). Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen. LangChain besteht aus sechs Modulen: Model I/O (Schnittstelle zu Sprachmodellen), Data Connection (Schnittstelle zu anwendungsspezifischen Daten), Chains (konstruieren Call-Sequenzen), Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen), Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain). Debugging mit LangSmith Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung. LangChain-Anwendungsfälle Zu den Anwendungsfällen für LangChain gehören: Q&As aus Dokumenten zu generieren, strukturierte Daten zu analysieren, mit APIs zu interagieren, Code zu verstehen, Agenten zu simulieren, autonome Agenten zu realisieren, Chatbots umzusetzen, Code zu generieren, Daten zu extrahieren, Graph-Daten zu analysieren, multimodale Outputs zu liefern, Self-Checking, Zusammenfassungen sowie Tagging. LangChain-Integrationen In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt: Callbacks, Chat-Modelle, Document Loader, Document Transformer, LLMs, Message Histories, Retriever, Text-Embedding-Modelle, Agents & Toolkits, Tools und Vector Stores. LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten. LangChain installieren Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren. Die grundlegende, minimale Installation starten Sie mit folgendem Befehl: pip install langchain Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie: pip install langchain[llms] Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl: pip install langchain[all] Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl: pip install ‘langchain[all]’ Um LangChain für JavaScript zu installieren, nutzen Sie: npm (npm install -S langchain), Yarn (yarn add langchain) oder pnpm (pnpm add langchain). Sie können LangChain für JavaScript verwenden mit: Node.js, Cloudflare Workers, Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen), Supabase Edge Functions, Webbrowsern und Deno. Weiterführende Informationen zu LangChain für JavaScript finden Sie hier. LangChain-Beispiel Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen. from langchain.chat_models import ChatOpenAI from langchain.prompts.chat import ( ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate, ) from langchain.chains import LLMChain from langchain.schema import BaseOutputParser class CommaSeparatedListOutputParser(BaseOutputParser): “””Parse the output of an LLM call to a comma-separated list.””” def parse(self, text: str): “””Parse the output of an LLM call.””” return text.strip().split(“, “) template = “””You are a helpful assistant who generates comma separated lists. A user will pass in a category, and you should generate 5 objects in that category in a comma separated list. ONLY return a comma separated list, and nothing more.””” system_message_prompt = SystemMessagePromptTemplate.from_template(template) human_template = “{text}” human_message_prompt = HumanMessagePromptTemplate.from_template(human_template) chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) chain = LLMChain( llm=ChatOpenAI(), prompt=chat_prompt, output_parser=CommaSeparatedListOutputParser() ) chain.run(“colors”) # >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’] Die LangChain Expression Language (LCEL) Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren. LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt: chain = prompt | model In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben: from langchain.prompts import ChatPromptTemplate from langchain.chat_models import ChatOpenAI model = ChatOpenAI() prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”) chain = prompt | model chain.invoke({“foo”: “bears”}) Der Output (wie auf der Website angegeben) sieht folgendermaßen aus: AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist LangChain?​ LangChain erleichtert es, Applikationen auf Sprachmodellbasis zu erstellen. Das sollten Sie über das Open-Source-Framework wissen.
Foto: Idea99 – shutterstock.com

Auch wenn es eine eigene Kunstform darstellt, effektive Prompts für sie zu erstellen: Large Language Models (LLMs; auch große Sprachmodelle) sind im Allgemeinen einfach zu verwenden. Mit LLMs zu programmieren, kann hingegen eine echte Herausforderung darstellen. An dieser Stelle kommt LangChain ins Spiel – ein quelloffenes Framework, um LLM-basierte Applikationen zu entwickeln.

Mit Hilfe dieses Rahmenwerks können Entwickler beispielsweise:

Chatbots oder persönliche Assistenten erstellen,

Dokumente oder strukturierte Daten zusammenfassen, respektive analysieren,

Code schreiben und besser verstehen, oder

mit APIs interagieren.

Derzeit gibt es zwei Versionen von LangChain – eine für Python und eine für TypeScript/JavaScript. In diesem Artikel lesen Sie, wie LangChain funktioniert und integriert, wie Sie das Framework installieren und was Sie sonst noch zum Thema wissen sollten.

Wie LangChain funktioniert

LangChain ermöglicht es Sprachmodellen, sich mit Datenquellen zu verbinden und mit ihrer Umgebung zu interagieren.

LangChain-Komponenten sind modulare Abstraktionen und Sammlungen von Implementierungen dieser Abstraktionen.

Off-the-Shelf-Ketten (-Chains) sind strukturierte Zusammenstellungen von Komponenten, um bestimmte übergeordnete Tasks zu erfüllen.

Sie können Komponenten verwenden, um bestehende Ketten anzupassen und um neue Chains zu erstellen.

In diesem Zusammenhang gibt es außerdem zwei Arten von Sprachmodellen:

Bei Large Language Models bestehen Input und Output jeweils aus einer Zeichenkette.

Bei Chat-Modellen dient eine Liste von Nachrichten als Input und eine Chat-Nachricht als Output. Letztere enthalten wiederum zwei Komponenten – Inhalt und Rolle (gibt Auskunft über die Quelle des Inhalts).

Im Allgemeinen verwenden Sprachmodelle Prompt-Templates für ihre Inputs. Damit lässt sich definieren, welche Aufgabe ein Sprach- oder Chatmodell übernehmen soll – etwa die des Assistenten, der Englisch in Französisch übersetzt. Die Templates lassen sich darüber hinaus auch auf viele verschiedene Inhaltsinstanzen anwenden – etwa einer Liste von Sätzen, die übersetzt werden sollen.

LangChain besteht aus sechs Modulen:

Model I/O (Schnittstelle zu Sprachmodellen),

Data Connection (Schnittstelle zu anwendungsspezifischen Daten),

Chains (konstruieren Call-Sequenzen),

Agents (ermöglichen den Chains, die zu verwendenden Tools anhand von High-Level-Direktiven auszuwählen),

Memory (bewahrt den Anwendungsstatus zwischen den “Chain Runs”) und

Callbacks (protokollieren und streamen die Zwischenschritte einer jeden Chain).

Debugging mit LangSmith

Geht es darum, Ihre mit LangChain generierten Applikationen vom Prototypenstatus in die Produktion zu überführen, bietet LangSmith Unterstützung.

LangChain-Anwendungsfälle

Zu den Anwendungsfällen für LangChain gehören:

Q&As aus Dokumenten zu generieren,

strukturierte Daten zu analysieren,

mit APIs zu interagieren,

Code zu verstehen,

Agenten zu simulieren,

autonome Agenten zu realisieren,

Chatbots umzusetzen,

Code zu generieren,

Daten zu extrahieren,

Graph-Daten zu analysieren,

multimodale Outputs zu liefern,

Self-Checking,

Zusammenfassungen sowie

Tagging.

LangChain-Integrationen

In Sachen Integrationen zeigt sich LangChain vielfältig und unterstützt:

Callbacks,

Chat-Modelle,

Document Loader,

Document Transformer,

LLMs,

Message Histories,

Retriever,

Text-Embedding-Modelle,

Agents & Toolkits,

Tools und

Vector Stores.

LangChain fungiert dabei im Wesentlichen als neutraler Knotenpunkt für all diese Fähigkeiten.

LangChain installieren

Um LangChain für Python zu installieren, verwenden Sie pip oder conda. Um Versionskonflikte zu vermeiden, empfiehlt es sich, Python-Packages in virtuellen Umgebungen zu installieren.

Die grundlegende, minimale Installation starten Sie mit folgendem Befehl:

pip install langchain

Nicht enthalten sind dann die Module für Modell-Provider, Data Stores und andere Integrationen. Um LangChain gemeinsam mit den gängigen Sprachmodellen zu installieren, verwenden Sie:

pip install langchain[llms]

Um LangChain inklusive sämtlicher Integrationen zu installieren, lautet der Befehl:

pip install langchain[all]

Wenn Sie zsh verwenden (die Standard-Shell auf neueren Versionen von macOS), sind Ausdrücke mit eckigen Klammern in Anführungszeichen zu setzen. Anderenfalls interpretiert die Shell eckige Klammern als Arrays. Bezogen auf das ebengenannte Beispiel wäre der richtige Befehl:

pip install ‘langchain[all]’

Um LangChain für JavaScript zu installieren, nutzen Sie:

npm (npm install -S langchain),

Yarn (yarn add langchain) oder

pnpm (pnpm add langchain).

Sie können LangChain für JavaScript verwenden mit:

Node.js,

Cloudflare Workers,

Vercel / Next.js (Browser-, Serverless- und Edge-Funktionen),

Supabase Edge Functions,

Webbrowsern und

Deno.

Weiterführende Informationen zu LangChain für JavaScript finden Sie hier.

LangChain-Beispiel

Aus Platzgründen beschränken wir uns in diesem Artikel auf ein Beispiel aus der LangChain-Dokumentation. Folgender Python-Code demonstriert eine LLMChain. Diese Kette nimmt Eingabevariablen und übergibt sie an ein Prompt-Template, um einen Prompt zu erstellen. Der Prompt wird an ein Large Language Model (ChatOpenAI) übergeben und der CSV-Output in einen (optionalen) Output-Parser eingespeist, um ein Python-Array von Strings zu erstellen.

from langchain.chat_models import ChatOpenAI

from langchain.prompts.chat import (

ChatPromptTemplate,

SystemMessagePromptTemplate,

HumanMessagePromptTemplate,

)

from langchain.chains import LLMChain

from langchain.schema import BaseOutputParser

class CommaSeparatedListOutputParser(BaseOutputParser):

“””Parse the output of an LLM call to a comma-separated list.”””

def parse(self, text: str):

“””Parse the output of an LLM call.”””

return text.strip().split(“, “)

template = “””You are a helpful assistant who generates comma separated lists.

A user will pass in a category, and you should generate 5 objects in that category in a comma separated list.

ONLY return a comma separated list, and nothing more.”””

system_message_prompt = SystemMessagePromptTemplate.from_template(template)

human_template = “{text}”

human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chain = LLMChain(

llm=ChatOpenAI(),

prompt=chat_prompt,

output_parser=CommaSeparatedListOutputParser()

)

chain.run(“colors”)

# >> [‘red’, ‘blue’, ‘green’, ‘yellow’, ‘orange’]

Die LangChain Expression Language (LCEL)

Die LangChain Expression Language (LCEL) ist eine deklarative Methode, um Ketten zusammenzustellen und bietet standardmäßig Streaming-, Batch- und Async-Support. LCEL erleichtert es, LangChain zu nutzen und ist im Grunde eine High-Level-Alternative, um Chains in Python oder TypeScript/JavaScript zu erstellen. Um LCEL zu erlernen, können Sie beispielsweise den interaktiven LangChain Teacher nutzen – dazu müssen Sie allerdings zuerst LangChain für Python installieren.

LCEL-Ausdrücke verwenden Pipe-Zeichen (|), um Variablen in Ketten zu verbinden. Eine einfache, allgemeine Chain verwendet zum Beispiel ein Modell und einen Prompt:

chain = prompt | model

In diesem Kontext könnten Sie mit folgendem Python-Programm zu tun haben:

from langchain.prompts import ChatPromptTemplate

from langchain.chat_models import ChatOpenAI

model = ChatOpenAI()

prompt = ChatPromptTemplate.from_template(“tell me a joke about {foo}”)

chain = prompt | model

chain.invoke({“foo”: “bears”})

Der Output (wie auf der Website angegeben) sieht folgendermaßen aus:

AIMessage(content=’Why don’t bears use cell phones? nnBecause they always get terrible “grizzly” reception!’, additional_kwargs={}, example=False)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist LangChain?​ Weiterlesen »

Windows 12 kommt nicht 2025​

Allgemein

Von wegen Dreijahreszyklus bei Windows: Auch 2025 plant Microsoft nur ein Funktions-Update von Windows 11.ARVD73 – shutterstock.com Softwareriese Microsoft hat den Spekulationen über ein baldiges Release von Windows 12 ein vorläufiges Ende gesetzt. Wie das Unternehmen bekannt gab, handelt es sich bei dem für die zweite Jahreshälfte 2025 geplanten Funktions-Update nicht um Windows 12, sondern um Version 25H2 von Windows 11. Teilnehmer des Windows-Insider-Programms können erste Builds von 25H2 ab sofort testen, hieß es. Überschaubare Neuerungen Technisch betrachtet, handelt es sich ohnehin nicht um ein Major Upgrade. Laut Microsoft basieren Version 24H2 und 25H2 von Windows 11 auf dem gleichen Quellcode, lediglich einige zusätzliche Funktionen würden demnach aktiviert. Entsprechend einfach soll das Update vonstattengehen: „Sobald der neue Code fertiggestellt ist, wird er in den monatlichen kumulativen Updates (LCUs) für Windows 11, Version 24H2 in deaktiviertem Zustand mitgeliefert“, erklärt Microsoft. „Der Code bleibt danach so lange deaktiviert, bis das sogenannte eKB-Update (Enablement Package) empfangen wird. Dieses ändert bestimmte Flags im bereits vorhandenen Code von ‚Deaktiviert‘ auf ‚Aktiviert‘ – nach einem Neustart des Geräts sind die neuen Funktionen verfügbar.“ Das gestaltet den Übergang deutlich schneller als bei einem „Betriebssystemtausch“ wie etwa beim Wechsel von Version 23H2 auf 24H2, in dessen Rahmen sämtliche Installationsdateien durch neuere Versionen ersetzt werden mussten. Einmal ausgerollt, verlängert sich der Support bei Rechnern mit Windows 11 Enterprise und Education mit Version 25H2 um weitere 36 Monate. Bei Windows 11 Home, Pro, Pro Education und Pro for Workstation sind es wie üblich 24 Monate. 

Windows 12 kommt nicht 2025​ Von wegen Dreijahreszyklus bei Windows: Auch 2025 plant Microsoft nur ein Funktions-Update von Windows 11.ARVD73 – shutterstock.com

Softwareriese Microsoft hat den Spekulationen über ein baldiges Release von Windows 12 ein vorläufiges Ende gesetzt. Wie das Unternehmen bekannt gab, handelt es sich bei dem für die zweite Jahreshälfte 2025 geplanten Funktions-Update nicht um Windows 12, sondern um Version 25H2 von Windows 11.

Teilnehmer des Windows-Insider-Programms können erste Builds von 25H2 ab sofort testen, hieß es.

Überschaubare Neuerungen

Technisch betrachtet, handelt es sich ohnehin nicht um ein Major Upgrade. Laut Microsoft basieren Version 24H2 und 25H2 von Windows 11 auf dem gleichen Quellcode, lediglich einige zusätzliche Funktionen würden demnach aktiviert.

Entsprechend einfach soll das Update vonstattengehen: „Sobald der neue Code fertiggestellt ist, wird er in den monatlichen kumulativen Updates (LCUs) für Windows 11, Version 24H2 in deaktiviertem Zustand mitgeliefert“, erklärt Microsoft. „Der Code bleibt danach so lange deaktiviert, bis das sogenannte eKB-Update (Enablement Package) empfangen wird. Dieses ändert bestimmte Flags im bereits vorhandenen Code von ‚Deaktiviert‘ auf ‚Aktiviert‘ – nach einem Neustart des Geräts sind die neuen Funktionen verfügbar.“

Das gestaltet den Übergang deutlich schneller als bei einem „Betriebssystemtausch“ wie etwa beim Wechsel von Version 23H2 auf 24H2, in dessen Rahmen sämtliche Installationsdateien durch neuere Versionen ersetzt werden mussten.

Einmal ausgerollt, verlängert sich der Support bei Rechnern mit Windows 11 Enterprise und Education mit Version 25H2 um weitere 36 Monate. Bei Windows 11 Home, Pro, Pro Education und Pro for Workstation sind es wie üblich 24 Monate.

Windows 12 kommt nicht 2025​ Weiterlesen »

Lyon wirft Windows und Office raus​

Allgemein

Statt Microsoft will Lyon verstärkt französische Technologiefirmen stärken.kenzo885/Shutterstock Während sich die meisten Unternehmen in Europa schwertun, ihre Abhängigkeit von Microsoft & Co. zu reduzieren, gibt es im kommunalen Bereich langsam Fortschritte: Nach Dänemark und Schleswig-Holstein reiht sich nun Lyon in die Liste der Abtrünnigen, die künftig mithilfe von Open-Source-Alternativen mehr (Kosten-)Kontrolle über digitale Infrastruktur gewinnen wollen. Die zweitgrößte Metropole Frankreichs hat eine umfassende Transformation ihrer digitalen Infrastruktur angekündigt. Dabei ist geplant, mit Territoire Numérique Ouvert eine kostenlose und interoperable Collaboration-Suite zu nutzen. Gleichzeitig soll schrittweise eine kostenlose Office-Software in den kommunalen Diensten eingeführt werden, die Microsofts Office-Suite ersetzt. Territoire Numérique Ouvert als Teams-Alternative Die gemeinsam mit dem kommunalen IT-Dienstleister SITIV und der Metropole Lyon entwickelte Suite basiert auf Open-Source-Tools, die Videokonferenzen und Büroanwendungen mit gleichzeitiger Bearbeitung ermöglichen. Wie die Stadt betont, wurden dabei sämtliche öffentliche Aufträge an französische Firmen vergeben, mehr als die Hälfte davon an Unternehmen aus der Region Auvergne-Rhône-Alpes. Die Lösung wird in regionalen Rechenzentren betrieben und erhielt von der Agentur für territoriale Köhäsion (Agence nationale de la cohésion des territoires – ANCT) eine Förderung in Höhe von zwei Millionen Euro aus dem France-Relance-Plan. Derzeit sollen bereits mehrere Tausend Mitarbeitende die Lösung nutzen. Quelloffene Microsoft-Alternativen Gleichzeitig ersetzt die Stadt Lyon Microsoft-Software schrittweise durch kostenlose Alternativen, insbesondere OnlyOffice für Office-Anwendungen sowie Linux und PostgreSQL für Systeme und Datenbanken. Ziel des Übergangs ist dabei nicht nur, die technologische Souveränität des öffentlichen Dienstes zu stärken. Vielmehr soll gleichzeitig auch die Lebensdauer der IT-Geräte verlängert und somit deren ökologischer Fußabdruck verringert werden – augenscheinlich ein Hinweis auf die anstehende und bei vielen Rechnern nicht mehr unterstützte Umstellung auf Windows 11. Interessant ist dabei insbesondere die Wahl der Office-Suite: OnlyOffice von Ascensio Systems mit Sitz in Lettland ist eine eigenständige Open-Source-Produktivitätssuite, die in der Cloud bereitgestellt wird. Sie ist unter der GNU Affero General Public License verfügbar. 

Lyon wirft Windows und Office raus​ Statt Microsoft will Lyon verstärkt französische Technologiefirmen stärken.kenzo885/Shutterstock

Während sich die meisten Unternehmen in Europa schwertun, ihre Abhängigkeit von Microsoft & Co. zu reduzieren, gibt es im kommunalen Bereich langsam Fortschritte: Nach Dänemark und Schleswig-Holstein reiht sich nun Lyon in die Liste der Abtrünnigen, die künftig mithilfe von Open-Source-Alternativen mehr (Kosten-)Kontrolle über digitale Infrastruktur gewinnen wollen.

Die zweitgrößte Metropole Frankreichs hat eine umfassende Transformation ihrer digitalen Infrastruktur angekündigt. Dabei ist geplant, mit Territoire Numérique Ouvert eine kostenlose und interoperable Collaboration-Suite zu nutzen. Gleichzeitig soll schrittweise eine kostenlose Office-Software in den kommunalen Diensten eingeführt werden, die Microsofts Office-Suite ersetzt.

Territoire Numérique Ouvert als Teams-Alternative

Die gemeinsam mit dem kommunalen IT-Dienstleister SITIV und der Metropole Lyon entwickelte Suite basiert auf Open-Source-Tools, die Videokonferenzen und Büroanwendungen mit gleichzeitiger Bearbeitung ermöglichen.

Wie die Stadt betont, wurden dabei sämtliche öffentliche Aufträge an französische Firmen vergeben, mehr als die Hälfte davon an Unternehmen aus der Region Auvergne-Rhône-Alpes. Die Lösung wird in regionalen Rechenzentren betrieben und erhielt von der Agentur für territoriale Köhäsion (Agence nationale de la cohésion des territoires – ANCT) eine Förderung in Höhe von zwei Millionen Euro aus dem France-Relance-Plan. Derzeit sollen bereits mehrere Tausend Mitarbeitende die Lösung nutzen.

Quelloffene Microsoft-Alternativen

Gleichzeitig ersetzt die Stadt Lyon Microsoft-Software schrittweise durch kostenlose Alternativen, insbesondere OnlyOffice für Office-Anwendungen sowie Linux und PostgreSQL für Systeme und Datenbanken. Ziel des Übergangs ist dabei nicht nur, die technologische Souveränität des öffentlichen Dienstes zu stärken. Vielmehr soll gleichzeitig auch die Lebensdauer der IT-Geräte verlängert und somit deren ökologischer Fußabdruck verringert werden – augenscheinlich ein Hinweis auf die anstehende und bei vielen Rechnern nicht mehr unterstützte Umstellung auf Windows 11.

Interessant ist dabei insbesondere die Wahl der Office-Suite: OnlyOffice von Ascensio Systems mit Sitz in Lettland ist eine eigenständige Open-Source-Produktivitätssuite, die in der Cloud bereitgestellt wird. Sie ist unter der GNU Affero General Public License verfügbar.

Lyon wirft Windows und Office raus​ Weiterlesen »

Versteckte Preiserhöhungen bei SAP?​

Allgemein

SAP verschiebt mal wieder seine Paketierung und die Lizenzmetriken. Anwenderunterunternehmen sollten genau hinschauen, sonst drohen böse ÜberraschungenSAP SAP (NYSE:SAP) hat die Art und Weise verändert, wie ihre ERP-Software und die damit verbundenen KI-Funktionen lizenziert und abrechnet werden. Für CIOs, die mit knappen IT-Budgets zurechtkommen müssen, bedeutet das mehr Arbeit. Schließlich gilt es mit spitzem Bleistift zu rechnen, inwieweit sich der SAP-Einsatz auch lohnt. SAP hat kürzlich sein Premium-Paket von “Rise with SAP” mit Hosting- und Managed-ERP-Anwendungsservices in “Cloud ERP Private” umbenannt und “Rise with SAP Premium Plus” mit den zusätzlichen Funktionen Green Ledger, KI-Assistent und Lieferantenportal eingestellt. Der deutsche Softwarekonzern verwendet das Label “Rise with SAP” nun allgemeiner, um grundsätzlich den Prozess der Modernisierung seiner On-premises ERP-Software in Richtung Cloud zu beschreiben. Mit dem Rebranding gehen jedoch auch subtilere Änderungen in der Lizenzierung einher. Wer an dieser Stelle nicht genau aufpasst, welche Dienste in welchem Paket enthalten sind beziehungsweise wie zusätzliche Gebühren für die Nutzung von KI-Diensten berechnet werden, kann böse Überraschungen erleben. Neue SAP-Pakete – neue Preise “Mit Cloud ERP Private erhalten Unternehmen im Vergleich zu RISE with SAP Premium fast doppelt so viele gebündelte SKUs (Stock Keeping Units)”, erläutert Mike Tucciarone, VP Analyst bei Gartner. “Es gibt zwar strategische Ergänzungen wie LeanIX, aber es ist wichtig zu wissen, dass einige Funktionen wie SAP Datasphere nicht mehr enthalten sind.” In einer kürzlich veröffentlichten Research Note erläutern Tucciarone und Co-Autor Calum McDonald die Änderungen bei den Paket-Komponenten, der Preisgestaltung und anderen Details, die sich auf die Budgets und Business-Cases der CIOs für Cloud ERP Private auswirken könnten. Die Gartner-Analysten sprechen darin von erheblichen Auswirkungen auf die Verhandlungen für bestehende Paketkunden von RISE with SAP und neue Kunden, die eine Private Cloud ERP-Option wünschen. Sie verweisen auf Modifikationen an bestehenden Paketkomponenten und Berechtigungen, die zuvor im Premium-Paket von RISE with SAP Premium-Paket enthalten gewesen seien. SAP-Kunden zwischen Bundles, Preisstufen und FUEs Mit dem Wegfall des Premium-Plus-Pakets und den darin enthaltenen KI-Assistentenfunktionen ergeben sich weitere Änderungen bei der Art und Weise, wie SAP die KI-Nutzung abrechnet. “Wir haben das Premium Plus-Paket mit eingebetteten KI-Einheiten eingestellt. Diese werden jetzt als Add-on verkauft, und es liegt immer im Ermessen des Kunden, ob er sie kauft”, sagte ein SAP-Sprecher. Diese Entflechtung und der Verlust der KI-Bundles, auf die sich viele Kunden verlassen haben, verdeutlicht ein zentrales Dilemma auf Anbieterseite. Etliche Hersteller haben damit zu kämpfen, das Wertversprechen für ihre in den Produkten enthaltenen KI-Funktionen, zu formulieren und vor allem auch zu belegen. Schließlich lassen sich die Kunden nur so dazu zu bewegen, die zusätzlichen Kosten auch zu bezahlen, die durch die KI-Funktionen entstehen. Lesetipp: SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen Der anfängliche Ansatz von SAP bestand darin, den Zugang zu einigen KI-Funktionen zu bündeln und für diese erweiterte Nutzung Gebühren zu erheben. Später hat der Softwareanbieter die KI-Funktionen einer größeren Zahl von Kunden zugänglich gemacht, und es wurde ein abgestuftes Preissystem eingeführt, bei dem einige Nutzer mehr für den Zugang zahlten als andere. Jetzt wird wieder an diesem Preismodell herumgeschraubt. Grundsätzlich geht es um Änderungen am FUE-Modell (Full User Equivalent ) von SAP. Kunden zahlen pro FUE, wobei eine unterschiedliche Anzahl von Benutzern in verschiedenen Kategorien (Professional, Functional oder Productivity) jeweils ein bestimmtes FUE ausmacht. Heimliche Preiserhöhungen bei SAP? “Leider hat es den Anschein, dass SAP Funktionen, die zuvor einer niedrigeren, günstigeren Lizenzkategorie zugeordnet waren, in die teurere Professional-Lizenz verschiebt”, stellt Scott Bickley, Advisory Fellow bei der Info-Tech Research Group fest. “Dies ist eine heimliche Preiserhöhung, da SAP-Kunden dadurch gezwungen sind, zusätzliche, höherwertige Lizenzen zu erwerben, die exponentiell mehr kosten können, als die günstigeren Funktions- oder Produktivitätslizenzen.” Der SAP-Sprecher räumte ein, dass es bei einigen Funktionen Anpassungen an der FUE gegeben hat, verwies aber auch darauf, dass der Softwareanbieter manche Dinge in preiswertere Stufen verschoben habe. “Wir haben drei Berechtigungseinträge in unserem Regelwerk aktualisiert, was ungewöhnlich ist. In den meisten Fällen stufen wir diese Berechtigungen herab, was den Zugang für eine breiteren Gruppe von Personen ermöglicht. In diesem Fall waren diese Berechtigungen zuvor falsch eingestuft worden. Dies bedeutet jedoch keine direkte Erhöhung oder Senkung der Kosten, da es sich um einen eng begrenzten Funktionszugang handelt und die Benutzer mehrere Berechtigungen haben.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”> Angesichts solcher Änderungen rät Bickley den Anwenderunternehmen: “SAP-Kunden müssen in ihre TCO eine aktive und laufende Überwachung der SAP-Lizenzanforderungen und eine Überprüfung ihrer aktuellen Umgebung einbeziehen, um ihre SAP-Systeme Regel- und Vertragskonform zu betreiben.” SAP drängt Kunden mitzuhalten SAP habe seinen Kunden in der jüngeren Vergangenheit vom Kauf von On-premises-Lizenzen abgeraten, so Bickley, und den Kunden manchmal sogar mitgeteilt, dass diese schlichtweg nicht mehr verfügbar seien. Der Grund: Für SAP geht es vor allem darum, ihre Kunden zur Nutzung von S/4HANA in der Cloud zu bewegen. “SAP verfolgt ein einziges zentrales Ziel”, stellt Bickley klar. “SAP Public Cloud für S/4HANA oder Pleite gehen! Als SAP-Kunde sind Sie entweder an Bord oder Sie werden zurückgelassen”, so der Analyst. “SAP hat bereits damit begonnen, frühe Versionen von S/4HANA Any Premise abzuschaffen, und die Kunden können davon ausgehen, dass sich diese Praxis fortsetzen wird. Dadurch werden diese Kunden gezwungen, auf dem neuesten Stand von S/4HANA zu bleiben oder zu riskieren, den Support zu verlieren. Darüber hinaus sollten SAP-Kunden nicht erwarten, dass den On-premises-Versionen von S/4HANA innovative Funktionen hinzugefügt werden.” Lesetipp: SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung Dennoch gebe es weiterhin On-premises-Deals, beobachtet der Experte der Info-Tech Research Group. Allerdings machten die Rabatte an dieser Stelle nur einen Bruchteil dessen aus, was früher möglich gewesen sei. “Diese Angebote sollen im Vergleich zum Wechsel zu SAP S/4HANA in der Cloud unattraktiv sein. SAP-Kunden, die On-premises-Lizenzen erwerben möchten, sollten auch damit rechnen, dass SAP diese Anfragen nur langsam bearbeitet, da sie für den SAP-Vertrieb die niedrigste Priorität haben und wahrscheinlich nicht auf die Verkaufsquoten angerechnet werden.” Bei SAP will man von diesen Bedenken indes nichts wissen. Es gebe keine Änderungen an der Verfügbarkeit von On-premises-Lizenzen, ließ der deutsche Softwarekonzern wissen. Neue SAP-Regeln: Was CIOs nun tun sollten? Obwohl bestehende RISE with SAP-Kunden ihre Verträge verlängern können, schreiben die Gartner-Analysten in ihrer Research Note: “SAP-Kundenteams könnten einen Anreiz haben, Migrationen auf das Cloud ERP Private Paket zu priorisieren. Der Grund: Investitionen in bestimmte Komponenten wie zum Beispiel das von SAP übernommene LeanIX und die Notwendigkeit, den Investoren eine positive Dynamik zu zeigen.” Tucciarone rät daher: “Das entscheidende Thema für CIOs muss sein, ihr Bewusstsein für das Thema zu schärfen: Viele IT-Leiter treiben ihre Planung, Budgetierung und Verhandlungen voran, ohne zu wissen, dass das klassische RISE with SAP nach Juni 2025 eingestellt wird. Dieser Mangel an Transparenz könnte erhebliche Auswirkungen auf jede Technologie-Roadmap und kommerzielle Vereinbarungen mit SAP haben.” Gartner rät CIOs, sämtliche Komponenten des Cloud ERP Private-Angebots von SAP sorgfältig zu analysieren und von ihren Softwarelieferanten zu verlangen, dass dieser alle Änderungen, die sich auf ihre aktuelle Lösung auswirken werden, detailliert darlegt. Gartner empfiehlt den Unternehmen darüber hinaus, die vorgeschlagenen Rabatte nicht für bare Münze zu nehmen, sondern sie mit externen Quellen genau zu überprüfen. SAP-Lizenzierung gerät zum Balance-Akt “CIOs müssen sich nun schnell über das gesamte Ausmaß der Änderungen informieren – von den neuen Bundles bis hin zu neuen Preisstrukturen und Geschäftsbedingungen wie dem neuen Transformations-Incentive-Modell und dem flexiblen Cloud-Zusatz”, so Tucciarone. “Nur dann können CIOs die Auswirkungen auf ihren Technologie-Stack und ihr Budget genau einschätzen und sicherstellen, dass ihr Unternehmen nicht unvorbereitet erwischt wird.” Es ist ein Balanceakt – und einer, den SAP nicht unbedingt einfacher machen möchte, lautet das Fazit von Bickley. “Die SAP-Lizenzierung fühlt sich an wie eine Welt, in der einem ständig der Teppich unter den Füßen weggezogen wird.” (ba) 

Versteckte Preiserhöhungen bei SAP?​ SAP verschiebt mal wieder seine Paketierung und die Lizenzmetriken. Anwenderunterunternehmen sollten genau hinschauen, sonst drohen böse ÜberraschungenSAP

SAP (NYSE:SAP) hat die Art und Weise verändert, wie ihre ERP-Software und die damit verbundenen KI-Funktionen lizenziert und abrechnet werden. Für CIOs, die mit knappen IT-Budgets zurechtkommen müssen, bedeutet das mehr Arbeit. Schließlich gilt es mit spitzem Bleistift zu rechnen, inwieweit sich der SAP-Einsatz auch lohnt.

SAP hat kürzlich sein Premium-Paket von “Rise with SAP” mit Hosting- und Managed-ERP-Anwendungsservices in “Cloud ERP Private” umbenannt und “Rise with SAP Premium Plus” mit den zusätzlichen Funktionen Green Ledger, KI-Assistent und Lieferantenportal eingestellt. Der deutsche Softwarekonzern verwendet das Label “Rise with SAP” nun allgemeiner, um grundsätzlich den Prozess der Modernisierung seiner On-premises ERP-Software in Richtung Cloud zu beschreiben.

Mit dem Rebranding gehen jedoch auch subtilere Änderungen in der Lizenzierung einher. Wer an dieser Stelle nicht genau aufpasst, welche Dienste in welchem Paket enthalten sind beziehungsweise wie zusätzliche Gebühren für die Nutzung von KI-Diensten berechnet werden, kann böse Überraschungen erleben.

Neue SAP-Pakete – neue Preise

“Mit Cloud ERP Private erhalten Unternehmen im Vergleich zu RISE with SAP Premium fast doppelt so viele gebündelte SKUs (Stock Keeping Units)”, erläutert Mike Tucciarone, VP Analyst bei Gartner. “Es gibt zwar strategische Ergänzungen wie LeanIX, aber es ist wichtig zu wissen, dass einige Funktionen wie SAP Datasphere nicht mehr enthalten sind.”

In einer kürzlich veröffentlichten Research Note erläutern Tucciarone und Co-Autor Calum McDonald die Änderungen bei den Paket-Komponenten, der Preisgestaltung und anderen Details, die sich auf die Budgets und Business-Cases der CIOs für Cloud ERP Private auswirken könnten.

Die Gartner-Analysten sprechen darin von erheblichen Auswirkungen auf die Verhandlungen für bestehende Paketkunden von RISE with SAP und neue Kunden, die eine Private Cloud ERP-Option wünschen. Sie verweisen auf Modifikationen an bestehenden Paketkomponenten und Berechtigungen, die zuvor im Premium-Paket von RISE with SAP Premium-Paket enthalten gewesen seien.

SAP-Kunden zwischen Bundles, Preisstufen und FUEs

Mit dem Wegfall des Premium-Plus-Pakets und den darin enthaltenen KI-Assistentenfunktionen ergeben sich weitere Änderungen bei der Art und Weise, wie SAP die KI-Nutzung abrechnet. “Wir haben das Premium Plus-Paket mit eingebetteten KI-Einheiten eingestellt. Diese werden jetzt als Add-on verkauft, und es liegt immer im Ermessen des Kunden, ob er sie kauft”, sagte ein SAP-Sprecher.

Diese Entflechtung und der Verlust der KI-Bundles, auf die sich viele Kunden verlassen haben, verdeutlicht ein zentrales Dilemma auf Anbieterseite. Etliche Hersteller haben damit zu kämpfen, das Wertversprechen für ihre in den Produkten enthaltenen KI-Funktionen, zu formulieren und vor allem auch zu belegen. Schließlich lassen sich die Kunden nur so dazu zu bewegen, die zusätzlichen Kosten auch zu bezahlen, die durch die KI-Funktionen entstehen.

Lesetipp: SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen

Der anfängliche Ansatz von SAP bestand darin, den Zugang zu einigen KI-Funktionen zu bündeln und für diese erweiterte Nutzung Gebühren zu erheben. Später hat der Softwareanbieter die KI-Funktionen einer größeren Zahl von Kunden zugänglich gemacht, und es wurde ein abgestuftes Preissystem eingeführt, bei dem einige Nutzer mehr für den Zugang zahlten als andere. Jetzt wird wieder an diesem Preismodell herumgeschraubt.

Grundsätzlich geht es um Änderungen am FUE-Modell (Full User Equivalent ) von SAP. Kunden zahlen pro FUE, wobei eine unterschiedliche Anzahl von Benutzern in verschiedenen Kategorien (Professional, Functional oder Productivity) jeweils ein bestimmtes FUE ausmacht.

Heimliche Preiserhöhungen bei SAP?

“Leider hat es den Anschein, dass SAP Funktionen, die zuvor einer niedrigeren, günstigeren Lizenzkategorie zugeordnet waren, in die teurere Professional-Lizenz verschiebt”, stellt Scott Bickley, Advisory Fellow bei der Info-Tech Research Group fest. “Dies ist eine heimliche Preiserhöhung, da SAP-Kunden dadurch gezwungen sind, zusätzliche, höherwertige Lizenzen zu erwerben, die exponentiell mehr kosten können, als die günstigeren Funktions- oder Produktivitätslizenzen.”

Der SAP-Sprecher räumte ein, dass es bei einigen Funktionen Anpassungen an der FUE gegeben hat, verwies aber auch darauf, dass der Softwareanbieter manche Dinge in preiswertere Stufen verschoben habe. “Wir haben drei Berechtigungseinträge in unserem Regelwerk aktualisiert, was ungewöhnlich ist. In den meisten Fällen stufen wir diese Berechtigungen herab, was den Zugang für eine breiteren Gruppe von Personen ermöglicht. In diesem Fall waren diese Berechtigungen zuvor falsch eingestuft worden. Dies bedeutet jedoch keine direkte Erhöhung oder Senkung der Kosten, da es sich um einen eng begrenzten Funktionszugang handelt und die Benutzer mehrere Berechtigungen haben.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”>

Angesichts solcher Änderungen rät Bickley den Anwenderunternehmen: “SAP-Kunden müssen in ihre TCO eine aktive und laufende Überwachung der SAP-Lizenzanforderungen und eine Überprüfung ihrer aktuellen Umgebung einbeziehen, um ihre SAP-Systeme Regel- und Vertragskonform zu betreiben.”

SAP drängt Kunden mitzuhalten

SAP habe seinen Kunden in der jüngeren Vergangenheit vom Kauf von On-premises-Lizenzen abgeraten, so Bickley, und den Kunden manchmal sogar mitgeteilt, dass diese schlichtweg nicht mehr verfügbar seien. Der Grund: Für SAP geht es vor allem darum, ihre Kunden zur Nutzung von S/4HANA in der Cloud zu bewegen.

“SAP verfolgt ein einziges zentrales Ziel”, stellt Bickley klar. “SAP Public Cloud für S/4HANA oder Pleite gehen! Als SAP-Kunde sind Sie entweder an Bord oder Sie werden zurückgelassen”, so der Analyst. “SAP hat bereits damit begonnen, frühe Versionen von S/4HANA Any Premise abzuschaffen, und die Kunden können davon ausgehen, dass sich diese Praxis fortsetzen wird. Dadurch werden diese Kunden gezwungen, auf dem neuesten Stand von S/4HANA zu bleiben oder zu riskieren, den Support zu verlieren. Darüber hinaus sollten SAP-Kunden nicht erwarten, dass den On-premises-Versionen von S/4HANA innovative Funktionen hinzugefügt werden.”

Lesetipp: SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung

Dennoch gebe es weiterhin On-premises-Deals, beobachtet der Experte der Info-Tech Research Group. Allerdings machten die Rabatte an dieser Stelle nur einen Bruchteil dessen aus, was früher möglich gewesen sei. “Diese Angebote sollen im Vergleich zum Wechsel zu SAP S/4HANA in der Cloud unattraktiv sein. SAP-Kunden, die On-premises-Lizenzen erwerben möchten, sollten auch damit rechnen, dass SAP diese Anfragen nur langsam bearbeitet, da sie für den SAP-Vertrieb die niedrigste Priorität haben und wahrscheinlich nicht auf die Verkaufsquoten angerechnet werden.”

Bei SAP will man von diesen Bedenken indes nichts wissen. Es gebe keine Änderungen an der Verfügbarkeit von On-premises-Lizenzen, ließ der deutsche Softwarekonzern wissen.

Neue SAP-Regeln: Was CIOs nun tun sollten?

Obwohl bestehende RISE with SAP-Kunden ihre Verträge verlängern können, schreiben die Gartner-Analysten in ihrer Research Note: “SAP-Kundenteams könnten einen Anreiz haben, Migrationen auf das Cloud ERP Private Paket zu priorisieren. Der Grund: Investitionen in bestimmte Komponenten wie zum Beispiel das von SAP übernommene LeanIX und die Notwendigkeit, den Investoren eine positive Dynamik zu zeigen.”

Tucciarone rät daher: “Das entscheidende Thema für CIOs muss sein, ihr Bewusstsein für das Thema zu schärfen: Viele IT-Leiter treiben ihre Planung, Budgetierung und Verhandlungen voran, ohne zu wissen, dass das klassische RISE with SAP nach Juni 2025 eingestellt wird. Dieser Mangel an Transparenz könnte erhebliche Auswirkungen auf jede Technologie-Roadmap und kommerzielle Vereinbarungen mit SAP haben.”

Gartner rät CIOs, sämtliche Komponenten des Cloud ERP Private-Angebots von SAP sorgfältig zu analysieren und von ihren Softwarelieferanten zu verlangen, dass dieser alle Änderungen, die sich auf ihre aktuelle Lösung auswirken werden, detailliert darlegt. Gartner empfiehlt den Unternehmen darüber hinaus, die vorgeschlagenen Rabatte nicht für bare Münze zu nehmen, sondern sie mit externen Quellen genau zu überprüfen.

SAP-Lizenzierung gerät zum Balance-Akt

“CIOs müssen sich nun schnell über das gesamte Ausmaß der Änderungen informieren – von den neuen Bundles bis hin zu neuen Preisstrukturen und Geschäftsbedingungen wie dem neuen Transformations-Incentive-Modell und dem flexiblen Cloud-Zusatz”, so Tucciarone. “Nur dann können CIOs die Auswirkungen auf ihren Technologie-Stack und ihr Budget genau einschätzen und sicherstellen, dass ihr Unternehmen nicht unvorbereitet erwischt wird.”

Es ist ein Balanceakt – und einer, den SAP nicht unbedingt einfacher machen möchte, lautet das Fazit von Bickley. “Die SAP-Lizenzierung fühlt sich an wie eine Welt, in der einem ständig der Teppich unter den Füßen weggezogen wird.” (ba)

Versteckte Preiserhöhungen bei SAP?​ Weiterlesen »

HPE-Juniper-Deal nimmt wichtige Hürde​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Kauf von Juniper will sich HPE weitere KI-Funktionalitäten für das Netzwerk sichern. T. Schneider / Shutterstock.com Nachdem sich die Unternehmen auf einen Vergleich mit dem US-Justizministerium (Department of Justice; DOJ) geeinigt haben, kann die 14-Milliarden-Dollar-Übernahme von Juniper Networks durch Hewlett Packard Enterprise nun voranschreiten. Die Vereinbarung wurde am 27. Juni beim Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht und muss noch von einem Richter genehmigt werden. Die Einigung sieht außerdem vor, dass das fusionierte Unternehmen HPE-Juniper den Quellcode der Mist-AIOps-Software von Juniper lizenziert und HPEs „Instant On“-Geschäft mit drahtlosen Netzwerken abstößt. Was lange währt…, Im Januar hatte das DOJ Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an HPE zu blockieren. Damals erklärte das Ministerium, der größte Problempunkt der geplanten Übernahme sei der eingeschränkte Wettbewerb auf dem Markt für drahtlose Netzwerke. So seien HPE und Juniper nach dem Marktführer Cisco Systems die zweit- und drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA. Für viele Beobachter dürfte der interessanteste – und möglicherweise verwirrendste – Teil der neuen Einigung die Auflage des DOJ sein, wonach das fusionierte Unternehmen den Quellcode der AIOps-Software von Juniper versteigern muss. Die Einigung stelle sicher, dass wichtige Softwarekomponenten Wettbewerbern zur Verfügung stehen, die gegen das fusionierte Unternehmen antreten wollen, heißt es in einer DOJ-Pressemitteilung vom 28. Juni: „Die Parteien müssen eine Auktion zur Lizenzvergabe des Quellcodes von Junipers Mist AIOps abhalten – eine zentrale Komponente moderner WLAN-Systeme. Die Lizenz wird unbefristet, nicht exklusiv und mit optionalem Übergangs-Support und Personaltransfers versteigert, um den Wettbewerb zu erleichtern.“ Darüber hinaus erklärte das DOJ, dass die Einigung HPE dazu verpflichte, sein Instant-On-Geschäft zu veräußern und kritische Juniper-Software an unabhängige Wettbewerber zu lizenzieren. Konkret müsse HPE sein globales Instant-On-Campus- und -Filial-WLAN-Geschäft, einschließlich aller Assets, geistigen Eigentumsrechte, Mitarbeiter aus Forschung & Entwicklung sowie Kundenkontakte, innerhalb von 180 Tagen an einen vom DOJ genehmigten Käufer veräußern. Instant On richtet sich in erster Linie an kleine und mittlere Unternehmen und bietet laut HPE ein Cloud-basiertes Paket aus kabelgebundenen und drahtlosen Netzwerkgeräten, die sofort einsatzbereit sind und nur minimalen IT-Aufwand nach sich ziehen. In einer Pressemitteilung  reagiert HPE auf die Entscheidung des Gerichts: „Nach Abschluss der Transaktion wird HPE einen begrenzten Zugang zu der fortschrittlichen Mist-AIOps-Technologie von Juniper ermöglichen.“ Gute Miene zum bösen Spiel HPE und Juniper betonten in ihrer Reaktion auf die Einigung die positiven Aspekte. „Unsere Vereinbarung mit dem DOJ ebnet den Weg für den Abschluss der Übernahme von Juniper Networks durch HPE und bewahrt die beabsichtigten Vorteile dieser Transaktion für unsere Kunden und Aktionäre“, erklärt HPE-CEO Antonio Neri in einer schriftlichen Stellungnahme. „Zum ersten Mal haben Kunden nun eine moderne Netzwerkarchitektur-Alternative, die die Anforderungen von KI-Workloads optimal unterstützt“, so Neri weiter. Die Kombination von HPE Aruba Networking und Juniper Networks werde Kunden ein umfassendes Portfolio an sicheren, KI-nativen Netzwerklösungen bieten und HPEs Wachstumsmöglichkeiten in den Bereichen KI-Rechenzentren, Service Provider und Cloud berschleunigen. „Dies ist ein bedeutender Schritt nach vorn, um einem zentralen Kundenbedürfnis gerecht zu werden – einem vollständigen Portfolio moderner, sicherer Netzwerklösungen, das Unternehmen miteinander verbindet und die essenzielle Grundlage für Hybrid-Cloud und KI schafft“, fügt Rami Rahim, CEO von Juniper Networks, hinzu. HPE sichert sich KI-Technologie Seit der Bekanntgabe der Transaktion im Januar 2024 dreht sich ein Großteil der Diskussion in Zusammenhang mit dem Deal um den Zugewinn an KI-Technologie für HPE. „KI erfordert ein modernes Netzwerkfundament – von der Edge bis zur Cloud –, um Daten zu verbinden“, erklärte Neri auf der HPE Discover im November 2024 in Barcelona. Dieses Fundament werde genauso entscheidend sein wie die zugrunde liegende Hardware, wenn es darum geht, das Potenzial und den Wert von KI nutzbar zu machen. „Ein leistungsstarkes Netzwerk-Backbone ist unerlässlich, und wir heben unsere Netzwerkposition jetzt auf ein neues Niveau – eines, das die Branche verändern und unsere Kompetenz in den Bereichen Netzwerke und KI massiv ausbauen wird“, so der HPE-CEO. (mb) 

HPE-Juniper-Deal nimmt wichtige Hürde​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2342536815_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Kauf von Juniper will sich HPE weitere KI-Funktionalitäten für das Netzwerk sichern. T. Schneider / Shutterstock.com

Nachdem sich die Unternehmen auf einen Vergleich mit dem US-Justizministerium (Department of Justice; DOJ) geeinigt haben, kann die 14-Milliarden-Dollar-Übernahme von Juniper Networks durch Hewlett Packard Enterprise nun voranschreiten.

Die Vereinbarung wurde am 27. Juni beim Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht und muss noch von einem Richter genehmigt werden. Die Einigung sieht außerdem vor, dass das fusionierte Unternehmen HPE-Juniper den Quellcode der Mist-AIOps-Software von Juniper lizenziert und HPEs „Instant On“-Geschäft mit drahtlosen Netzwerken abstößt.

Was lange währt…,

Im Januar hatte das DOJ Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an HPE zu blockieren. Damals erklärte das Ministerium, der größte Problempunkt der geplanten Übernahme sei der eingeschränkte Wettbewerb auf dem Markt für drahtlose Netzwerke. So seien HPE und Juniper nach dem Marktführer Cisco Systems die zweit- und drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA.

Für viele Beobachter dürfte der interessanteste – und möglicherweise verwirrendste – Teil der neuen Einigung die Auflage des DOJ sein, wonach das fusionierte Unternehmen den Quellcode der AIOps-Software von Juniper versteigern muss.

Die Einigung stelle sicher, dass wichtige Softwarekomponenten Wettbewerbern zur Verfügung stehen, die gegen das fusionierte Unternehmen antreten wollen, heißt es in einer DOJ-Pressemitteilung vom 28. Juni: „Die Parteien müssen eine Auktion zur Lizenzvergabe des Quellcodes von Junipers Mist AIOps abhalten – eine zentrale Komponente moderner WLAN-Systeme. Die Lizenz wird unbefristet, nicht exklusiv und mit optionalem Übergangs-Support und Personaltransfers versteigert, um den Wettbewerb zu erleichtern.“

Darüber hinaus erklärte das DOJ, dass die Einigung HPE dazu verpflichte, sein Instant-On-Geschäft zu veräußern und kritische Juniper-Software an unabhängige Wettbewerber zu lizenzieren. Konkret müsse HPE sein globales Instant-On-Campus- und -Filial-WLAN-Geschäft, einschließlich aller Assets, geistigen Eigentumsrechte, Mitarbeiter aus Forschung & Entwicklung sowie Kundenkontakte, innerhalb von 180 Tagen an einen vom DOJ genehmigten Käufer veräußern.

Instant On richtet sich in erster Linie an kleine und mittlere Unternehmen und bietet laut HPE ein Cloud-basiertes Paket aus kabelgebundenen und drahtlosen Netzwerkgeräten, die sofort einsatzbereit sind und nur minimalen IT-Aufwand nach sich ziehen.

In einer Pressemitteilung  reagiert HPE auf die Entscheidung des Gerichts: „Nach Abschluss der Transaktion wird HPE einen begrenzten Zugang zu der fortschrittlichen Mist-AIOps-Technologie von Juniper ermöglichen.“

Gute Miene zum bösen Spiel

HPE und Juniper betonten in ihrer Reaktion auf die Einigung die positiven Aspekte. „Unsere Vereinbarung mit dem DOJ ebnet den Weg für den Abschluss der Übernahme von Juniper Networks durch HPE und bewahrt die beabsichtigten Vorteile dieser Transaktion für unsere Kunden und Aktionäre“, erklärt HPE-CEO Antonio Neri in einer schriftlichen Stellungnahme.

„Zum ersten Mal haben Kunden nun eine moderne Netzwerkarchitektur-Alternative, die die Anforderungen von KI-Workloads optimal unterstützt“, so Neri weiter. Die Kombination von HPE Aruba Networking und Juniper Networks werde Kunden ein umfassendes Portfolio an sicheren, KI-nativen Netzwerklösungen bieten und HPEs Wachstumsmöglichkeiten in den Bereichen KI-Rechenzentren, Service Provider und Cloud berschleunigen.

„Dies ist ein bedeutender Schritt nach vorn, um einem zentralen Kundenbedürfnis gerecht zu werden – einem vollständigen Portfolio moderner, sicherer Netzwerklösungen, das Unternehmen miteinander verbindet und die essenzielle Grundlage für Hybrid-Cloud und KI schafft“, fügt Rami Rahim, CEO von Juniper Networks, hinzu.

HPE sichert sich KI-Technologie

Seit der Bekanntgabe der Transaktion im Januar 2024 dreht sich ein Großteil der Diskussion in Zusammenhang mit dem Deal um den Zugewinn an KI-Technologie für HPE.

„KI erfordert ein modernes Netzwerkfundament – von der Edge bis zur Cloud –, um Daten zu verbinden“, erklärte Neri auf der HPE Discover im November 2024 in Barcelona. Dieses Fundament werde genauso entscheidend sein wie die zugrunde liegende Hardware, wenn es darum geht, das Potenzial und den Wert von KI nutzbar zu machen.

„Ein leistungsstarkes Netzwerk-Backbone ist unerlässlich, und wir heben unsere Netzwerkposition jetzt auf ein neues Niveau – eines, das die Branche verändern und unsere Kompetenz in den Bereichen Netzwerke und KI massiv ausbauen wird“, so der HPE-CEO. (mb)

HPE-Juniper-Deal nimmt wichtige Hürde​ Weiterlesen »

Apple, Google und Meta agitieren gegen EU AI Act​

Allgemein

loading=”lazy” width=”400px”>Noch ist vieles unsicher rund um den AI Act – wann bestimmte Regeln greifen und wie sie ausgestaltet werden sollen. Die Maschinerie der IT-Lobby läuft auf Hochtouren.Ivan Marc – shutterstock.com Die mächtige IT-Lobbygruppe Computer & Communications Industry Association (CCIA) geht gegen die KI-Regulierung in Europa vor. Anlässlich eines Treffens der europäischen Staats- und Regierungschefs Ende Juni in Brüssel forderten die Lobbyisten des von US-Konzernen dominierten Verbands, dass die Umsetzung des AI Act verschoben werden sollte. Ihre Begründung: Wichtige Bestimmungen des Regelwerks – einschließlich der entscheidenden Regeln für KI-Modelle für allgemeine Zwecke (sogenannte General Purpose Artificial Intelligence, GPAI), die am 2. August in Kraft treten sollen – seien noch immer unzureichend. Vertreter der CCIA meldeten Bedenken an angesichts der Tatsache, dass die Europäische Kommission die Umsetzungsfristen des Gesetzes zu versäumen drohe. Eine überstürzte Einführung des Gesetzes könnte die KI-Ambitionen Europas gefährden, einschließlich der von der EU-Kommission prognostizierten 3,4 Billionen Euro, die der KI-Einsatz der EU-Wirtschaft bis 2030 bringen soll. Tritt Europa auf die KI-Bremse? „Europa kann bei der KI nicht mit einem Fuß auf der Bremse vorangehen“, sagte Daniel Friedlaender, Senior Vice President & Head of Office der CCIA in Europa. „Da wichtige Teile des KI-Gesetzes nur wenige Wochen vor dem Inkrafttreten der Vorschriften noch fehlen, brauchen wir eine Pause, um das Gesetz in Ordnung zu bringen, oder wir riskieren, dass die Innovation gänzlich zum Stillstand kommt.“ Hier lesen Sie alle Hintergrundinformationen zum europäischen AI Act: AI Act verabschiedet: Was Unternehmen zum KI-Gesetz wissen müssen AI Act: Was Unternehmen beachten müssen Hilfe durch den AI-Act-Dschungel EU-AI-Act: Erste KI-Verbote ab Februar Tatsächlich scheint es derzeit noch etliche Unsicherheiten rund um die KI-Regulierung in Europa zu geben. Der schwedische Premierminister Ulf Kristersson nannte die Regeln zuletzt verwirrend, berichtete die Nachrichtenagentur Reuters. Und laut einer Umfrage des US-amerikanischen Cloud-Anbieters AWS hätten zwei Drittel der europäischen Unternehmen nach wie vor nicht verstanden, inwieweit sie im Zuge des AI Act verantwortlich für die KI-Nutzung in ihren Organisationen seien. Deutscher Digitalminister offen für Fristverlängerung Auch Karsten Wildberger, der neue Digitalminister für Deutschland, scheint eigenen Angaben offen dafür zu sein, eine Verlängerung der Durchführungsfristen für den AI Act zu prüfen. Fehlten Vorgaben, Normen und technische Standards, so bräuchten Unternehmen mehr Zeit, sich darauf vorzubereiten, sagte der Minister bei einem Treffen der europäischen Kommunikations- und Digitalminister Anfang Juni in Luxemburg. Deutschlands neuer Digitalminister Karsten Wildbergerschließt Verzögerungen bei der Einführung der nächsten AI-Act-Stufen nicht mehr aus.Juergen Nowak – shutterstock.com Andere Länder gehen sogar noch weiter. Wildbergers Kollegin aus Dänemark, Caroline Stage Olson, forderte sogar, sämtliche Regeln für den digitalen Raum in Europa zu reformieren, einschließlich der Datenschutzgrundverordnung (DSGVO). IT-Lobby warnt vor immensen Risiken einer Umsetzung des KI-Gesetzes Die Diskussionen dürften Wasser auf den Mühlen der IT-Lobby sein. Man schließe sich den Appellen verschiedener nationaler Regierungen und Mitglieder des Europäischen Parlaments an, hieß es von Seiten der CCIA. Der Lobbyverband forderte die Staats- und Regierungschefs der EU auf, „die immensen Risiken einer Umsetzung des KI-Gesetzes ohne einen endgültigen Rahmen anzuerkennen“. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> Die Staats- und Regierungschefs der EU müssten jetzt handeln und die Kommission anweisen, ihren unrealistischen Zeitplan anzupassen, um eine reibungslose und effektive Umsetzung des KI-Gesetzes zu gewährleisten, so die CCAI-Vertreter. „Eine mutige „Stop-the-clock“-Intervention ist dringend erforderlich, um KI-Entwicklern und -Einführern Rechtssicherheit zu geben, solange die notwendigen Standards nicht verfügbar sind oder sich verzögern.“ 

Apple, Google und Meta agitieren gegen EU AI Act​ loading=”lazy” width=”400px”>Noch ist vieles unsicher rund um den AI Act – wann bestimmte Regeln greifen und wie sie ausgestaltet werden sollen. Die Maschinerie der IT-Lobby läuft auf Hochtouren.Ivan Marc – shutterstock.com

Die mächtige IT-Lobbygruppe Computer & Communications Industry Association (CCIA) geht gegen die KI-Regulierung in Europa vor. Anlässlich eines Treffens der europäischen Staats- und Regierungschefs Ende Juni in Brüssel forderten die Lobbyisten des von US-Konzernen dominierten Verbands, dass die Umsetzung des AI Act verschoben werden sollte. Ihre Begründung: Wichtige Bestimmungen des Regelwerks – einschließlich der entscheidenden Regeln für KI-Modelle für allgemeine Zwecke (sogenannte General Purpose Artificial Intelligence, GPAI), die am 2. August in Kraft treten sollen – seien noch immer unzureichend.

Vertreter der CCIA meldeten Bedenken an angesichts der Tatsache, dass die Europäische Kommission die Umsetzungsfristen des Gesetzes zu versäumen drohe. Eine überstürzte Einführung des Gesetzes könnte die KI-Ambitionen Europas gefährden, einschließlich der von der EU-Kommission prognostizierten 3,4 Billionen Euro, die der KI-Einsatz der EU-Wirtschaft bis 2030 bringen soll.

Tritt Europa auf die KI-Bremse?

„Europa kann bei der KI nicht mit einem Fuß auf der Bremse vorangehen“, sagte Daniel Friedlaender, Senior Vice President & Head of Office der CCIA in Europa. „Da wichtige Teile des KI-Gesetzes nur wenige Wochen vor dem Inkrafttreten der Vorschriften noch fehlen, brauchen wir eine Pause, um das Gesetz in Ordnung zu bringen, oder wir riskieren, dass die Innovation gänzlich zum Stillstand kommt.“

Hier lesen Sie alle Hintergrundinformationen zum europäischen AI Act:

AI Act verabschiedet: Was Unternehmen zum KI-Gesetz wissen müssen

AI Act: Was Unternehmen beachten müssen

Hilfe durch den AI-Act-Dschungel

EU-AI-Act: Erste KI-Verbote ab Februar

Tatsächlich scheint es derzeit noch etliche Unsicherheiten rund um die KI-Regulierung in Europa zu geben. Der schwedische Premierminister Ulf Kristersson nannte die Regeln zuletzt verwirrend, berichtete die Nachrichtenagentur Reuters. Und laut einer Umfrage des US-amerikanischen Cloud-Anbieters AWS hätten zwei Drittel der europäischen Unternehmen nach wie vor nicht verstanden, inwieweit sie im Zuge des AI Act verantwortlich für die KI-Nutzung in ihren Organisationen seien.

Deutscher Digitalminister offen für Fristverlängerung

Auch Karsten Wildberger, der neue Digitalminister für Deutschland, scheint eigenen Angaben offen dafür zu sein, eine Verlängerung der Durchführungsfristen für den AI Act zu prüfen. Fehlten Vorgaben, Normen und technische Standards, so bräuchten Unternehmen mehr Zeit, sich darauf vorzubereiten, sagte der Minister bei einem Treffen der europäischen Kommunikations- und Digitalminister Anfang Juni in Luxemburg.

Deutschlands neuer Digitalminister Karsten Wildbergerschließt Verzögerungen bei der Einführung der nächsten AI-Act-Stufen nicht mehr aus.Juergen Nowak – shutterstock.com

Andere Länder gehen sogar noch weiter. Wildbergers Kollegin aus Dänemark, Caroline Stage Olson, forderte sogar, sämtliche Regeln für den digitalen Raum in Europa zu reformieren, einschließlich der Datenschutzgrundverordnung (DSGVO).

IT-Lobby warnt vor immensen Risiken einer Umsetzung des KI-Gesetzes

Die Diskussionen dürften Wasser auf den Mühlen der IT-Lobby sein. Man schließe sich den Appellen verschiedener nationaler Regierungen und Mitglieder des Europäischen Parlaments an, hieß es von Seiten der CCIA. Der Lobbyverband forderte die Staats- und Regierungschefs der EU auf, „die immensen Risiken einer Umsetzung des KI-Gesetzes ohne einen endgültigen Rahmen anzuerkennen“.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

Die Staats- und Regierungschefs der EU müssten jetzt handeln und die Kommission anweisen, ihren unrealistischen Zeitplan anzupassen, um eine reibungslose und effektive Umsetzung des KI-Gesetzes zu gewährleisten, so die CCAI-Vertreter. „Eine mutige „Stop-the-clock“-Intervention ist dringend erforderlich, um KI-Entwicklern und -Einführern Rechtssicherheit zu geben, solange die notwendigen Standards nicht verfügbar sind oder sich verzögern.“

Apple, Google und Meta agitieren gegen EU AI Act​ Weiterlesen »

Web-Apps mit Astro und Alpine entwickeln​

Allgemein

Astro und Alpine gehen in der Praxis gut zusammen.Dmytro Vietrov | shutterstock.com Softwareentwickler, die ihren Job gerne machen, sind immer offen für funktionale, qualitativ hochwertige Tools, die die Developer Experience bereichern können. Das trifft sowohl auf Astro als auch auf Alpine zu. Während das erstgenannte Framework eine stabile, Server-seitige Plattform bietet, um Web-Applikationen an den Start zu bringen, ist zweitgenanntes eine bevorzugte Option für Frontend-Minimalisten. Kombiniert man die beiden Rahmenwerke, ist das Ergebnis ein schlanker, aber sehr vielseitiger Stack, der einige der besten Features von Astro und Alpine zusammenbringt. In diesem Tutorial entwickeln wir eine Beispiel-Webanwendung, die dieses Zusammenspiel demonstriert. Der Astro-Alpine-Stack im Überblick Astro ist in erster Linie als Meta-Framework bekannt, um Reactive-Frameworks wie React und Svelte zu integrieren. Bei Alpine handelt es sich zwar ebenfalls um ein reaktives Framework, dieses ist aber so schlank designt, dass es in Kombination mit Astro anders funktioniert – in erster Linie, weil es einige Integrations-Formalitäten vermeidet. So bietet Astro bereits eine ganze Reihe von Funktionen, um Server-seitige Komponenten zu definieren. Die klare Syntax von Alpine erleichtert es schließlich, verschiedene Teile einer Anwendung um Interaktivität und API-Calls zu ergänzen. Weil Astro standardmäßig auch ein offizielles Alpine-Plugin enthält, funktioniert die Kombination der beiden Frameworks quasi nahtlos. Lediglich wenn es darum geht, eine Alpine-Komponente mit SSG (Static Site Generation) -Daten aus Astro zu steuern, sind ein paar kleinere Kniffe notwendig. Im Großen und Ganzen ist Astro plus Alpine aber eine sehr gute Idee, wenn Sie etwas entwickeln möchten, das größtenteils auf Astros SSG läuft und für raffiniertere Interaktionen auf Alpine zurückgreift. Der Hauptteil dieses Artikels gliedert sich in drei Entwicklungsebenen – die in aufsteigender Reihenfolge stärker auf Alpine basieren: Ebene 1 dreht sich um reines SSG mit simpler, Client-seitiger Erweiterung. Ebene 2 beschäftigt sich mit dynamischem Server-Side Rendering (SSR) inklusive Client-seitiger Erweiterung. Ebene 3 konzentriert sich auf Client-seitiges Rendering mit API-Aufrufen. Die Beispielanwendung und ihr Layout Um die einzelnen Ebenen und ihre Unterschiede deutlicher herauszuarbeiten, erstellen wir nachfolgend eine fiktive Webanwendung namens “Coast Mountain Adventures”. Die App soll aus drei verschiedenen Seiten bestehen, die die eben dargelegten Entwicklungsebenen repräsentieren: Auf Ebene 1 erstellen wir eine “About”-Seite, die eine einfache Akkordeonansicht mit statischen Inhalten beherbergt. Auf Ebene 2 erstellen wir eine “Gear Shops”-Seite, die lokale Outdoor-Einzelhandelsgeschäfte auflistet. Diese List wird mit Astro generiert und von Alpine gefiltert. Auf Ebene 3 erstellen wir eine “My Adventures”-Seite. Diese nimmt über eine API eine Benutzer-ID entgegen und gibt eine JSON-Antwort mit den Daten des Benutzers zurück, die von Alpine auf dem Client gerendert werden. Um loslegen zu können, müssen Sie zunächst Astro installieren, eine neue Anwendung damit erstellen und die Integration von Alpine starten (für ein einfaches responsives Styling haben wir zudem das Tailwind-Plugin installiert – CSS wird in diesem Tutorial allerdings nicht thematisiert). $ npm create astro@latest — –template minimal $ npx astro add alpinejs $ npx astro add tailwind Unser Framing-Material (das Layout) ist simpel und besteht lediglich aus einem Titel und ein paar Links. Astro fasst diese zusammen und liefert sie ohne JavaScript aus: — import ‘./src/styles/global.css’; — Astro Alpine Coast Mountain Adventures My Adventures Gear Shops About Beachten Sie in diesem Code-Snippet das Element ;: Hier wird Astro die Seiten ablegen, die dieses Layout verwenden (weitere Informationen zu Astro-Layouts finden Sie in der Dokumentation). Astro übernimmt auch das Routing der URLs an die richtigen Dateien auf der Festplatte im Verzeichnis /src/pages. Ebene 1: Die “About”-Seite Unsere “About”-Seite besteht aus drei Abschnitten: einer Haupt- und zwei Untersektionen. Für dieses Tutorial erstellen wir die beiden Unterabschnitte als Akkordeon-Panels, deren Inhalte per Klick ein- oder ausgeblendet werden.  — import Layout from ‘../layouts/Layout.astro’; — About Us We are a consortium of outdoor enthusiasts and locally owned gear shops and exchanges, dedicated to the truth that when nature and people come together, Good Things happen. Our Mission {/* Add the icon span */} ↓ {/* Down arrow character */} To connect people with nature and provide access to quality outdoor gear, experiences and curated resources. Our Values ↓ Community Sustainability Adventure Abgesehen vom Astro-Layout enthält diese Ebene ansonsten nichts Astro-Spezifisches. Es handelt sich lediglich um HTML mit einigen wenigen Alpine-Direktiven, nämlich: x-data (definiert das Datenobjekt für die Alpine-Komponente), x-on:click (definiert einen Onclick-Handler), sowie x-show (blendet das Element konditional ein oder aus). Das ist auch schon alles, was wir für unsere Akkordeons benötigen – plus ein wenig CSS für die Pfeilsymbole. So sieht unsere Seite momentan aus: Matthew Tyson Ebene 2: Die “Gear Shop”-Seite Für unsere “Gear Shop”-Seite möchten wir einen Teil der im Backend verfügbaren Daten so rendern, dass der Client sie filtern kann. Deshalb rendern wir die Daten mit Astro Server-seitig und erstellen eine Alpine-Komponente, die diese verarbeiten kann und dynamische UI-Interaktionen ermöglicht. Doch eins nach dem anderen – zunächst erstellen wir die Seite selbst: — // src/pages/gear-shops.astro import Layout from ‘../layouts/Layout.astro’; import GearShopList from ‘../components/GearShopList.astro’; const gearShops = [ { name: “Adventure Outfitters”, category: “Hiking” }, { name: “Peak Performance Gear”, category: “Climbing” }, { name: “River Rat Rentals”, category: “Kayaking” }, { name: “The Trailhead”, category: “Hiking” }, { name: “Vertical Ventures”, category: “Climbing” } ]; — Local Gear Shops Die Daten befinden sich in der Variablen gearShops. Sie könnten aus einer Datenbank, einer externen API, einem lokalen Dateisystem oder den integrierten Content Collections von Astro stammen. Der Punkt ist: Sie werden auf dem Server produziert. Der Trick besteht nun darin, sie als Live-JSON auf dem Client verfügbar zu machen – wo Alpine sie nutzen kann. Dazu müssen die Daten zunächst auf der shops-Property der GearShopList-Komponente in String-Form gebracht werden. Dadurch kann Astro sie serialisieren, wenn es die Ansicht an den Browser sendet (im Wesentlichen wird JSON.stringify(gearShops) in das HTML-Dokument eingefügt). Ein Blick auf GearShopList: — const { shops, initialCount } = Astro.props; // Receive the ‘shops’ prop if (!shops) { throw new Error(‘GearShopList component requires a “shops” prop that is an array.’); } — All Hiking Climbing () Dieser Code ist relativ selbsterklärend, mit Ausnahme des x-data-Attributs . Der Zweck ist klar: Wir wollen ein JavaScript-Objekt mit einem filter– und einem shops-Feld erstellen, wobei letzteres das Live-JavaScript-Objekt enthält, das wir zuvor auf dem Server erstellt haben. Die zusätzlichen Zeichen sind nötig, um das syntaktisch zu bewerkstelligen. Der Schlüssel, um x-data zu verstehen, ist dabei die {“}-Syntax – geschweifte Klammern mit zwei Backticks –, die zu einem leeren String aufgelöst wird. Soll heißen: Das x-data-Feld ist letztendlich ein String-Literal-Objekt, das die shops-Variable als JSON interpoliert. Alpine verarbeitet all das und wandelt es in ein Live-Objekt um, um die Komponente zu steuern (die Funktionsweise dieses Anwendungsteils lässt sich auch anhand dieser Astro-Alpine-Demo-Anwendung auf GitHub nachvollziehen). Neben dem x-data-Attribut bindet x-model den Auswahlwert an die filter-Variable. Mit x-for können wir über Shops iterieren.   So sieht unsere “Gear Shops”-Seite nun aus: Matthew Tyson Ebene 3: Die “Adventures”-Seite Im Fall der “Adventures”-Seite kommt schließlich Alpine zum Zug. Damit Astro nicht in Sachen SSG tätig wird, ist es an dieser Stelle nötig, seine Pre-Rendering-Funktion zu deaktivieren. — import Layout from ‘../layouts/Layout.astro’; export const prerender = false; // Important: Disable prerendering for this page — My Adventures Loading adventures… {/*… other adventure details… */} Diese Seite demonstriert die Vielseitigkeit und Performanz von Alpine: Das x-data-Attribut enthält sowohl die data-Property (adventures) als auch eine Fetching-Methode (fetchAdventures()). Wird x-init bei der Initialisierung der Komponenten aufgerufen, callt es die fetchAdventures()-Funktion, die wiederum unseren Server aufruft und adventures mit Daten befüllt. Dabei ist alles übersichtlich in einem kleinen Bereich zusammengefasst, in dem Daten, Verhalten und Ansicht logisch miteinander verknüpft sind. Anschließend verwenden wir x-if, um auf Basis von adventures.length entweder eine Loading Message oder die eigentliche Liste anzuzeigen. Die Adventures-API Zu guter Letzt benötigen wir noch einen Backend-Endpunkt, um die Adventures-JSON für diesen Call bereitzustellen: export async function GET() { const adventures = [ { id: 1, title: “Hiking Trip to Mount Hood”, date: “2024-08-15” }, { id: 2, title: “Kayaking Adventure on the Rogue River”, date: “2024-09-22” }, //… more adventures ]; return new Response(JSON.stringify(adventures), { status: 200, headers: { ‘Content-Type’: ‘application/json’ } }); } Ein Blick auf unsere “Adventures”-Seite: Matthew Tyson (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Web-Apps mit Astro und Alpine entwickeln​ Astro und Alpine gehen in der Praxis gut zusammen.Dmytro Vietrov | shutterstock.com

Softwareentwickler, die ihren Job gerne machen, sind immer offen für funktionale, qualitativ hochwertige Tools, die die Developer Experience bereichern können. Das trifft sowohl auf Astro als auch auf Alpine zu. Während das erstgenannte Framework eine stabile, Server-seitige Plattform bietet, um Web-Applikationen an den Start zu bringen, ist zweitgenanntes eine bevorzugte Option für Frontend-Minimalisten.

Kombiniert man die beiden Rahmenwerke, ist das Ergebnis ein schlanker, aber sehr vielseitiger Stack, der einige der besten Features von Astro und Alpine zusammenbringt. In diesem Tutorial entwickeln wir eine Beispiel-Webanwendung, die dieses Zusammenspiel demonstriert.

Der Astro-Alpine-Stack im Überblick

Astro ist in erster Linie als Meta-Framework bekannt, um Reactive-Frameworks wie React und Svelte zu integrieren. Bei Alpine handelt es sich zwar ebenfalls um ein reaktives Framework, dieses ist aber so schlank designt, dass es in Kombination mit Astro anders funktioniert – in erster Linie, weil es einige Integrations-Formalitäten vermeidet. So bietet Astro bereits eine ganze Reihe von Funktionen, um Server-seitige Komponenten zu definieren. Die klare Syntax von Alpine erleichtert es schließlich, verschiedene Teile einer Anwendung um Interaktivität und API-Calls zu ergänzen.

Weil Astro standardmäßig auch ein offizielles Alpine-Plugin enthält, funktioniert die Kombination der beiden Frameworks quasi nahtlos. Lediglich wenn es darum geht, eine Alpine-Komponente mit SSG (Static Site Generation) -Daten aus Astro zu steuern, sind ein paar kleinere Kniffe notwendig. Im Großen und Ganzen ist Astro plus Alpine aber eine sehr gute Idee, wenn Sie etwas entwickeln möchten, das größtenteils auf Astros SSG läuft und für raffiniertere Interaktionen auf Alpine zurückgreift.

Der Hauptteil dieses Artikels gliedert sich in drei Entwicklungsebenen – die in aufsteigender Reihenfolge stärker auf Alpine basieren:

Ebene 1 dreht sich um reines SSG mit simpler, Client-seitiger Erweiterung.

Ebene 2 beschäftigt sich mit dynamischem Server-Side Rendering (SSR) inklusive Client-seitiger Erweiterung.

Ebene 3 konzentriert sich auf Client-seitiges Rendering mit API-Aufrufen.

Die Beispielanwendung und ihr Layout

Um die einzelnen Ebenen und ihre Unterschiede deutlicher herauszuarbeiten, erstellen wir nachfolgend eine fiktive Webanwendung namens “Coast Mountain Adventures”. Die App soll aus drei verschiedenen Seiten bestehen, die die eben dargelegten Entwicklungsebenen repräsentieren:

Auf Ebene 1 erstellen wir eine “About”-Seite, die eine einfache Akkordeonansicht mit statischen Inhalten beherbergt.

Auf Ebene 2 erstellen wir eine “Gear Shops”-Seite, die lokale Outdoor-Einzelhandelsgeschäfte auflistet. Diese List wird mit Astro generiert und von Alpine gefiltert.

Auf Ebene 3 erstellen wir eine “My Adventures”-Seite. Diese nimmt über eine API eine Benutzer-ID entgegen und gibt eine JSON-Antwort mit den Daten des Benutzers zurück, die von Alpine auf dem Client gerendert werden.

Um loslegen zu können, müssen Sie zunächst Astro installieren, eine neue Anwendung damit erstellen und die Integration von Alpine starten (für ein einfaches responsives Styling haben wir zudem das Tailwind-Plugin installiert – CSS wird in diesem Tutorial allerdings nicht thematisiert).

$ npm create astro@latest — –template minimal

$ npx astro add alpinejs

$ npx astro add tailwind

Unser Framing-Material (das Layout) ist simpel und besteht lediglich aus einem Titel und ein paar Links. Astro fasst diese zusammen und liefert sie ohne JavaScript aus:


import ‘./src/styles/global.css’;

Astro Alpine

Coast Mountain Adventures

My Adventures
Gear Shops
About

Beachten Sie in diesem Code-Snippet das Element ;: Hier wird Astro die Seiten ablegen, die dieses Layout verwenden (weitere Informationen zu Astro-Layouts finden Sie in der Dokumentation). Astro übernimmt auch das Routing der URLs an die richtigen Dateien auf der Festplatte im Verzeichnis /src/pages.

Ebene 1: Die “About”-Seite

Unsere “About”-Seite besteht aus drei Abschnitten: einer Haupt- und zwei Untersektionen. Für dieses Tutorial erstellen wir die beiden Unterabschnitte als Akkordeon-Panels, deren Inhalte per Klick ein- oder ausgeblendet werden. 


import Layout from ‘../layouts/Layout.astro’;

About Us
We are a consortium of outdoor enthusiasts and locally owned gear shops and exchanges, dedicated to the truth that when nature and people come together, Good Things happen.

Our Mission
{/* Add the icon span */}
↓ {/* Down arrow character */}

To connect people with nature and provide access to quality outdoor gear, experiences and curated resources.

Our Values

Community
Sustainability
Adventure

Abgesehen vom Astro-Layout enthält diese Ebene ansonsten nichts Astro-Spezifisches. Es handelt sich lediglich um HTML mit einigen wenigen Alpine-Direktiven, nämlich:

x-data (definiert das Datenobjekt für die Alpine-Komponente),

x-on:click (definiert einen Onclick-Handler), sowie

x-show (blendet das Element konditional ein oder aus).

Das ist auch schon alles, was wir für unsere Akkordeons benötigen – plus ein wenig CSS für die Pfeilsymbole. So sieht unsere Seite momentan aus:

Matthew Tyson

Ebene 2: Die “Gear Shop”-Seite

Für unsere “Gear Shop”-Seite möchten wir einen Teil der im Backend verfügbaren Daten so rendern, dass der Client sie filtern kann. Deshalb rendern wir die Daten mit Astro Server-seitig und erstellen eine Alpine-Komponente, die diese verarbeiten kann und dynamische UI-Interaktionen ermöglicht.

Doch eins nach dem anderen – zunächst erstellen wir die Seite selbst:


// src/pages/gear-shops.astro
import Layout from ‘../layouts/Layout.astro’;
import GearShopList from ‘../components/GearShopList.astro’;

const gearShops = [
{ name: “Adventure Outfitters”, category: “Hiking” },
{ name: “Peak Performance Gear”, category: “Climbing” },
{ name: “River Rat Rentals”, category: “Kayaking” },
{ name: “The Trailhead”, category: “Hiking” },
{ name: “Vertical Ventures”, category: “Climbing” }
];

Local Gear Shops

Die Daten befinden sich in der Variablen gearShops. Sie könnten aus einer Datenbank, einer externen API, einem lokalen Dateisystem oder den integrierten Content Collections von Astro stammen. Der Punkt ist: Sie werden auf dem Server produziert. Der Trick besteht nun darin, sie als Live-JSON auf dem Client verfügbar zu machen – wo Alpine sie nutzen kann.

Dazu müssen die Daten zunächst auf der shops-Property der GearShopList-Komponente in String-Form gebracht werden. Dadurch kann Astro sie serialisieren, wenn es die Ansicht an den Browser sendet (im Wesentlichen wird JSON.stringify(gearShops) in das HTML-Dokument eingefügt).

Ein Blick auf GearShopList:


const { shops, initialCount } = Astro.props; // Receive the ‘shops’ prop

if (!shops) {
throw new Error(‘GearShopList component requires a “shops” prop that is an array.’);
}

All
Hiking
Climbing

()

Dieser Code ist relativ selbsterklärend, mit Ausnahme des x-data-Attributs . Der Zweck ist klar: Wir wollen ein JavaScript-Objekt mit einem filter– und einem shops-Feld erstellen, wobei letzteres das Live-JavaScript-Objekt enthält, das wir zuvor auf dem Server erstellt haben. Die zusätzlichen Zeichen sind nötig, um das syntaktisch zu bewerkstelligen. Der Schlüssel, um x-data zu verstehen, ist dabei die {“}-Syntax – geschweifte Klammern mit zwei Backticks –, die zu einem leeren String aufgelöst wird.

Soll heißen: Das x-data-Feld ist letztendlich ein String-Literal-Objekt, das die shops-Variable als JSON interpoliert. Alpine verarbeitet all das und wandelt es in ein Live-Objekt um, um die Komponente zu steuern (die Funktionsweise dieses Anwendungsteils lässt sich auch anhand dieser Astro-Alpine-Demo-Anwendung auf GitHub nachvollziehen). Neben dem x-data-Attribut bindet x-model den Auswahlwert an die filter-Variable. Mit x-for können wir über Shops iterieren.  

So sieht unsere “Gear Shops”-Seite nun aus:

Matthew Tyson

Ebene 3: Die “Adventures”-Seite

Im Fall der “Adventures”-Seite kommt schließlich Alpine zum Zug. Damit Astro nicht in Sachen SSG tätig wird, ist es an dieser Stelle nötig, seine Pre-Rendering-Funktion zu deaktivieren.


import Layout from ‘../layouts/Layout.astro’;

export const prerender = false; // Important: Disable prerendering for this page

My Adventures

Loading adventures…

{/*… other adventure details… */}

Diese Seite demonstriert die Vielseitigkeit und Performanz von Alpine: Das x-data-Attribut enthält sowohl die data-Property (adventures) als auch eine Fetching-Methode (fetchAdventures()).

Wird x-init bei der Initialisierung der Komponenten aufgerufen, callt es die fetchAdventures()-Funktion, die wiederum unseren Server aufruft und adventures mit Daten befüllt. Dabei ist alles übersichtlich in einem kleinen Bereich zusammengefasst, in dem Daten, Verhalten und Ansicht logisch miteinander verknüpft sind.

Anschließend verwenden wir x-if, um auf Basis von adventures.length entweder eine Loading Message oder die eigentliche Liste anzuzeigen.

Die Adventures-API

Zu guter Letzt benötigen wir noch einen Backend-Endpunkt, um die Adventures-JSON für diesen Call bereitzustellen:

export async function GET() {
const adventures = [
{ id: 1, title: “Hiking Trip to Mount Hood”, date: “2024-08-15” },
{ id: 2, title: “Kayaking Adventure on the Rogue River”, date: “2024-09-22” },
//… more adventures
];

return new Response(JSON.stringify(adventures), {
status: 200,
headers: {
‘Content-Type’: ‘application/json’
}
});
}

Ein Blick auf unsere “Adventures”-Seite:

Matthew Tyson

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Web-Apps mit Astro und Alpine entwickeln​ Weiterlesen »

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​

Allgemein

Eine individuelle Positionierung ist das A und O einer guten Bewerbung. Foto: Tero Vesalainen – shutterstock.comAuf welche fünf Besonderheiten bei der Bewerbung sowie später im Vorstellungsgespräch zu achten ist, wird im folgenden Beitrag erläutert.5 Bewerbungstipps: So heben Sie sich ab1. Individuelles Profil erarbeitenFür jede Bewerbung sind zwei Fragen wichtig. Einerseits: Welche Eigenschaften, Erfahrungen und Erfolge kann der Kandidat vorweisen, die er bereits in früheren beruflichen Stationen erworben hat? Andererseits: In welche Branchen und Jobs kann er diese Vorteile einbringen, wo ist er unter den gegebenen Bedingungen eine wertvolle Arbeitskraft?Diese individuelle Positionierung ist die Grundlage jeder erfolgreichen Bewerbung. Tatsächlich starten die meisten Bewerber ihre Jobsuche mit ihrem Lebenslauf und machen somit den zweiten Schritt vor dem ersten. Das macht sich allerdings auch in den Unterlagen bemerkbar – so geht nämlich keine Positionierung daraus hervor.2. Inhalte müssen genau auf die Stelle passenMit der Positionierung ist es zudem möglich, das Anschreiben und den Lebenslauf anhand der eben gewonnenen Ergebnisse anzupassen. Das ist wichtig, um jede Bewerbung individueller zu gestalten, den Inhalt aber zugleich so auszulegen, dass er sich je nach freier Stelle an den geforderten Kriterien orientiert.Auf Inhalte, die nicht in den Kontext passen, sollte komplett verzichtet werden. Dieses Vorgehen mag zusätzlichen Aufwand bedeuten, führt aber oft zum Erfolg. Neben früheren Tätigkeiten sollten vor allem Erfolge benannt werden. Schließlich kaufen sich Unternehmen erfolgreiche Mitarbeiter ein und nicht nur ihre berufliche Erfahrung. Daher ist eine Leistungsbilanz, auf die in Regel häufig verzichtet wird, nur zu empfehlen.3. Nicht nur freie Stellen anvisierenZudem ist es sinnvoll, den eigenen Fokus ein wenig zu erweitern und sich nicht allein auf offene Stellen zu beschränken. Vielmehr kann auch die Initiativbewerbung zu einer Anstellung führen. Je verantwortungsvoller die angestrebte Position dabei ist, desto mehr empfiehlt es sich, mit der Bewerbung nicht den Personalchef, sondern direkt die Unternehmensführung zu adressieren.4. Auf Stärken und Erfolge im Vorstellungsgespräch eingehen …Nicht alleine in der schriftlichen Bewerbung muss der Kandidat erkennen lassen, warum er für das Unternehmen so wichtig ist. Auch im Vorstellungsgespräch sollte er sich von anderen Bewerbern unterscheiden. Was also hat er in früheren Berufen erlebt, welche Erfolge hat er gemeistert? Welche Qualifikationen bringt er mit, um die freie Stelle optimal zu besetzen und was möchte er in Zukunft noch erreichen?5. … und Antworten parat haben nach schwierigen AufgabenIm Bewerbungsgespräch ist es üblich, dass sich Fragen und Antworten an der Critical-Incident-Methode orientieren. Das heißt, dass der Personalchef wissen möchte, in welchen schwierigen Situationen sich der Bewerber in früheren Jobs befunden und wie er diese gemeistert hat. Es lohnt sich daher, sich auf dieses Schema vorzubereiten – zumal sich auch damit eine Unterscheidung gegenüber anderen Bewerbern erreichen lässt. (hk) 

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​ Eine individuelle Positionierung ist das A und O einer guten Bewerbung.
Foto: Tero Vesalainen – shutterstock.comAuf welche fünf Besonderheiten bei der Bewerbung sowie später im Vorstellungsgespräch zu achten ist, wird im folgenden Beitrag erläutert.5 Bewerbungstipps: So heben Sie sich ab1. Individuelles Profil erarbeitenFür jede Bewerbung sind zwei Fragen wichtig. Einerseits: Welche Eigenschaften, Erfahrungen und Erfolge kann der Kandidat vorweisen, die er bereits in früheren beruflichen Stationen erworben hat? Andererseits: In welche Branchen und Jobs kann er diese Vorteile einbringen, wo ist er unter den gegebenen Bedingungen eine wertvolle Arbeitskraft?Diese individuelle Positionierung ist die Grundlage jeder erfolgreichen Bewerbung. Tatsächlich starten die meisten Bewerber ihre Jobsuche mit ihrem Lebenslauf und machen somit den zweiten Schritt vor dem ersten. Das macht sich allerdings auch in den Unterlagen bemerkbar – so geht nämlich keine Positionierung daraus hervor.2. Inhalte müssen genau auf die Stelle passenMit der Positionierung ist es zudem möglich, das Anschreiben und den Lebenslauf anhand der eben gewonnenen Ergebnisse anzupassen. Das ist wichtig, um jede Bewerbung individueller zu gestalten, den Inhalt aber zugleich so auszulegen, dass er sich je nach freier Stelle an den geforderten Kriterien orientiert.Auf Inhalte, die nicht in den Kontext passen, sollte komplett verzichtet werden. Dieses Vorgehen mag zusätzlichen Aufwand bedeuten, führt aber oft zum Erfolg. Neben früheren Tätigkeiten sollten vor allem Erfolge benannt werden. Schließlich kaufen sich Unternehmen erfolgreiche Mitarbeiter ein und nicht nur ihre berufliche Erfahrung. Daher ist eine Leistungsbilanz, auf die in Regel häufig verzichtet wird, nur zu empfehlen.3. Nicht nur freie Stellen anvisierenZudem ist es sinnvoll, den eigenen Fokus ein wenig zu erweitern und sich nicht allein auf offene Stellen zu beschränken. Vielmehr kann auch die Initiativbewerbung zu einer Anstellung führen. Je verantwortungsvoller die angestrebte Position dabei ist, desto mehr empfiehlt es sich, mit der Bewerbung nicht den Personalchef, sondern direkt die Unternehmensführung zu adressieren.4. Auf Stärken und Erfolge im Vorstellungsgespräch eingehen …Nicht alleine in der schriftlichen Bewerbung muss der Kandidat erkennen lassen, warum er für das Unternehmen so wichtig ist. Auch im Vorstellungsgespräch sollte er sich von anderen Bewerbern unterscheiden. Was also hat er in früheren Berufen erlebt, welche Erfolge hat er gemeistert? Welche Qualifikationen bringt er mit, um die freie Stelle optimal zu besetzen und was möchte er in Zukunft noch erreichen?5. … und Antworten parat haben nach schwierigen AufgabenIm Bewerbungsgespräch ist es üblich, dass sich Fragen und Antworten an der Critical-Incident-Methode orientieren. Das heißt, dass der Personalchef wissen möchte, in welchen schwierigen Situationen sich der Bewerber in früheren Jobs befunden und wie er diese gemeistert hat. Es lohnt sich daher, sich auf dieses Schema vorzubereiten – zumal sich auch damit eine Unterscheidung gegenüber anderen Bewerbern erreichen lässt. (hk)

5 Tipps für Anschreiben und Bewerbungsgespräch: So heben Sie sich von der Konkurrenz ab​ Weiterlesen »

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​

Allgemein

Ihre Cloud-Karriere voranzubringen, erfordert keine großen monetären Investitionen. Foto: wacomka – shutterstock.comWenn es darum geht, Ihre Cloud-Karriere zu optimieren, sollten Sie zunächst verinnerlichen, was nicht hilft: Sparen Sie sich teure Executive-MBA-Programme und ähnliches. Diese bringen selten den angestrebten Nutzen und vermitteln regelmäßig nicht die entscheidenden Skills, um Cloud-Computing-Systeme aufzubauen und bereitzustellen – von der Entwicklung eines Betriebsmodells, einer Cloud-Strategie oder eines -Geschäftsmodells ganz zu schweigen.Wenn Sie Ihre Cloud-Karriere wirklich voranbringen wollen, müssen Sie dazu nicht unbedingt Geld investieren. Unternehmen suchen Pragmatiker und Praktiker, die in der Lage sind, schnell einen Mehrwert für das Business zu erzielen. Darauf sollten Sie sich fokussieren – zum Beispiel, indem Sie folgende drei Tipps beherzigen.1. Professionell netzwerkenSoziale Karriereplattformen wie Linkedin sind längst nicht mehr optional. Sie bieten eine wertvolle Plattform, um Beziehungen zu anderen Cloud-Experten zu knüpfen – oder auch, um direkt einen Job zu finden. Versuchen Sie Inhalte zu posten, die für andere Experten interessant oder hilfreich sind – damit demonstrieren Sie, dass Sie die Entwicklung der Branche aufmerksam verfolgen. Das ist nicht nur ein Garant für steigende Follower-Zahlen, sondern kann sich auch bei Bewerbungen als echter Pluspunkt erweisen. Um professionell zu netzwerken, bieten sich darüber hinaus auch Branchen- und Community-Events an.2. Kontinuierlich lernenEgal, ob Sie regelmäßig aktuelle Artikel konsumieren oder einen kostenlosen Kurs buchen – stellen Sie sicher, sich in jeder Woche mit neuen Inhalten und/oder Trends zu beschäftigen. Das ist insbesondere in Vorstellungsgesprächen nützlich, um zu demonstrieren, dass Sie im aktuellen “Cloud-Game” mitreden können und im Bilde sind – etwa, wenn es um die Vor- und Nachteile von Cloud Native oder Serverless Computing geht.3. Komfortzone verlassenVersuchen Sie, gezielt Projekte und Jobs anzunehmen, die geeignet sind, Ihre Skills und Ihr Knowhow zu erweitern. Es mag zunächst einschüchternd wirken, sich etwa mit Cloud-Architekturen zu beschäftigen obwohl Sie bislang nur im Bereich Cloud Operations tätig waren. Sie dürften allerdings schnell feststellen, dass Ihre Teamkollegen Sie dabei unterstützen werden, zu lernen. Auf den gewonnenen Erfahrungswerten können Sie aufbauen, um Ihre Cloud-Karriere voranzubringen. Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​ Ihre Cloud-Karriere voranzubringen, erfordert keine großen monetären Investitionen.
Foto: wacomka – shutterstock.comWenn es darum geht, Ihre Cloud-Karriere zu optimieren, sollten Sie zunächst verinnerlichen, was nicht hilft: Sparen Sie sich teure Executive-MBA-Programme und ähnliches. Diese bringen selten den angestrebten Nutzen und vermitteln regelmäßig nicht die entscheidenden Skills, um Cloud-Computing-Systeme aufzubauen und bereitzustellen – von der Entwicklung eines Betriebsmodells, einer Cloud-Strategie oder eines -Geschäftsmodells ganz zu schweigen.Wenn Sie Ihre Cloud-Karriere wirklich voranbringen wollen, müssen Sie dazu nicht unbedingt Geld investieren. Unternehmen suchen Pragmatiker und Praktiker, die in der Lage sind, schnell einen Mehrwert für das Business zu erzielen. Darauf sollten Sie sich fokussieren – zum Beispiel, indem Sie folgende drei Tipps beherzigen.1. Professionell netzwerkenSoziale Karriereplattformen wie Linkedin sind längst nicht mehr optional. Sie bieten eine wertvolle Plattform, um Beziehungen zu anderen Cloud-Experten zu knüpfen – oder auch, um direkt einen Job zu finden. Versuchen Sie Inhalte zu posten, die für andere Experten interessant oder hilfreich sind – damit demonstrieren Sie, dass Sie die Entwicklung der Branche aufmerksam verfolgen. Das ist nicht nur ein Garant für steigende Follower-Zahlen, sondern kann sich auch bei Bewerbungen als echter Pluspunkt erweisen. Um professionell zu netzwerken, bieten sich darüber hinaus auch Branchen- und Community-Events an.2. Kontinuierlich lernenEgal, ob Sie regelmäßig aktuelle Artikel konsumieren oder einen kostenlosen Kurs buchen – stellen Sie sicher, sich in jeder Woche mit neuen Inhalten und/oder Trends zu beschäftigen. Das ist insbesondere in Vorstellungsgesprächen nützlich, um zu demonstrieren, dass Sie im aktuellen “Cloud-Game” mitreden können und im Bilde sind – etwa, wenn es um die Vor- und Nachteile von Cloud Native oder Serverless Computing geht.3. Komfortzone verlassenVersuchen Sie, gezielt Projekte und Jobs anzunehmen, die geeignet sind, Ihre Skills und Ihr Knowhow zu erweitern. Es mag zunächst einschüchternd wirken, sich etwa mit Cloud-Architekturen zu beschäftigen obwohl Sie bislang nur im Bereich Cloud Operations tätig waren. Sie dürften allerdings schnell feststellen, dass Ihre Teamkollegen Sie dabei unterstützen werden, zu lernen. Auf den gewonnenen Erfahrungswerten können Sie aufbauen, um Ihre Cloud-Karriere voranzubringen.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Entwicklungstipps: 3 Wege zur besseren Cloud-Karriere​ Weiterlesen »

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​

Allgemein

Viele Unternehmen und HR-Abteilungen unterschätzen die Bedeutung des “Kaffeetratschs” für den beruflichen Wissenstransfer. Fast 70 Prozent der Kompetenzerweiterung erfolgt durch informelles Lernen, nur rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung. Foto: Dragon Images – shutterstock.comJulia Schmidt war vergangene Woche endlich mal wieder im Büro: “Kolleginnen treffen, ohne sich explizit verabreden zu müssen; ein kurzes Gespräch beim Kaffee oder schnell nach nebenan gehen, um zu fragen, wie es beim Kunden XY gerade läuft – herrlich”, fasst die Key-Account-Managerin zusammen, was sie im Homeoffice vermisst. Von vielen Führungskräften als “unproduktive Zeit” verurteilt, ist das Plaudern mit Kollegen im Büro aber viel mehr als Klatsch und Tratsch: Ein großer Teil des Austauschs fällt nämlich in die Kategorie des informellen Lernens.Informelles Lernen: Das Gegenteil von unproduktiv “Beim informellen Lernen erhalten Lernende eine Information genau dann, wenn sie diese benötigen”, erklärt Nick Petch, Head of Learning Experience bei imc, einem Anbieter für digitale Trainingslösungen. “Beim formalen Lernen hingegen wird ein vorher definierter Inhalt zu einem bestimmten Zeitpunkt erlernt. Egal, ob das Wissen gerade gebraucht wird oder nicht”, erläutert der Bildungsexperte weiter. Die informelle Art, sich Wissen zu beschaffen, geschehe zumeist, ohne dass wir uns dessen bewusst sind. “In der Praxis lernen wir ständig informell, wenn wir beispielsweise googlen, in Wikipedia nachlesen oder eben zum Kollegen nach nebenan gehen, um konkret etwas zu erfragen”, so Petch. Weil informell erworbenes Wissen direkt genutzt und verarbeitet wird, kann sich der Mensch diese Informationen oft besser merken als Lernstoff, den wir auf formale Weise – etwa bei einer beruflichen Weiterbildung – einmal gelernt haben.In vielen Unternehmen fehlt es dem Management noch am nötigen Bewusstsein, wie wichtig ein informeller Austausch sein kann. Stattdessen widmen Personalentwickler ihre gesamte Aufmerksamkeit offiziellen Weiterbildungen. Dass dies nicht immer zielführend ist, zeigen unterschiedliche Studien, beispielsweise des Education Development Center: Fast 70 Prozent der Kompetenzerweiterung im betrieblichen Kontext geschieht durch informelles Lernen, lediglich rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.Informell lernen im Homeoffice: 3 Tipps“Es ist wichtig, eine ausgewogene Mischung aus formalem und informellem Lernen zu finden”, betont Petch. Beides müsse aufeinander aufbauen: “Beim formalen Lernen bekomme ich sozusagen die Werkzeuge an die Hand, beim informellen Lernen kann ich dann aussuchen, welches Werkzeug ich wann und wie nutze.” Sitzen wir alle im Homeoffice, kommt informelles Lernen häufig zu kurz. Der Experte für digitales Lernen gibt drei Tipps, wie es auch im Homeoffice gelingen kann, von informellem Lernen zu profitieren:Informelle Lerninhalte sichtbar machen: Behalten Sie informell erhaltene Informationen, die auch anderen helfen könnten, nicht für sich. Teilen Sie Ihr Wissen in internen Blogs oder Wikis. Eine weitere Möglichkeit sind regelmäßige Feedback-Runden per Webkonferenz, zum Beispiel nach abgeschlossenen Projekten, bei denen die gewonnenen Erkenntnisse miteinander geteilt und für alle festgehalten werden.Coaching und Mentoring: Nutzen Sie Möglichkeiten zum regelmäßigen Austausch. Ein (abteilungsübergreifendes) Coaching und Mentoring kann auch online stattfinden. Kontaktieren Sie diejenigen im Unternehmen, die Neuerungen immer als Erste anwenden oder in einem Fachgebiet sehr erfahren sind. Meist freuen sich Kolleginnen und Kollegen, wenn sie als Experten gelten und geben gerne ihre Expertise in einem Telefonat oder Chat weiter.Eine offene Lernkultur etablieren: Fehlt es bei Ihrem Arbeitgeber an einer offenen Lernkultur und ist die Weitergabe von Wissen nicht fest im Denken jedes Mitarbeitenden verankert, fällt es schwer, informelles Lernen ins Homeoffice zu transportieren. Gehen Sie dann mit gutem Beispiel voran und teilen Sie neue Informationen mit allen, die davon profitieren könnten. Kontaktieren Sie Kollegen, die ihr Wissen anscheinend wie einen Schatz horten. Regen Sie an, sich regelmäßig virtuell zu treffen, um sich unkompliziert austauschen zu können. Oft verblassen anfängliche Vorbehalte mit der Zeit, die manche Personen gegen informelle Wissensvermittlung haben, und es gelingt nach und nach, eine offene Lernkultur zu etablieren. (pg) 

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​ Viele Unternehmen und HR-Abteilungen unterschätzen die Bedeutung des “Kaffeetratschs” für den beruflichen Wissenstransfer. Fast 70 Prozent der Kompetenzerweiterung erfolgt durch informelles Lernen, nur rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.
Foto: Dragon Images – shutterstock.comJulia Schmidt war vergangene Woche endlich mal wieder im Büro: “Kolleginnen treffen, ohne sich explizit verabreden zu müssen; ein kurzes Gespräch beim Kaffee oder schnell nach nebenan gehen, um zu fragen, wie es beim Kunden XY gerade läuft – herrlich”, fasst die Key-Account-Managerin zusammen, was sie im Homeoffice vermisst. Von vielen Führungskräften als “unproduktive Zeit” verurteilt, ist das Plaudern mit Kollegen im Büro aber viel mehr als Klatsch und Tratsch: Ein großer Teil des Austauschs fällt nämlich in die Kategorie des informellen Lernens.Informelles Lernen: Das Gegenteil von unproduktiv “Beim informellen Lernen erhalten Lernende eine Information genau dann, wenn sie diese benötigen”, erklärt Nick Petch, Head of Learning Experience bei imc, einem Anbieter für digitale Trainingslösungen. “Beim formalen Lernen hingegen wird ein vorher definierter Inhalt zu einem bestimmten Zeitpunkt erlernt. Egal, ob das Wissen gerade gebraucht wird oder nicht”, erläutert der Bildungsexperte weiter. Die informelle Art, sich Wissen zu beschaffen, geschehe zumeist, ohne dass wir uns dessen bewusst sind. “In der Praxis lernen wir ständig informell, wenn wir beispielsweise googlen, in Wikipedia nachlesen oder eben zum Kollegen nach nebenan gehen, um konkret etwas zu erfragen”, so Petch. Weil informell erworbenes Wissen direkt genutzt und verarbeitet wird, kann sich der Mensch diese Informationen oft besser merken als Lernstoff, den wir auf formale Weise – etwa bei einer beruflichen Weiterbildung – einmal gelernt haben.In vielen Unternehmen fehlt es dem Management noch am nötigen Bewusstsein, wie wichtig ein informeller Austausch sein kann. Stattdessen widmen Personalentwickler ihre gesamte Aufmerksamkeit offiziellen Weiterbildungen. Dass dies nicht immer zielführend ist, zeigen unterschiedliche Studien, beispielsweise des Education Development Center: Fast 70 Prozent der Kompetenzerweiterung im betrieblichen Kontext geschieht durch informelles Lernen, lediglich rund 30 Prozent sind das Ergebnis klassischer Personalentwicklung.Informell lernen im Homeoffice: 3 Tipps“Es ist wichtig, eine ausgewogene Mischung aus formalem und informellem Lernen zu finden”, betont Petch. Beides müsse aufeinander aufbauen: “Beim formalen Lernen bekomme ich sozusagen die Werkzeuge an die Hand, beim informellen Lernen kann ich dann aussuchen, welches Werkzeug ich wann und wie nutze.” Sitzen wir alle im Homeoffice, kommt informelles Lernen häufig zu kurz. Der Experte für digitales Lernen gibt drei Tipps, wie es auch im Homeoffice gelingen kann, von informellem Lernen zu profitieren:Informelle Lerninhalte sichtbar machen: Behalten Sie informell erhaltene Informationen, die auch anderen helfen könnten, nicht für sich. Teilen Sie Ihr Wissen in internen Blogs oder Wikis. Eine weitere Möglichkeit sind regelmäßige Feedback-Runden per Webkonferenz, zum Beispiel nach abgeschlossenen Projekten, bei denen die gewonnenen Erkenntnisse miteinander geteilt und für alle festgehalten werden.Coaching und Mentoring: Nutzen Sie Möglichkeiten zum regelmäßigen Austausch. Ein (abteilungsübergreifendes) Coaching und Mentoring kann auch online stattfinden. Kontaktieren Sie diejenigen im Unternehmen, die Neuerungen immer als Erste anwenden oder in einem Fachgebiet sehr erfahren sind. Meist freuen sich Kolleginnen und Kollegen, wenn sie als Experten gelten und geben gerne ihre Expertise in einem Telefonat oder Chat weiter.Eine offene Lernkultur etablieren: Fehlt es bei Ihrem Arbeitgeber an einer offenen Lernkultur und ist die Weitergabe von Wissen nicht fest im Denken jedes Mitarbeitenden verankert, fällt es schwer, informelles Lernen ins Homeoffice zu transportieren. Gehen Sie dann mit gutem Beispiel voran und teilen Sie neue Informationen mit allen, die davon profitieren könnten. Kontaktieren Sie Kollegen, die ihr Wissen anscheinend wie einen Schatz horten. Regen Sie an, sich regelmäßig virtuell zu treffen, um sich unkompliziert austauschen zu können. Oft verblassen anfängliche Vorbehalte mit der Zeit, die manche Personen gegen informelle Wissensvermittlung haben, und es gelingt nach und nach, eine offene Lernkultur zu etablieren. (pg)

Informelles Lernen: So kommt der Flurfunk ins Homeoffice​ Weiterlesen »

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​

Allgemein

Foundry ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen. Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann (das klappt übrigens auch hervorragend, ohne dass Sie ChatGPT dafür bedrohen müssen). Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele. 1. E-Mails für Sie schreiben Foundry Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen. Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung. Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben. 2. Reiserouten und Zeitpläne erstellen Foundry Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben. Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich. Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen. 3. Schwierige Konzepte aufschlüsseln Foundry Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen. Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt! Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern. 4. Probleme analysieren und schwierige Entscheidungen treffen Foundry Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat. Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben. Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann. 5. Komplexe Projekte und Strategien planen Foundry Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile. ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich). Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen. 6. Recherchenotizen zusammenstellen Foundry Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam. Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen. Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage. Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen. 7. Artikel, Meetings und mehr zusammenfassen Foundry Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern. Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken. Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind. 8. Q&A-Karteikarten zum Lernen erstellen Foundry Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen. Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann. 9. Vorstellungsgespräche üben Foundry Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver. Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback. Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden. (PC-Welt) > >> 

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​ Foundry

ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen.

Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann (das klappt übrigens auch hervorragend, ohne dass Sie ChatGPT dafür bedrohen müssen). Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele.

1. E-Mails für Sie schreiben

Foundry

Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen.

Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung.

Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben.

2. Reiserouten und Zeitpläne erstellen

Foundry

Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben.

Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich.

Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen.

3. Schwierige Konzepte aufschlüsseln

Foundry

Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen.

Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt!

Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern.

4. Probleme analysieren und schwierige Entscheidungen treffen

Foundry

Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat.

Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben.

Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann.

5. Komplexe Projekte und Strategien planen

Foundry

Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile.

ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich).

Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen.

6. Recherchenotizen zusammenstellen

Foundry

Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam.

Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen.

Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage.

Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen.

7. Artikel, Meetings und mehr zusammenfassen

Foundry

Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern.

Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken.

Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind.

8. Q&A-Karteikarten zum Lernen erstellen

Foundry

Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen.

Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann.

9. Vorstellungsgespräche üben

Foundry

Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver.

Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback.

Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden.

(PC-Welt)

>

>>

9 alltägliche Aufgaben, die ChatGPT in Sekundenschnelle erledigt und Ihnen damit Stunden spart​ Weiterlesen »

Kein Spaß im Job ist vergeudetes Leben​

Allgemein

Unternehmen können einen erheblichen Beitrag dazu leisten, dass ihre Mitarbeiter die Arbeit als sinnstiftenden Bestandteil ihres Lebens empfinden. Black Salmon – Shutterstock 2467295269 Nicht einmal jeder zweite Mitarbeiter gibt hierzulande im Job sein Bestes – so eine aktuelle Umfrage der Prüfungs- und Beratungsorganisation EY (Vier von zehn Angestellten denken über Jobwechsel nach | EY – Deutschland. Alarmierend: Deutschland liegt bei der Mitarbeitermotivation deutlich unter dem internationalen Durchschnitt. Die Folgen sind gravierend – für Unternehmen, die unter geringer Produktivität leiden, ebenso wie für die Mitarbeiter, die sich im Arbeitsalltag erschöpft und frustriert fühlen.   Dagegen sollten Unternehmen vorbeugen und alles dafür tun, die Motivation ihrer Mitarbeiter hochzuhalten und sie wertvolle Arbeitskräfte bei Laune zu halten.   Folgende sechs Ansätze sind für eine motivierende Arbeitskultur besonders wichtig:    1. Eigenverantwortung stärken Mitarbeiter sind besonders engagiert, wenn sie wissen, wofür sie arbeiten. Das ist eine alte Weisheit, die jeder Führungskraft bekannt sein sollte, aber oft der Realität nicht standhält. Management by Objectives (MbO) ist eine bewährte Führungsmethode, bei der Führungskräfte und Mitarbeiter gemeinsam messbare Ziele definieren.   Wer Mitarbeiter bei der Formulierung von Zielen einbindet, erhöht die Eigenverantwortung und Motivation – ein Ansatz, den bereits Bill Hewlett als Schlüssel zum Erfolg bei Hewlett-Packard betrachtete. Zur Stärkung der Eigenverantwortung gehört auch, dass Mitarbeiter selbst entscheiden, wann und wo sie am produktivsten arbeiten. Nicht wo der Stuhl steht, ist maßgebend, sondern ob jemand zur kollektiven Leistung des Teams beiträgt.      2. Eine offene Fehlerkultur leben Laut einer repräsentativen Studie aus dem Jahr 2024 trauen sich 44 Prozent der jungen Erwachsenen nicht, Fehler im Job offen zuzugeben. Unternehmen, die hingegen eine Fehlerkultur fördern, in der Missgeschicke als Lernchancen gelten, stärken das Selbstvertrauen ihrer Mitarbeiter. Die Folge: Sie treffen mutiger Entscheidungen und gehen auf Basis von Wissen, Erfahrung und einer realistischen Einschätzung wohlüberlegte Risiken ein. Wer Neues ausprobieren und aus Fehlern lernen darf, ist auch langfristig gesehen innovativer und leistungsfähiger.    3. Interne Karrierechancen geben Wenn Unternehmen neue Positionen besetzen, stellt sich die Frage: Talente aus den eigenen Reihen oder externe Bewerber? Trotz möglicher Risiken wie der Gefahr der Betriebsblindheit oder einer begrenzten Kandidatenauswahl überwiegen die Vorteile einer gezielten internen Förderung. Eine interne Rekrutierung spart nicht nur Zeit und Kosten, sondern schafft positive Erlebnisse, Beispiele und stärkt die Bindung.   Erfolg beginnt mit Chancen. Bei HPE haben manche Führungskräfte, die heute auf höchster Ebene arbeiten, ihre Karriere beispielsweise als Assistentin oder während des dualen Studiums im Unternehmen begonnen. Der individuelle Karriereweg beginnt damit, dass Mitarbeiter die Hand heben und signalisieren, dass sie nach links oder rechts springen wollen.   Ohne Eigeninitiative bleiben Chancen wirkungslos. Doch wenn sich Karrieren ohne vorgegebenen Pfad entwickeln können, stärkt das die Unternehmenskultur und zeigt: Erfolg ist kein Zufall, sondern gründet auf Leistung und Engagement.  4. Beruf und Privates in Einklang bringen Arbeit ist ein wichtiger Teil des Lebens, aber nicht das Leben selbst. Diese Überzeugung sollten Unternehmen verinnerlichen und Programme schaffen, die ihren Mitarbeitern helfen, eine Balance zwischen beruflicher Verwirklichung und privaten Verpflichtungen zu finden – sei es als Eltern, Vereinsmitglieder oder Freunde.   Mitarbeiter als höchstes Gut zu betrachten, kann mit hohen Investitionen verbunden sein, wie der sechsmonatige bezahlte Elternurlaub bei HPE zeigt, Er ist ein Angebot, das viele annehmen und das sich langfristig durch Leistungswillen sowie Mitarbeiterbindung auszahlt.   Oft wird vergessen, dass damit das Team auf eine Arbeitskraft verzichten muss. Wer übernimmt die Aufgaben? Gibt es für die Person angemessenen Ersatz? Dass Beruf und Privatleben in jeder Phase zusammenpassen, lässt sich nur als Gemeinschaftsaufgabe meistern. Individuelle Freiheit bedingt kollektive Verantwortung.     5. Wichtiges festhalten Die Welt ist im Umbruch und verunsichert viele. In stürmischen Zeiten drängen Fragen nach dem Sinn in den Mittelpunkt: Lohnt sich der Aufwand große Verantwortung zu tragen, wofür stehen ich und das Unternehmen? Die Konzentration auf das, was gleichbleibt, gibt Stabilität. Wichtiger als vollmundige Bekenntnisse und faktenreiche Reports ist, dass die Kernwerte und die Kultur erhalten bleiben.   Gleichzeitig ist Wandel immer auch eine Gelegenheit zu hinterfragen und zu experimentieren. Was wäre, wenn wir denken würden, wie noch nie zuvor gedacht wurde. In solchen Zeiten ist es wichtig, dass man eine Atmosphäre der „Open Minds“ schafft und der Jammerei Grenzen setzt. Zuversicht entsteht mit dem Zusammenhalt im Team.     6. Ermutigung zur Selbstreflexion Das schönste Arbeitsumfeld reicht nicht aus, wenn man nicht für sich selbst klärt, was einen erfüllt. Konstruktive, wertschätzende und klare Feedbackgespräche ermutigen Mitarbeiter, über ihre beruflichen Ziele, die eigene Arbeit und das Leben nachzudenken. Passt das, was ich tue zu mir? Bin ich an der richtigen Stelle eingesetzt? Bleibe ich mir treu, wenn ich Veränderungen erwäge?   Diese Fragen sind unbequem, aber wichtig – denn sie sind der Schlüssel, damit Mitarbeiter ihren Platz im Unternehmen finden. Denn zu einem erfüllten und selbstbestimmten Leben gehört auch die Zufriedenheit in der Arbeit. Zugespitzt formuliert: Macht der Job keinen Spaß, vergeudet man sein Leben.  

Kein Spaß im Job ist vergeudetes Leben​ Unternehmen können einen erheblichen Beitrag dazu leisten, dass ihre Mitarbeiter die Arbeit als sinnstiftenden Bestandteil ihres Lebens empfinden. Black Salmon – Shutterstock 2467295269

Nicht einmal jeder zweite Mitarbeiter gibt hierzulande im Job sein Bestes – so eine aktuelle Umfrage der Prüfungs- und Beratungsorganisation EY (Vier von zehn Angestellten denken über Jobwechsel nach | EY – Deutschland. Alarmierend: Deutschland liegt bei der Mitarbeitermotivation deutlich unter dem internationalen Durchschnitt. Die Folgen sind gravierend – für Unternehmen, die unter geringer Produktivität leiden, ebenso wie für die Mitarbeiter, die sich im Arbeitsalltag erschöpft und frustriert fühlen.  

Dagegen sollten Unternehmen vorbeugen und alles dafür tun, die Motivation ihrer Mitarbeiter hochzuhalten und sie wertvolle Arbeitskräfte bei Laune zu halten.  

Folgende sechs Ansätze sind für eine motivierende Arbeitskultur besonders wichtig: 

 

1. Eigenverantwortung stärken

Mitarbeiter sind besonders engagiert, wenn sie wissen, wofür sie arbeiten. Das ist eine alte Weisheit, die jeder Führungskraft bekannt sein sollte, aber oft der Realität nicht standhält. Management by Objectives (MbO) ist eine bewährte Führungsmethode, bei der Führungskräfte und Mitarbeiter gemeinsam messbare Ziele definieren.  

Wer Mitarbeiter bei der Formulierung von Zielen einbindet, erhöht die Eigenverantwortung und Motivation – ein Ansatz, den bereits Bill Hewlett als Schlüssel zum Erfolg bei Hewlett-Packard betrachtete. Zur Stärkung der Eigenverantwortung gehört auch, dass Mitarbeiter selbst entscheiden, wann und wo sie am produktivsten arbeiten. Nicht wo der Stuhl steht, ist maßgebend, sondern ob jemand zur kollektiven Leistung des Teams beiträgt.   

 

2. Eine offene Fehlerkultur leben

Laut einer repräsentativen Studie aus dem Jahr 2024 trauen sich 44 Prozent der jungen Erwachsenen nicht, Fehler im Job offen zuzugeben. Unternehmen, die hingegen eine Fehlerkultur fördern, in der Missgeschicke als Lernchancen gelten, stärken das Selbstvertrauen ihrer Mitarbeiter. Die Folge: Sie treffen mutiger Entscheidungen und gehen auf Basis von Wissen, Erfahrung und einer realistischen Einschätzung wohlüberlegte Risiken ein. Wer Neues ausprobieren und aus Fehlern lernen darf, ist auch langfristig gesehen innovativer und leistungsfähiger. 

 

3. Interne Karrierechancen geben

Wenn Unternehmen neue Positionen besetzen, stellt sich die Frage: Talente aus den eigenen Reihen oder externe Bewerber? Trotz möglicher Risiken wie der Gefahr der Betriebsblindheit oder einer begrenzten Kandidatenauswahl überwiegen die Vorteile einer gezielten internen Förderung. Eine interne Rekrutierung spart nicht nur Zeit und Kosten, sondern schafft positive Erlebnisse, Beispiele und stärkt die Bindung.  

Erfolg beginnt mit Chancen. Bei HPE haben manche Führungskräfte, die heute auf höchster Ebene arbeiten, ihre Karriere beispielsweise als Assistentin oder während des dualen Studiums im Unternehmen begonnen. Der individuelle Karriereweg beginnt damit, dass Mitarbeiter die Hand heben und signalisieren, dass sie nach links oder rechts springen wollen.  

Ohne Eigeninitiative bleiben Chancen wirkungslos. Doch wenn sich Karrieren ohne vorgegebenen Pfad entwickeln können, stärkt das die Unternehmenskultur und zeigt: Erfolg ist kein Zufall, sondern gründet auf Leistung und Engagement. 

4. Beruf und Privates in Einklang bringen

Arbeit ist ein wichtiger Teil des Lebens, aber nicht das Leben selbst. Diese Überzeugung sollten Unternehmen verinnerlichen und Programme schaffen, die ihren Mitarbeitern helfen, eine Balance zwischen beruflicher Verwirklichung und privaten Verpflichtungen zu finden – sei es als Eltern, Vereinsmitglieder oder Freunde.  

Mitarbeiter als höchstes Gut zu betrachten, kann mit hohen Investitionen verbunden sein, wie der sechsmonatige bezahlte Elternurlaub bei HPE zeigt, Er ist ein Angebot, das viele annehmen und das sich langfristig durch Leistungswillen sowie Mitarbeiterbindung auszahlt.  

Oft wird vergessen, dass damit das Team auf eine Arbeitskraft verzichten muss. Wer übernimmt die Aufgaben? Gibt es für die Person angemessenen Ersatz? Dass Beruf und Privatleben in jeder Phase zusammenpassen, lässt sich nur als Gemeinschaftsaufgabe meistern. Individuelle Freiheit bedingt kollektive Verantwortung.  

 

5. Wichtiges festhalten

Die Welt ist im Umbruch und verunsichert viele. In stürmischen Zeiten drängen Fragen nach dem Sinn in den Mittelpunkt: Lohnt sich der Aufwand große Verantwortung zu tragen, wofür stehen ich und das Unternehmen? Die Konzentration auf das, was gleichbleibt, gibt Stabilität. Wichtiger als vollmundige Bekenntnisse und faktenreiche Reports ist, dass die Kernwerte und die Kultur erhalten bleiben.  

Gleichzeitig ist Wandel immer auch eine Gelegenheit zu hinterfragen und zu experimentieren. Was wäre, wenn wir denken würden, wie noch nie zuvor gedacht wurde. In solchen Zeiten ist es wichtig, dass man eine Atmosphäre der „Open Minds“ schafft und der Jammerei Grenzen setzt. Zuversicht entsteht mit dem Zusammenhalt im Team.  

 

6. Ermutigung zur Selbstreflexion

Das schönste Arbeitsumfeld reicht nicht aus, wenn man nicht für sich selbst klärt, was einen erfüllt. Konstruktive, wertschätzende und klare Feedbackgespräche ermutigen Mitarbeiter, über ihre beruflichen Ziele, die eigene Arbeit und das Leben nachzudenken. Passt das, was ich tue zu mir? Bin ich an der richtigen Stelle eingesetzt? Bleibe ich mir treu, wenn ich Veränderungen erwäge?  

Diese Fragen sind unbequem, aber wichtig – denn sie sind der Schlüssel, damit Mitarbeiter ihren Platz im Unternehmen finden. Denn zu einem erfüllten und selbstbestimmten Leben gehört auch die Zufriedenheit in der Arbeit. Zugespitzt formuliert: Macht der Job keinen Spaß, vergeudet man sein Leben. 

Kein Spaß im Job ist vergeudetes Leben​ Weiterlesen »

So geht modernes Python​

Allgemein

Python entwickelt sich mit jeder Version weiter. Wenn Ihre Applikationen in den Genuss der besten neuen Funktionen kommen sollen, sollten Sie diese vier Kernbereiche verinnerlichen. Foto: Heiko Kiera | shutterstock.com Obwohl Python inzwischen bereits 33 Jahre auf dem Buckel hat, verbreitet sich die Programmiersprache erst seit einigen Jahren explosionsartig – und entwickelt sich beständig weiter. Dabei sind einige Features über den Lauf der Jahre unverändert geblieben und mit jeder neuen Python-Version einige neue hinzugekommen. In diesem Artikel stellen wir Ihnen die wichtigsten Konzepte vor, die Sie durchdringen sollten, wenn Sie moderne Python-Anwendungen programmieren wollen, die sich die gewinnbringendsten Idiome, Konzepte und Funktionen der Programmiersprache zunutze machen. Die folgenden vier Bereiche sind besonders relevant, um das in der Praxis umzusetzen. 1. Type Hints Die kürzlich in Python eingeführte Type-Hinting-Syntax ermöglicht den Einsatz von Linter- und Code-Quality-Tools von Drittanbietern. Diese durchforsten Ihren Code vor der Laufzeit auf mögliche Fehler. Je mehr Python-Code Sie erstellen und mit anderen teilen möchten, desto wahrscheinlicher ist es, dass Sie (und die, mit denen geteilt wird) davon profitieren, Type Hints zu verwenden. Da mit jeder neuen Python-Version raffiniertere und leistungsfähigere Type Annotations Einzug halten, tun Sie gut daran, sich regelmäßig mit dem Thema zu beschäftigen – auf lange Sicht haben Sie so weniger Schwierigkeiten, Schritt zu halten. Wichtig ist in Sachen Type Hinting jedoch vor allem, dass es sich um ein optionales Feature handelt – das nicht jedes Python-Projekt zwingend benötigt. Sinn machen Type Hints insbesondere bei größeren Projekten – weniger im Fall von Wegwerfskripten, die aus 50 Codezeilen bestehen. Darüber hinaus werden Type Hints zur Runtime nicht erzwungen. Sie können dazu jedoch die Datenvalidierungs-Bibliothek Pydantic verwenden, die sich im Python-Umfeld bereits vielfach bewährt hat. 2. Virtuelle Umgebungen & Package Management Für einfache Projekte und Dev-Aufgaben, die weniger anspruchsvoll sind, empfiehlt sich die Nutzung des Python-internen venv-Tools, um Projekte und Anforderungen getrennt zu halten. Die jüngsten Entwicklungsfortschritte in Sachen Python eröffnen allerdings weitere Möglichkeiten: Wenn Sie mehrere Python-Versionen installieren müssen, um verschiedenen Projektanforderungen gerecht zu werden, ermöglicht es Ihnen Pyenv, wahlweise global oder projektspezifisch zwischen ihnen zu wechseln. Das ist insbesondere dann nützlich, wenn Sie häufig mit verschiedenen Python-Editionen direkt über die Kommandozeile arbeiten – außerhalb des Kontexts einer projektbezogenen, virtuellen Umgebung. Das Tool bietet offiziell keinen Support für Windows. Es existiert jedoch eine inoffizielle Windows-Portierung. Um virtuelle Umgebungen sowie sämtliche Abhängigkeiten von Python-Projekten zu managen, empfiehlt sich Pipenv. Dieses Management-Tool stellt darüber hinaus sicher, dass die Abhängigkeiten deterministisch sind – Sie also genau die Version erhalten, die Sie wollen. Allerdings kommuniziert es in keiner Weise mit dem Packaging, weshalb Pipenv weniger gut für Projekte geeignet ist, die Sie über PyPI mit anderen teilen möchten. Projekte bei PyPI bereitzustellen, geht mit Poetry leichter von der Hand. Dieses Tool erweitert Pipenv und managt darüber hinaus auch Projekte und Anforderungen sowie Virtual Environments (getrennt von Ihren Projektverzeichnissen). Ein aktuelles Cutting-Edge-Projekt ist Python Development Master (PDM). Ähnlich wie Poetry und Pipenv bietet PDM ein singuläres Interface, um Projekte aufzusetzen, Abhängigkeiten zu managen und Distribution Artifacts zu erstellen. Darüber hinaus kommt bei diesem Tool auch der PEP-582-Standard zum Einsatz. Das gewährleistet, dass Packages für ein Projekt lokal gespeichert werden, wodurch es überflüssig wird, virtuelle Umgebungen für jedes einzelne Projekt zu kreieren. Auch das Projekt Hatch verschreibt sich dem Thema Projekt-Setup und -Management. Allerdings stellt das Tool auch ein Build-System, Packaging-Tools für Redistributionszwecke sowie Test Handling und weitere nützliche Funktionen bereit. Bei uv handelt es sich um ein Projekt, das von den Machern des Linting-Tools ruff auf die Beine gestellt wurde. Es zielt darauf ab, pip, venv und andere Python-Befehlszeilen-Tools zu substituieren und ist für mehr Speed in Rust geschrieben. Dabei ist uv relativ einfach zu erlernen, weil es in Sachen Befehlsstruktur den Tools, die es ersetzen will, sehr ähnlich ist. Wenn Sie neue Projekte erstellen, die in einer Teamumgebung bearbeitet oder an andere weitergegeben werden sollen (etwa über PyPI), sollten Sie das moderne pyproject.toml-Format für Ihre Anforderungen und die Projektkonfiguration sowie das damit verwendete Layout nutzen. Sie können trotzdem noch requirements.txt verwenden – pyproject.toml deckt jedoch einen größeren Use-Case-Bereich ab und macht Ihre Projekte zukunftskompatibel. 3. Neue Syntax Nicht nur das Ökosystem von Python – auch die Sprache selbst entwickelt sich regelmäßig weiter. Das hat sich in den letzten Versionen der Programmiersprache insbesondere in neuen, syntaktischen Konstruktionen niedergeschlagen, die es ermöglichen, prägnanter und performanter zu programmieren. Dabei sind drei neue Erweiterungen der Python-Syntax besonders erwähnenswert: Structural Pattern Matching wurde mit Python 3.10 eingeführt und ist mehr als nur ein “switch/case für Python” (wie es manchmal beschrieben wird). Das Feature ermöglicht es Entwicklern, Control-Flow-Entscheidungen auf Basis der Contents oder der Structure von Objekten zu treffen. Mit anderen Worten: Es handelt sich um eine Matching-Option, die auf Types oder deren Shapes (eine Liste mit int und string beispielsweise) abstellt, statt auf Values. Mit Python 3.8 hielt der sogenannte “Walrus Operator“ Einzug, dessen Name Programm ist ((:=)). Diese Syntax-Ergänzung ermöglicht “Assignment Expressions” – eine Option, um einen Value einer Variablen zuzuordnen und letztere anschließend direkt zu testen. Das sorgt dafür, dass der resultierende Python-Code in diversen Situationen prägnanter ausfällt. Zum Beispiel, wenn der Rückgabewert einer Funktion überprüft wird und parallel die Ergebnisse erhalten bleiben sollen. Eine kleinere, aber nicht weniger nützliche Ergänzung der Python-Syntax sind “Positional-Only Parameters“. Diese ermöglichen es Entwicklern, anzugeben, welche Funktionsparameter als positional spezifiziert werden müssen. Auch diese Funktion ist im Allgemeinen dazu gedacht, Python-Projekte übersichtlicher zu gestalten und erleichternes, eine Codebasis zu entwickeln. 4. Testing Geht es darum, Tests für Codebasen zu schreiben, verhält es sich ein bisschen wie mit der Nutzung von Zahnseide: Es besteht Einigkeit darüber, dass das sinnvoll ist. Trotzdem wenden es nur wenige regelmäßig an – richtig macht es eine noch kleinere Zahl. Das sollte sich – zumindest, wenn es um Testing geht – künftig ändern, denn die aktuellen Tools für Python in diesem Bereich machen es einfacher denn je, Test-Suiten aufzusetzen. Dabei verfügt Python zwar über das integrierte Framework unittest – dieses ist allerdings mit Blick auf Design und Behaviors ziemlich altbacken. Als gängiger Ersatz hat sich das Framework Pytest etabliert, das im Vergleich deutlich flexibler ist (Sie können Tests für jeden Teil Ihres Codes deklarieren, nicht nur ein Subset) und außerdem weit weniger Boilerplate-Code erfordert. Die Funktionalitäten von Pytest lassen sich zudem über diverse Add-Ons erweitern – beispielsweise, um auch asynchronen Code zu testen. Ein anderer wichtiger Testing-Aspekt ist die Code Coverage. Sie gibt Auskunft darüber, welchen Bereich der Codebasis die Tests tatsächlich abdecken. Das Coverage-Modul kann diese Anforderung abdecken – Pytest enthält ein entsprechendes Plugin. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht modernes Python​ Python entwickelt sich mit jeder Version weiter. Wenn Ihre Applikationen in den Genuss der besten neuen Funktionen kommen sollen, sollten Sie diese vier Kernbereiche verinnerlichen.
Foto: Heiko Kiera | shutterstock.com

Obwohl Python inzwischen bereits 33 Jahre auf dem Buckel hat, verbreitet sich die Programmiersprache erst seit einigen Jahren explosionsartig – und entwickelt sich beständig weiter. Dabei sind einige Features über den Lauf der Jahre unverändert geblieben und mit jeder neuen Python-Version einige neue hinzugekommen.

In diesem Artikel stellen wir Ihnen die wichtigsten Konzepte vor, die Sie durchdringen sollten, wenn Sie moderne Python-Anwendungen programmieren wollen, die sich die gewinnbringendsten Idiome, Konzepte und Funktionen der Programmiersprache zunutze machen. Die folgenden vier Bereiche sind besonders relevant, um das in der Praxis umzusetzen.

1. Type Hints

Die kürzlich in Python eingeführte Type-Hinting-Syntax ermöglicht den Einsatz von Linter- und Code-Quality-Tools von Drittanbietern. Diese durchforsten Ihren Code vor der Laufzeit auf mögliche Fehler. Je mehr Python-Code Sie erstellen und mit anderen teilen möchten, desto wahrscheinlicher ist es, dass Sie (und die, mit denen geteilt wird) davon profitieren, Type Hints zu verwenden. Da mit jeder neuen Python-Version raffiniertere und leistungsfähigere Type Annotations Einzug halten, tun Sie gut daran, sich regelmäßig mit dem Thema zu beschäftigen – auf lange Sicht haben Sie so weniger Schwierigkeiten, Schritt zu halten.

Wichtig ist in Sachen Type Hinting jedoch vor allem, dass es sich um ein optionales Feature handelt – das nicht jedes Python-Projekt zwingend benötigt. Sinn machen Type Hints insbesondere bei größeren Projekten – weniger im Fall von Wegwerfskripten, die aus 50 Codezeilen bestehen. Darüber hinaus werden Type Hints zur Runtime nicht erzwungen. Sie können dazu jedoch die Datenvalidierungs-Bibliothek Pydantic verwenden, die sich im Python-Umfeld bereits vielfach bewährt hat.

2. Virtuelle Umgebungen & Package Management

Für einfache Projekte und Dev-Aufgaben, die weniger anspruchsvoll sind, empfiehlt sich die Nutzung des Python-internen venv-Tools, um Projekte und Anforderungen getrennt zu halten. Die jüngsten Entwicklungsfortschritte in Sachen Python eröffnen allerdings weitere Möglichkeiten:

Wenn Sie mehrere Python-Versionen installieren müssen, um verschiedenen Projektanforderungen gerecht zu werden, ermöglicht es Ihnen Pyenv, wahlweise global oder projektspezifisch zwischen ihnen zu wechseln. Das ist insbesondere dann nützlich, wenn Sie häufig mit verschiedenen Python-Editionen direkt über die Kommandozeile arbeiten – außerhalb des Kontexts einer projektbezogenen, virtuellen Umgebung. Das Tool bietet offiziell keinen Support für Windows. Es existiert jedoch eine inoffizielle Windows-Portierung.

Um virtuelle Umgebungen sowie sämtliche Abhängigkeiten von Python-Projekten zu managen, empfiehlt sich Pipenv. Dieses Management-Tool stellt darüber hinaus sicher, dass die Abhängigkeiten deterministisch sind – Sie also genau die Version erhalten, die Sie wollen. Allerdings kommuniziert es in keiner Weise mit dem Packaging, weshalb Pipenv weniger gut für Projekte geeignet ist, die Sie über PyPI mit anderen teilen möchten.

Projekte bei PyPI bereitzustellen, geht mit Poetry leichter von der Hand. Dieses Tool erweitert Pipenv und managt darüber hinaus auch Projekte und Anforderungen sowie Virtual Environments (getrennt von Ihren Projektverzeichnissen).

Ein aktuelles Cutting-Edge-Projekt ist Python Development Master (PDM). Ähnlich wie Poetry und Pipenv bietet PDM ein singuläres Interface, um Projekte aufzusetzen, Abhängigkeiten zu managen und Distribution Artifacts zu erstellen. Darüber hinaus kommt bei diesem Tool auch der PEP-582-Standard zum Einsatz. Das gewährleistet, dass Packages für ein Projekt lokal gespeichert werden, wodurch es überflüssig wird, virtuelle Umgebungen für jedes einzelne Projekt zu kreieren.

Auch das Projekt Hatch verschreibt sich dem Thema Projekt-Setup und -Management. Allerdings stellt das Tool auch ein Build-System, Packaging-Tools für Redistributionszwecke sowie Test Handling und weitere nützliche Funktionen bereit.

Bei uv handelt es sich um ein Projekt, das von den Machern des Linting-Tools ruff auf die Beine gestellt wurde. Es zielt darauf ab, pip, venv und andere Python-Befehlszeilen-Tools zu substituieren und ist für mehr Speed in Rust geschrieben. Dabei ist uv relativ einfach zu erlernen, weil es in Sachen Befehlsstruktur den Tools, die es ersetzen will, sehr ähnlich ist.

Wenn Sie neue Projekte erstellen, die in einer Teamumgebung bearbeitet oder an andere weitergegeben werden sollen (etwa über PyPI), sollten Sie das moderne pyproject.toml-Format für Ihre Anforderungen und die Projektkonfiguration sowie das damit verwendete Layout nutzen. Sie können trotzdem noch requirements.txt verwenden – pyproject.toml deckt jedoch einen größeren Use-Case-Bereich ab und macht Ihre Projekte zukunftskompatibel.

3. Neue Syntax

Nicht nur das Ökosystem von Python – auch die Sprache selbst entwickelt sich regelmäßig weiter. Das hat sich in den letzten Versionen der Programmiersprache insbesondere in neuen, syntaktischen Konstruktionen niedergeschlagen, die es ermöglichen, prägnanter und performanter zu programmieren.

Dabei sind drei neue Erweiterungen der Python-Syntax besonders erwähnenswert:

Structural Pattern Matching wurde mit Python 3.10 eingeführt und ist mehr als nur ein “switch/case für Python” (wie es manchmal beschrieben wird). Das Feature ermöglicht es Entwicklern, Control-Flow-Entscheidungen auf Basis der Contents oder der Structure von Objekten zu treffen. Mit anderen Worten: Es handelt sich um eine Matching-Option, die auf Types oder deren Shapes (eine Liste mit int und string beispielsweise) abstellt, statt auf Values.

Mit Python 3.8 hielt der sogenannte “Walrus Operator“ Einzug, dessen Name Programm ist ((:=)). Diese Syntax-Ergänzung ermöglicht “Assignment Expressions” – eine Option, um einen Value einer Variablen zuzuordnen und letztere anschließend direkt zu testen. Das sorgt dafür, dass der resultierende Python-Code in diversen Situationen prägnanter ausfällt. Zum Beispiel, wenn der Rückgabewert einer Funktion überprüft wird und parallel die Ergebnisse erhalten bleiben sollen.

Eine kleinere, aber nicht weniger nützliche Ergänzung der Python-Syntax sind “Positional-Only Parameters“. Diese ermöglichen es Entwicklern, anzugeben, welche Funktionsparameter als positional spezifiziert werden müssen. Auch diese Funktion ist im Allgemeinen dazu gedacht, Python-Projekte übersichtlicher zu gestalten und erleichternes, eine Codebasis zu entwickeln.

4. Testing

Geht es darum, Tests für Codebasen zu schreiben, verhält es sich ein bisschen wie mit der Nutzung von Zahnseide: Es besteht Einigkeit darüber, dass das sinnvoll ist. Trotzdem wenden es nur wenige regelmäßig an – richtig macht es eine noch kleinere Zahl. Das sollte sich – zumindest, wenn es um Testing geht – künftig ändern, denn die aktuellen Tools für Python in diesem Bereich machen es einfacher denn je, Test-Suiten aufzusetzen.

Dabei verfügt Python zwar über das integrierte Framework unittest – dieses ist allerdings mit Blick auf Design und Behaviors ziemlich altbacken. Als gängiger Ersatz hat sich das Framework Pytest etabliert, das im Vergleich deutlich flexibler ist (Sie können Tests für jeden Teil Ihres Codes deklarieren, nicht nur ein Subset) und außerdem weit weniger Boilerplate-Code erfordert. Die Funktionalitäten von Pytest lassen sich zudem über diverse Add-Ons erweitern – beispielsweise, um auch asynchronen Code zu testen.

Ein anderer wichtiger Testing-Aspekt ist die Code Coverage. Sie gibt Auskunft darüber, welchen Bereich der Codebasis die Tests tatsächlich abdecken. Das Coverage-Modul kann diese Anforderung abdecken – Pytest enthält ein entsprechendes Plugin. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht modernes Python​ Weiterlesen »

Honor MagicPad 2 im Test: Android-Tablet mit iPad-Feeling​

Allgemein

Anyron Copeman / Foundry Auf einen Blick Pro Großes 12,3-Zoll-OLED-Display Sehr heller Bildschirm Reibungslose und zuverlässige Leistung Produktivitätsfunktionen, die tatsächlich hilfreich sind Kontra Keine IP-Einstufung für Wasser- oder Staubresistenz Die Kameraqualität ist begrenzt Fazit Das Honor MagicPad 2 ist ein günstiges Android-Tablet. Es ist ideal für Medien, einfache Arbeiten und Spiele. Das Tablet hat einen guten Bildschirm und genug Leistung. Es ist eine gute Wahl für alle, die ein Tablet mit großem Bildschirm suchen und nicht viel Geld ausgeben wollen. Das Zubehör und die KI-Funktionen sind für den Preis sehr gut. Das Honor MagicPad 2 ist ein vielseitiges und günstiges Android-Tablet, das sich perfekt für Medienkonsum, leichte Produktivität und Spiele eignet. Mit einem Straßenpreis von unter 400 Euro für das Modell mit 12 GB Arbeitsspeicher und 256 GB internem Speicher ist es etwas teurer als das Google Pixel Tablet, aber aus gutem Grund. Honor schafft es sehr nahe an das iPad-Erlebnis, was bei diesem Preis noch beeindruckender ist. Und es ist viel günstiger als das Basismodell des iPad (10. Generation). Aber wie schlägt es sich in der realen Welt? Ich habe ein paar Wochen mit dem MagicPad 2 verbracht, um das herauszufinden. Design & Verarbeitung Schlankes und leichtes Design Einzigartige Oberfläche auf der Rückseite Nur 5,8 Millimeter dick und 555 Gramm schwer Das Honor MagicPad 2 ist mit einer Dicke von nur 5,8 Millimeter und einem Gewicht von 555 Gramm erstaunlich kompakt und leicht für seine Größe. Das macht es tragbar und leicht zu halten, auch über längere Zeiträume. Anyron Copeman / Foundry Das flache Design verbessert die Griffigkeit, während die hochwertige weiße Perlglanzoberfläche das Licht wunderschön reflektiert und dem Gerät einen eleganten, modernen Look verleiht. Das Design ist außergewöhnlich und ansprechend. Es besteht auch die Möglichkeit, das Tablet in der Farbe Schwarz zu erwerben. Die weiße Variante zeichnet sich jedoch durch ihre glänzende Oberfläche aus und verleiht dem Gerät eine edle Anmutung. Der USB-C-Anschluss ist an der unteren Kante angebracht, während sich die Einschalttaste an der Oberseite befindet. Das Design ist minimalistisch und dennoch funktional. Zudem ist das Tablet mit dem Magic Pencil 3 und der Smart Bluetooth-Tastatur kompatibel, was es zu einer ausgezeichneten Option für alle macht, die auch unterwegs produktiv sein wollen. Das hochwertige weiße Perlmutt-Finish ist eines der einzigartigsten Designs, das ich je bei einem Tablet gesehen habe. Die Zubehörteile lassen sich nahtlos miteinander verbinden, wobei das Fehlen eines Trackpads auf der Tastatur die Bedienung manchmal weniger intuitiv macht. Dies erfordert eine stärkere Gewöhnung an die Touchscreen-Funktion. Das Tastaturgehäuse ist kompakt gestaltet, während das Design insgesamt praktisch ist und sich sowohl für die Arbeit als auch für die Unterhaltung eignet. Es ist jedoch erwähnenswert, dass es keine offizielle IP-Einstufung für Wasser- und Staubresistenz gibt, was schade ist. Bildschirm & Lautsprecher 12,3-Zoll-OLED-Display Spitzenhelligkeit von 1.600 nits Acht Lautsprecher mit IMAX-zertifiziertem Raumklang Das 12,3 Zoll große OLED-Display des Honor MagicPad 2 ist eines seiner herausragenden Merkmale. Das Gerät überzeugt mit einer scharfen 3K-Auflösung (3.000 × 1.920 Pixel) und einer hohen Farbsättigung sowie einer tiefen Schwarzwiedergabe. Die hohe Leuchtkraft von 1.600 cd gewährleistet eine gute Sichtbarkeit des Bildschirms auch bei direktem Sonneneinfall. Unabhängig davon, ob Sie das Tablet für Streaming, Spiele oder produktive Anwendungen nutzen möchten – der Bildschirm überzeugt durch seine herausragende Bildqualität und eignet sich somit sowohl für Unterhaltung als auch für professionelle Zwecke. Die hohe Bildwiederholfrequenz von 144 Hz ermöglicht die flüssige und reaktionsschnelle Darstellung von mobilen Spielen. Zu den besonderen Merkmalen des MagicPad 2-Displays zählt der AI-Defocus-Modus, der die Augenbelastung bei längerer Betrachtung reduziert. Anyron Copeman / Foundry Dies ist insbesondere bei Aktivitäten wie dem Lesen von E-Books oder dem Betrachten von Inhalten über längere Zeiträume von Vorteil. Zudem reduziert die 4.320-Hz-PWM-Dimmung das Flimmern des Bildschirms und sorgt so für ein angenehmeres und augenschonenderes Seherlebnis. Ein OLED-Display stellt aktuell zweifellos die beste Art von Display dar, und es ist beeindruckend, ein solches Display in einem Tablet dieser Preisklasse zu sehen. Der Bildschirm ist sogar besser als der des iPad, das einen LCD-Bildschirm verwendet, daher gibt es Punkte für Honor. Unabhängig davon, ob es für Streaming, Spiele oder produktive Anwendungen eingesetzt wird, überzeugt das Display durch seine präzise und klare Darstellung. Das MagicPad 2 von Honor ist mit einem erstklassigen Audiosystem ausgestattet. Das System besteht aus einem Array mit acht Lautsprechern und unterstützt IMAX-zertifiziertes räumliches Audio. Das Tablet bietet mit seinen zahlreichen Lautsprechern ein exzellentes Multimedia-Erlebnis. Die Lautsprecher erzeugen eine breite Klangbühne, die sich perfekt für Filme, Spiele oder Musik eignet. Das MagicPad 2 hat den besten Sound seiner Klasse. Die Audioqualität ist deutlich besser als bei einem Standard-Tablet. Der Bass ist zwar deutlich tiefer, aber die Stimmen in den Dialogen bleiben klar verständlich. Ausstattung Snapdragon 8s Gen 3-CPU Üppige 12 GB Arbeitsspeicher 256 GB Speicherplatz sind ideal für den Medienkonsum Das Honor MagicPad 2 wird vom Snapdragon-Prozessor 8s Gen 3 angetrieben, einer Hochleistungs-CPU, die eine Vielzahl von Aufgaben mit Leichtigkeit bewältigt. Der 12-GB-Arbeitsspeicher gewährleistet einen reibungslosen Ablauf sowohl beim Multitasking zwischen Produktivitäts-Apps als auch bei Spiele-Anwendungen. Sowohl das Anschauen von Inhalten als auch Produktivitätsaufgaben sind mühelos zu bewältigen. Mit Streaming-Apps können Sie im Handumdrehen mit der Wiedergabe beginnen. Bei einer stabilen Verbindung sind die Puffer- und Ladezeiten minimal. Das gilt auch, wenn Sie zwischen verschiedenen Sendungen hin- und herschalten. Anyron Copeman / Foundry Obwohl das MagicPad 2 nicht zu den Premium-Geräten zählt, überzeugt es mit einer exzellenten Leistung. Das Gerät bewältigt die meisten Apps gut, auch anspruchsvolle Aufgaben und Multitasking. Der Snapdragon 8s Gen 3-Prozessor ist leistungsstark und für die meisten Anforderungen ausreichend. Das Gerät bewältigt Gelegenheitsspiele, 4K-Videostreaming und die Bearbeitung von Dokumenten ohne Verzögerung. Zudem verwaltet es die Wärme effizient und bleibt auch bei anspruchsvollen Aufgaben kühl. Obwohl das MagicPad 2 nicht zu den Premium-Geräten zählt, überzeugt es mit einer exzellenten Leistung. Der 256 Gigabyte große Speicherplatz ist für die meisten Nutzer ausreichend. Power-User werden jedoch die Möglichkeit zu schätzen wissen, den Speicher über Cloud-Dienste oder externe Laufwerke zu erweitern. Rechenleistung Kameras Rückkamera mit 13 Megapixel Selfie-Kamera mit 9 MP für Videoanrufe Ziemlich einfache Videoaufnahme Tablets zeichnen sich in der Regel nicht durch ihre fotografischen Fähigkeiten aus, und das Honor MagicPad 2 bildet hier keine Ausnahme. Es ist mit einer 13-Megapixel-Hauptkamera und einer 9-Megapixel-Frontkamera ausgestattet. Diese Kameras sind nicht dafür konzipiert, die Foto-Funktionen Ihres Smartphones zu ersetzen. Für alltägliche Aufgaben wie das Aufnehmen von Dokumenten oder die Durchführung von Videotelefonaten sind sie jedoch ausreichend. Anyron Copeman / Foundry Die rückwärtige Kamera liefert bei guten Lichtverhältnissen adäquate Bilddetails, während sie bei schlechten Lichtverhältnissen Schwächen zeigt, was bei einem Tablet jedoch zu erwarten ist. Die vordere Kamera ist insbesondere für Videokonferenzen geeignet und liefert ausreichend klare Bilder für Zoom-Anrufe oder Online-Kurse. Tablets zeichnen sich in der Regel nicht durch ihre fotografischen Fähigkeiten aus, und das Honor MagicPad 2 bildet hier keine Ausnahme. Die Videoaufzeichnung erfolgt standardmäßig in Full HD. Die Funktion ist für gelegentliche Anwendungen oder das Streaming ausreichend, kann jedoch keine hochwertige Videoarbeit ersetzen. Die Honor Docs App ist eine praktische Anwendung, die mit der Kamera des Smartphones zusammenarbeitet, um Dokumente zu scannen und zu bearbeiten. Sie ist sowohl für professionelle Anwender als auch für Studierende ein nützliches Tool. Akkulaufzeit & Aufladen Riesiger 10.050mAh-Akku Super-Aufladung mit 66 Watt Die Akkulaufzeit ist ideal für Arbeit, Reisen und Unterhaltung Das Honor MagicPad 2 ist mit einem leistungsstarken 10.050-mAh-Akku ausgestattet, der eine außergewöhnlich lange Nutzungsdauer ermöglicht, ohne dass die Leistung beeinträchtigt wird. Unabhängig davon, ob Sie Inhalte streamen, spielen oder arbeiten – mit einer einzigen Akkuladung kommen Sie problemlos einen ganzen Tag lang aus. Trotz des hochauflösenden Displays und des leistungshungrigen Snapdragon 8s Gen 3-Prozessors hält der Akku in verschiedenen Anwendungsfällen gut durch und macht das Gerät zu einem hervorragenden Begleiter für lange Flüge oder arbeitsreiche Tage. Trotz des hochauflösenden Displays und des leistungshungrigen Snapdragon-8s-Gen-3-Prozessors überzeugt das Gerät mit einer hohen Akkulaufzeit. Bei moderater Nutzungsdauer – beispielsweise ein oder zwei Netflix-Sendungen pro Tag – beträgt die Nutzungsdauer des Geräts ungefähr eine Woche. Ich habe das Tablet auch während eines elfstündigen Langstreckenflugs mitgeführt. Während des Fluges habe ich Serien und Filme konsumiert, ohne mich um den Akku Sorgen machen zu müssen. Sobald der Akku wieder aufgeladen werden muss, erledigt die Super-Charging-Funktion mit 66 Watt diese Aufgabe mit der maximalen Geschwindigkeit, die für einen Akku dieser Größe möglich ist. Die vollständige Aufladung des MagicPads 2 dauert über zwei Stunden, wobei bereits nach etwas mehr als einer Stunde 50 Prozent erreicht werden. Bitte beachten Sie dies bei der Verwendung eines Standard-50-Watt-Ladegeräts. Now, this isn’t particularly fast, but that’s because of the huge battery size. You might note that smartphones with 66W charging can juice up to 50% in less than 30 minutes, but that’s due to itheir battery being less than half the size of the MagicPad 2’s. Die Geschwindigkeit ist zwar nicht optimal, jedoch ist dies auf die hohe Kapazität des Akkus zurückzuführen. Beachten Sie, dass Smartphones mit einem 66-Watt-Ladeadapter in weniger als 30 Minuten zu 50 Prozent geladen werden können. Dieser Wert ist jedoch abhängig von der Kapazität des Akkus. Und der Akku des MagicPad 2 ist im Schnitt zwei-bis dreimal so groß, wie der eines Smartphones mit typischen 3000 bis 5000 mAh, entsprechend verlängert sich die Ladezeit des Tablets. Anyron Copeman / Foundry Die Akkulaufzeit des MagicPad 2 ist ein wesentlicher Faktor für die Kaufentscheidung, insbesondere für Nutzer, die eine zuverlässige und lang anhaltende Leistung benötigen. Benutzeroberfläche & Apps MagicOS 8, das auf Android 14 basiert KI-Integration mit speziellen Funktionen Produktivitäts-Tools, die Sie tatsächlich nutzen möchten Das Honor MagicPad 2 läuft mit dem Betriebssystem MagicOS 8, das auf Android 14 basiert, und bietet eine Vielzahl von Software-Verbesserungen, die es deutlich von anderen Android-Tablets abheben. Eine der wichtigsten Funktionen ist das Magic Portal, das KI integriert, um den Nutzern zu helfen, Artikel nahtlos zu identifizieren und einzukaufen, indem sie Bilder zwischen Apps ziehen und ablegen. Magic Capsule bietet eine anpassbare, dynamische Oberfläche am oberen Bildschirmrand. Diese verbessert die Benutzerfreundlichkeit und erleichtert das Multitasking. Die Funktionen sind ausgereift und helfen, die tägliche Nutzung zu optimieren. Sie bieten ein Niveau an Software-Raffinesse, das mit Premium-Tablets konkurriert. Anyron Copeman / Foundry Ein Schwerpunkt des MagicPad 2 liegt auf der Steigerung der Produktivität. Dazu zählen Tools wie Honor Docs, das die Zusammenführung von Dokumenten von verschiedenen Plattformen ermöglicht, um den Zugriff und die Bearbeitung zu erleichtern. Diese Apps sind gut durchdacht und ich möchte sie tatsächlich nutzen (im Gegensatz zu Google Docs unter Android). Das Tablet unterstützt auch Multitasking mit Split-Screen-Funktionalität, sodass ein Wechsel zwischen verschiedenen Apps oder das gleichzeitige Ausführen zweier Anwendungen möglich ist. Ein Alleinstellungsmerkmal des MagicPad 2 ist seine umfangreiche KI-Technik. Magic Portal ermöglicht die Suche nach Produkten anhand von Bildern, Magic Capsule bietet ähnliche Funktionen wie Dynamic Island von Apple und Magic Ring hilft bei der nahtlosen Verbindung und Steuerung mehrerer Honor-Geräte. Diese intelligenten Funktionen lassen sich in alltägliche Aufgaben integrieren und sorgen für ein vernetztes und intuitives Erlebnis. MagicOS 8 bietet eine flüssige Nutzungserfahrung und die Integration von Google Gemini führt zu zusätzlichen, KI-gestützten Funktionen, die das Gesamterlebnis optimieren. MagicOS 8 läuft reibungslos und die Integration von Google Gemini fügt zusätzliche, KI-gestützte Funktionen hinzu, die das Gesamterlebnis verbessern. Unabhängig davon, ob Sie ein Produktivitätswunder oder ein Gerät für den Multimedia-Konsum suchen – die Software des MagicPad 2 vereint die Vorzüge beider Gerätekategorien. Preise & Verfügbarkeit In Deutschland ist das Honor MagicPad 2 ausschließlich mit 12 Gigabyte Arbeitsspeicher und 256 Gigabyte internem Speicher in den Farbvarianten Weiß und Schwarz verfügbar, wobei die meisten Online-Shops nur das schwarze Modell anbieten. Bei Amazon sind beide Farbvarianten verfügbar. Beim Marktstart des MagicPad 2 hatte Honor den Eingabestift Magic Pencil 3 und das Honor MagicPad2 Smart Bluetooth Keyboard kostenlos mit dazu gelegt. Entsprechend was das Angebot ideal für Nutzer, die das Tablet produktiv als Notebook-Ersatz nutzen. Die Aktion ist abgelaufen, allerdings ist das Tablet schon sehr viel günstiger geworden, so die Ersparnis gegenüber dem ursprünglichen Preis für den Kauf des Zubehör ausreichen kann. In Deutschland wird das Honor MagicPad 2 im Online-Shop des Herstellers sowie bei Amazon und vielen anderen Händlern angeboten. Fazit Das Honor MagicPad 2 überzeugt durch ein hervorragendes Preis-Leistungs-Verhältnis im Android-Tablet-Segment. Das 12,3-Zoll-OLED-Display mit einer Bildwiederholfrequenz von 144 Hz zählt zu den besten Bildschirmen in dieser Preisklasse und eignet sich ideal für Medienkonsum, Spiele und leichte Produktivität. Der Snapdragon 8s Gen 3-Prozessor und 12 GB RAM sorgen für eine hohe Leistungsfähigkeit, sodass das Tablet mehrere Aufgaben ohne Verzögerung bewältigen kann. Die fehlende IP-Zertifizierung und das Fehlen eines Trackpads im Tastaturgehäuse könnten die Funktionalität für einige Benutzer einschränken. Der optionale Magic Pencil 3 und die Smart Bluetooth Tastatur bieten jedoch einen ausgezeichneten Wert für diejenigen, die ein leistungsfähiges Tablet zu einem vernünftigen Preis suchen. Das Honor MagicPad 2 ist eine vielseitige Option für verschiedene Nutzergruppen, darunter Studenten, Profis und Gelegenheitsnutzer. Technische Daten Display: 12.3-Zoll-OLED (Auflösung: 3.000 × 1.920 Pixel), 1.600 nits, 144 Hz Bildwiederholfrequenz Prozessor: Snapdragon 8s Gen 3 Arbeitsspeicher: 12GB Interner Speicher: 256 GB Rückwärtige Kamera: 13 MP Frontkamera: 9 MP Akku: 10.050 mAh, 66 Watt Super Charging Betriebssystem: Android 14 / Magic OS 8 Gewicht: 555 Gramm Abmessungen: 274,5 × 180,5 × 5,8 mm (B × T × H) Farben: Schwarz, Weiß Audio: Acht Lautsprecher, räumliches Audio, IMAX-zertifiziert (PC-Welt) 

Honor MagicPad 2 im Test: Android-Tablet mit iPad-Feeling​ Anyron Copeman / Foundry

Auf einen Blick

Pro

Großes 12,3-Zoll-OLED-Display

Sehr heller Bildschirm

Reibungslose und zuverlässige Leistung

Produktivitätsfunktionen, die tatsächlich hilfreich sind

Kontra

Keine IP-Einstufung für Wasser- oder Staubresistenz

Die Kameraqualität ist begrenzt

Fazit

Das Honor MagicPad 2 ist ein günstiges Android-Tablet. Es ist ideal für Medien, einfache Arbeiten und Spiele. Das Tablet hat einen guten Bildschirm und genug Leistung. Es ist eine gute Wahl für alle, die ein Tablet mit großem Bildschirm suchen und nicht viel Geld ausgeben wollen. Das Zubehör und die KI-Funktionen sind für den Preis sehr gut.

Das Honor MagicPad 2 ist ein vielseitiges und günstiges Android-Tablet, das sich perfekt für Medienkonsum, leichte Produktivität und Spiele eignet.

Mit einem Straßenpreis von unter 400 Euro für das Modell mit 12 GB Arbeitsspeicher und 256 GB internem Speicher ist es etwas teurer als das Google Pixel Tablet, aber aus gutem Grund. Honor schafft es sehr nahe an das iPad-Erlebnis, was bei diesem Preis noch beeindruckender ist. Und es ist viel günstiger als das Basismodell des iPad (10. Generation).

Aber wie schlägt es sich in der realen Welt? Ich habe ein paar Wochen mit dem MagicPad 2 verbracht, um das herauszufinden.

Design & Verarbeitung

Schlankes und leichtes Design

Einzigartige Oberfläche auf der Rückseite

Nur 5,8 Millimeter dick und 555 Gramm schwer

Das Honor MagicPad 2 ist mit einer Dicke von nur 5,8 Millimeter und einem Gewicht von 555 Gramm erstaunlich kompakt und leicht für seine Größe. Das macht es tragbar und leicht zu halten, auch über längere Zeiträume.

Anyron Copeman / Foundry

Das flache Design verbessert die Griffigkeit, während die hochwertige weiße Perlglanzoberfläche das Licht wunderschön reflektiert und dem Gerät einen eleganten, modernen Look verleiht. Das Design ist außergewöhnlich und ansprechend. Es besteht auch die Möglichkeit, das Tablet in der Farbe Schwarz zu erwerben. Die weiße Variante zeichnet sich jedoch durch ihre glänzende Oberfläche aus und verleiht dem Gerät eine edle Anmutung.

Der USB-C-Anschluss ist an der unteren Kante angebracht, während sich die Einschalttaste an der Oberseite befindet. Das Design ist minimalistisch und dennoch funktional. Zudem ist das Tablet mit dem Magic Pencil 3 und der Smart Bluetooth-Tastatur kompatibel, was es zu einer ausgezeichneten Option für alle macht, die auch unterwegs produktiv sein wollen.

Das hochwertige weiße Perlmutt-Finish ist eines der einzigartigsten Designs, das ich je bei einem Tablet gesehen habe.

Die Zubehörteile lassen sich nahtlos miteinander verbinden, wobei das Fehlen eines Trackpads auf der Tastatur die Bedienung manchmal weniger intuitiv macht. Dies erfordert eine stärkere Gewöhnung an die Touchscreen-Funktion. Das Tastaturgehäuse ist kompakt gestaltet, während das Design insgesamt praktisch ist und sich sowohl für die Arbeit als auch für die Unterhaltung eignet.

Es ist jedoch erwähnenswert, dass es keine offizielle IP-Einstufung für Wasser- und Staubresistenz gibt, was schade ist.

Bildschirm & Lautsprecher

12,3-Zoll-OLED-Display

Spitzenhelligkeit von 1.600 nits

Acht Lautsprecher mit IMAX-zertifiziertem Raumklang

Das 12,3 Zoll große OLED-Display des Honor MagicPad 2 ist eines seiner herausragenden Merkmale. Das Gerät überzeugt mit einer scharfen 3K-Auflösung (3.000 × 1.920 Pixel) und einer hohen Farbsättigung sowie einer tiefen Schwarzwiedergabe. Die hohe Leuchtkraft von 1.600 cd gewährleistet eine gute Sichtbarkeit des Bildschirms auch bei direktem Sonneneinfall.

Unabhängig davon, ob Sie das Tablet für Streaming, Spiele oder produktive Anwendungen nutzen möchten – der Bildschirm überzeugt durch seine herausragende Bildqualität und eignet sich somit sowohl für Unterhaltung als auch für professionelle Zwecke.

Die hohe Bildwiederholfrequenz von 144 Hz ermöglicht die flüssige und reaktionsschnelle Darstellung von mobilen Spielen. Zu den besonderen Merkmalen des MagicPad 2-Displays zählt der AI-Defocus-Modus, der die Augenbelastung bei längerer Betrachtung reduziert.

Anyron Copeman / Foundry

Dies ist insbesondere bei Aktivitäten wie dem Lesen von E-Books oder dem Betrachten von Inhalten über längere Zeiträume von Vorteil. Zudem reduziert die 4.320-Hz-PWM-Dimmung das Flimmern des Bildschirms und sorgt so für ein angenehmeres und augenschonenderes Seherlebnis.

Ein OLED-Display stellt aktuell zweifellos die beste Art von Display dar, und es ist beeindruckend, ein solches Display in einem Tablet dieser Preisklasse zu sehen. Der Bildschirm ist sogar besser als der des iPad, das einen LCD-Bildschirm verwendet, daher gibt es Punkte für Honor.

Unabhängig davon, ob es für Streaming, Spiele oder produktive Anwendungen eingesetzt wird, überzeugt das Display durch seine präzise und klare Darstellung.

Das MagicPad 2 von Honor ist mit einem erstklassigen Audiosystem ausgestattet. Das System besteht aus einem Array mit acht Lautsprechern und unterstützt IMAX-zertifiziertes räumliches Audio.

Das Tablet bietet mit seinen zahlreichen Lautsprechern ein exzellentes Multimedia-Erlebnis. Die Lautsprecher erzeugen eine breite Klangbühne, die sich perfekt für Filme, Spiele oder Musik eignet. Das MagicPad 2 hat den besten Sound seiner Klasse. Die Audioqualität ist deutlich besser als bei einem Standard-Tablet. Der Bass ist zwar deutlich tiefer, aber die Stimmen in den Dialogen bleiben klar verständlich.

Ausstattung

Snapdragon 8s Gen 3-CPU

Üppige 12 GB Arbeitsspeicher

256 GB Speicherplatz sind ideal für den Medienkonsum

Das Honor MagicPad 2 wird vom Snapdragon-Prozessor 8s Gen 3 angetrieben, einer Hochleistungs-CPU, die eine Vielzahl von Aufgaben mit Leichtigkeit bewältigt. Der 12-GB-Arbeitsspeicher gewährleistet einen reibungslosen Ablauf sowohl beim Multitasking zwischen Produktivitäts-Apps als auch bei Spiele-Anwendungen.

Sowohl das Anschauen von Inhalten als auch Produktivitätsaufgaben sind mühelos zu bewältigen. Mit Streaming-Apps können Sie im Handumdrehen mit der Wiedergabe beginnen. Bei einer stabilen Verbindung sind die Puffer- und Ladezeiten minimal. Das gilt auch, wenn Sie zwischen verschiedenen Sendungen hin- und herschalten.

Anyron Copeman / Foundry

Obwohl das MagicPad 2 nicht zu den Premium-Geräten zählt, überzeugt es mit einer exzellenten Leistung. Das Gerät bewältigt die meisten Apps gut, auch anspruchsvolle Aufgaben und Multitasking. Der Snapdragon 8s Gen 3-Prozessor ist leistungsstark und für die meisten Anforderungen ausreichend.

Das Gerät bewältigt Gelegenheitsspiele, 4K-Videostreaming und die Bearbeitung von Dokumenten ohne Verzögerung. Zudem verwaltet es die Wärme effizient und bleibt auch bei anspruchsvollen Aufgaben kühl.

Obwohl das MagicPad 2 nicht zu den Premium-Geräten zählt, überzeugt es mit einer exzellenten Leistung.

Der 256 Gigabyte große Speicherplatz ist für die meisten Nutzer ausreichend. Power-User werden jedoch die Möglichkeit zu schätzen wissen, den Speicher über Cloud-Dienste oder externe Laufwerke zu erweitern.

Rechenleistung

Kameras

Rückkamera mit 13 Megapixel

Selfie-Kamera mit 9 MP für Videoanrufe

Ziemlich einfache Videoaufnahme

Tablets zeichnen sich in der Regel nicht durch ihre fotografischen Fähigkeiten aus, und das Honor MagicPad 2 bildet hier keine Ausnahme. Es ist mit einer 13-Megapixel-Hauptkamera und einer 9-Megapixel-Frontkamera ausgestattet. Diese Kameras sind nicht dafür konzipiert, die Foto-Funktionen Ihres Smartphones zu ersetzen. Für alltägliche Aufgaben wie das Aufnehmen von Dokumenten oder die Durchführung von Videotelefonaten sind sie jedoch ausreichend.

Anyron Copeman / Foundry

Die rückwärtige Kamera liefert bei guten Lichtverhältnissen adäquate Bilddetails, während sie bei schlechten Lichtverhältnissen Schwächen zeigt, was bei einem Tablet jedoch zu erwarten ist. Die vordere Kamera ist insbesondere für Videokonferenzen geeignet und liefert ausreichend klare Bilder für Zoom-Anrufe oder Online-Kurse.

Tablets zeichnen sich in der Regel nicht durch ihre fotografischen Fähigkeiten aus, und das Honor MagicPad 2 bildet hier keine Ausnahme.

Die Videoaufzeichnung erfolgt standardmäßig in Full HD. Die Funktion ist für gelegentliche Anwendungen oder das Streaming ausreichend, kann jedoch keine hochwertige Videoarbeit ersetzen.

Die Honor Docs App ist eine praktische Anwendung, die mit der Kamera des Smartphones zusammenarbeitet, um Dokumente zu scannen und zu bearbeiten. Sie ist sowohl für professionelle Anwender als auch für Studierende ein nützliches Tool.

Akkulaufzeit & Aufladen

Riesiger 10.050mAh-Akku

Super-Aufladung mit 66 Watt

Die Akkulaufzeit ist ideal für Arbeit, Reisen und Unterhaltung

Das Honor MagicPad 2 ist mit einem leistungsstarken 10.050-mAh-Akku ausgestattet, der eine außergewöhnlich lange Nutzungsdauer ermöglicht, ohne dass die Leistung beeinträchtigt wird. Unabhängig davon, ob Sie Inhalte streamen, spielen oder arbeiten – mit einer einzigen Akkuladung kommen Sie problemlos einen ganzen Tag lang aus.

Trotz des hochauflösenden Displays und des leistungshungrigen Snapdragon 8s Gen 3-Prozessors hält der Akku in verschiedenen Anwendungsfällen gut durch und macht das Gerät zu einem hervorragenden Begleiter für lange Flüge oder arbeitsreiche Tage.

Trotz des hochauflösenden Displays und des leistungshungrigen Snapdragon-8s-Gen-3-Prozessors überzeugt das Gerät mit einer hohen Akkulaufzeit.

Bei moderater Nutzungsdauer – beispielsweise ein oder zwei Netflix-Sendungen pro Tag – beträgt die Nutzungsdauer des Geräts ungefähr eine Woche. Ich habe das Tablet auch während eines elfstündigen Langstreckenflugs mitgeführt. Während des Fluges habe ich Serien und Filme konsumiert, ohne mich um den Akku Sorgen machen zu müssen.

Sobald der Akku wieder aufgeladen werden muss, erledigt die Super-Charging-Funktion mit 66 Watt diese Aufgabe mit der maximalen Geschwindigkeit, die für einen Akku dieser Größe möglich ist. Die vollständige Aufladung des MagicPads 2 dauert über zwei Stunden, wobei bereits nach etwas mehr als einer Stunde 50 Prozent erreicht werden. Bitte beachten Sie dies bei der Verwendung eines Standard-50-Watt-Ladegeräts.

Now, this isn’t particularly fast, but that’s because of the huge battery size. You might note that smartphones with 66W charging can juice up to 50% in less than 30 minutes, but that’s due to itheir battery being less than half the size of the MagicPad 2’s.

Die Geschwindigkeit ist zwar nicht optimal, jedoch ist dies auf die hohe Kapazität des Akkus zurückzuführen. Beachten Sie, dass Smartphones mit einem 66-Watt-Ladeadapter in weniger als 30 Minuten zu 50 Prozent geladen werden können. Dieser Wert ist jedoch abhängig von der Kapazität des Akkus. Und der Akku des MagicPad 2 ist im Schnitt zwei-bis dreimal so groß, wie der eines Smartphones mit typischen 3000 bis 5000 mAh, entsprechend verlängert sich die Ladezeit des Tablets.

Anyron Copeman / Foundry

Die Akkulaufzeit des MagicPad 2 ist ein wesentlicher Faktor für die Kaufentscheidung, insbesondere für Nutzer, die eine zuverlässige und lang anhaltende Leistung benötigen.

Benutzeroberfläche & Apps

MagicOS 8, das auf Android 14 basiert

KI-Integration mit speziellen Funktionen

Produktivitäts-Tools, die Sie tatsächlich nutzen möchten

Das Honor MagicPad 2 läuft mit dem Betriebssystem MagicOS 8, das auf Android 14 basiert, und bietet eine Vielzahl von Software-Verbesserungen, die es deutlich von anderen Android-Tablets abheben.

Eine der wichtigsten Funktionen ist das Magic Portal, das KI integriert, um den Nutzern zu helfen, Artikel nahtlos zu identifizieren und einzukaufen, indem sie Bilder zwischen Apps ziehen und ablegen. Magic Capsule bietet eine anpassbare, dynamische Oberfläche am oberen Bildschirmrand. Diese verbessert die Benutzerfreundlichkeit und erleichtert das Multitasking.

Die Funktionen sind ausgereift und helfen, die tägliche Nutzung zu optimieren. Sie bieten ein Niveau an Software-Raffinesse, das mit Premium-Tablets konkurriert.

Anyron Copeman / Foundry

Ein Schwerpunkt des MagicPad 2 liegt auf der Steigerung der Produktivität. Dazu zählen Tools wie Honor Docs, das die Zusammenführung von Dokumenten von verschiedenen Plattformen ermöglicht, um den Zugriff und die Bearbeitung zu erleichtern. Diese Apps sind gut durchdacht und ich möchte sie tatsächlich nutzen (im Gegensatz zu Google Docs unter Android).

Das Tablet unterstützt auch Multitasking mit Split-Screen-Funktionalität, sodass ein Wechsel zwischen verschiedenen Apps oder das gleichzeitige Ausführen zweier Anwendungen möglich ist.

Ein Alleinstellungsmerkmal des MagicPad 2 ist seine umfangreiche KI-Technik. Magic Portal ermöglicht die Suche nach Produkten anhand von Bildern, Magic Capsule bietet ähnliche Funktionen wie Dynamic Island von Apple und Magic Ring hilft bei der nahtlosen Verbindung und Steuerung mehrerer Honor-Geräte. Diese intelligenten Funktionen lassen sich in alltägliche Aufgaben integrieren und sorgen für ein vernetztes und intuitives Erlebnis.

MagicOS 8 bietet eine flüssige Nutzungserfahrung und die Integration von Google Gemini führt zu zusätzlichen, KI-gestützten Funktionen, die das Gesamterlebnis optimieren.

MagicOS 8 läuft reibungslos und die Integration von Google Gemini fügt zusätzliche, KI-gestützte Funktionen hinzu, die das Gesamterlebnis verbessern. Unabhängig davon, ob Sie ein Produktivitätswunder oder ein Gerät für den Multimedia-Konsum suchen – die Software des MagicPad 2 vereint die Vorzüge beider Gerätekategorien.

Preise & Verfügbarkeit

In Deutschland ist das Honor MagicPad 2 ausschließlich mit 12 Gigabyte Arbeitsspeicher und 256 Gigabyte internem Speicher in den Farbvarianten Weiß und Schwarz verfügbar, wobei die meisten Online-Shops nur das schwarze Modell anbieten. Bei Amazon sind beide Farbvarianten verfügbar.

Beim Marktstart des MagicPad 2 hatte Honor den Eingabestift Magic Pencil 3 und das Honor MagicPad2 Smart Bluetooth Keyboard kostenlos mit dazu gelegt. Entsprechend was das Angebot ideal für Nutzer, die das Tablet produktiv als Notebook-Ersatz nutzen. Die Aktion ist abgelaufen, allerdings ist das Tablet schon sehr viel günstiger geworden, so die Ersparnis gegenüber dem ursprünglichen Preis für den Kauf des Zubehör ausreichen kann.

In Deutschland wird das Honor MagicPad 2 im Online-Shop des Herstellers sowie bei Amazon und vielen anderen Händlern angeboten.

Fazit

Das Honor MagicPad 2 überzeugt durch ein hervorragendes Preis-Leistungs-Verhältnis im Android-Tablet-Segment.

Das 12,3-Zoll-OLED-Display mit einer Bildwiederholfrequenz von 144 Hz zählt zu den besten Bildschirmen in dieser Preisklasse und eignet sich ideal für Medienkonsum, Spiele und leichte Produktivität. Der Snapdragon 8s Gen 3-Prozessor und 12 GB RAM sorgen für eine hohe Leistungsfähigkeit, sodass das Tablet mehrere Aufgaben ohne Verzögerung bewältigen kann.

Die fehlende IP-Zertifizierung und das Fehlen eines Trackpads im Tastaturgehäuse könnten die Funktionalität für einige Benutzer einschränken. Der optionale Magic Pencil 3 und die Smart Bluetooth Tastatur bieten jedoch einen ausgezeichneten Wert für diejenigen, die ein leistungsfähiges Tablet zu einem vernünftigen Preis suchen. Das Honor MagicPad 2 ist eine vielseitige Option für verschiedene Nutzergruppen, darunter Studenten, Profis und Gelegenheitsnutzer.

Technische Daten

Display: 12.3-Zoll-OLED (Auflösung: 3.000 × 1.920 Pixel), 1.600 nits, 144 Hz Bildwiederholfrequenz

Prozessor: Snapdragon 8s Gen 3

Arbeitsspeicher: 12GB

Interner Speicher: 256 GB

Rückwärtige Kamera: 13 MP

Frontkamera: 9 MP

Akku: 10.050 mAh, 66 Watt Super Charging

Betriebssystem: Android 14 / Magic OS 8

Gewicht: 555 Gramm

Abmessungen: 274,5 × 180,5 × 5,8 mm (B × T × H)

Farben: Schwarz, Weiß

Audio: Acht Lautsprecher, räumliches Audio, IMAX-zertifiziert

(PC-Welt)

Honor MagicPad 2 im Test: Android-Tablet mit iPad-Feeling​ Weiterlesen »

Nach oben scrollen
×