Computerhaus Quickborn

Allgemein

GraphQL-Grundlagen-Tutorial​

Allgemein

Dieser Artikel liefert Ihnen die Grundlagen, um mit GraphQL loszulegen. Foto: Inspiration_GP | o_m | shutterstock.com Die quelloffene REST-Alternative GraphQL ist ursprünglich den Entwicklungslaboren von Facebook entsprungen und seit 2018 als eigene Foundation unter dem Dach der Linux Foundation aktiv. Ähnlich wie REST ermöglicht auch GraphQL, webbasierte APIs zu erstellen und zu nutzen. Allerdings kommen dabei aus Konsistenzgründen formale Datenschemata und ein Type-System zum Einsatz. Dieses Tutorial führt Sie durch die grundlegenden Schritte, die es braucht, um eine GraphQL-Schnittstelle zu designen und zu implementieren. GraphQL-Sprachen und Frameworks Falls Sie mit GraphQL als API für Ihre Webanwendungen planen, ist die Wahrscheinlichkeit hoch, dass Sie Ihre aktuelle Programmiersprache und Datenkomponenten beibehalten können. Schließlich sind GraphQL-Bibliotheken für so gut wie alle wichtigen Sprachen verfügbar, die in Produktionsumgebungen zum Einsatz kommen. Clients stehen zur Verfügung für: C#/.NET, Go, Java und Android, JavaScript, Swift/Objective-C sowie Python. Darüber hinaus decken die Serverbibliotheken weitere Bereiche ab. Wenn Sie komplett “from scratch” beginnen, sind Sie gut damit beraten, die Programmiersprache, Laufzeitumgebung und Datenschicht zu wählen, mit der Sie am ehesten aus anderen Projekten vertraut sind. GraphQL zu nutzen, bringt hinsichtlich Server oder Client nicht viele Restriktionen mit sich – und es ist Datenbank-agnostisch. Mit Blick auf den Data Layer müssen Sie diesen allerdings eventuell manuell integrieren – je nachdem, um welche Art es sich dabei handelt (mehr dazu gleich). Wir verwenden in diesem Artikel die Python-Implementierung von GraphQL als Referenz. Die Konzepte und Funktionen sind für andere Sprachen mehr oder weniger identisch. Das GraphQL-Datenabfrageschema GraphQL vearbeitet Queries, die aus stark typisierten Feldern in verschiedenen, hierarchischen Arrangements bestehen. Die wesentliche Frage, die Sie beantworten müssen, um eine GraphQL-API zu erstellen: Welches Schema soll für Datenabfragen bereitgestellt werden? In vielen Fällen können die Abfragefelder eins zu eins auf eine zugrundeliegende Datenquelle abgebildet werden, um alle relevanten Felder in der Datenbank (oder einer anderen Datenquelle) für Ihre Queries offenzulegen. Weil GraphQL-Abfragen dabei im Vergleich zu ihren REST-Pendants wesentlich offener und variantenreicher sein können, sollten Sie von Beginn an planen, welche Felder abgefragt werden können und wie diese auf die Datenbank gemappt werden. Geht es zum Beispiel um eine Datenbanktabelle für Filme mit den Feldern title und year (als Ganzzahl), könnten wir eine GraphQL-Query wie die folgende verwenden: type Character { title: String! year: Int } Das ! hinter String bedeutet, dass dieses Feld obligatorisch ist. In diesem Beispiel wäre als mindestens title nötig, um die Abfrage auszuführen. Darüber hinaus sollten Sie sicherstellen, dass die Felder, die Sie über GraphQL exponieren, Typen nutzen, die mit den zugrundeligenden Daten übereinstimmen. GraphQL hat beispielsweise keinen nativen “date” oder “datetime” Datentypen – was im Wesentlichen an der schieren Menge verfügbarer Implementierungen liegt. Wenn Sie die Suche nach Datumsbereichen zulassen möchten, müssen Sie die Formatierung der Daten, die über die API einfließen, erzwingen und sicherstellen, dass diese bei der Abfrage in die entsprechenden Gegenstücke für die Backend-Datenbank übersetzt werden. Die gute Nachricht: Es kann sein, dass diese Arbeit bereits für Sie erledigt wurde – je nachdem, welches Framework Sie verwenden. Graphene, eine populäre GraphQL-Bibliothek für Python, stellt ISO-8601-formatierte Datums- und Zeitwerte als nativen Typ zur Verfügung. Falls Ihre Datensatz viele Felder aufweist, legen Sie zuerst die kleinste funktionale Teilmenge derjenigen offen, die keine komplexen Type Enforcements erfordern – etwa einfache String- oder Numerical Queries. Anschließend können Sie die verfügbaren Felder nach und nach erweitern, während Sie herausfinden, wie Sie Abfragen dafür über den von Ihnen verwendeten GraphQL-Connector implementieren. GraphQL-Daten speichern und abrufen Zum Speichern und Abrufen von Daten aus Ihrem Backend wird in der Regel die Middleware verwendet, die von der GraphQL-Bibliothek für Ihre Sprache unterstützt wird. In vielen Fällen können Sie GraphQL diese Arbeit durch Datenschichten für gängige Anwendungsframeworks erledigen lassen. Die Python-Bibliothek Graphene für GraphQL unterstützt zum Beispiel das Web Framework Django und dessen integriertes ORM. Graphene unterstützt auch das ORM von SQLAlchemy, bietet darüber hinaus Support für Starlette sowie FastAPI und kann mit den Datenkonnektoren von Google App Engine sowie dem JavaScript-Framework Relay (wird von React genutzt) interagieren. Falls Sie einen anderen Data Layer verwenden, können Sie die Middleware– und DataLoader-Objekte von Graphene nutzen, um die Lücke zu schließen. Diese bieten Ihnen die Möglichkeit, manuell zu integrieren. Mit DataLoader haben Sie auch die Möglichkeit, mehrere parallele Anfragen nach verwandten Daten zu bündeln und so die Anzahl der Roundtrips zu Ihrem Backend zu reduzieren. Das schließt übrigens nicht aus, dass Sie selbst auf einem beliebigen Layer cachen. So könnten beispielsweise die von Ihnen zurückgegebenen Antworten über einen Proxy zwischengespeichert werden, während die Backend-Daten mit Memcached oder Redis zwischengespeichert werden könnten. Allerdings müssten Sie dann dafür sorgen, dass diese Zwischenspeicher bei jeder Datenänderung geleert werden. GraphQL-Mutation-Queries Um Elemente in einem Datensatz zu erstellen, zu aktualisieren oder zu löschen, kommt bei GraphQL ein spezielles Abfrageformat zum Einsatz: die sogenannte “Mutation Query”. Dabei gilt es nicht nur zu überdenken, welche Abfragen Sie zulassen und welche Felder Sie dafür benötigen, sondern auch, welche Daten nach der Mutation zurückgegeben werden. Wenn Sie eine Mutationsabfrage entwerfen, können Sie die Rückgabe einer beliebigen Anzahl von Output-Feldern zulassen. Allerdings ist es wahrscheinlich keine gute Idee, Antwortobjekte über mehr als eine oder zwei Schichten zu verschachteln: Das erschwert es, die Ergebnisse zu analysieren – sowohl bei der Abfrage selbst als auch, wenn es darum geht, Code zu schreiben, der die Ergebnisse verarbeitet. Ein Fallstrick, den Sie umgehen sollten: Lassen Sie sich nicht von alten REST-API-Designgewohnheiten leiten, wenn es darum geht, wie Sie Ihre Mutation Queries organisieren. Statt wie in REST beispielsweise mehrere Abfragen zu erstellen, um verschiedene Arten von Änderungen an ein und demselben Objekt zu behandeln, könnten Sie das in einer einzigen Mutation Query konsolidieren. Zum Beispiel, indem Sie unterschiedliche, nicht-optionale Felder verwenden, um jede mögliche Operation aufzuzeichnen – wie in diesem Beispiel. Eine andere Möglichkeit wäre, eine Kombination aus einem Value-Feld und einem Enum Type zu verwenden, um das gewünschte Verhalten zu beschreiben. Ein wesentlicher Vorteil eines Enum ist, dass er eindeutig ist: Sie können ihn verwenden um den Intent präzise wiederzugeben – so dass er in hohem Maße selbstdokumentierend ist. Dabei stehen die Chancen gut, dass die GraphQL-Bibliothek für die Programmiersprache Ihrer Wahl eine Möglichkeit bietet, Enum Types im Einklang mit der sprachinternen Implementierung des Konzepts zu nutzen. Zum Beispiel können GraphQL-Enums in Graphene ganz ähnlich aussehen wie die Enum-Klasse der Python-Standardbibliothek. GraphQL-Caching und -Performance-Optimierung Eine GraphQL-Query fragt Daten im Grunde genommen wie jede andere Query ab. Deshalb lässt sie sich auch durch diesselben Methoden beschleunigen, die API-Abfragen mehr Speed verleihen: Caching. Jeder Service, der eine Datenbank als Backend nutzt oder Daten von einem Frontend zurückgibt, kann von Caching profitieren – an beiden Enden. Dabei sollten Sie im Hinterkopf behalten, dass die Verantwortung bezüglich auslaufender Caches bei Ihnen liegt. Es ist wahrscheinlich, dass Sie deshalb die Middleware-Hooks des GraphQL-Frameworks verwenden müssen, um solche Dinge zu triggern. Es wird empfohlen, wann immer möglich eindeutige Identifier zu verwenden, um Client-seitiges Caching zu supporten. Cursors und Pagination. Ein Request sollte standardmäßig eine Obergrenze aufweisen, was die Anzahl der auf einmal zurückgegebenen Datensätze betrifft. Ansonsten können sowohl Client als Server mit Anfragen überflutet werden. Sinnvoll ist außerdem, den Clients die Möglichkeit zu geben, explizit die maximale Anzahl der zurückzugebenden Datensätze zu beschreiben – und welche “Page” innerhalb der Daten angefordert werden soll. Die offizielle GraphQL-Dokumentation hält einige nützliche Tipps bereit, um Pagination Metaphors in das GraphQL-Request-Format zu integrieren. GraphQL-Tools Auch eine Reihe nativer Tools – und solche von Drittanbietern – stehen für GraphQL zur Verfügung, die es erleichtern, Clients, Server, Schemata und Query-Processing-Layer zu entwickeln: Bei Apollo GraphQL handelt es sich um eine Community, die Open-Source-Tools für GraphQL entwickelt – inklusive GraphQL-Clients und –Servern. Darüber hinaus unterhält die Community auch GraphQL Tools – eine Reihe von Utilities, um GraphQL-Schemata zu erstellen und mehrere APIs zu einer einzelnen zu vereinen. Wenn Sie eine bestehende Swagger-generierte API nach GraphQL portieren möchten, ist Swagger2GraphQL das Richtige für Sie. Es ermöglicht auch, parallel eine bestehende, mit Swagger generierte API zu warten, so dass Sie in der Übergangsphase beide Standards nutzen können. Schließlich hält die Facebook-eigene GraphQL-Community noch ein paar erwähnenswerte Tools bereit: GraphiQL ist eine In-Browser-IDE, um GraphQL-Queries zu erstellen und kann sowohl für die interne Nutzung als auch für Customer-facing-Lösungen verwendet werden. Darüber hinaus stehen auch eine GraphQL-over-HTTP Server- und Client-Suite sowie ein GraphQL Language Service für IDEs zur Verfügung. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

GraphQL-Grundlagen-Tutorial​ Dieser Artikel liefert Ihnen die Grundlagen, um mit GraphQL loszulegen.
Foto: Inspiration_GP | o_m | shutterstock.com

Die quelloffene REST-Alternative GraphQL ist ursprünglich den Entwicklungslaboren von Facebook entsprungen und seit 2018 als eigene Foundation unter dem Dach der Linux Foundation aktiv. Ähnlich wie REST ermöglicht auch GraphQL, webbasierte APIs zu erstellen und zu nutzen. Allerdings kommen dabei aus Konsistenzgründen formale Datenschemata und ein Type-System zum Einsatz.

Dieses Tutorial führt Sie durch die grundlegenden Schritte, die es braucht, um eine GraphQL-Schnittstelle zu designen und zu implementieren.

GraphQL-Sprachen und Frameworks

Falls Sie mit GraphQL als API für Ihre Webanwendungen planen, ist die Wahrscheinlichkeit hoch, dass Sie Ihre aktuelle Programmiersprache und Datenkomponenten beibehalten können. Schließlich sind GraphQL-Bibliotheken für so gut wie alle wichtigen Sprachen verfügbar, die in Produktionsumgebungen zum Einsatz kommen. Clients stehen zur Verfügung für:

C#/.NET,

Go,

Java und Android,

JavaScript,

Swift/Objective-C sowie

Python.

Darüber hinaus decken die Serverbibliotheken weitere Bereiche ab.

Wenn Sie komplett “from scratch” beginnen, sind Sie gut damit beraten, die Programmiersprache, Laufzeitumgebung und Datenschicht zu wählen, mit der Sie am ehesten aus anderen Projekten vertraut sind. GraphQL zu nutzen, bringt hinsichtlich Server oder Client nicht viele Restriktionen mit sich – und es ist Datenbank-agnostisch. Mit Blick auf den Data Layer müssen Sie diesen allerdings eventuell manuell integrieren – je nachdem, um welche Art es sich dabei handelt (mehr dazu gleich).

Wir verwenden in diesem Artikel die Python-Implementierung von GraphQL als Referenz. Die Konzepte und Funktionen sind für andere Sprachen mehr oder weniger identisch.

Das GraphQL-Datenabfrageschema

GraphQL vearbeitet Queries, die aus stark typisierten Feldern in verschiedenen, hierarchischen Arrangements bestehen. Die wesentliche Frage, die Sie beantworten müssen, um eine GraphQL-API zu erstellen: Welches Schema soll für Datenabfragen bereitgestellt werden?

In vielen Fällen können die Abfragefelder eins zu eins auf eine zugrundeliegende Datenquelle abgebildet werden, um alle relevanten Felder in der Datenbank (oder einer anderen Datenquelle) für Ihre Queries offenzulegen. Weil GraphQL-Abfragen dabei im Vergleich zu ihren REST-Pendants wesentlich offener und variantenreicher sein können, sollten Sie von Beginn an planen,

welche Felder abgefragt werden können und

wie diese auf die Datenbank gemappt werden.

Geht es zum Beispiel um eine Datenbanktabelle für Filme mit den Feldern title und year (als Ganzzahl), könnten wir eine GraphQL-Query wie die folgende verwenden:

type Character {

title: String!

year: Int

}

Das ! hinter String bedeutet, dass dieses Feld obligatorisch ist. In diesem Beispiel wäre als mindestens title nötig, um die Abfrage auszuführen.

Darüber hinaus sollten Sie sicherstellen, dass die Felder, die Sie über GraphQL exponieren, Typen nutzen, die mit den zugrundeligenden Daten übereinstimmen. GraphQL hat beispielsweise keinen nativen “date” oder “datetime” Datentypen – was im Wesentlichen an der schieren Menge verfügbarer Implementierungen liegt. Wenn Sie die Suche nach Datumsbereichen zulassen möchten, müssen Sie die Formatierung der Daten, die über die API einfließen, erzwingen und sicherstellen, dass diese bei der Abfrage in die entsprechenden Gegenstücke für die Backend-Datenbank übersetzt werden.

Die gute Nachricht: Es kann sein, dass diese Arbeit bereits für Sie erledigt wurde – je nachdem, welches Framework Sie verwenden. Graphene, eine populäre GraphQL-Bibliothek für Python, stellt ISO-8601-formatierte Datums- und Zeitwerte als nativen Typ zur Verfügung.

Falls Ihre Datensatz viele Felder aufweist, legen Sie zuerst die kleinste funktionale Teilmenge derjenigen offen, die keine komplexen Type Enforcements erfordern – etwa einfache String- oder Numerical Queries. Anschließend können Sie die verfügbaren Felder nach und nach erweitern, während Sie herausfinden, wie Sie Abfragen dafür über den von Ihnen verwendeten GraphQL-Connector implementieren.

GraphQL-Daten speichern und abrufen

Zum Speichern und Abrufen von Daten aus Ihrem Backend wird in der Regel die Middleware verwendet, die von der GraphQL-Bibliothek für Ihre Sprache unterstützt wird.

In vielen Fällen können Sie GraphQL diese Arbeit durch Datenschichten für gängige Anwendungsframeworks erledigen lassen. Die Python-Bibliothek Graphene für GraphQL unterstützt zum Beispiel das Web Framework Django und dessen integriertes ORM. Graphene unterstützt auch das ORM von SQLAlchemy, bietet darüber hinaus Support für Starlette sowie FastAPI und kann mit den Datenkonnektoren von Google App Engine sowie dem JavaScript-Framework Relay (wird von React genutzt) interagieren.

Falls Sie einen anderen Data Layer verwenden, können Sie die Middleware– und DataLoader-Objekte von Graphene nutzen, um die Lücke zu schließen. Diese bieten Ihnen die Möglichkeit, manuell zu integrieren. Mit DataLoader haben Sie auch die Möglichkeit, mehrere parallele Anfragen nach verwandten Daten zu bündeln und so die Anzahl der Roundtrips zu Ihrem Backend zu reduzieren.

Das schließt übrigens nicht aus, dass Sie selbst auf einem beliebigen Layer cachen. So könnten beispielsweise die von Ihnen zurückgegebenen Antworten über einen Proxy zwischengespeichert werden, während die Backend-Daten mit Memcached oder Redis zwischengespeichert werden könnten. Allerdings müssten Sie dann dafür sorgen, dass diese Zwischenspeicher bei jeder Datenänderung geleert werden.

GraphQL-Mutation-Queries

Um Elemente in einem Datensatz zu erstellen, zu aktualisieren oder zu löschen, kommt bei GraphQL ein spezielles Abfrageformat zum Einsatz: die sogenannte “Mutation Query”. Dabei gilt es nicht nur zu überdenken, welche Abfragen Sie zulassen und welche Felder Sie dafür benötigen, sondern auch, welche Daten nach der Mutation zurückgegeben werden.

Wenn Sie eine Mutationsabfrage entwerfen, können Sie die Rückgabe einer beliebigen Anzahl von Output-Feldern zulassen. Allerdings ist es wahrscheinlich keine gute Idee, Antwortobjekte über mehr als eine oder zwei Schichten zu verschachteln: Das erschwert es, die Ergebnisse zu analysieren – sowohl bei der Abfrage selbst als auch, wenn es darum geht, Code zu schreiben, der die Ergebnisse verarbeitet.

Ein Fallstrick, den Sie umgehen sollten: Lassen Sie sich nicht von alten REST-API-Designgewohnheiten leiten, wenn es darum geht, wie Sie Ihre Mutation Queries organisieren. Statt wie in REST beispielsweise mehrere Abfragen zu erstellen, um verschiedene Arten von Änderungen an ein und demselben Objekt zu behandeln, könnten Sie das in einer einzigen Mutation Query konsolidieren. Zum Beispiel, indem Sie unterschiedliche, nicht-optionale Felder verwenden, um jede mögliche Operation aufzuzeichnen – wie in diesem Beispiel.

Eine andere Möglichkeit wäre, eine Kombination aus einem Value-Feld und einem Enum Type zu verwenden, um das gewünschte Verhalten zu beschreiben. Ein wesentlicher Vorteil eines Enum ist, dass er eindeutig ist: Sie können ihn verwenden um den Intent präzise wiederzugeben – so dass er in hohem Maße selbstdokumentierend ist. Dabei stehen die Chancen gut, dass die GraphQL-Bibliothek für die Programmiersprache Ihrer Wahl eine Möglichkeit bietet, Enum Types im Einklang mit der sprachinternen Implementierung des Konzepts zu nutzen. Zum Beispiel können GraphQL-Enums in Graphene ganz ähnlich aussehen wie die Enum-Klasse der Python-Standardbibliothek.

GraphQL-Caching und -Performance-Optimierung

Eine GraphQL-Query fragt Daten im Grunde genommen wie jede andere Query ab. Deshalb lässt sie sich auch durch diesselben Methoden beschleunigen, die API-Abfragen mehr Speed verleihen:

Caching. Jeder Service, der eine Datenbank als Backend nutzt oder Daten von einem Frontend zurückgibt, kann von Caching profitieren – an beiden Enden. Dabei sollten Sie im Hinterkopf behalten, dass die Verantwortung bezüglich auslaufender Caches bei Ihnen liegt. Es ist wahrscheinlich, dass Sie deshalb die Middleware-Hooks des GraphQL-Frameworks verwenden müssen, um solche Dinge zu triggern. Es wird empfohlen, wann immer möglich eindeutige Identifier zu verwenden, um Client-seitiges Caching zu supporten.

Cursors und Pagination. Ein Request sollte standardmäßig eine Obergrenze aufweisen, was die Anzahl der auf einmal zurückgegebenen Datensätze betrifft. Ansonsten können sowohl Client als Server mit Anfragen überflutet werden. Sinnvoll ist außerdem, den Clients die Möglichkeit zu geben, explizit die maximale Anzahl der zurückzugebenden Datensätze zu beschreiben – und welche “Page” innerhalb der Daten angefordert werden soll. Die offizielle GraphQL-Dokumentation hält einige nützliche Tipps bereit, um Pagination Metaphors in das GraphQL-Request-Format zu integrieren.

GraphQL-Tools

Auch eine Reihe nativer Tools – und solche von Drittanbietern – stehen für GraphQL zur Verfügung, die es erleichtern, Clients, Server, Schemata und Query-Processing-Layer zu entwickeln:

Bei Apollo GraphQL handelt es sich um eine Community, die Open-Source-Tools für GraphQL entwickelt – inklusive GraphQL-Clients und –Servern. Darüber hinaus unterhält die Community auch GraphQL Tools – eine Reihe von Utilities, um GraphQL-Schemata zu erstellen und mehrere APIs zu einer einzelnen zu vereinen.

Wenn Sie eine bestehende Swagger-generierte API nach GraphQL portieren möchten, ist Swagger2GraphQL das Richtige für Sie. Es ermöglicht auch, parallel eine bestehende, mit Swagger generierte API zu warten, so dass Sie in der Übergangsphase beide Standards nutzen können.

Schließlich hält die Facebook-eigene GraphQL-Community noch ein paar erwähnenswerte Tools bereit: GraphiQL ist eine In-Browser-IDE, um GraphQL-Queries zu erstellen und kann sowohl für die interne Nutzung als auch für Customer-facing-Lösungen verwendet werden. Darüber hinaus stehen auch eine GraphQL-over-HTTP Server- und Client-Suite sowie ein GraphQL Language Service für IDEs zur Verfügung.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

GraphQL-Grundlagen-Tutorial​ Weiterlesen »

Schluss mit KI-Experimenten​

Allgemein

Nach KI-Visionen der letzten Jahre wird nun Tacheles geredet. BalanceFormCreative – Shutterstock.com Neben den Bemühungen, angesichts der aktuellen wirtschaftlichen Rahmenbedingungen die Kosten zu optimieren, steht bei den Unternehmen weltweit als wichtiger Punkt das Thema Digitalisierung & KI auf der Agenda. Bei deutschen Firmen genießt es sogar höchste Priorität. Das sind die Ergebnisse einer internationalen Befragung der Managementberatung Horváth, für die international über 600 Vorstands- und Geschäftsführungsmitglieder großer Unternehmen befragt wurden, ein Großteil davon mit Firmensitz in Deutschland. Unternehmen gehen bei KI „all in“ Um dieser Strategie Nachdruck zu verleihen, haben die Unternehmen ihre KI-Budgets kräftig erhöht. Laut Umfrage wollen Industrieunternehmen in diesem Jahr 21 Prozent mehr in KI investieren. Dienstleister, die schon länger intensiv am KI-Einsatz arbeiten, erhöhen ihr Budget nochmals um neun Prozent. Damit machen Investitionen in KI-Technologie im Durchschnitt über alle Branchen hinweg 0,5 Prozent des Gesamtumsatzes 2025 aus – „zusätzlich zum regulären IT-Budget“, wie Matthias Emler, Partner bei der Managementberatung Horváth und Leiter des Bereichs AI, BI & Data, betont. Auch der Fokus der KI-Investments habe sich verändert: „Während es in den vergangenen zwei Jahren noch viel darum ging KI-Potenziale auszuloten und erste Mehrwerte zu realisieren, sind die mit dem KI-Einsatz verfolgten Ziele der Unternehmen jetzt deutlich konkreter. Es geht darum, Prozesse mit KI neu zu gestalten, um substanzielle Effizienzsteigerung zu realisieren“, so der Horváth-Experte. Personaleinsparungen durch KI Die stärksten Effekte in Hinblick auf Effizienzsteigerung werden laut Umfrage im Bereich IT & Digitalisierung erwartet. Hier könnte mit einer erwarteten 16-prozentigen Effizienzsteigerung durch verstärkten KI-Einsatz jede sechste Stelle obsolet werden. Es folgen gemessen an der durchschnittlichen erwarteten Effizienzsteigerung die Bereiche: Sales & Marketing (14 Prozent), Finance & Controlling (13 Prozent), Personalwesen (zwölf Prozent), sowie Forschung und Entwicklung (elf Prozent). In keinem einzigen Bereich sind weniger als zehn Prozent Einsparungen eingeplant. Auch Führungsaufgaben werden den Befragten zufolge immer stärker von KI-Anwendungen unterstützt, beziehungsweise übernommen. Auf Management-Ebene ergäben sich dadurch zehn bis zwölf Prozent Einsparpotenzial. „Führungskräfte waren von Effizienzpotenzialen durch Digitalisierung in den letzten beiden Jahrzehnten kaum betroffen. Das ändert sich durch die neuen Möglichkeiten, die KI eröffnet“, erklärt Emler. Jedes vierte Unternehmen ohne KI im Portfolio Gefragt nach dem KI-Reifegrad in den verschiedenen Unternehmensbereichen zeigt sich, dass die Technologie in internen Prozessen – also Administration und Betrieb – am stärksten und in seiner ausgereiftesten Form zum Einsatz kommt. Etwa ein Viertel der Organisationen hat bereits entsprechende Lösungen implementiert, weitere 20 Prozent stehen nach eigenen Angaben kurz davor. Komplett am Anfang steht in diesen Feldern hingegen ein Sechstel der befragten Unternehmen. Im Ranking der am stärksten mit KI unterstützten Bereiche folgen Kundenservice und -kommunikation. Hier haben aber immerhin ein Viertel der Unternehmen (25 Prozent) bereits ausgereifte Lösungen im Einsatz und nur ein Fünftel ist bislang noch gar nicht aktiv geworden. Im Bereich Produkte & Dienstleistungen wird KI bislang am wenigsten eingesetzt, hier steht jedes vierte Unternehmen noch ganz am Anfang. „Das sollte durchaus wachrütteln, denn datenbasierte Geschäftsmodelle werden künftig in vielen Bereichen entscheidend sein, um Wettbewerbsvorteile zu erschließen. KI sollte hier als Katalysator dienen“, so Emler. Ein weiterer „blinder Fleck“ ist KI im Performance Management. 40 Prozent der Unternehmen haben noch nicht einmal über KI-Einsatzmöglichkeiten nachgedacht, um Profitabilität und Produktivität  zu steuern. Weniger als zehn Prozent haben solche Lösungen bereits im Einsatz, der Rest befindet sich in der Planungsphase – beziehungsweise einer Vorstufe davon. KI-Transformation muss nachhaltig sein Bei allen technologischen Fortschritten gelte es jedoch unbedingt, das transformatorische Grundgerüst sicherzustellen und den Wandel strukturell und prozessual ausreichend zu begleiten, mahnt der Horváth-Partner. „Wird der KI-Einsatz rein technisch und mit Blick auf Kosten verfolgt, ohne dass die Organisation und die Mitarbeitenden von Beginn an mit auf den Weg genommen werden, droht die Transformation zu scheitern – denn ohne den Menschen wird es auch in Zukunft nicht gehen“, hält Emler fest. Wie die Studie zeigt, ist aber vielen Unternehmen bewusst, dass es für eine erfolgreiche Transformation und Wachstum mehr „Puzzlestücke“ braucht als nur Kostenoptimierung und Effizienzsteigerung. So befinden sich unter den Top-Fünf der Managementprioritäten auch „strategische Personalthemen“ mit den Aspekten Fachkräftesicherung, Kompetenzen und Führung, sowie dem Thema „Reorganisation von Strukturen und Prozessen“. 

Schluss mit KI-Experimenten​ Nach KI-Visionen der letzten Jahre wird nun Tacheles geredet. BalanceFormCreative – Shutterstock.com

Neben den Bemühungen, angesichts der aktuellen wirtschaftlichen Rahmenbedingungen die Kosten zu optimieren, steht bei den Unternehmen weltweit als wichtiger Punkt das Thema Digitalisierung & KI auf der Agenda. Bei deutschen Firmen genießt es sogar höchste Priorität. Das sind die Ergebnisse einer internationalen Befragung der Managementberatung Horváth, für die international über 600 Vorstands- und Geschäftsführungsmitglieder großer Unternehmen befragt wurden, ein Großteil davon mit Firmensitz in Deutschland.

Unternehmen gehen bei KI „all in“

Um dieser Strategie Nachdruck zu verleihen, haben die Unternehmen ihre KI-Budgets kräftig erhöht. Laut Umfrage wollen Industrieunternehmen in diesem Jahr 21 Prozent mehr in KI investieren. Dienstleister, die schon länger intensiv am KI-Einsatz arbeiten, erhöhen ihr Budget nochmals um neun Prozent. Damit machen Investitionen in KI-Technologie im Durchschnitt über alle Branchen hinweg 0,5 Prozent des Gesamtumsatzes 2025 aus – „zusätzlich zum regulären IT-Budget“, wie Matthias Emler, Partner bei der Managementberatung Horváth und Leiter des Bereichs AI, BI & Data, betont.

Auch der Fokus der KI-Investments habe sich verändert: „Während es in den vergangenen zwei Jahren noch viel darum ging KI-Potenziale auszuloten und erste Mehrwerte zu realisieren, sind die mit dem KI-Einsatz verfolgten Ziele der Unternehmen jetzt deutlich konkreter. Es geht darum, Prozesse mit KI neu zu gestalten, um substanzielle Effizienzsteigerung zu realisieren“, so der Horváth-Experte.

Personaleinsparungen durch KI

Die stärksten Effekte in Hinblick auf Effizienzsteigerung werden laut Umfrage im Bereich IT & Digitalisierung erwartet. Hier könnte mit einer erwarteten 16-prozentigen Effizienzsteigerung durch verstärkten KI-Einsatz jede sechste Stelle obsolet werden. Es folgen gemessen an der durchschnittlichen erwarteten Effizienzsteigerung die Bereiche:

Sales & Marketing (14 Prozent),

Finance & Controlling (13 Prozent),

Personalwesen (zwölf Prozent), sowie

Forschung und Entwicklung (elf Prozent).

In keinem einzigen Bereich sind weniger als zehn Prozent Einsparungen eingeplant.

Auch Führungsaufgaben werden den Befragten zufolge immer stärker von KI-Anwendungen unterstützt, beziehungsweise übernommen. Auf Management-Ebene ergäben sich dadurch zehn bis zwölf Prozent Einsparpotenzial. „Führungskräfte waren von Effizienzpotenzialen durch Digitalisierung in den letzten beiden Jahrzehnten kaum betroffen. Das ändert sich durch die neuen Möglichkeiten, die KI eröffnet“, erklärt Emler.

Jedes vierte Unternehmen ohne KI im Portfolio

Gefragt nach dem KI-Reifegrad in den verschiedenen Unternehmensbereichen zeigt sich, dass die Technologie in internen Prozessen – also Administration und Betrieb – am stärksten und in seiner ausgereiftesten Form zum Einsatz kommt. Etwa ein Viertel der Organisationen hat bereits entsprechende Lösungen implementiert, weitere 20 Prozent stehen nach eigenen Angaben kurz davor. Komplett am Anfang steht in diesen Feldern hingegen ein Sechstel der befragten Unternehmen.

Im Ranking der am stärksten mit KI unterstützten Bereiche folgen Kundenservice und -kommunikation. Hier haben aber immerhin ein Viertel der Unternehmen (25 Prozent) bereits ausgereifte Lösungen im Einsatz und nur ein Fünftel ist bislang noch gar nicht aktiv geworden.

Im Bereich Produkte & Dienstleistungen wird KI bislang am wenigsten eingesetzt, hier steht jedes vierte Unternehmen noch ganz am Anfang. „Das sollte durchaus wachrütteln, denn datenbasierte Geschäftsmodelle werden künftig in vielen Bereichen entscheidend sein, um Wettbewerbsvorteile zu erschließen. KI sollte hier als Katalysator dienen“, so Emler.

Ein weiterer „blinder Fleck“ ist KI im Performance Management. 40 Prozent der Unternehmen haben noch nicht einmal über KI-Einsatzmöglichkeiten nachgedacht, um Profitabilität und Produktivität  zu steuern. Weniger als zehn Prozent haben solche Lösungen bereits im Einsatz, der Rest befindet sich in der Planungsphase – beziehungsweise einer Vorstufe davon.

KI-Transformation muss nachhaltig sein

Bei allen technologischen Fortschritten gelte es jedoch unbedingt, das transformatorische Grundgerüst sicherzustellen und den Wandel strukturell und prozessual ausreichend zu begleiten, mahnt der Horváth-Partner. „Wird der KI-Einsatz rein technisch und mit Blick auf Kosten verfolgt, ohne dass die Organisation und die Mitarbeitenden von Beginn an mit auf den Weg genommen werden, droht die Transformation zu scheitern – denn ohne den Menschen wird es auch in Zukunft nicht gehen“, hält Emler fest.

Wie die Studie zeigt, ist aber vielen Unternehmen bewusst, dass es für eine erfolgreiche Transformation und Wachstum mehr „Puzzlestücke“ braucht als nur Kostenoptimierung und Effizienzsteigerung. So befinden sich unter den Top-Fünf der Managementprioritäten auch „strategische Personalthemen“ mit den Aspekten Fachkräftesicherung, Kompetenzen und Führung, sowie dem Thema „Reorganisation von Strukturen und Prozessen“.

Schluss mit KI-Experimenten​ Weiterlesen »

Gartner: KI-Investitionen treiben IT-Ausgaben 2025 weiter an​

Allgemein

Glück für Nvidia & Co.: Anders als in vielen anderen IT-Bereichen investieren Unternehmen weiter kräftig in KI. whiteMocca/Shutterstock Die weltweiten IT-Ausgaben steigen auch 2025 weiter – trotz makroökonomischer Unsicherheiten, die in einigen Märkten zu einer temporären Investitionspause führen. Laut aktuellen Prognosen von Gartner werden in diesem Jahr weltweit rund 5,43 Billionen Dollar für IT ausgegeben – ein Anstieg um 7,9 Prozent gegenüber dem Vorjahr (5,04 Billionen Dollar).Anfang des Jahres waren die Auguren allerdings sogar von einem noch stärkeren Wachstum von 9,8 Prozent auf 5,61 Milliarden Dollar ausgegangen. Vorsichtiges Agieren – außer bei KI Zwar werden Investitionen in neue Software- und Serviceprojekte durch die allgemeine Unsicherheit gebremst“, erklärt John-David Lovelock, Distinguished VP Analyst bei Gartner. „Doch die umfassenden Digitalisierungsinitiativen rund um Künstliche Intelligenz und Generative AI (GenAI) sorgen weiterhin für starkes Wachstum – vor allem bei der Infrastruktur.“ Besonders deutlich zeigt sich das bei den KI-bezogenen Rechenzentrumssystemen, wo Gartner das Investitionswachstum für 2025 von ursprünglich 23,2 auf nun 42,4 Prozent korrigiert hat (Vorjahr: 40,3 Prozent).    2024 Ausgaben (in Mio. Dollar)  2024 Wachstum (%)  2025 Ausgaben (in Mio. Dollar)  2025 Wachstum (%)Rechenzentrums-Systeme333,37240.3474,88342.4Endgeräte720,6814.6759,6155.4Software1,114,60411.91,232,14510.5IT-Dienstleistungen1,614 7564.81,686,3214.4Kommunikationsdienste  1,256,287  2.2  1,282,592  2.1Gesamter IT-Markt5,039,6997.45,435,5557.9 Doch damit nicht genug: Lovelock geht davon aus, dass die Ausgaben für GenAI-Server, die 2021 praktisch noch keine Rolle spielten, bis 2027 das Dreifache der Investitionen in Nicht-KI-Server erreichen werden. Die Entwicklung deckt sich mit den Ergebnissen einer Gartner-Umfrage unter 252 Führungskräften von Großunternehmen aus verschiedenen Branchen in Nordamerika und Westeuropa. Dabei geben 62 Prozent der Teilnehmer an, dass Künstliche Intelligenz die Wettbewerbslandschaft der nächsten zehn Jahre maßgeblich prägen wird. Gleichzeitig bestätigt ein ähnlich hoher Teil (64 Prozent) der Befragten, dass Wettbewerbsfähigkeit in einem zunehmend schwierigen Umfeld der Hauptgrund für Investitionen in Technologie und organisatorischen Wandel sei. Zwischen Optimismus und Zurückhaltung Zwar geben 61 Prozent der Unternehmen an, mit besseren Voraussetzungen ins Jahr gestartet zu sein als 2024. Gleichzeitig erwarten jedoch nur 24 Prozent, ihre Jahresziele für 2025 tatsächlich zu übertreffen. Entsprechend agieren viele Firmen vorsichtiger und schieben größere Investitionen strategisch auf. „Es handelt sich nicht um klassische Budgetkürzungen“, betont Lovelock. „Die Mittel sind fest eingeplant – aber Unternehmen warten ab, bis sich Unsicherheiten klären.“ Besonders betroffen von dieser Zurückhaltung sind laut Gartner die Bereiche IT-Hardware und Infrastruktur – etwa durch gestiegene Preise und anhaltende Lieferkettenprobleme. Stabil bleiben sollen hingegen laufende Ausgaben für Cloud-Services, Managed Services oder andere wiederkehrende IT-Dienstleistungen. 

Gartner: KI-Investitionen treiben IT-Ausgaben 2025 weiter an​ Glück für Nvidia & Co.: Anders als in vielen anderen IT-Bereichen investieren Unternehmen weiter kräftig in KI. whiteMocca/Shutterstock

Die weltweiten IT-Ausgaben steigen auch 2025 weiter – trotz makroökonomischer Unsicherheiten, die in einigen Märkten zu einer temporären Investitionspause führen. Laut aktuellen Prognosen von Gartner werden in diesem Jahr weltweit rund 5,43 Billionen Dollar für IT ausgegeben – ein Anstieg um 7,9 Prozent gegenüber dem Vorjahr (5,04 Billionen Dollar).Anfang des Jahres waren die Auguren allerdings sogar von einem noch stärkeren Wachstum von 9,8 Prozent auf 5,61 Milliarden Dollar ausgegangen.

Vorsichtiges Agieren – außer bei KI

Zwar werden Investitionen in neue Software- und Serviceprojekte durch die allgemeine Unsicherheit gebremst“, erklärt John-David Lovelock, Distinguished VP Analyst bei Gartner. „Doch die umfassenden Digitalisierungsinitiativen rund um Künstliche Intelligenz und Generative AI (GenAI) sorgen weiterhin für starkes Wachstum – vor allem bei der Infrastruktur.“ Besonders deutlich zeigt sich das bei den KI-bezogenen Rechenzentrumssystemen, wo Gartner das Investitionswachstum für 2025 von ursprünglich 23,2 auf nun 42,4 Prozent korrigiert hat (Vorjahr: 40,3 Prozent).

   2024 Ausgaben (in Mio. Dollar)  2024 Wachstum (%)  2025 Ausgaben (in Mio. Dollar)  2025 Wachstum (%)Rechenzentrums-Systeme333,37240.3474,88342.4Endgeräte720,6814.6759,6155.4Software1,114,60411.91,232,14510.5IT-Dienstleistungen1,614 7564.81,686,3214.4Kommunikationsdienste  1,256,287  2.2  1,282,592  2.1Gesamter IT-Markt5,039,6997.45,435,5557.9

Doch damit nicht genug: Lovelock geht davon aus, dass die Ausgaben für GenAI-Server, die 2021 praktisch noch keine Rolle spielten, bis 2027 das Dreifache der Investitionen in Nicht-KI-Server erreichen werden.

Die Entwicklung deckt sich mit den Ergebnissen einer Gartner-Umfrage unter 252 Führungskräften von Großunternehmen aus verschiedenen Branchen in Nordamerika und Westeuropa. Dabei geben 62 Prozent der Teilnehmer an, dass Künstliche Intelligenz die Wettbewerbslandschaft der nächsten zehn Jahre maßgeblich prägen wird. Gleichzeitig bestätigt ein ähnlich hoher Teil (64 Prozent) der Befragten, dass Wettbewerbsfähigkeit in einem zunehmend schwierigen Umfeld der Hauptgrund für Investitionen in Technologie und organisatorischen Wandel sei.

Zwischen Optimismus und Zurückhaltung

Zwar geben 61 Prozent der Unternehmen an, mit besseren Voraussetzungen ins Jahr gestartet zu sein als 2024. Gleichzeitig erwarten jedoch nur 24 Prozent, ihre Jahresziele für 2025 tatsächlich zu übertreffen. Entsprechend agieren viele Firmen vorsichtiger und schieben größere Investitionen strategisch auf. „Es handelt sich nicht um klassische Budgetkürzungen“, betont Lovelock. „Die Mittel sind fest eingeplant – aber Unternehmen warten ab, bis sich Unsicherheiten klären.“

Besonders betroffen von dieser Zurückhaltung sind laut Gartner die Bereiche IT-Hardware und Infrastruktur – etwa durch gestiegene Preise und anhaltende Lieferkettenprobleme. Stabil bleiben sollen hingegen laufende Ausgaben für Cloud-Services, Managed Services oder andere wiederkehrende IT-Dienstleistungen.

Gartner: KI-Investitionen treiben IT-Ausgaben 2025 weiter an​ Weiterlesen »

Intel-CEO: “Wir gehören nicht mehr zur Halbleiter-Top-Ten”​

Allgemein

Bei Intel gibt es derzeit nichts zu beschönigen.Tada Images | shutterstock.com Der (Personal-)Abbau bei Intel schreitet weiter voran. Bis zu 20 Prozent der weltweiten Belegschaft könnten Medienberichten zufolge demnächst ihren Job verlieren. Nun hat sich Intel-CEO Lip-Bu Tan in einer Q&A-Session mit der Belegschaft zur aktuellen Lage des strauchelnden Chip-Giganten geäußert. Dabei schlug er ziemlich pessimistische Töne an – ein starker Kontrast zu seinem Vorgänger Pat Gelsinger. Die Äußerungen des Intel-CEO hat “The Oregonian” veröffentlicht, einer der größten Zeitungen in Portland, Oregon, wo Intel seit Jahren stark präsent ist. “Vor 20 bis 30 Jahren waren wir wirklich führend. Aber die Welt hat sich verändert. Wir gehören nicht mehr zur Top Ten der Halbleiterunternehmen”, wird Tan zitiert. “Es ist für uns zu spät” Tan hatte seinen Posten als neuer CEO von Intel im März 2025 angetreten und begann relativ schnell damit, nicht zum Kerngeschäft gehörende Assets zu veräußern und abzubauen. Während sein Vorgänger Pat Gelsinger das in kleinen Schritten versucht hatte, schreitet Lip-Bu Tan eher mit der Axt zu Werke: Intel hat seitdem nicht nur Produkte eingestellt, sondern auch sein Marketing und seine Pressearbeit ausgelagert. Nicht ohne Grund: Wie der Manager in der Q&A-Session mit der Belegschaft durchscheinen ließ, hält er Intel für zu “aufgebläht” – zu viele Management-Ebenen sorgten dafür, dass der Konzern nur schwerfällig agieren könne und so weit weniger flexibel als die Konkurrenten AMD und Nvidia sei. “Der gesamte Entscheidungsfindungsprozess ist so langsam, dass am Ende niemand eine Entscheidung trifft”, wird Tan zitiert.     Dennoch scheint der CEO eine Entscheidung getroffen zu haben: Nämlich, sich von KI-Führungsansprüchen zu verabschieden: “Mit Blick auf KI-Training ist es für uns zu spät”, sagte Tan laut “The Oregonian” und fügte hinzu, dass die Position von Nvidia in diesem Markt einfach “zu stark” sei. Damit ist dann wohl auch der Umsatz, den der KI-Beschleuniger Gaudi 3 hätte erzielen können, futsch. Stattdessen werde sich Intel laut Tan künftig auf “Edge-KI” konzentrieren – also darauf, PCs und andere Remote-Geräte mit der Technologie auszustatten, statt große Rechenzentren, wie es Nvidia und AMD tun. Der Turnaround von Intel, so Tan, werde allerdings ein “Marathon”. Die Problem-Queue wächst GPUs sind allerdings nicht das einzige Intel-Produkt, das floppt. Wie ein Reuters-Bericht nahelegt, könnte Intel den 18A-Fertigungsprozess für seine Foundry-Kunden möglicherweise überspringen und direkt auf 14A umsteigen. Das wäre ein enormer Rückschlag für den Konzern. Schließlich hat Intel viel darauf gesetzt, künftig zu einem führenden Fertigungsunternehmen aufzusteigen und TSMC Konkurrenz zu machen. Eine bedeutende, strategische Veränderung, die unter Ex-CEO Gelsinger gestartet wurde (und deren behäbige Umsetzung diesen letztlich den Kopf gekostet hat). Um Unternehmen wie Nvidia, Apple und Amazon Web Services als Kunden anzulocken, setzte Intel insbesondere auf den 18A-Fertigungsprozess, der noch 2025 eingeführt werden sollte. Wenn der Anbieter also nun gegenüber seinen Kunden von einer Verzögerung von 18A zugunsten von 14A spricht, bedeutet das nur eines: Es gibt Probleme mit 18A. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Intel-CEO: “Wir gehören nicht mehr zur Halbleiter-Top-Ten”​ Bei Intel gibt es derzeit nichts zu beschönigen.Tada Images | shutterstock.com

Der (Personal-)Abbau bei Intel schreitet weiter voran. Bis zu 20 Prozent der weltweiten Belegschaft könnten Medienberichten zufolge demnächst ihren Job verlieren. Nun hat sich Intel-CEO Lip-Bu Tan in einer Q&A-Session mit der Belegschaft zur aktuellen Lage des strauchelnden Chip-Giganten geäußert. Dabei schlug er ziemlich pessimistische Töne an – ein starker Kontrast zu seinem Vorgänger Pat Gelsinger.

Die Äußerungen des Intel-CEO hat “The Oregonian” veröffentlicht, einer der größten Zeitungen in Portland, Oregon, wo Intel seit Jahren stark präsent ist. “Vor 20 bis 30 Jahren waren wir wirklich führend. Aber die Welt hat sich verändert. Wir gehören nicht mehr zur Top Ten der Halbleiterunternehmen”, wird Tan zitiert.

“Es ist für uns zu spät”

Tan hatte seinen Posten als neuer CEO von Intel im März 2025 angetreten und begann relativ schnell damit, nicht zum Kerngeschäft gehörende Assets zu veräußern und abzubauen. Während sein Vorgänger Pat Gelsinger das in kleinen Schritten versucht hatte, schreitet Lip-Bu Tan eher mit der Axt zu Werke: Intel hat seitdem nicht nur Produkte eingestellt, sondern auch sein Marketing und seine Pressearbeit ausgelagert.

Nicht ohne Grund: Wie der Manager in der Q&A-Session mit der Belegschaft durchscheinen ließ, hält er Intel für zu “aufgebläht” – zu viele Management-Ebenen sorgten dafür, dass der Konzern nur schwerfällig agieren könne und so weit weniger flexibel als die Konkurrenten AMD und Nvidia sei. “Der gesamte Entscheidungsfindungsprozess ist so langsam, dass am Ende niemand eine Entscheidung trifft”, wird Tan zitiert.    

Dennoch scheint der CEO eine Entscheidung getroffen zu haben: Nämlich, sich von KI-Führungsansprüchen zu verabschieden: “Mit Blick auf KI-Training ist es für uns zu spät”, sagte Tan laut “The Oregonian” und fügte hinzu, dass die Position von Nvidia in diesem Markt einfach “zu stark” sei. Damit ist dann wohl auch der Umsatz, den der KI-Beschleuniger Gaudi 3 hätte erzielen können, futsch. Stattdessen werde sich Intel laut Tan künftig auf “Edge-KI” konzentrieren – also darauf, PCs und andere Remote-Geräte mit der Technologie auszustatten, statt große Rechenzentren, wie es Nvidia und AMD tun. Der Turnaround von Intel, so Tan, werde allerdings ein “Marathon”.

Die Problem-Queue wächst

GPUs sind allerdings nicht das einzige Intel-Produkt, das floppt. Wie ein Reuters-Bericht nahelegt, könnte Intel den 18A-Fertigungsprozess für seine Foundry-Kunden möglicherweise überspringen und direkt auf 14A umsteigen. Das wäre ein enormer Rückschlag für den Konzern.

Schließlich hat Intel viel darauf gesetzt, künftig zu einem führenden Fertigungsunternehmen aufzusteigen und TSMC Konkurrenz zu machen. Eine bedeutende, strategische Veränderung, die unter Ex-CEO Gelsinger gestartet wurde (und deren behäbige Umsetzung diesen letztlich den Kopf gekostet hat). Um Unternehmen wie Nvidia, Apple und Amazon Web Services als Kunden anzulocken, setzte Intel insbesondere auf den 18A-Fertigungsprozess, der noch 2025 eingeführt werden sollte. Wenn der Anbieter also nun gegenüber seinen Kunden von einer Verzögerung von 18A zugunsten von 14A spricht, bedeutet das nur eines: Es gibt Probleme mit 18A. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Intel-CEO: “Wir gehören nicht mehr zur Halbleiter-Top-Ten”​ Weiterlesen »

6 Schritte, um die Java-Lizenzierung unter Kontrolle zu bekommen​

Allgemein

loading=”lazy” width=”400px”>Die Suche nach Java-Installationen in der eigenen Unternehmens-IT kann aufwendige Ermittlungsarbeit bedeuten. Stock-Asso – shutterstock.com Java gehört zu den am weitesten verbreiteten Programmiersprachen der Welt und ist in nahezu jeder Unternehmens-IT in diversen Versionen im Einsatz. Lange Zeit war Java, das sich Oracle mit der Übernahme von Sun Microsystems 2010 einverleibt hatte, frei verfügbar. Kaum jemand machte sich Gedanken zum Thema Lizenzierung. Doch seit der Einführung des neuen Lizenzmodells Anfang 2023 kann die Nutzung von Oracle Java schnell zur finanziellen Bedrohung werden. Wer als IT-Verantwortlicher keinen genauen Überblick über die eigenen Java-Installationen und -Verwendungen hat, riskiert erhebliche Kosten und rechtliche Konsequenzen. In diesem Artikel zeigen wir, wo die größten Risiken liegen, warum viele Unternehmen Java falsch einschätzen, und welche konkreten Maßnahmen helfen, die Kontrolle zurückzugewinnen – bevor Oracle unangenehme Fragen stellt. 1. Java-Installationen im Blindflug Die meisten Unternehmen setzen Java auf vielfältige Weise ein, oft ohne es zu wissen. Es wird als Runtime in Eigenentwicklungen verwendet, steckt in Drittsoftware, die Java voraussetzt, oder wird für Server-seitige Applikationen benötigt. Oracle Java ist immer genutzt worden und damit nach wie vor auf einer Vielzahl von Geräten vorhanden. Das Problem: In vielen Fällen erfolgt keine zentrale Verwaltung oder Inventarisierung dieser Installationen. Besonders kritisch sind Endpoints wie Entwickler-PCs oder Systeme, auf denen Java lediglich zur Laufzeitunterstützung installiert wurde, zum Beispiel für Druckeranwendungen oder Bankensoftware. Lesetipp: Java SE Universal Subscription: Oracle kassiert Java-Kunden ab Noch brisanter wird die Lage durch den Umstand, dass auch veraltete Java-Versionen (zum Beispiel Java 8, Java 11) unter bestimmten Bedingungen lizenzpflichtig sein können. Oracle unterscheidet nicht zwischen aktiver und passiver Nutzung – allein die Installation kann schon kostenpflichtig sein. Ohne ein detailliertes Wissen über die eigenen Java-Assets droht also die Oracle-Java-Lizenzfalle. 2. Kosten durch das neue Lizenzmodell Mit der Einführung der “Java SE Universal Subscription” hat Oracle Anfang 2023 die Spielregeln grundlegend verändert. Die Abrechnung erfolgt nicht mehr pro Installation oder CPU, sondern pauschal pro Mitarbeiter – unabhängig davon, ob jeder Mitarbeiter Java tatsächlich nutzt. Die Definition von “employee” ist dabei besonders weit gefasst: Gemeint sind nicht nur Festangestellte, sondern auch Leiharbeiter, externe Dienstleister, Werkstudenten oder sogar Mitarbeiter von Partnerfirmen, die auf Systeme des Unternehmens zugreifen. Lesetipp: Mehr Audits: Oracle verschärft seine Java-Politik Die Auswirkungen dieses Modells sind erheblich. Selbst Unternehmen mit wenigen aktiven Java-Installationen können durch eine hohe Mitarbeiterzahl zu erheblichen Lizenzgebühren verpflichtet werden. Hinzu kommt: Es gibt kaum Nachlässe – Oracle setzt auf Transparenz und Kontrolle, jedoch ausschließlich zu seinen eigenen Bedingungen. Wer sich darauf nicht vorbereitet, wird im schlimmsten Fall zur Nachlizenzierung für tausende von Mitarbeitern gezwungen – mit jährlichen Kosten im sechsstelligen Bereich. Für Oracle zählt jeder, der für oder im Auftrag Ihres Unternehmens arbeitet, als zu lizenzierender User. Kennt man diese Größe, ergibt die Preisliste von Oracle den passenden Stückpreis gemäß Staffelung pro Monat. Siehe folgendes Schaubild: Oracle Für ein Unternehmen mit 8.000 Mitarbeitern sind es 1.008.000 Dollar pro Jahr. Dieser Preis gilt, wenn ein Unternehmen auf Oracle zugeht, um Java-Produkte zu lizenzieren. Wird im Fall eines Audits lizenzpflichtiges Oracle Java nachgewiesen, behält Oracle sich vor, mehrere vorangegangene Jahre ebenfalls in Rechnung zu stellen – zwei bis drei Jahre sind dabei keine Seltenheit. 3. Vom Chaos zur Kontrolle Um der Oracle-Java-Kostenfalle zu entgehen, müssen Anwenderunternehmen Transparenz schaffen – sowohl technisch als auch vertraglich. Es braucht einen klaren, strukturierten Plan: •          Der erste Schritt ist eine vollständige technische Inventarisierung aller Java-Installationen im Unternehmen. Hierbei reicht es nicht aus, nur auf die zentral verwalteten Systeme zu schauen. Auch Schatten-IT, Legacy-Systeme und externe IT-Strukturen müssen einbezogen werden. Professionelle Software Asset Management (SAM)-Tools und Skript-basierte Scans helfen, alle relevanten Java-Versionen und deren Herkunft (zum Beispiel Oracle, OpenJDK oder andere Anbieter) zu identifizieren. •          Als zweites sollte eine Analyse erfolgen, welche dieser Installationen tatsächlich lizenzpflichtig sind – eine komplexe Aufgabe, bei der Erfahrung und Spezialwissen gefragt sind. Auch Vertragsprüfungen mit Oracle aus der Vergangenheit sind wichtig, da es individuelle Vereinbarungen geben kann, die Einfluss auf die aktuelle Lizenzpflicht haben. •          Der dritte Schritt ist die Nutzungsermittlung. Selbst wenn eine Installation eigentlich nicht lizenzpflichtig ist, kommt es auf den konkreten Einsatz an. Einige Oracle-Produkte (wie Oracle Database, WebLogic Server usw.) enthalten eine eingebettete Java-Runtime für ihren Betrieb. Viele glauben, dass Oracle DB-Lizenzen automatisch alle Java-Installationen abdecken.Das ist falsch. Die Lizenz für diese Produkte deckt Java nur für die Nutzung innerhalb dieses Produkts ab. Wenn man dieselbe Java-Installation für andere Zwecke verwendet, ist das nicht abgedeckt. Die Gefahr besteht in der Selbstüberschätzung, Oracle Java großflächig einzusetzen, weil man denkt, bestimmte Oracle-Produkte zu besitzen. Nur wenn Sie wissen, was sie nutzen, wie sie Java nutzen und unter welchen Bedingungen, lassen sich valide Lizenzstrategien entwickeln. Wichtig ist dabei: Oracle erkennt nur fundierte, belastbare Datenanalysen an. Bauchgefühl oder Annahmen reichen nicht aus, um sich im Fall eines Audits wehren zu können. 4. Kostensenkung durch Alternativen & Verhandlungsspielraum Ist die technische Grundlage gelegt, können Strategien zur Kostenvermeidung entwickelt werden. Diese Maßnahmen können Sie ergreifen, um kostenpflichtige Oracle Java Installationen zu eliminieren: – Prüfen Sie, ob bestimmte Installationen überhaupt notwendig sind, andernfalls gehören sie deinstalliert. Häufig ist Oracle Java nur für einen vorübergehenden Zweck heruntergeladen worden und wird gar nicht mehr benötigt. – Prüfen Sie, ob diese Java-Instanzen durch Drittapplikationen installiert wurden. Wenn ja, fragen Sie nach, ob der Hersteller der Drittapplikation Java lizenziert hat und legen Sie ein positives Ergebnis dokumentiert ab. – Prüfen Sie, ob Applikationen, die die Java-Installation benötigen auch mit einer freien Variante zusammenarbeiten. – Prüfen Sie, ob es Alternativen zu den Applikationen gibt, die Oracle-Java benötigen. SAMtoa Eine naheliegende Möglichkeit ist die Migration auf freie Java-Distributionen wie OpenJDK, Amazon Corretto, AdoptOpenJDK oder Azul Zulu. Diese sind in vielen Fällen technisch gleichwertig und kostenfrei nutzbar. Voraussetzung ist, dass Sie den Umstieg planen und auf Kompatibilität sowie Sicherheit prüfen. Gleichzeitig sollte das Gespräch mit Oracle nicht gescheut werden. Wer seine Hausaufgaben gemacht hat, ist in einer besseren Verhandlungsposition. Manchmal lassen sich individuelle Vereinbarungen oder Rabatte erzielen. Das hängt allerdings stark von der individuellen Verhandlungsposition ab, hier vor allem von der Höhe des sonstigen Vertragsvolumens mit Oracle und zukünftiger monetärer Verpflichtungen. Besonders wichtig: Alle Verhandlungen sollten dokumentiert und im Kontext eines ganzheitlichen SAM-Ansatzes geführt werden. Lesetipp: Oracle verliert Java-Kunden IT-Verantwortliche, die strategisch agieren, können nicht nur erhebliche Kosten vermeiden, sondern auch ihre IT-Landschaft nachhaltig vereinfachen. Denn Java ist selten ein isoliertes Problem – oft führt die Analyse auch zu weiteren Optimierungspotenzialen im Softwarebestand. 5. Strategische Optionen für Oracle-Java im Unternehmen Ein Check der IT-Landschaft ist häufig eine Adhoc-Aktion, deren Ergebnisse schon nach einiger Zeit wieder veraltet sind. Damit Sie die erworbene Oracle-Java-Sicherheit behalten, wird eine langfristige Strategie benötigt, die möglichst wenig Ressourcen und Geld verbraucht: 1. Setzen Sie ein Tool ein, dass Ihre Oracle-Java-Installationen aufdeckt. Vielleicht haben Sie bereits eines im Haus, nutzen es aber noch nicht zielgerichtet. Die Kosten für ein SAM-Tool, dass Oracle-Java identifizieren kann, ist deutlich günstiger als eine Oracle-Java-Subscription. 2. Führen Sie quartalsweise einen Check durch mit dem Ziel, diese Fragen zu beantworten: Sind kostenpflichtige Versionen im Haus? Wie und durch wen werden sie genutzt? Sind sie ersetzbar oder vielleicht sogar überflüssig? 3. Sensibilisieren Sie Ihre Mitarbeiter. Wenn das Risiko bekannt ist, erhöht sich die Aussicht, dass sich auch viele an die Oracle-Java-Regeln halten. 4. Bieten Sie zugelassene Alternativen zu Oracle Java an. Mitarbeiter, die wissen, welche Java Editionen im Unternehmen unterstützt werden, kommen erst gar nicht in die Verlegenheit, sich etwas von der Oracle-Seite herunterzuladen. 5. Prüfen Sie jedes Mal wieder Software, die sie neu einsetzen möchten auf Oracle-Java-Bestandteile. 6. Lizenz-Strategie bei ausgelagerten und gehosteten Systemen Für Unternehmen, die Entwicklung oder den IT-Betrieb auslagern, ist es von entscheidender Bedeutung, dass das Partnerunternehmen die Oracle-Java-Lizenzierung ernst nimmt. Für Oracle zählt der Auftragnehmer als „Mitarbeiter“ des eigenen Unternehmens. Diese Punkte verringern Ihr Oracle-Java-Risiko: • In Verträge einbeziehen: Wenn Sie eine Outsourcing-Firma oder Berater beauftragen, sollten Sie Klauseln aufnehmen, die die Partner zur Einhaltung Ihrer Software-Richtlinien verpflichten. Legen Sie zum Beispiel fest, dass jede Software, die in Ihrem Auftrag installiert oder verwendet wird, ordnungsgemäße Lizenzen haben muss und dass Ihre Anweisungen für zulässige Software befolgt werden müssen. • Kommunizieren Sie die Erwartungen: Informieren Sie den Partner zu Beginn eines Auftrags über Ihre Java-Richtlinien. Stellen Sie klar: „Wir haben eine lizenzierte OpenJDK-Umgebung (oder ein Oracle-Abonnement für X Mitarbeiter). Sie sollten Oracle Java nicht herunterladen oder außerhalb dieser Richtlinie für unsere Projekte verwenden.“ • Stellen Sie Partnern die notwendigen Werkzeuge zur Verfügung: Wenn Auftragnehmer Umgebungen für Sie einrichten, geben Sie ihnen die vorab genehmigten Java-Binärdateien oder Docker-Images. Wenn Sie ein Abonnement haben, können Sie ihnen das Oracle JDK zur Verfügung stellen, da es gezählt wird; wenn nicht, stellen Sie sicher, dass sie OpenJDK verwenden. Gehen Sie nicht davon aus, dass Ihr Auftragspartner Bescheid weiß – stellen Sie aktiv bereit, was benötigt wird. • Überwachen und Überprüfen Sie die Infrastruktur beim Partner: Behandeln Sie Maschinen/Server von Auftragnehmern zu Prüfzwecken so, als wären sie Ihre eigenen. Nehmen Sie sie in Ihre Bestandsprüfungen auf. Wenn Auftragnehmer getrennte Umgebungen verwalten, zum Beispiel ein externes Team), sollten sie über die Softwarenutzung Bericht erstatten. Sie können sie vertraglich dazu verpflichten. • Kontaktperson: Beauftragen Sie eine Person auf Ihrer Seite (zum Beispiel einen internen Projektmanager) mit der Überwachung der Aktivitäten des ausgelagerten Teams in Bezug auf den Tech-Stack. Diese Person kann beispielsweise feststellen, ob der Partner ein Oracle WebLogic benutzt, das Java enthält. Im Wesentlichen dehnen Sie damit Ihr internes Compliance-Programm auf Ihre Lieferanten aus. Machen Sie es zu einem Teil des Lieferantenmanagements. Das hilft sicherzustellen, dass die Partnerunternehmen mit Ihrer Lizenzierungspolitik übereinstimmen. Fazit: Proaktiv statt reaktiv – und warum Sie jetzt handeln sollten Die Gefahr, in die Oracle-Java-Kostenfalle zu tappen, ist real und aktueller denn je. Durch das neue Lizenzmodell und die aggressive Auslegung der Nutzungspflicht geraten Unternehmen zunehmend unter Druck. Wer erst handelt, wenn Oracle zum Audit ansetzt, hat kaum noch Spielraum. Die gute Nachricht: Mit einem strukturierten Vorgehen, technischer Bestandsaufnahme und fundierter Lizenzexpertise lassen sich Risiken minimieren und Einsparpotenziale heben. Als IT-Leiter tragen Sie schließlich die Verantwortung, frühzeitig Klarheit zu schaffen – technisch, organisatorisch und strategisch. (ba) 

6 Schritte, um die Java-Lizenzierung unter Kontrolle zu bekommen​ loading=”lazy” width=”400px”>Die Suche nach Java-Installationen in der eigenen Unternehmens-IT kann aufwendige Ermittlungsarbeit bedeuten. Stock-Asso – shutterstock.com

Java gehört zu den am weitesten verbreiteten Programmiersprachen der Welt und ist in nahezu jeder Unternehmens-IT in diversen Versionen im Einsatz. Lange Zeit war Java, das sich Oracle mit der Übernahme von Sun Microsystems 2010 einverleibt hatte, frei verfügbar. Kaum jemand machte sich Gedanken zum Thema Lizenzierung.

Doch seit der Einführung des neuen Lizenzmodells Anfang 2023 kann die Nutzung von Oracle Java schnell zur finanziellen Bedrohung werden. Wer als IT-Verantwortlicher keinen genauen Überblick über die eigenen Java-Installationen und -Verwendungen hat, riskiert erhebliche Kosten und rechtliche Konsequenzen.

In diesem Artikel zeigen wir, wo die größten Risiken liegen, warum viele Unternehmen Java falsch einschätzen, und welche konkreten Maßnahmen helfen, die Kontrolle zurückzugewinnen – bevor Oracle unangenehme Fragen stellt.

1. Java-Installationen im Blindflug

Die meisten Unternehmen setzen Java auf vielfältige Weise ein, oft ohne es zu wissen. Es wird als Runtime in Eigenentwicklungen verwendet, steckt in Drittsoftware, die Java voraussetzt, oder wird für Server-seitige Applikationen benötigt. Oracle Java ist immer genutzt worden und damit nach wie vor auf einer Vielzahl von Geräten vorhanden.

Das Problem: In vielen Fällen erfolgt keine zentrale Verwaltung oder Inventarisierung dieser Installationen. Besonders kritisch sind Endpoints wie Entwickler-PCs oder Systeme, auf denen Java lediglich zur Laufzeitunterstützung installiert wurde, zum Beispiel für Druckeranwendungen oder Bankensoftware.

Lesetipp: Java SE Universal Subscription: Oracle kassiert Java-Kunden ab

Noch brisanter wird die Lage durch den Umstand, dass auch veraltete Java-Versionen (zum Beispiel Java 8, Java 11) unter bestimmten Bedingungen lizenzpflichtig sein können. Oracle unterscheidet nicht zwischen aktiver und passiver Nutzung – allein die Installation kann schon kostenpflichtig sein. Ohne ein detailliertes Wissen über die eigenen Java-Assets droht also die Oracle-Java-Lizenzfalle.

2. Kosten durch das neue Lizenzmodell

Mit der Einführung der “Java SE Universal Subscription” hat Oracle Anfang 2023 die Spielregeln grundlegend verändert. Die Abrechnung erfolgt nicht mehr pro Installation oder CPU, sondern pauschal pro Mitarbeiter – unabhängig davon, ob jeder Mitarbeiter Java tatsächlich nutzt.

Die Definition von “employee” ist dabei besonders weit gefasst: Gemeint sind nicht nur Festangestellte, sondern auch Leiharbeiter, externe Dienstleister, Werkstudenten oder sogar Mitarbeiter von Partnerfirmen, die auf Systeme des Unternehmens zugreifen.

Lesetipp: Mehr Audits: Oracle verschärft seine Java-Politik

Die Auswirkungen dieses Modells sind erheblich. Selbst Unternehmen mit wenigen aktiven Java-Installationen können durch eine hohe Mitarbeiterzahl zu erheblichen Lizenzgebühren verpflichtet werden. Hinzu kommt: Es gibt kaum Nachlässe – Oracle setzt auf Transparenz und Kontrolle, jedoch ausschließlich zu seinen eigenen Bedingungen. Wer sich darauf nicht vorbereitet, wird im schlimmsten Fall zur Nachlizenzierung für tausende von Mitarbeitern gezwungen – mit jährlichen Kosten im sechsstelligen Bereich.

Für Oracle zählt jeder, der für oder im Auftrag Ihres Unternehmens arbeitet, als zu lizenzierender User. Kennt man diese Größe, ergibt die Preisliste von Oracle den passenden Stückpreis gemäß Staffelung pro Monat. Siehe folgendes Schaubild:

Oracle

Für ein Unternehmen mit 8.000 Mitarbeitern sind es 1.008.000 Dollar pro Jahr. Dieser Preis gilt, wenn ein Unternehmen auf Oracle zugeht, um Java-Produkte zu lizenzieren. Wird im Fall eines Audits lizenzpflichtiges Oracle Java nachgewiesen, behält Oracle sich vor, mehrere vorangegangene Jahre ebenfalls in Rechnung zu stellen – zwei bis drei Jahre sind dabei keine Seltenheit.

3. Vom Chaos zur Kontrolle

Um der Oracle-Java-Kostenfalle zu entgehen, müssen Anwenderunternehmen Transparenz schaffen – sowohl technisch als auch vertraglich. Es braucht einen klaren, strukturierten Plan:

•          Der erste Schritt ist eine vollständige technische Inventarisierung aller Java-Installationen im Unternehmen. Hierbei reicht es nicht aus, nur auf die zentral verwalteten Systeme zu schauen. Auch Schatten-IT, Legacy-Systeme und externe IT-Strukturen müssen einbezogen werden. Professionelle Software Asset Management (SAM)-Tools und Skript-basierte Scans helfen, alle relevanten Java-Versionen und deren Herkunft (zum Beispiel Oracle, OpenJDK oder andere Anbieter) zu identifizieren.

•          Als zweites sollte eine Analyse erfolgen, welche dieser Installationen tatsächlich lizenzpflichtig sind – eine komplexe Aufgabe, bei der Erfahrung und Spezialwissen gefragt sind. Auch Vertragsprüfungen mit Oracle aus der Vergangenheit sind wichtig, da es individuelle Vereinbarungen geben kann, die Einfluss auf die aktuelle Lizenzpflicht haben.

•          Der dritte Schritt ist die Nutzungsermittlung. Selbst wenn eine Installation eigentlich nicht lizenzpflichtig ist, kommt es auf den konkreten Einsatz an. Einige Oracle-Produkte (wie Oracle Database, WebLogic Server usw.) enthalten eine eingebettete Java-Runtime für ihren Betrieb. Viele glauben, dass Oracle DB-Lizenzen automatisch alle Java-Installationen abdecken.Das ist falsch. Die Lizenz für diese Produkte deckt Java nur für die Nutzung innerhalb dieses Produkts ab. Wenn man dieselbe Java-Installation für andere Zwecke verwendet, ist das nicht abgedeckt. Die Gefahr besteht in der Selbstüberschätzung, Oracle Java großflächig einzusetzen, weil man denkt, bestimmte Oracle-Produkte zu besitzen.

Nur wenn Sie wissen, was sie nutzen, wie sie Java nutzen und unter welchen Bedingungen, lassen sich valide Lizenzstrategien entwickeln. Wichtig ist dabei: Oracle erkennt nur fundierte, belastbare Datenanalysen an. Bauchgefühl oder Annahmen reichen nicht aus, um sich im Fall eines Audits wehren zu können.

4. Kostensenkung durch Alternativen & Verhandlungsspielraum

Ist die technische Grundlage gelegt, können Strategien zur Kostenvermeidung entwickelt werden. Diese Maßnahmen können Sie ergreifen, um kostenpflichtige Oracle Java Installationen zu eliminieren:

– Prüfen Sie, ob bestimmte Installationen überhaupt notwendig sind, andernfalls gehören sie deinstalliert. Häufig ist Oracle Java nur für einen vorübergehenden Zweck heruntergeladen worden und wird gar nicht mehr benötigt.

– Prüfen Sie, ob diese Java-Instanzen durch Drittapplikationen installiert wurden. Wenn ja, fragen Sie nach, ob der Hersteller der Drittapplikation Java lizenziert hat und legen Sie ein positives Ergebnis dokumentiert ab.

– Prüfen Sie, ob Applikationen, die die Java-Installation benötigen auch mit einer freien Variante zusammenarbeiten.

– Prüfen Sie, ob es Alternativen zu den Applikationen gibt, die Oracle-Java benötigen.

SAMtoa

Eine naheliegende Möglichkeit ist die Migration auf freie Java-Distributionen wie OpenJDK, Amazon Corretto, AdoptOpenJDK oder Azul Zulu. Diese sind in vielen Fällen technisch gleichwertig und kostenfrei nutzbar. Voraussetzung ist, dass Sie den Umstieg planen und auf Kompatibilität sowie Sicherheit prüfen.

Gleichzeitig sollte das Gespräch mit Oracle nicht gescheut werden. Wer seine Hausaufgaben gemacht hat, ist in einer besseren Verhandlungsposition. Manchmal lassen sich individuelle Vereinbarungen oder Rabatte erzielen. Das hängt allerdings stark von der individuellen Verhandlungsposition ab, hier vor allem von der Höhe des sonstigen Vertragsvolumens mit Oracle und zukünftiger monetärer Verpflichtungen. Besonders wichtig: Alle Verhandlungen sollten dokumentiert und im Kontext eines ganzheitlichen SAM-Ansatzes geführt werden.

Lesetipp: Oracle verliert Java-Kunden

IT-Verantwortliche, die strategisch agieren, können nicht nur erhebliche Kosten vermeiden, sondern auch ihre IT-Landschaft nachhaltig vereinfachen. Denn Java ist selten ein isoliertes Problem – oft führt die Analyse auch zu weiteren Optimierungspotenzialen im Softwarebestand.

5. Strategische Optionen für Oracle-Java im Unternehmen

Ein Check der IT-Landschaft ist häufig eine Adhoc-Aktion, deren Ergebnisse schon nach einiger Zeit wieder veraltet sind. Damit Sie die erworbene Oracle-Java-Sicherheit behalten, wird eine langfristige Strategie benötigt, die möglichst wenig Ressourcen und Geld verbraucht:

1. Setzen Sie ein Tool ein, dass Ihre Oracle-Java-Installationen aufdeckt. Vielleicht haben Sie bereits eines im Haus, nutzen es aber noch nicht zielgerichtet. Die Kosten für ein SAM-Tool, dass Oracle-Java identifizieren kann, ist deutlich günstiger als eine Oracle-Java-Subscription.

2. Führen Sie quartalsweise einen Check durch mit dem Ziel, diese Fragen zu beantworten: Sind kostenpflichtige Versionen im Haus? Wie und durch wen werden sie genutzt? Sind sie ersetzbar oder vielleicht sogar überflüssig?

3. Sensibilisieren Sie Ihre Mitarbeiter. Wenn das Risiko bekannt ist, erhöht sich die Aussicht, dass sich auch viele an die Oracle-Java-Regeln halten.

4. Bieten Sie zugelassene Alternativen zu Oracle Java an. Mitarbeiter, die wissen, welche Java Editionen im Unternehmen unterstützt werden, kommen erst gar nicht in die Verlegenheit, sich etwas von der Oracle-Seite herunterzuladen.

5. Prüfen Sie jedes Mal wieder Software, die sie neu einsetzen möchten auf Oracle-Java-Bestandteile.

6. Lizenz-Strategie bei ausgelagerten und gehosteten Systemen

Für Unternehmen, die Entwicklung oder den IT-Betrieb auslagern, ist es von entscheidender Bedeutung, dass das Partnerunternehmen die Oracle-Java-Lizenzierung ernst nimmt. Für Oracle zählt der Auftragnehmer als „Mitarbeiter“ des eigenen Unternehmens. Diese Punkte verringern Ihr Oracle-Java-Risiko:

• In Verträge einbeziehen: Wenn Sie eine Outsourcing-Firma oder Berater beauftragen, sollten Sie Klauseln aufnehmen, die die Partner zur Einhaltung Ihrer Software-Richtlinien verpflichten. Legen Sie zum Beispiel fest, dass jede Software, die in Ihrem Auftrag installiert oder verwendet wird, ordnungsgemäße Lizenzen haben muss und dass Ihre Anweisungen für zulässige Software befolgt werden müssen.

• Kommunizieren Sie die Erwartungen: Informieren Sie den Partner zu Beginn eines Auftrags über Ihre Java-Richtlinien. Stellen Sie klar: „Wir haben eine lizenzierte OpenJDK-Umgebung (oder ein Oracle-Abonnement für X Mitarbeiter). Sie sollten Oracle Java nicht herunterladen oder außerhalb dieser Richtlinie für unsere Projekte verwenden.“

• Stellen Sie Partnern die notwendigen Werkzeuge zur Verfügung: Wenn Auftragnehmer Umgebungen für Sie einrichten, geben Sie ihnen die vorab genehmigten Java-Binärdateien oder Docker-Images. Wenn Sie ein Abonnement haben, können Sie ihnen das Oracle JDK zur Verfügung stellen, da es gezählt wird; wenn nicht, stellen Sie sicher, dass sie OpenJDK verwenden. Gehen Sie nicht davon aus, dass Ihr Auftragspartner Bescheid weiß – stellen Sie aktiv bereit, was benötigt wird.

• Überwachen und Überprüfen Sie die Infrastruktur beim Partner: Behandeln Sie Maschinen/Server von Auftragnehmern zu Prüfzwecken so, als wären sie Ihre eigenen. Nehmen Sie sie in Ihre Bestandsprüfungen auf. Wenn Auftragnehmer getrennte Umgebungen verwalten, zum Beispiel ein externes Team), sollten sie über die Softwarenutzung Bericht erstatten. Sie können sie vertraglich dazu verpflichten.

• Kontaktperson: Beauftragen Sie eine Person auf Ihrer Seite (zum Beispiel einen internen Projektmanager) mit der Überwachung der Aktivitäten des ausgelagerten Teams in Bezug auf den Tech-Stack. Diese Person kann beispielsweise feststellen, ob der Partner ein Oracle WebLogic benutzt, das Java enthält.

Im Wesentlichen dehnen Sie damit Ihr internes Compliance-Programm auf Ihre Lieferanten aus. Machen Sie es zu einem Teil des Lieferantenmanagements. Das hilft sicherzustellen, dass die Partnerunternehmen mit Ihrer Lizenzierungspolitik übereinstimmen.

Fazit: Proaktiv statt reaktiv – und warum Sie jetzt handeln sollten

Die Gefahr, in die Oracle-Java-Kostenfalle zu tappen, ist real und aktueller denn je. Durch das neue Lizenzmodell und die aggressive Auslegung der Nutzungspflicht geraten Unternehmen zunehmend unter Druck. Wer erst handelt, wenn Oracle zum Audit ansetzt, hat kaum noch Spielraum.

Die gute Nachricht: Mit einem strukturierten Vorgehen, technischer Bestandsaufnahme und fundierter Lizenzexpertise lassen sich Risiken minimieren und Einsparpotenziale heben. Als IT-Leiter tragen Sie schließlich die Verantwortung, frühzeitig Klarheit zu schaffen – technisch, organisatorisch und strategisch. (ba)

6 Schritte, um die Java-Lizenzierung unter Kontrolle zu bekommen​ Weiterlesen »

Nestlé macht KI zum Hauptgang​

Allgemein

Nestlé setzt zwar große Stücke auf generative KI, lässt den Faktor Mensch dabei jedoch nicht außen vor.  Benny Marty | shutterstock.com Auch die globale Lebensmittel- und Getränkeindustrie befindet sich in einem Wandel. Dieser wird nicht nur von Meisterköchen und Vermarktern aller Couleur angetrieben wird, sondern hinter den Kulissen vor allem auch von Systemen auf Basis von künstlicher Intelligenz (KI). Entsprechend ist die Technologie für Lebensmittelkonzerne längst kein futuristisches Konzept mehr und unterstützt bereits dabei, Lieferkettenunterbrechungen zu antizipieren, neue Rezepturen zu entwickeln, Ausschuss zu reduzieren und die Nachhaltigkeitsziele zu erreichen. Nestlé macht dabei keine Ausnahme – im Gegenteil: Wir setzen generative KI in diversen Unternehmensbereichen ein. Doch bei aller Begeisterung gilt es schon einmal vorab festzuhalten: KI kann nicht zaubern. Jeder vielversprechende Anwendungsfall birgt auch Risiken, sich zu übernehmen, beziehungsweise folgenschwere Fehler zu begehen. Etwa, wenn es um ethische Datennutzung geht oder Automatisierung. Für IT- und Technologieentscheider besteht die Herausforderung dabei weniger darin, den Mehrwert der KI unter Beweis zu stellen. Sie müssen in erster Linie die Kultur, Skills und Systeme entwickeln, die es ermöglichen, die Technologie verantwortungsvoll zu skalieren. Was Nestlé mit KI optimiert Die Lebensmittelindustrie hat seit jeher mit Unwägbarkeiten zu kämpfen: Schwankende Ernteerträge, logistische Engpässe und sich verändernde Verbraucherpräferenzen erschweren regelmäßig die Planung. Oder im Fall von Nestlé: erschwerten. Denn wir setzen auf KI, um Nachfragemuster wesentlich genauer als bisher möglich zu antizipieren und unsere Produktion und Lagerbestände dynamisch anzupassen. Ganz konkret nutzen wir die Technologie beispielsweise, um: die Ankunftszeit von Containern in Zielhäfen zu prognostizieren, statistische Prognosen zu erstellen, oder die Genauigkeit unserer Bedarfsplanung zu verbessern. Davon abgesehen, setzen wir KI auch in der Rezepturentwicklung ein: Um die Ideenfindung und Produktentwicklung zu beschleunigen, analysieren ML-Modelle historische Forschungs- und Entwicklungsdaten. Und dabei handelt es sich nicht um Experimente oder Pilotprojekte, sondern um produktive Pipelines, die bereits echte Ergebnisse liefern. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Greg Kahn (li.) ist CEO von GK Digital Ventures und Mitbegründer von AI Trailblazers. Luca Dell’Orletta (re.) ist Global Head of Tech Innovation and Enterprise Architecture bei der Nestlé Group.Greg Kahn / Luca Dell’Orletta Operative Effizienz allein reicht allerdings nicht aus. Damit KI wirklich etwas bewirken kann, muss sie auch übergeordnete Ziele wie Nachhaltigkeit unterstützen. Das zu verwirklichen, ist eine der größten Herausforderungen für die Lebensmittelbranche, bei der regenerative Landwirtschaft und innovative Verpackungen eine wichtige Rolle spielen. Mit KI ist es möglich, diese Effekte weiter zu verstärken. So explorieren wir derzeit unter anderem, wie KI-Modelle das CO²-Tracking über komplexe landwirtschaftliche Lieferketten hinweg optimieren können, um intelligentere Beschaffungsentscheidungen zu ermöglichen und Emissionen in großem Maßstab zu reduzieren. Und im Bereich der Fertigung können KI-gestützte Bildverarbeitungssysteme Ausschuss minimieren und die Energienutzung verbessern, was ebenfalls dazu beiträgt, dass Nestlé seine Umweltverpflichtungen erfüllen kann. Doch auch wenn wir KI in die Grundstruktur unserer Betriebsabläufe integrieren, bleiben wir realistisch: Keine Technologie sollte die Werte ersetzen oder verdrängen, die qualitativ hochwertige Lebensmittel ausmachen – Handwerkskunst und Menschlichkeit. Kein Freifahrtschein für KI So ist eines der verlockendsten Features von Generative AI seine Geschwindigkeit: Damit ließen sich Kampagneninhalte, Texte oder Produktkonzepte nahezu augenblicklich generieren. Aber schneller heißt nicht unbedingt besser: Lebensmittel sind kulturell geprägt. Sie wecken Emotionen. Was in einer Region Anklang findet, kann in einer anderen völlig in die Hose gehen. Deshalb glauben wir bei Nestlé an Human-in-the-Loop-Systeme, die es lokalen Teams ermöglichen, globale Lösungen anzupassen. Und können nur davor warnen, Algorithmen ohne Aufsicht die Steuerung kreativer Tasks zu überlassen. Dazu kommen Bedenken hinsichtlich Bias, wenn es um Produkttests und Verbraucherforschung geht – insbesondere, wenn Datensätze nicht die gesamte Vielfalt globaler Verbraucher widerspiegeln. Für multinationale Lebensmittelkonzerne sollte eine verantwortungsvolle Skalierung von KI auch ein Commitment zu Diversity auf Datenebene beinhalten. In dieser neuen Ära ist der IT-Entscheider oder CIO nicht mehr nur ein Technologiepartner. Er muss zum Wachstumsmotor, Datenwächter und zunehmend auch zum Koordinator zwischen verschiedenen Transformations-Enablern werden. Der KI-Erfolg hängt deshalb nicht davon ab, die neuesten Modell einzusetzen. Vielmehr gilt es, Talente, Governance und Experimentierfreude auf eine Art und Weise zu fördern, die mit dem Purpose und der Risikobereitschaft des jeweiligen Brands im Einklang stehen. Es geht hierbei um eine integrierte Ebene, die sich über alle Funktionsbereiche und Abteilungen hinweg durchgängig über die gesamten Geschäftswertströme erstreckt. Wir sind davon überzeugt, dass Lebensmittelunternehmen, die KI als Kernkompetenz (und nicht als Zusatzfunktion) betrachten, letztendlich die Nase vorn haben werden. Dabei zählt nicht, wer am schnellsten automatisiert. Es kommt auf die Fähigkeit an, Dinge neu zu denken und neue Arbeitsmethoden zu verinnerlichen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nestlé macht KI zum Hauptgang​ Nestlé setzt zwar große Stücke auf generative KI, lässt den Faktor Mensch dabei jedoch nicht außen vor.  Benny Marty | shutterstock.com

Auch die globale Lebensmittel- und Getränkeindustrie befindet sich in einem Wandel. Dieser wird nicht nur von Meisterköchen und Vermarktern aller Couleur angetrieben wird, sondern hinter den Kulissen vor allem auch von Systemen auf Basis von künstlicher Intelligenz (KI). Entsprechend ist die Technologie für Lebensmittelkonzerne längst kein futuristisches Konzept mehr und unterstützt bereits dabei,

Lieferkettenunterbrechungen zu antizipieren,

neue Rezepturen zu entwickeln,

Ausschuss zu reduzieren und

die Nachhaltigkeitsziele zu erreichen.

Nestlé macht dabei keine Ausnahme – im Gegenteil: Wir setzen generative KI in diversen Unternehmensbereichen ein. Doch bei aller Begeisterung gilt es schon einmal vorab festzuhalten: KI kann nicht zaubern. Jeder vielversprechende Anwendungsfall birgt auch Risiken, sich zu übernehmen, beziehungsweise folgenschwere Fehler zu begehen. Etwa, wenn es um ethische Datennutzung geht oder Automatisierung.

Für IT- und Technologieentscheider besteht die Herausforderung dabei weniger darin, den Mehrwert der KI unter Beweis zu stellen. Sie müssen in erster Linie die Kultur, Skills und Systeme entwickeln, die es ermöglichen, die Technologie verantwortungsvoll zu skalieren.

Was Nestlé mit KI optimiert

Die Lebensmittelindustrie hat seit jeher mit Unwägbarkeiten zu kämpfen: Schwankende Ernteerträge, logistische Engpässe und sich verändernde Verbraucherpräferenzen erschweren regelmäßig die Planung. Oder im Fall von Nestlé: erschwerten. Denn wir setzen auf KI, um Nachfragemuster wesentlich genauer als bisher möglich zu antizipieren und unsere Produktion und Lagerbestände dynamisch anzupassen. Ganz konkret nutzen wir die Technologie beispielsweise, um:

die Ankunftszeit von Containern in Zielhäfen zu prognostizieren,

statistische Prognosen zu erstellen, oder

die Genauigkeit unserer Bedarfsplanung zu verbessern.

Davon abgesehen, setzen wir KI auch in der Rezepturentwicklung ein: Um die Ideenfindung und Produktentwicklung zu beschleunigen, analysieren ML-Modelle historische Forschungs- und Entwicklungsdaten. Und dabei handelt es sich nicht um Experimente oder Pilotprojekte, sondern um produktive Pipelines, die bereits echte Ergebnisse liefern.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/kahn-dell0rietta-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Greg Kahn (li.) ist CEO von GK Digital Ventures und Mitbegründer von AI Trailblazers. Luca Dell’Orletta (re.) ist Global Head of Tech Innovation and Enterprise Architecture bei der Nestlé Group.Greg Kahn / Luca Dell’Orletta

Operative Effizienz allein reicht allerdings nicht aus. Damit KI wirklich etwas bewirken kann, muss sie auch übergeordnete Ziele wie Nachhaltigkeit unterstützen. Das zu verwirklichen, ist eine der größten Herausforderungen für die Lebensmittelbranche, bei der regenerative Landwirtschaft und innovative Verpackungen eine wichtige Rolle spielen. Mit KI ist es möglich, diese Effekte weiter zu verstärken.

So explorieren wir derzeit unter anderem, wie KI-Modelle das CO²-Tracking über komplexe landwirtschaftliche Lieferketten hinweg optimieren können, um intelligentere Beschaffungsentscheidungen zu ermöglichen und Emissionen in großem Maßstab zu reduzieren. Und im Bereich der Fertigung können KI-gestützte Bildverarbeitungssysteme Ausschuss minimieren und die Energienutzung verbessern, was ebenfalls dazu beiträgt, dass Nestlé seine Umweltverpflichtungen erfüllen kann.

Doch auch wenn wir KI in die Grundstruktur unserer Betriebsabläufe integrieren, bleiben wir realistisch: Keine Technologie sollte die Werte ersetzen oder verdrängen, die qualitativ hochwertige Lebensmittel ausmachen – Handwerkskunst und Menschlichkeit.

Kein Freifahrtschein für KI

So ist eines der verlockendsten Features von Generative AI seine Geschwindigkeit: Damit ließen sich Kampagneninhalte, Texte oder Produktkonzepte nahezu augenblicklich generieren. Aber schneller heißt nicht unbedingt besser: Lebensmittel sind kulturell geprägt. Sie wecken Emotionen. Was in einer Region Anklang findet, kann in einer anderen völlig in die Hose gehen. Deshalb glauben wir bei Nestlé an Human-in-the-Loop-Systeme, die es lokalen Teams ermöglichen, globale Lösungen anzupassen. Und können nur davor warnen, Algorithmen ohne Aufsicht die Steuerung kreativer Tasks zu überlassen.

Dazu kommen Bedenken hinsichtlich Bias, wenn es um Produkttests und Verbraucherforschung geht – insbesondere, wenn Datensätze nicht die gesamte Vielfalt globaler Verbraucher widerspiegeln. Für multinationale Lebensmittelkonzerne sollte eine verantwortungsvolle Skalierung von KI auch ein Commitment zu Diversity auf Datenebene beinhalten.

In dieser neuen Ära ist der IT-Entscheider oder CIO nicht mehr nur ein Technologiepartner. Er muss zum Wachstumsmotor, Datenwächter und zunehmend auch zum Koordinator zwischen verschiedenen Transformations-Enablern werden. Der KI-Erfolg hängt deshalb nicht davon ab, die neuesten Modell einzusetzen. Vielmehr gilt es, Talente, Governance und Experimentierfreude auf eine Art und Weise zu fördern, die mit dem Purpose und der Risikobereitschaft des jeweiligen Brands im Einklang stehen. Es geht hierbei um eine integrierte Ebene, die sich über alle Funktionsbereiche und Abteilungen hinweg durchgängig über die gesamten Geschäftswertströme erstreckt.

Wir sind davon überzeugt, dass Lebensmittelunternehmen, die KI als Kernkompetenz (und nicht als Zusatzfunktion) betrachten, letztendlich die Nase vorn haben werden. Dabei zählt nicht, wer am schnellsten automatisiert. Es kommt auf die Fähigkeit an, Dinge neu zu denken und neue Arbeitsmethoden zu verinnerlichen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nestlé macht KI zum Hauptgang​ Weiterlesen »

5 Gründe, warum Arbeitgeber jetzt in Weiterbildung investieren müssen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Investieren Unternehmen in die berufliche Weiterentwicklung ihrer Belegschaft, stärken sie nicht nur die eigene Resilienz gegenüber externen Veränderungen, sondern fördern gleichzeitig Loyalität, Motivation und Innovationskraft.Mathias Rosenthal – Shutterstock 352434722 Ihre nächste Position könnte eine sein, die es derzeit noch gar nicht gibt – haben Sie darüber schon einmal nachgedacht? Künstliche Intelligenz (KI) sorgt gerade in vielen Arbeitsprozessen und Aufgaben für eine Welle des Wandels. Diese Entwicklung verändert Berufe und Karrierewege: Fachkräfte, die heute in den Arbeitsmarkt eintreten, werden während ihres Berufslebens voraussichtlich doppelt so viele Jobs innehaben wie noch vor 15 Jahren, so Analysen von LinkedIn.   Und schon jetzt haben mehr als zehn Prozent der heute eingestellten Fachkräfte Stellenbezeichnungen, die im Jahr 2000 noch nicht existierten. Für die Mehrheit der Beschäftigten bedeutet KI dabei nicht den Verlust des Arbeitsplatzes, sondern eine Veränderung ihrer Rolle. Und das heißt, dass neue Fähigkeiten gefragt sind, um den Anforderungen der Arbeitswelt gerecht zu werden.     Erfolgreiche Unternehmen basieren auf großartigen Talenten Um sich für die Zukunft erfolgreich aufzustellen, müssen Unternehmen ihre Mitarbeitenden jedoch befähigen, mit dem Wandel Schritt zu halten und diesen aktiv mitzugestalten. Sie müssen die Weiterbildung ihrer Belegschaft priorisieren, fördern und belohnen. Investieren Unternehmen in die berufliche Weiterentwicklung ihrer Belegschaft, stärken sie nicht nur die eigene Resilienz gegenüber externen Veränderungen, sondern fördern gleichzeitig Loyalität, Motivation und Innovationskraft.   Doch trotz der Vorteile der Weiterbildung haben viele Unternehmen bei der praktischen Umsetzung Probleme. Im Rahmen des Workplace Learning Reports hat LinkedIn untersucht, vor welchen Herausforderungen die berufliche Weiterentwicklung steht.   Als größtes Problem nannten die Befragten in Deutschland den Mangel an Zeit und Ressourcen. Nur elf Prozent der Angestellten in der EMEA-Region (Europa, Mittlerer Osten und Afrika) gaben an, dass ihre Vorgesetzten ihnen in den letzten sechs Monaten bei der Erstellung eines Entwicklungsplans geholfen haben – ein Rückgang von fünf Prozentpunkten gegenüber 2024.   Das ist eine bedenkliche Entwicklung, denn ohne kontinuierliches und intrinsisch motiviertes Lernen wird es künftig nicht mehr funktionieren. Doch wie können es Unternehmen schaffen, eine starke Lernkultur zu etablieren und Weiterbildung erfolgreich in den Arbeitsalltag zu integrieren? Welche Ansatzpunkte ermöglichen es Führungskräften, Personalverantwortlichen und Mitarbeitenden, die Themen Weiterbildung und Weiterentwicklung zu priorisieren?  5 Faktoren für eine starke Lernkultur 1. Setzen Sie auf ergebnisorientierte Kennzahlen: Für Führungskräfte im Bereich Learning & Development ist es oft schwer, den Wert ihrer Arbeit mit klaren KPIs zu kommunizieren. Daher braucht es spezifische Kennzahlen, die den Zusammenhang zwischen Investitionen in Weiterbildung und unternehmerischem Erfolg sichtbar machen – zum Beispiel positive Entwicklungen bei Produktivität und Ertrag.  2. Fördern Sie interne Mobilität: Berufliches Vorankommen ist weltweit die wichtigste Motivation für Menschen, sich weiterzubilden. Die Ausrichtung auf interne Mobilität hilft Unternehmen beim Aufbau einer agilen Belegschaft, die in der Lage ist, bereichsübergreifende Kompetenzen und Wissen unternehmensweit einzusetzen. Konkret bedeutet das: Vakante Positionen sollten häufiger mit internen Talenten besetzt werden, die offen für Neues sind und Lernbereitschaft zeigen.   3. Befähigen Sie Führungskräfte, die Karrieren ihrer Mitarbeitenden zu fördern: Der aktuelle LinkedIn Workplace Learning Report zeigt, dass Mitarbeitende beim Thema berufliche Entwicklung deutlich weniger Unterstützung durch Vorgesetzte erfahren haben als im Vorjahr. Unternehmen müssen es ihren Führungskräften leichter machen, die Weiterentwicklung ihrer Mitarbeitenden im Sinne des Unternehmens zu lenken und zu fördern – und dieses Engagement entsprechend wertschätzen und würdigen.   4. Bauen Sie die richtigen Kompetenzen schneller auf: Die Idee ist einfach, nämlich die richtigen Mitarbeitenden mit den besten Fähigkeiten zum optimalen Zeitpunkt an idealer Stelle einzusetzen. Hier kann die Herangehensweise mit KI sehr hilfreich sein. Damit lässt sich analysieren, welche Kompetenzen im Unternehmen am stärksten nachgefragt werden und wo es Lücken gibt, um kompetenzbasierte Karrierepfade auszuarbeiten. Voraussetzung für so ein agiles “Kompetenz-Ökosystem” ist jedoch, dass Führungskräfte und Personalverantwortliche eng zusammenarbeiten und Kompetenzen transparent bewerten.  5. Unterstützen Sie individuelle berufliche Weiterentwicklung: Über 82 Prozent der für den Workplace Learning Report befragten Arbeitnehmenden der EMEA-Region stimmen der Aussage „Lernen verleiht meiner Arbeit mehr Sinn“ zu. Berufliche Weiterentwicklung ist dann erfolgreich, wenn die Beschäftigten das Gefühl haben, ihren Berufsweg selbst in der Hand zu haben. Stellen Sie also Ihrer Belegschaft die richtigen Tools zur Verfügung, ihre individuellen Stärken zu erkennen, eigene berufliche Ziele zu setzen, ihre Fähigkeiten weiterzuentwickeln und Möglichkeiten der internen Mobilität zu nutzen.      Effektive Weiterbildung dank individualisierten Lernwegen Auf Lernplattformen können Mitarbeitende gezielt und flexibel neue Kompetenzen erwerben – und das passgenau für die eigenen Ziele und Bedürfnisse. Gerade diese Flexibilität und Individualisierung machen digitale Lernplattformen so wertvoll für die berufliche Weiterbildung.    Mit Lernen den Herausforderungen von morgen begegnen Auch wenn wir heute noch nicht wissen, wie sich unsere Jobs in Zukunft verändern, wie sie heißen und welche Fähigkeiten wir benötigen werden – eines ist klar: Wer mit dem rasanten Wandel mithalten möchte, muss Lernen zur Priorität machen. Unternehmen müssen in ihre Mitarbeitenden investieren und sie dabei unterstützen, sich kontinuierlich weiterzuentwickeln und neue Fähigkeiten zu erlernen. Das ist nicht nur die beste Strategie, um Talente aufzubauen und zu halten – sondern auch die einzige, um wettbewerbsfähig zu bleiben und den kommenden Herausforderungen erfolgreich zu begegnen.  

5 Gründe, warum Arbeitgeber jetzt in Weiterbildung investieren müssen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Weiterbildung-shutterstock_352434722.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Investieren Unternehmen in die berufliche Weiterentwicklung ihrer Belegschaft, stärken sie nicht nur die eigene Resilienz gegenüber externen Veränderungen, sondern fördern gleichzeitig Loyalität, Motivation und Innovationskraft.Mathias Rosenthal – Shutterstock 352434722

Ihre nächste Position könnte eine sein, die es derzeit noch gar nicht gibt – haben Sie darüber schon einmal nachgedacht? Künstliche Intelligenz (KI) sorgt gerade in vielen Arbeitsprozessen und Aufgaben für eine Welle des Wandels. Diese Entwicklung verändert Berufe und Karrierewege: Fachkräfte, die heute in den Arbeitsmarkt eintreten, werden während ihres Berufslebens voraussichtlich doppelt so viele Jobs innehaben wie noch vor 15 Jahren, so Analysen von LinkedIn.  

Und schon jetzt haben mehr als zehn Prozent der heute eingestellten Fachkräfte Stellenbezeichnungen, die im Jahr 2000 noch nicht existierten. Für die Mehrheit der Beschäftigten bedeutet KI dabei nicht den Verlust des Arbeitsplatzes, sondern eine Veränderung ihrer Rolle. Und das heißt, dass neue Fähigkeiten gefragt sind, um den Anforderungen der Arbeitswelt gerecht zu werden.  

 

Erfolgreiche Unternehmen basieren auf großartigen Talenten

Um sich für die Zukunft erfolgreich aufzustellen, müssen Unternehmen ihre Mitarbeitenden jedoch befähigen, mit dem Wandel Schritt zu halten und diesen aktiv mitzugestalten. Sie müssen die Weiterbildung ihrer Belegschaft priorisieren, fördern und belohnen. Investieren Unternehmen in die berufliche Weiterentwicklung ihrer Belegschaft, stärken sie nicht nur die eigene Resilienz gegenüber externen Veränderungen, sondern fördern gleichzeitig Loyalität, Motivation und Innovationskraft.  

Doch trotz der Vorteile der Weiterbildung haben viele Unternehmen bei der praktischen Umsetzung Probleme. Im Rahmen des Workplace Learning Reports hat LinkedIn untersucht, vor welchen Herausforderungen die berufliche Weiterentwicklung steht.  

Als größtes Problem nannten die Befragten in Deutschland den Mangel an Zeit und Ressourcen. Nur elf Prozent der Angestellten in der EMEA-Region (Europa, Mittlerer Osten und Afrika) gaben an, dass ihre Vorgesetzten ihnen in den letzten sechs Monaten bei der Erstellung eines Entwicklungsplans geholfen haben – ein Rückgang von fünf Prozentpunkten gegenüber 2024.  

Das ist eine bedenkliche Entwicklung, denn ohne kontinuierliches und intrinsisch motiviertes Lernen wird es künftig nicht mehr funktionieren. Doch wie können es Unternehmen schaffen, eine starke Lernkultur zu etablieren und Weiterbildung erfolgreich in den Arbeitsalltag zu integrieren? Welche Ansatzpunkte ermöglichen es Führungskräften, Personalverantwortlichen und Mitarbeitenden, die Themen Weiterbildung und Weiterentwicklung zu priorisieren? 

5 Faktoren für eine starke Lernkultur

1. Setzen Sie auf ergebnisorientierte Kennzahlen: Für Führungskräfte im Bereich Learning & Development ist es oft schwer, den Wert ihrer Arbeit mit klaren KPIs zu kommunizieren. Daher braucht es spezifische Kennzahlen, die den Zusammenhang zwischen Investitionen in Weiterbildung und unternehmerischem Erfolg sichtbar machen – zum Beispiel positive Entwicklungen bei Produktivität und Ertrag. 

2. Fördern Sie interne Mobilität: Berufliches Vorankommen ist weltweit die wichtigste Motivation für Menschen, sich weiterzubilden. Die Ausrichtung auf interne Mobilität hilft Unternehmen beim Aufbau einer agilen Belegschaft, die in der Lage ist, bereichsübergreifende Kompetenzen und Wissen unternehmensweit einzusetzen. Konkret bedeutet das: Vakante Positionen sollten häufiger mit internen Talenten besetzt werden, die offen für Neues sind und Lernbereitschaft zeigen.  

3. Befähigen Sie Führungskräfte, die Karrieren ihrer Mitarbeitenden zu fördern: Der aktuelle LinkedIn Workplace Learning Report zeigt, dass Mitarbeitende beim Thema berufliche Entwicklung deutlich weniger Unterstützung durch Vorgesetzte erfahren haben als im Vorjahr. Unternehmen müssen es ihren Führungskräften leichter machen, die Weiterentwicklung ihrer Mitarbeitenden im Sinne des Unternehmens zu lenken und zu fördern – und dieses Engagement entsprechend wertschätzen und würdigen.  

4. Bauen Sie die richtigen Kompetenzen schneller auf: Die Idee ist einfach, nämlich die richtigen Mitarbeitenden mit den besten Fähigkeiten zum optimalen Zeitpunkt an idealer Stelle einzusetzen. Hier kann die Herangehensweise mit KI sehr hilfreich sein. Damit lässt sich analysieren, welche Kompetenzen im Unternehmen am stärksten nachgefragt werden und wo es Lücken gibt, um kompetenzbasierte Karrierepfade auszuarbeiten. Voraussetzung für so ein agiles “Kompetenz-Ökosystem” ist jedoch, dass Führungskräfte und Personalverantwortliche eng zusammenarbeiten und Kompetenzen transparent bewerten. 

5. Unterstützen Sie individuelle berufliche Weiterentwicklung: Über 82 Prozent der für den Workplace Learning Report befragten Arbeitnehmenden der EMEA-Region stimmen der Aussage „Lernen verleiht meiner Arbeit mehr Sinn“ zu. Berufliche Weiterentwicklung ist dann erfolgreich, wenn die Beschäftigten das Gefühl haben, ihren Berufsweg selbst in der Hand zu haben. Stellen Sie also Ihrer Belegschaft die richtigen Tools zur Verfügung, ihre individuellen Stärken zu erkennen, eigene berufliche Ziele zu setzen, ihre Fähigkeiten weiterzuentwickeln und Möglichkeiten der internen Mobilität zu nutzen.  

  

Effektive Weiterbildung dank individualisierten Lernwegen

Auf Lernplattformen können Mitarbeitende gezielt und flexibel neue Kompetenzen erwerben – und das passgenau für die eigenen Ziele und Bedürfnisse. Gerade diese Flexibilität und Individualisierung machen digitale Lernplattformen so wertvoll für die berufliche Weiterbildung. 

 

Mit Lernen den Herausforderungen von morgen begegnen

Auch wenn wir heute noch nicht wissen, wie sich unsere Jobs in Zukunft verändern, wie sie heißen und welche Fähigkeiten wir benötigen werden – eines ist klar: Wer mit dem rasanten Wandel mithalten möchte, muss Lernen zur Priorität machen. Unternehmen müssen in ihre Mitarbeitenden investieren und sie dabei unterstützen, sich kontinuierlich weiterzuentwickeln und neue Fähigkeiten zu erlernen. Das ist nicht nur die beste Strategie, um Talente aufzubauen und zu halten – sondern auch die einzige, um wettbewerbsfähig zu bleiben und den kommenden Herausforderungen erfolgreich zu begegnen. 

5 Gründe, warum Arbeitgeber jetzt in Weiterbildung investieren müssen​ Weiterlesen »

Verhandlungstipps: Wie sich versteckte KI-Kosten vermeiden lassen​

Allgemein

KI-Kosten im Vorfeld genau zu kalkulieren, ist angesichts des Wildwuchses bei Preisen und Abrechnungsmodellen, gar nicht so einfach. Foto: Valery Sidelnykov – shutterstock.com Zahl und Vielfalt kommerzieller KI-Lösungen nehmen rasant zu. Starke Unterschiede zeigen sich allerdings auch bei der Preisgestaltung. Im Vergleich zu klassischen Softwarelizenzierungs- beziehungsweise SaaS-Modellen fällt es vielen Verantwortlichen aus Bereichen wie Beschaffung, Einkauf und Lieferantenmanagement deshalb entsprechend schwer, die Kosten für eine KI-Implementierung zu prognostizieren. In der Regel unterscheiden sich die Offerten großer und kleiner KI-Anbieter teils stark voneinander. Weil verschiedene Definitionen von Metriken, zahlreiche Serviceangebote und variierende Funktionsumfänge existieren, wird ein Preisvergleich von Lösungen für KI-Verantwortliche in Unternehmen oft zum Rätselraten. Ein Grund für die Schwierigkeit, KI-Lösungen hinsichtlich Funktionsumfang und Preisen vergleichen zu können, ist beispielsweise, dass ähnliche Begriffe für unterschiedliche Definitionen im KI-Umfeld verwendet werden und damit zuverlässige Berechnungen über die Gesamtkosten eines Projekts kaum möglich sind. Zuweilen sind aber auch Anbieter selbst gar nicht in der Lage, die tatsächlichen Kosten für eine großflächige KI-Implementierung im produktiven Betrieb exakt zu kalkulieren. Die Folge: Verantwortliche, die bis dato mit der Beschaffung konventioneller Software oder Mietmodellen wie SaaS vertraut sind, stochern in Sachen KI im Dunklen. Unterschiedliche Preismodelle erschweren Kostenüberblick Kein Wunder, dass Verantwortliche aus den Bereichen Beschaffung, Einkauf und Lieferantenmanagement nach Erkenntnissen von Gartner häufig die Befürchtung äußern, Preise für KI-Software beziehungsweise SaaS-Verträge ließen sich nicht fair aushandeln und versteckte Kosten nicht identifizieren. Unsicherheit herrscht aber auch, weil die meisten Preismodelle für KI-Lösungen nach Abonnements abgerechnet werden und auf einer monatlichen oder jährlichen Abrechnung basieren, während andere KI-Angebote als Pay-as-you-go-Modelle auf den Markt kommen. Unübersichtlich wird es ferner deshalb, weil einige der großen IT-Anbieter wie Oracle dazu übergegangen sind, KI-Features in bestehende Suiten zu integrieren. Der Datenbank-Gigant stellt bestimmte KI-Funktionen ohne zusätzliche Kosten in einigen seiner Standardprodukte zur Verfügung. Andere Player wiederum erheben Zusatzkosten pro Benutzer. Dazu gehören Microsoft mit Copilot für Microsoft 365 und Salesforce mit Einstein for Sales und Einstein for Service, während wieder andere KI-Lösungsanbieter benutzerbasierte oder plattformorientierte Angebote präferieren. Und schließlich gibt es Offerten, die sich an einer Gebühr für eine bestimmte Kapazität an Rechenleistung orientieren oder Guthaben-basierte Modelle beinhalten, deren Preise für eine bestimmte Menge an Credits (oder Token) im Vorfeld festgelegt werden. Dazu gehört ChatGPT. Die Lösung von OpenAI stützt sich auf eine Token-basierte Metrik, die Wortteile misst. Vertex-KI-Chat von Google verwendet hingegen eine zeichenbasierte Metrik, der eine Kombination aus Aufforderungen (Inputs) und Antworten (Outputs) zugrunde legt. Vor und nach dem POC verhandeln Angesichts dieses Wildwuchses an KI-Preismodellen sollte es für die Verantwortlichen in den Unternehmen klar sein, die Konditionen im Vorfeld größerer Projekte genau auszuhandeln. Dazu gehört, dass beispielsweise skalierbare Preise bevorzugt und versteckte Kosten identifiziert werden müssen. Anstatt ein GenAI-Produkt flächendeckend einzuführen, sollten interne Stakeholder im Unternehmen zudem dazu ermutigt werden, mit einem kleinen Proof of Concept (POC) zu beginnen. Beim Aushandeln eines POC gilt es, gewisse Maßnahmen zu treffen – etwa, vertragliche Verflechtungen mit anderen Produkten desselben Anbieters zu vermeiden. Der POC sollte eine begrenzte Vertragslaufzeit haben und nicht in bestehende Verträge integriert werden. Außerdem muss sichergestellt sein, dass die Kosten für ein größeres Nachfolgeprojekt auch nach dem POC noch verhandelbar sind. Um das Risiko unkontrollierbarer Kosten begrenzen zu können, haben sich folgende Maßnahmen bewährt: Preissperre mit Kosten pro Einheit, wenn Guthaben-/Token-Limits überschritten werden. Der Preis sollte eine Staffelung beinhalten, sodass die Kosten pro Einheit mit zunehmender Nutzung sinken. Ausgehandelten Preis für die Vertragslaufzeit festschreiben und vorteilhafte Preisänderungen während der Vertragslaufzeit oder bei der Vertragsverlängerung berücksichtigen. Ungenutzte Guthaben von einem Zeitraum zum nächsten oder von einer Vertragslaufzeit zur nächsten übertragen. Überprüfung, ob die Nutzung bestehende Verpflichtungen mit dem Anbieter positiv beeinflusst, wie zum Beispiel einem Microsoft Azure Consumption Commitment (MACC). Bereitstellung eines technischen Mechanismus, der warnt oder die Aktivität stoppt, wenn ein bestimmter Schwellenwert erreicht ist. Kostenobergrenze, bei der die Nutzung fortgesetzt wird, aber keine weiteren Überschreitungskosten anfallen. KI-Anbieter könnten mit mehr Transparenz punkten KI-Anbieter wiederum können sich mit einer klaren Gestaltung von Preismodellen einen Wettbewerbsvorteil sichern. Sie sollten schon während einer Ausschreibung mit voller Transparenz für die KI-Preisgestaltung punkten, um Kosten für ihre Kunden – einschließlich Abonnements und etwaiger Speicherplatzgebühren – nachvollziehbar zu gestalten. Dazu gehört auch, dass Dienstleistungen für Design und Implementierung sowie laufende Verwaltungs- und Betriebskosten in die Kostenkalkulation einfließen. KI-Assistenten: Hilfestellung im GenAI-Preisdschungel Ebenso müssen KI-Anbieter ihren Kunden erklären, auf welche bestehenden Anwendungen die KI-Software zugreifen muss, um reibungslos zu funktionieren. Ziel muss es sein, etwaige zusätzliche Lizenzierungskosten für einen direkten, indirekten oder digitalen Zugriff durch Applikationen ins Kalkül einzubeziehen. (ba) 

Verhandlungstipps: Wie sich versteckte KI-Kosten vermeiden lassen​ KI-Kosten im Vorfeld genau zu kalkulieren, ist angesichts des Wildwuchses bei Preisen und Abrechnungsmodellen, gar nicht so einfach.
Foto: Valery Sidelnykov – shutterstock.com

Zahl und Vielfalt kommerzieller KI-Lösungen nehmen rasant zu. Starke Unterschiede zeigen sich allerdings auch bei der Preisgestaltung. Im Vergleich zu klassischen Softwarelizenzierungs- beziehungsweise SaaS-Modellen fällt es vielen Verantwortlichen aus Bereichen wie Beschaffung, Einkauf und Lieferantenmanagement deshalb entsprechend schwer, die Kosten für eine KI-Implementierung zu prognostizieren.

In der Regel unterscheiden sich die Offerten großer und kleiner KI-Anbieter teils stark voneinander. Weil verschiedene Definitionen von Metriken, zahlreiche Serviceangebote und variierende Funktionsumfänge existieren, wird ein Preisvergleich von Lösungen für KI-Verantwortliche in Unternehmen oft zum Rätselraten.

Ein Grund für die Schwierigkeit, KI-Lösungen hinsichtlich Funktionsumfang und Preisen vergleichen zu können, ist beispielsweise, dass ähnliche Begriffe für unterschiedliche Definitionen im KI-Umfeld verwendet werden und damit zuverlässige Berechnungen über die Gesamtkosten eines Projekts kaum möglich sind. Zuweilen sind aber auch Anbieter selbst gar nicht in der Lage, die tatsächlichen Kosten für eine großflächige KI-Implementierung im produktiven Betrieb exakt zu kalkulieren. Die Folge: Verantwortliche, die bis dato mit der Beschaffung konventioneller Software oder Mietmodellen wie SaaS vertraut sind, stochern in Sachen KI im Dunklen.

Unterschiedliche Preismodelle erschweren Kostenüberblick

Kein Wunder, dass Verantwortliche aus den Bereichen Beschaffung, Einkauf und Lieferantenmanagement nach Erkenntnissen von Gartner häufig die Befürchtung äußern, Preise für KI-Software beziehungsweise SaaS-Verträge ließen sich nicht fair aushandeln und versteckte Kosten nicht identifizieren. Unsicherheit herrscht aber auch, weil die meisten Preismodelle für KI-Lösungen nach Abonnements abgerechnet werden und auf einer monatlichen oder jährlichen Abrechnung basieren, während andere KI-Angebote als Pay-as-you-go-Modelle auf den Markt kommen.

Unübersichtlich wird es ferner deshalb, weil einige der großen IT-Anbieter wie Oracle dazu übergegangen sind, KI-Features in bestehende Suiten zu integrieren. Der Datenbank-Gigant stellt bestimmte KI-Funktionen ohne zusätzliche Kosten in einigen seiner Standardprodukte zur Verfügung. Andere Player wiederum erheben Zusatzkosten pro Benutzer. Dazu gehören Microsoft mit Copilot für Microsoft 365 und Salesforce mit Einstein for Sales und Einstein for Service, während wieder andere KI-Lösungsanbieter benutzerbasierte oder plattformorientierte Angebote präferieren.

Und schließlich gibt es Offerten, die sich an einer Gebühr für eine bestimmte Kapazität an Rechenleistung orientieren oder Guthaben-basierte Modelle beinhalten, deren Preise für eine bestimmte Menge an Credits (oder Token) im Vorfeld festgelegt werden. Dazu gehört ChatGPT. Die Lösung von OpenAI stützt sich auf eine Token-basierte Metrik, die Wortteile misst. Vertex-KI-Chat von Google verwendet hingegen eine zeichenbasierte Metrik, der eine Kombination aus Aufforderungen (Inputs) und Antworten (Outputs) zugrunde legt.

Vor und nach dem POC verhandeln

Angesichts dieses Wildwuchses an KI-Preismodellen sollte es für die Verantwortlichen in den Unternehmen klar sein, die Konditionen im Vorfeld größerer Projekte genau auszuhandeln. Dazu gehört, dass beispielsweise skalierbare Preise bevorzugt und versteckte Kosten identifiziert werden müssen. Anstatt ein GenAI-Produkt flächendeckend einzuführen, sollten interne Stakeholder im Unternehmen zudem dazu ermutigt werden, mit einem kleinen Proof of Concept (POC) zu beginnen.

Beim Aushandeln eines POC gilt es, gewisse Maßnahmen zu treffen – etwa, vertragliche Verflechtungen mit anderen Produkten desselben Anbieters zu vermeiden. Der POC sollte eine begrenzte Vertragslaufzeit haben und nicht in bestehende Verträge integriert werden. Außerdem muss sichergestellt sein, dass die Kosten für ein größeres Nachfolgeprojekt auch nach dem POC noch verhandelbar sind.

Um das Risiko unkontrollierbarer Kosten begrenzen zu können, haben sich folgende Maßnahmen bewährt:

Preissperre mit Kosten pro Einheit, wenn Guthaben-/Token-Limits überschritten werden. Der Preis sollte eine Staffelung beinhalten, sodass die Kosten pro Einheit mit zunehmender Nutzung sinken.

Ausgehandelten Preis für die Vertragslaufzeit festschreiben und vorteilhafte Preisänderungen während der Vertragslaufzeit oder bei der Vertragsverlängerung berücksichtigen.

Ungenutzte Guthaben von einem Zeitraum zum nächsten oder von einer Vertragslaufzeit zur nächsten übertragen.

Überprüfung, ob die Nutzung bestehende Verpflichtungen mit dem Anbieter positiv beeinflusst, wie zum Beispiel einem Microsoft Azure Consumption Commitment (MACC).

Bereitstellung eines technischen Mechanismus, der warnt oder die Aktivität stoppt, wenn ein bestimmter Schwellenwert erreicht ist.

Kostenobergrenze, bei der die Nutzung fortgesetzt wird, aber keine weiteren Überschreitungskosten anfallen.

KI-Anbieter könnten mit mehr Transparenz punkten

KI-Anbieter wiederum können sich mit einer klaren Gestaltung von Preismodellen einen Wettbewerbsvorteil sichern. Sie sollten schon während einer Ausschreibung mit voller Transparenz für die KI-Preisgestaltung punkten, um Kosten für ihre Kunden – einschließlich Abonnements und etwaiger Speicherplatzgebühren – nachvollziehbar zu gestalten. Dazu gehört auch, dass Dienstleistungen für Design und Implementierung sowie laufende Verwaltungs- und Betriebskosten in die Kostenkalkulation einfließen.

KI-Assistenten: Hilfestellung im GenAI-Preisdschungel

Ebenso müssen KI-Anbieter ihren Kunden erklären, auf welche bestehenden Anwendungen die KI-Software zugreifen muss, um reibungslos zu funktionieren. Ziel muss es sein, etwaige zusätzliche Lizenzierungskosten für einen direkten, indirekten oder digitalen Zugriff durch Applikationen ins Kalkül einzubeziehen. (ba)

Verhandlungstipps: Wie sich versteckte KI-Kosten vermeiden lassen​ Weiterlesen »

Large Language Models: 13 GPT-Alternativen​

Allgemein

Large Language Models bilden die Grundlage für Generative-AI-Systeme. Diese 13 Sprachmodelle sollten Sie abseits von OpenAIs GPT kennen. Foto: atdigit – shutterstock.com ChatGPT ist für viele zum Synonym für generative künstliche Intelligenz (KI) geworden. Doch OpenAIs Vorzeigeprojekt ist nicht das einzige hochwertige Tool, das auf Large Language Models (LLMs) fußt – und für manche Softwareprojekte auch nicht die beste Wahl. So gut wie alle LLMs haben Schwächen, die sich allerdings erst im weiteren Verlauf ihres Einsatzes zeigen. Quelloffene Large Language Models können in diesem Zusammenhang ein echtes Geschenk für Ihr Unternehmen sein – vorausgesetzt, Sie sind in der Lage, diese auch auszurollen und zu betreiben. 13 Large Language Models, die nicht GPT sind Im Folgenden werfen wir einen Blick auf 13 Alternativen zu GPT – dem LLM hinter ChatGPT. Die folgenden großen Sprachmodelle können Ihr Generative-AI-Projekt möglicherweise entscheidend voranbringen. Der einzige Weg, sicherzugehen: Füttern Sie sie mit Ihren Prompts und werten Sie die Ergebnisse sorgfältig aus. Llama Facebook – beziehunsgweise Meta – hat dieses Foundational Large Language Model erstellt und dann im Rahmen seines erklärten “Engagements für offene Wissenschaft” veröffentlicht. Llama steht kostenlos zum Download zur Verfügung und eignet sich als Grundlage, um feiner abgestimmter Modelle für spezifische Use Cases zu entwickeln. Das LLM steht zudem in diversen Größen zur Verfügung. Die kleinste Version mit “nur” 7 Milliarden Parametern wurde bereits für diverse, auch eher ungewöhnliche Zwecke eingesetzt. Ein Entwickler betreibt Llama gar auf einem Raspberry Pi mit lediglich 4GB RAM. Alpaca Wissenschaftler der Univserität Stanford haben Llama (7B) auf eine Reihe spezifischer Prompts trainiert, die anweisungsgebundene Modelle wie ChatGPT imitieren. Das Ergebnis dieses Feintunings heißt Alpaca 7B – ein Large Language Model, das das in Llama kodierte Wissen für den Ottonormal-User über NLP-Anweisungen zugreifbar macht. Schätzungen zufolge lässt sich dieses leichtgewichtige LLM mit Hardware im Wert von weniger als 600 Dollar betreiben. Der Trainingsdatensatz und der Quellcode von Alpaca 7B steht zur freien Verfügung. Sie können das Modell nach Belieben duplizieren – oder ein neues Modell auf seiner Grundlage erstellen. Vicuna Ein weiterer Abkömmling von Llama ist Vicuna. Das Team hinter dem LLM-Projekt sammelte Trainingsdaten in Form von 70.000 ShareGPT-Konversationen. Dabei legte das Team besonderes Augenmerk auf mehrstufige Interaktionen und Funktionen, um Anweisungen zu befolgen. Erhältlich in verschiedenen Größen, gehört dieses Large Language Model zu den kostengünstigsten, quelloffenen GPT-Alternativen. NodePad Die Art und Weise, wie große Sprachmodelle “sprachlich korrekten” Text erzeugen, ist nicht jedermanns Sache. Die Schöpfer von NodePad sind etwa der Meinung, dass LLMs mit glänzenden Benutzeroberflächen dazu verleiten, den Output für bare Münze zu nehmen. Deswegen ist das LLM NodePad darauf konzipiert, Experimente und Ideation zu fördern. Dazu stellt es die Ergebnisse nicht als ausformulierten Text, sondern in Form von Knoten und Verbindungen dar – ähnlich wie ein Mind-Mapping-Tool. Orca (PDF) Große Sprachmodelle der ersten Generation wurden im Laufe der Zeit immer größer. Diesen Trend kehrt ein Research-Team von Microsoft mit Orca um: Dieses Large Language Model verwendet “nur” 13 Milliarden Parameter und läuft so auch auf durchschnittlichen Rechnern. Das erreichten die Entwickler des Sprachmodells, indem sie seinen Trainingsalgorithmus optimiert haben. Statt die KI einfach nur mit Rohdaten zu füttern, wurde Orca mit einem Datensatz trainiert, der speziell darauf ausgelegt war, zu lehren. Und es sieht ganz danach aus, als würden KI-Instanzen – ähnlich wie Menschen – schneller lernen, wenn sie nicht einfach ins kalte Wasser geworfen werden. Zumindest haben die Microsoft-Forscher Benchmarks vorgelegt, die darauf hindeuten, dass Orca ebenso gut performt, wie wesentlich größere Sprachmodelle. Jasper Das Ziel der Schöpfer von Jasper war es nicht, einen weisen LLM-Generalisten zu bauen. Vielmehr wollten sie eine Maschine erschaffen, um zielgerichtet ganz spezifische Inhalte zu generieren. Deswegen bietet Jasper auch kein Interface im ChatGPT-Stil, sondern stellt verschiedene Templates für diverse Tasks zur Verfügung – etwa Immobilienangebote oder Produktbeschreibungen. Die kostenpflichtigen Versionen dieses LLM adressieren speziell Unternehmen, die Wert auf konsistente Marketing-Texte legen. Claude Mit Claude hat Anthropic einen hilfreichen KI-Assistenten geschaffen, der diverse textbasierte Aufgaben im Unternehmensumfeld übernehmen kann – von der Recherche bis hin zum Kundendienst. Dabei lässt Anthropic bewusst lange Prompts zu, um komplexere Anweisungen zu fördern und den Benutzern mehr Kontrolle über die Outputs zu ermöglichen. Cerebras Wenn spezialisierte Hardware und General LLM gemeinsam entwickelt werden, kann eine schnelle und effiziente Lösung entstehen – wie Cerebras. Dieses Large Language Model steht auf Hugging Face in einer Vielzahl von Größen zur Verfügung – für diejenigen, die das Modell lokal betreiben möchten. Die meisten User dürften sich allerdings für die Cloud Services interessieren, die auf den integrierten Wafer-Scale-Prozessoren von Cerebras laufen. Sie sind darauf optimiert, große Mengen von Trainingsdaten zu durchforsten. Falcon Das Falcon LLM wurde am Technology Innovation Institute in den Vereinigten Arabischen Emiraten erstellt. Trainiert wurde das große Sprachmodell mit einem riesigen Satz allgemeiner Beispiele aus dem RefinedWeb – wobei der Schwerpunkt darauf lag, die Inferenz zu optimieren. Anschließend wurde das Modell mit Apache 2.0 veröffentlicht. Seither gilt es dank seiner Quelloffenheit und geringen Restriktionen als eines der besten Large Language Models, um zu experimentieren. ImageBind Meta ist nicht nur ein Social-Media-Gigant, sondern auch eine Macht im Bereich der Open-Source-Softwareentwicklung. Im Zuge des anhaltenden KI-Booms überrascht es daher nicht, dass das Unternehmen viele seiner hauseigenen Innovationen nun mit der Öffentlichkeit teilt. ImageBind ist ein solches Projekt. Das Large Language Model soll beweisen, dass KI auch viele verschiedene Datentypen auf einmal erstellen kann – in diesem Fall Text, Audio und Video. Gorilla Wahrscheinlich haben Sie schon den ein oder anderen Artikel zum Thema Programmieren mit Generative AI gelesen. Die Ergebnisse sind oberflächlich betrachtet oft beeindruckend – erst bei näherer Betrachtung zeigt sich, wie fehlerbehaftet sie sind: Die Syntax mag zwar korrekt sein, aber die API-Calls sind es nicht oder beziehen sich auf eine Funktion, die gar nicht existiert. Gorilla ist ein Large Language Model, das darauf ausgelegt ist, Programmierschnittstellen besser zu händeln. Das Sprachmodell basiert ebenfalls auf Metas Llama – wurde allerdings nachträglich mit einem Fokus auf tiefgehendere Programmierarbeit optimiert. Darüber hinaus bietet das Team hinter dem Gorilla-LLM auch eine Reihe eigener API-zentrierter Benchmarks zu Testzwecken an. AgentGPT Ein weiteres LLM-Tool, das Entwickler bei ihrem Schaffen unterstützt, ist AgentGPT. Es wurde entwickelt, um Agenten aufzusetzen, die wiederum für Aufgaben wie Urlaubsplanung oder Coding eingesetzt werden können. Der Quellcode des Large Language Models ist (in weiten Teilen) unter der GPL-3.0-Lizenz verfügbar. Daneben steht AgentGPT auch als Service zur Verfügung. FrugalGPT Das Forscher-Team hinter FrugalGPT hat erkannt, dass nicht immer die größten und teuersten Sprachmodelle nötig sind, um bestimmte Fragen zu beantworten. Deshalb arbeitet sich der Algorithmus des Tools kaskadenartig durch eine ganze Liste von LLMs, bis er einen zufriedenstellenden Output gefunden hat. Die Experimente der Forscher deuten darauf hin, dass dieser vorsichtige Ansatz nahezu 98 Prozent der Kosten für Large Language Models einsparen kann. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Large Language Models: 13 GPT-Alternativen​ Large Language Models bilden die Grundlage für Generative-AI-Systeme. Diese 13 Sprachmodelle sollten Sie abseits von OpenAIs GPT kennen.
Foto: atdigit – shutterstock.com

ChatGPT ist für viele zum Synonym für generative künstliche Intelligenz (KI) geworden. Doch OpenAIs Vorzeigeprojekt ist nicht das einzige hochwertige Tool, das auf Large Language Models (LLMs) fußt – und für manche Softwareprojekte auch nicht die beste Wahl.

So gut wie alle LLMs haben Schwächen, die sich allerdings erst im weiteren Verlauf ihres Einsatzes zeigen. Quelloffene Large Language Models können in diesem Zusammenhang ein echtes Geschenk für Ihr Unternehmen sein – vorausgesetzt, Sie sind in der Lage, diese auch auszurollen und zu betreiben.

13 Large Language Models, die nicht GPT sind

Im Folgenden werfen wir einen Blick auf 13 Alternativen zu GPT – dem LLM hinter ChatGPT. Die folgenden großen Sprachmodelle können Ihr Generative-AI-Projekt möglicherweise entscheidend voranbringen. Der einzige Weg, sicherzugehen: Füttern Sie sie mit Ihren Prompts und werten Sie die Ergebnisse sorgfältig aus.

Llama

Facebook – beziehunsgweise Meta – hat dieses Foundational Large Language Model erstellt und dann im Rahmen seines erklärten “Engagements für offene Wissenschaft” veröffentlicht. Llama steht kostenlos zum Download zur Verfügung und eignet sich als Grundlage, um feiner abgestimmter Modelle für spezifische Use Cases zu entwickeln.

Das LLM steht zudem in diversen Größen zur Verfügung. Die kleinste Version mit “nur” 7 Milliarden Parametern wurde bereits für diverse, auch eher ungewöhnliche Zwecke eingesetzt. Ein Entwickler betreibt Llama gar auf einem Raspberry Pi mit lediglich 4GB RAM.

Alpaca

Wissenschaftler der Univserität Stanford haben Llama (7B) auf eine Reihe spezifischer Prompts trainiert, die anweisungsgebundene Modelle wie ChatGPT imitieren. Das Ergebnis dieses Feintunings heißt Alpaca 7B – ein Large Language Model, das das in Llama kodierte Wissen für den Ottonormal-User über NLP-Anweisungen zugreifbar macht. Schätzungen zufolge lässt sich dieses leichtgewichtige LLM mit Hardware im Wert von weniger als 600 Dollar betreiben.

Der Trainingsdatensatz und der Quellcode von Alpaca 7B steht zur freien Verfügung. Sie können das Modell nach Belieben duplizieren – oder ein neues Modell auf seiner Grundlage erstellen.

Vicuna

Ein weiterer Abkömmling von Llama ist Vicuna. Das Team hinter dem LLM-Projekt sammelte Trainingsdaten in Form von 70.000 ShareGPT-Konversationen. Dabei legte das Team besonderes Augenmerk auf mehrstufige Interaktionen und Funktionen, um Anweisungen zu befolgen.

Erhältlich in verschiedenen Größen, gehört dieses Large Language Model zu den kostengünstigsten, quelloffenen GPT-Alternativen.

NodePad

Die Art und Weise, wie große Sprachmodelle “sprachlich korrekten” Text erzeugen, ist nicht jedermanns Sache. Die Schöpfer von NodePad sind etwa der Meinung, dass LLMs mit glänzenden Benutzeroberflächen dazu verleiten, den Output für bare Münze zu nehmen.

Deswegen ist das LLM NodePad darauf konzipiert, Experimente und Ideation zu fördern. Dazu stellt es die Ergebnisse nicht als ausformulierten Text, sondern in Form von Knoten und Verbindungen dar – ähnlich wie ein Mind-Mapping-Tool.

Orca (PDF)

Große Sprachmodelle der ersten Generation wurden im Laufe der Zeit immer größer. Diesen Trend kehrt ein Research-Team von Microsoft mit Orca um: Dieses Large Language Model verwendet “nur” 13 Milliarden Parameter und läuft so auch auf durchschnittlichen Rechnern. Das erreichten die Entwickler des Sprachmodells, indem sie seinen Trainingsalgorithmus optimiert haben.

Statt die KI einfach nur mit Rohdaten zu füttern, wurde Orca mit einem Datensatz trainiert, der speziell darauf ausgelegt war, zu lehren. Und es sieht ganz danach aus, als würden KI-Instanzen – ähnlich wie Menschen – schneller lernen, wenn sie nicht einfach ins kalte Wasser geworfen werden. Zumindest haben die Microsoft-Forscher Benchmarks vorgelegt, die darauf hindeuten, dass Orca ebenso gut performt, wie wesentlich größere Sprachmodelle.

Jasper

Das Ziel der Schöpfer von Jasper war es nicht, einen weisen LLM-Generalisten zu bauen. Vielmehr wollten sie eine Maschine erschaffen, um zielgerichtet ganz spezifische Inhalte zu generieren.

Deswegen bietet Jasper auch kein Interface im ChatGPT-Stil, sondern stellt verschiedene Templates für diverse Tasks zur Verfügung – etwa Immobilienangebote oder Produktbeschreibungen. Die kostenpflichtigen Versionen dieses LLM adressieren speziell Unternehmen, die Wert auf konsistente Marketing-Texte legen.

Claude

Mit Claude hat Anthropic einen hilfreichen KI-Assistenten geschaffen, der diverse textbasierte Aufgaben im Unternehmensumfeld übernehmen kann – von der Recherche bis hin zum Kundendienst. Dabei lässt Anthropic bewusst lange Prompts zu, um komplexere Anweisungen zu fördern und den Benutzern mehr Kontrolle über die Outputs zu ermöglichen.

Cerebras

Wenn spezialisierte Hardware und General LLM gemeinsam entwickelt werden, kann eine schnelle und effiziente Lösung entstehen – wie Cerebras.

Dieses Large Language Model steht auf Hugging Face in einer Vielzahl von Größen zur Verfügung – für diejenigen, die das Modell lokal betreiben möchten. Die meisten User dürften sich allerdings für die Cloud Services interessieren, die auf den integrierten Wafer-Scale-Prozessoren von Cerebras laufen. Sie sind darauf optimiert, große Mengen von Trainingsdaten zu durchforsten.

Falcon

Das Falcon LLM wurde am Technology Innovation Institute in den Vereinigten Arabischen Emiraten erstellt. Trainiert wurde das große Sprachmodell mit einem riesigen Satz allgemeiner Beispiele aus dem RefinedWeb – wobei der Schwerpunkt darauf lag, die Inferenz zu optimieren.

Anschließend wurde das Modell mit Apache 2.0 veröffentlicht. Seither gilt es dank seiner Quelloffenheit und geringen Restriktionen als eines der besten Large Language Models, um zu experimentieren.

ImageBind

Meta ist nicht nur ein Social-Media-Gigant, sondern auch eine Macht im Bereich der Open-Source-Softwareentwicklung. Im Zuge des anhaltenden KI-Booms überrascht es daher nicht, dass das Unternehmen viele seiner hauseigenen Innovationen nun mit der Öffentlichkeit teilt. ImageBind ist ein solches Projekt. Das Large Language Model soll beweisen, dass KI auch viele verschiedene Datentypen auf einmal erstellen kann – in diesem Fall Text, Audio und Video.

Gorilla

Wahrscheinlich haben Sie schon den ein oder anderen Artikel zum Thema Programmieren mit Generative AI gelesen. Die Ergebnisse sind oberflächlich betrachtet oft beeindruckend – erst bei näherer Betrachtung zeigt sich, wie fehlerbehaftet sie sind: Die Syntax mag zwar korrekt sein, aber die API-Calls sind es nicht oder beziehen sich auf eine Funktion, die gar nicht existiert. Gorilla ist ein Large Language Model, das darauf ausgelegt ist, Programmierschnittstellen besser zu händeln.

Das Sprachmodell basiert ebenfalls auf Metas Llama – wurde allerdings nachträglich mit einem Fokus auf tiefgehendere Programmierarbeit optimiert. Darüber hinaus bietet das Team hinter dem Gorilla-LLM auch eine Reihe eigener API-zentrierter Benchmarks zu Testzwecken an.

AgentGPT

Ein weiteres LLM-Tool, das Entwickler bei ihrem Schaffen unterstützt, ist AgentGPT. Es wurde entwickelt, um Agenten aufzusetzen, die wiederum für Aufgaben wie Urlaubsplanung oder Coding eingesetzt werden können.

Der Quellcode des Large Language Models ist (in weiten Teilen) unter der GPL-3.0-Lizenz verfügbar. Daneben steht AgentGPT auch als Service zur Verfügung.

FrugalGPT

Das Forscher-Team hinter FrugalGPT hat erkannt, dass nicht immer die größten und teuersten Sprachmodelle nötig sind, um bestimmte Fragen zu beantworten. Deshalb arbeitet sich der Algorithmus des Tools kaskadenartig durch eine ganze Liste von LLMs, bis er einen zufriedenstellenden Output gefunden hat.

Die Experimente der Forscher deuten darauf hin, dass dieser vorsichtige Ansatz nahezu 98 Prozent der Kosten für Large Language Models einsparen kann. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Large Language Models: 13 GPT-Alternativen​ Weiterlesen »

Massive Kritik an EU-Leitlinien zur KI-Nutzung​

Allgemein

Am neuen GPAI Code of Practice der EU, der Verhaltensregeln zur KI-Nutzung definiert, gibt es viel Kritik. Sidney van den Boogaard – Shutterstock.com Mit dem General Purpose AI Code of Practice (kurz: GPAI Code of Practice) hat die EU einen ersten Verhaltenskodex zur Regulierung allgemeiner KI veröffentlicht. Er soll die Einhaltung des EU-AI-Act vereinfachen. Die Richtlinien treten am 2. August 2025 in Kraft. In der Praxis durchsetzen will ihn die EU ab 2026. Allerdings sind die Leitlinien nicht unumstritten. Sowohl von Lobbyverbänden, CEOs und CIOs sowie NGOs hagelt es Kritik. Der Code of Practice Konkret besteht der Code of Practice aus drei Kapitel, den Chapters Transparency, Copyright sowie Safety and Security. Transparency Das Kapitel Transparenz bietet ein benutzerfreundliches Musterformular für die Dokumentation Es soll es den Anbietern ermöglichen, auf einfache Weise die Informationen zu dokumentieren, die erforderlich sind, um der im AI Act verankerten Verpflichtung der Modellanbieter zur Gewährleistung ausreichender Transparenz nachzukommen (Artikel 53 des AI Act). Copyright Das Chapter zum Urheberrecht bietet Anbietern praktische Lösungen, um der im KI-Gesetz verankerten Verpflichtung nachzukommen, eine Strategie zur Einhaltung des EU-Urheberrechts zu entwickeln (Artikel 53 des AI Act) Safety and Security Der Abschnitt Sicherheit skizziert konkrete, dem Stand der Technik entsprechende Praktiken für den Umgang mit systemischen Risiken, also Risiken, die von den fortschrittlichsten KI-Modellen ausgehen. Anbieter können sich auf dieses Kapitel stützen, um die Verpflichtungen des AI Acts für Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken zu erfüllen (Artikel 55 des AI Act). Er gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Kritik des Bitkom Noch relativ diplomatisch äußert sich der Digitalverband Bitkom in seiner Kritik am GPAI Code of Practice. Der Verband sieht in ihm die Chance, Rechtssicherheit für die Entwicklung von KI in Europa zu schaffen. Zudem sei er gegenüber ersten Entwürfen vereinfacht worden und orientiere sich stärker am Gesetzestext, so dass er in den Unternehmen besser anzuwenden sei. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte. Bitkom „Der Code of Practice darf keine Bremse für den KI-Standort Europa werden“, warnt jedoch Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. Damit der AI Act wirklich praxistauglich umgesetzt werden könne, so Dehmel, „müssen aber sehr umfassende, aber vage formulierte Prüfpflichten nachgebessert und der bürokratische Aufwand deutlich reduziert werden“. Kritisch sieht der Bitkom dabei die verschärfte Verpflichtung zur offenen Risikosuche bei sehr leistungsstarken KI-Modellen, der sogenannten „open-ended risk identification“. Das sagt die EU-Industrie Deutliche Worte finden auch über 45 Spitzenmanager in einem offenen Brief an die EU. Sie warnen, dass sich die EU bei der Regulierung von Künstlicher Intelligenz in Komplexität verliere – und damit ihre eigene Wettbewerbsfähigkeit riskiere. So seien die Vorschriften in Teilen unklar, an anderen Stellen würden sie sich widersprechen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?si=ed12a2e08499402b&utm_source=oembed”> Die Manager fordern, die Umsetzung des EU-AI-Act um zwei Jahre zu verschieben. Initiiert wurde das Schreiben von der Lobbygruppe EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt. Zu den Unterzeichnern gehören etwa Mercedes-Benz, die Lufthansa, Philips, Celonis, Airbus, Axa oder die französische BNP Paribas, um nur einige Namen zu nennen. SAP und Siemens fordern neuen AI Act Nicht mit von der Partie waren Siemens-Chef Roland Busch und SAP-Vorstandschef Christian Klein, denen die Kritik nicht weit genug ging. In einem Interview mit der FAZ fordern sie eine grundlegende Überarbeitung des EU-AI-Acts, also ein neues Rahmenwerk, das Innovationen fördert, statt zu verhindern. So ist für Busch der AI Act in seiner vorliegenden Form, „toxisch für die Entwicklung digitaler Geschäftsmodelle“. Kaum ein gutes Haar findet auch The Future Society, die sich als NGO als Vertreter der Zivilgesellschaft versteht, an den neuen Leitlinien. Ein Dorn im Auge ist ihr besonders, dass es US-Tech-Anbietern in einer geschlossenen Runde gelungen sei, wesentliche Punkte abzuschwächen und zu verwässern. Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle. Siemens AG Meinung der NGO The Future Society Nick Moës, Executive Director der The Future Society, kritisiert: „Dieser geschwächte Kodex geht zulasten europäischer Bürger und Unternehmen und verpasst Chancen zur Stärkung von Sicherheit und Verantwortlichkeit weltweit. Er untergräbt zudem alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl im Schatten des Einflusses US-amerikanischer Big Tech blieben.“ Vier Kritikpunkte Die NGO sieht vor allem folgende vier Punkte kritisch: Das AI-Büro erhält wichtige Informationen erst nach Markteinführung. Anbieter teilen den Model Report mit Risikobewertung erst nach Deployment – nach dem Muster „erst veröffentlichen, dann hinterfragen“. Dadurch gelangen potenziell gefährliche Modelle unkontrolliert zu europäischen Nutzenden. Bei Verstößen muss das AI-Büro den Rückruf veranlassen – was unbegründete Innovationskritik befeuern kann. Kein wirksamer Whistleblower-Schutz mehr. Informationen aus dem Innern sind in kapital- und marktgetriebenen Industrien entscheidend. In einer Welt, in der KI-Unternehmen viel über Nutzende wüssten, diese aber wenig über sie, dürften auf interne Hinweise nicht verzichtet werden. Das AI-Büro muss ein sicherer Zufluchtsort sein und dieselben Schutzstandards bieten, wie sie die EU-Whistleblower-Richtlinie vorsieht. Keine verpflichtenden Pläne für Notfallszenarien. In anderen Hochrisikobereichen sind solche Protokolle Standard. Auch bei GPAI können sich Schäden extrem schnell ausbreiten. Daher müssen Anbieter dazu verpflichtet werden, Notfallmaßnahmen und Schadensbegrenzungsstrategien frühzeitig planen. Anbieter haben weitreichende Entscheidungsbefugnis beim Risikomanagement. Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellen definieren und kontinuierliche Evaluation durchführen – und beweisen, dass sie dieses Vertrauen verdienen. 

Massive Kritik an EU-Leitlinien zur KI-Nutzung​ Am neuen GPAI Code of Practice der EU, der Verhaltensregeln zur KI-Nutzung definiert, gibt es viel Kritik.
Sidney van den Boogaard – Shutterstock.com

Mit dem General Purpose AI Code of Practice (kurz: GPAI Code of Practice) hat die EU einen ersten Verhaltenskodex zur Regulierung allgemeiner KI veröffentlicht. Er soll die Einhaltung des EU-AI-Act vereinfachen.

Die Richtlinien treten am 2. August 2025 in Kraft. In der Praxis durchsetzen will ihn die EU ab 2026. Allerdings sind die Leitlinien nicht unumstritten. Sowohl von Lobbyverbänden, CEOs und CIOs sowie NGOs hagelt es Kritik.

Der Code of Practice

Konkret besteht der Code of Practice aus drei Kapitel, den Chapters Transparency, Copyright sowie Safety and Security.

Transparency

Das Kapitel Transparenz bietet ein benutzerfreundliches Musterformular für die Dokumentation Es soll es den Anbietern ermöglichen, auf einfache Weise die Informationen zu dokumentieren, die erforderlich sind, um der im AI Act verankerten Verpflichtung der Modellanbieter zur Gewährleistung ausreichender Transparenz nachzukommen (Artikel 53 des AI Act).

Copyright

Das Chapter zum Urheberrecht bietet Anbietern praktische Lösungen, um der im KI-Gesetz verankerten Verpflichtung nachzukommen, eine Strategie zur Einhaltung des EU-Urheberrechts zu entwickeln (Artikel 53 des AI Act)

Safety and Security

Der Abschnitt Sicherheit skizziert konkrete, dem Stand der Technik entsprechende Praktiken für den Umgang mit systemischen Risiken, also Risiken, die von den fortschrittlichsten KI-Modellen ausgehen. Anbieter können sich auf dieses Kapitel stützen, um die Verpflichtungen des AI Acts für Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken zu erfüllen (Artikel 55 des AI Act). Er gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko.

Kritik des Bitkom

Noch relativ diplomatisch äußert sich der Digitalverband Bitkom in seiner Kritik am GPAI Code of Practice. Der Verband sieht in ihm die Chance, Rechtssicherheit für die Entwicklung von KI in Europa zu schaffen. Zudem sei er gegenüber ersten Entwürfen vereinfacht worden und orientiere sich stärker am Gesetzestext, so dass er in den Unternehmen besser anzuwenden sei.

Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte.
Bitkom

„Der Code of Practice darf keine Bremse für den KI-Standort Europa werden“, warnt jedoch Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. Damit der AI Act wirklich praxistauglich umgesetzt werden könne, so Dehmel, „müssen aber sehr umfassende, aber vage formulierte Prüfpflichten nachgebessert und der bürokratische Aufwand deutlich reduziert werden“. Kritisch sieht der Bitkom dabei die verschärfte Verpflichtung zur offenen Risikosuche bei sehr leistungsstarken KI-Modellen, der sogenannten „open-ended risk identification“.

Das sagt die EU-Industrie

Deutliche Worte finden auch über 45 Spitzenmanager in einem offenen Brief an die EU. Sie warnen, dass sich die EU bei der Regulierung von Künstlicher Intelligenz in Komplexität verliere – und damit ihre eigene Wettbewerbsfähigkeit riskiere. So seien die Vorschriften in Teilen unklar, an anderen Stellen würden sie sich widersprechen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?si=ed12a2e08499402b&utm_source=oembed”>

Die Manager fordern, die Umsetzung des EU-AI-Act um zwei Jahre zu verschieben. Initiiert wurde das Schreiben von der Lobbygruppe EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt. Zu den Unterzeichnern gehören etwa Mercedes-Benz, die Lufthansa, Philips, Celonis, Airbus, Axa oder die französische BNP Paribas, um nur einige Namen zu nennen.

SAP und Siemens fordern neuen AI Act

Nicht mit von der Partie waren Siemens-Chef Roland Busch und SAP-Vorstandschef Christian Klein, denen die Kritik nicht weit genug ging. In einem Interview mit der FAZ fordern sie eine grundlegende Überarbeitung des EU-AI-Acts, also ein neues Rahmenwerk, das Innovationen fördert, statt zu verhindern. So ist für Busch der AI Act in seiner vorliegenden Form, „toxisch für die Entwicklung digitaler Geschäftsmodelle“.

Kaum ein gutes Haar findet auch The Future Society, die sich als NGO als Vertreter der Zivilgesellschaft versteht, an den neuen Leitlinien. Ein Dorn im Auge ist ihr besonders, dass es US-Tech-Anbietern in einer geschlossenen Runde gelungen sei, wesentliche Punkte abzuschwächen und zu verwässern.

Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle.
Siemens AG

Meinung der NGO The Future Society

Nick Moës, Executive Director der The Future Society, kritisiert: „Dieser geschwächte Kodex geht zulasten europäischer Bürger und Unternehmen und verpasst Chancen zur Stärkung von Sicherheit und Verantwortlichkeit weltweit. Er untergräbt zudem alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl im Schatten des Einflusses US-amerikanischer Big Tech blieben.“

Vier Kritikpunkte

Die NGO sieht vor allem folgende vier Punkte kritisch:

Das AI-Büro erhält wichtige Informationen erst nach Markteinführung.

Anbieter teilen den Model Report mit Risikobewertung erst nach Deployment – nach dem Muster „erst veröffentlichen, dann hinterfragen“. Dadurch gelangen potenziell gefährliche Modelle unkontrolliert zu europäischen Nutzenden. Bei Verstößen muss das AI-Büro den Rückruf veranlassen – was unbegründete Innovationskritik befeuern kann.

Kein wirksamer Whistleblower-Schutz mehr.

Informationen aus dem Innern sind in kapital- und marktgetriebenen Industrien entscheidend. In einer Welt, in der KI-Unternehmen viel über Nutzende wüssten, diese aber wenig über sie, dürften auf interne Hinweise nicht verzichtet werden. Das AI-Büro muss ein sicherer Zufluchtsort sein und dieselben Schutzstandards bieten, wie sie die EU-Whistleblower-Richtlinie vorsieht.

Keine verpflichtenden Pläne für Notfallszenarien.

In anderen Hochrisikobereichen sind solche Protokolle Standard. Auch bei GPAI können sich Schäden extrem schnell ausbreiten. Daher müssen Anbieter dazu verpflichtet werden, Notfallmaßnahmen und Schadensbegrenzungsstrategien frühzeitig planen.

Anbieter haben weitreichende Entscheidungsbefugnis beim Risikomanagement.

Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellen definieren und kontinuierliche Evaluation durchführen – und beweisen, dass sie dieses Vertrauen verdienen.

Massive Kritik an EU-Leitlinien zur KI-Nutzung​ Weiterlesen »

10 Linux-Pflicht-Tools für Netzwerk- und Security-Profis​

Allgemein

Wir haben zehn essenzielle Open-Source-Security-Tools für Sie zusammengestellt. Foto: Omelchenko – shutterstock.com Eine Wahl zu treffen, wenn Dutzende oder gar Hunderte von Tools zur Verfügung stehen, ist nicht einfach. So dürfte es auch vielen Netzwerk- und Security-Experten gehen, die quelloffene Security Tools für Linux suchen. In diesem Bereich gibt es eine Vielzahl verschiedener Tools für so gut wie jede Aufgabe (Netzwerk-Tunneling, Sniffing, Scanning, Mapping) und jede Umgebung (Wi-Fi-Netzwerke, Webanwendungen, Datenbankserver). Wir haben einige Experten konsultiert und zehn essenzielle Linux-Sicherheitstools für Sie zusammengestellt. 1. Aircrack-ng Diese Suite von Software Tools ermöglicht es, drahtlose Netzwerke und WiFi-Protokolle Sicherheitsüberprüfungen zu unterziehen. Sicherheitsprofis verwenden das Tool für die Netzwerkadministration, Hacking und Penetrationstests. Dabei fokussiert Aircrack-ng auf: Monitoring (Datenpakete erfassen und Daten in Textdateien zur Weiterverarbeitung durch Tools von Drittanbietern exportieren) Angreifen (Replay-Angriffe, Deauthentication, Packet Injection) Testing (WiFi-Karten und Treiberfunktionen überprüfen) und Cracking (WEP und WPA PSK) Laut der offiziellen Webseite funktionieren alle Tools kommandozeilenbasiert, was eine umfangreiche Skripterstellung ermöglicht. Das Tool funktioniert mit Linux genauso wie mit Windows, macOS, FreeBSD, OpenBSD, NetBSD, Solaris und sogar eComStation. Preis: kostenlos 2. Burp Suite Hierbei handelt es sich um eine Testing-Suite für Webanwendungen, die für Security Assessments von Websites eingesetzt wird. Burp Suite arbeitet als lokale Proxy-Lösung, die es Sicherheitsexperten ermöglicht, Anfragen (HTTP/Websockets) und Antworten zwischen einem Webserver und einem Browser entschlüsseln, beobachten, manipulieren und wiederholen zu können. Burp Suite hat einen passiven Scanner an Bord, mit dem Security-Profis Webseiten (manuell) auf potenzielle Schwachstellen überprüfen können. Die Pro-Version bietet außerdem einen sehr nützlichen aktiven Web-Schwachstellen-Scanner, mit dem sich weitere Schwachstellen aufspüren lassen. Burp Suite ist über Plugins erweiterbar, so dass Sicherheitsexperten ihre eigenen Erweiterungen entwickeln können. Preis: Die Professional-Version kostet 449 Euro pro Jahr und Benutzer. Darüber hinaus steht auch eine Enterprise-Version (ab ca. 2.000 Euro jährlich) zur Verfügung, die mehrere gleichzeitige Scans ermöglicht und von Anwendungsentwicklungsteams genutzt werden kann. 3. Impacket Diese Sammlung von Tools ist für Pen-Tests von Netzwerkprotokollen und -diensten unerlässlich. Impacket wurde von SecureAuth entwickelt und ist eine Sammlung von Python Classes, um mit Netzwerkprotokollen zu arbeiten. Impacket konzentriert sich auf die Bereitstellung von Low-Level-Zugriff auf Pakete und bei einigen Protokollen wie SMB1-3 und MSRPC auf die Protokollimplementierung selbst. Sicherheitsexperten können Pakete von Grund auf neu konstruieren, aber auch auf Grundlage geparster Rohdaten. Die objektorientierte API macht es zudem einfach, mit tiefen Protokollhierarchien zu arbeiten. Impacket unterstützt die folgenden Protokolle: Ethernet, Linux; IP, TCP, UDP, ICMP, IGMP, ARP; IPv4 und IPv6; Umgänglicher zeigte sich Musk gegenüber den Anzeigenkunden von Twitter. In einem – natürlich auf Twitter geposteten – Brief erklärte der Tesla-Chef, der Grund für die Übernahme sei nicht, damit noch mehr Geld zu verdienen. Vielmehr sei es “wichtig für den Fortbestand der Zivilisation, einen gemeinsamen digitalen Treffpunkt zu haben, auf dem eine breite Palette von Überzeugungen auf gesunde Weise diskutiert werden kann.” Trotz alledem dürfe Twitter nicht zu einer “für alle Nutzer freien Höllenlandschaft werden, in der alles ohne Konsequenzen gesagt werden kann”, fügte Musk hinzu. Zusätzlich zur Einhaltung der Gesetze müsse die Plattform “warmherzig und einladend” für alle sein und den Nutzern die Möglichkeit bieten, “die gewünschte Erfahrung nach ihren Vorlieben zu wählen” – ähnlich wie man zum Beispiel wählen kann, Filme zu sehen oder Videospiele zu spielen, die für alle Altersgruppen geeignet sind. Plain-, NTLM- und Kerberos-Authentifizierungen, unter Verwendung von Kennwörtern/Hashes/Tickets/Schlüsseln; EU-Kommissar Thierry Breton wiederum reagierte auf Musks Teet, dass der Vogel jetzt frei sein, mit der Anmerkung, “dass Twitter in Europa nach unseren Regeln fliegen muss”. Preis: Kostenlos – Impacket wird unter einer leicht modifizierten Version der Apache Software License bereitgestellt. Die Unterschiede können Sie hier einsehen. 4. Metasploit Metasploit ist ein Exploit-Framework von Rapid7, das für allgemeine Penetrationstests und Schwachstellenbewertungen verwendet wird. Sicherheitsexperten betrachten es als “Super-Tool”, das funktionierende Versionen fast aller bekannter Exploits enthält. Metasploit ermöglicht Sicherheitsexperten, Netzwerke und Endpunkte auf Schwachstellen zu scannen und anschließend automatisiert mögliche Exploits auszuführen, um Systeme zu übernehmen. Metasploit erleichtert es mit protokollspezifischen Modulen (die alle unter der Funktion Auxiliary/Server/Capture laufen) Anmeldeinformationen zu erfassen. Sicherheitsexperten können jedes dieser Module einzeln starten und konfigurieren – zudem steht ein Capture-Plug-in zur Verfügung, das diesen Prozess vereinheitlicht. Preis: Metasploit Pro kostet – inklusive kommerziellem Support durch Rapid7 – ab 12.000 Dollar pro Jahr. Es gibt aber auch eine kostenlose Version. 5. Ncat Der Nachfolger des beliebten Tools Netcat heißt Ncat und kommt von den Machern von Nmap. Das Tool ermöglicht es, Daten per Kommandozeile über ein Netzwerk zu lesen und zu schreiben, bietet aber auch zusätzlich Funktionen wie SSL-Verschlüsselung. Sicherheitsexperten zufolge ist Ncat unerlässlich geworden, um TCP/UDP-Clients und -Server zu hosten und Daten von Angreifer- und Opfersystemen zu empfangen. Ncat ist auch ein beliebtes Tool, um eine Reverse Shell einzurichten oder Daten zu exfiltrieren. Es wurde als zuverlässiges Back-End-Tool entwickelt, um Netzwerkverbindungen zu anderen Anwendungen und Benutzern herzustellen. Preis: kostenlos 6. Nmap Dieses Netzwerk-Scanning- und Mapping-Tool auf Kommandozeilen-Basis findet zugängliche Ports auf Remote Devices. Viele Sicherheitsexperten halten Nmap für eines der wichtigsten und effektivsten Tools – insbesondere im Bereich Penetration Testing ist es unerlässlich. Die Skripting-Engine von Nmap erkennt anschließend automatisiert weitere Schwachstellen und nutzt diese aus. Nmap unterstützt Dutzende fortschrittlicher Techniken, um Netzwerke mit IP-Filtern, Firewalls, Routern und anderen Hindernissen abzubilden. Dazu gehören auch zahlreiche Mechanismen, um TCP- und UDP-Ports zu scannen, Betriebssysteme und Versionen sowie Ping-Sweeps zu erkennen. Preis: kostenlos 7. ProxyChains Dieses Werkzeug – der De-facto-Standard für Netzwerk-Tunneling – ermöglicht es Sicherheitsexperten, Proxy-Befehle von ihrem angreifenden Linux-Rechner aus über verschiedene kompromittierte Rechner zu senden, um Netzwerkgrenzen und Firewalls zu überwinden und dabei einer Entdeckung zu entgehen. ProxyChains leitet den TCP-Verkehr von Penetrationstestern durch die folgenden Proxys: TOR, SOCKS und HTTP. ProxyChains ist mit TCP-Aufklärungs-Tools wie NMAP kompatibel und verwendet standardmäßig das TOR-Netzwerk. Sicherheitsexperten verwenden ProxyChains auch bei der IDS/IPS-Erkennung. Preis: kostenlos 8. Responder Responder ist ein NBT-NS (NetBIOS Name Service), LLMNR (Link-Local Multicast Name Resolution) und mDNS (Multicast DNS) Poisoner. Penetration Tester nutzen das Tool, um Angriffe zu simulieren, die darauf abzielen, Anmeldeinformationen und andere Daten während des Prozesses der Namensauflösung zu stehlen, wenn der DNS-Server keinen Eintrag findet. Ab Version 3.1.1.0 bietet Responder standardmäßig vollen IPv6-Support. Preis: kostenlos 9. sqlmap Das Open-Source-Tool sqlmap richtet sich ebenfalls an Penetrationstester und automatisiert den Prozess, SQL-Injection-Fehler zu erkennen, mit deren Hilfe Datenbankserver kompromittiert werden könnten. Das Tool verfügt über eine leistungsstarke Erkennungs-Engine und bietet zahlreiche Funktionen, darunter Datenbank-Fingerprinting und die Ausführung von Befehlen auf Betriebssystemebene über Out-of-Band-Verbindungen. Sqlmap unterstützt eine breite Palette von Datenbankservern, darunter: MySQL, Oracle, PostgreSQL, Microsoft SQL Server, Microsoft Access, IBM DB2, SQLite, Firebird, Sybase, SAP MaxDB und HSQLDB. Preis: kostenlos 10. Wireshark Das Netzwerkprotokoll-Analyse-Tool Wireshark wird auch oft als Network Interface Sniffer bezeichnet. Mit Wireshark können Sicherheitsexperten das Netzwerkverhalten eines Geräts beobachten, um zu sehen, mit welchen anderen Geräten es kommuniziert und warum. Sicherheitsexperten zufolge eignet sich Wireshark hervorragend, um herauszufinden, wo sich DNS-Server und andere Dienste befinden, mit denen sich ein Netzwerk weiter kompromittieren lässt. Wireshark läuft nicht nur unter Linux, sondern funktioniert mit den allen gängigen Betriebssystemen, einschließlich Windows, MacOs und Unix. Preis: kostenlos Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Linux-Pflicht-Tools für Netzwerk- und Security-Profis​ Wir haben zehn essenzielle Open-Source-Security-Tools für Sie zusammengestellt.
Foto: Omelchenko – shutterstock.com

Eine Wahl zu treffen, wenn Dutzende oder gar Hunderte von Tools zur Verfügung stehen, ist nicht einfach. So dürfte es auch vielen Netzwerk- und Security-Experten gehen, die quelloffene Security Tools für Linux suchen.

In diesem Bereich gibt es eine Vielzahl verschiedener Tools für so gut wie jede Aufgabe (Netzwerk-Tunneling, Sniffing, Scanning, Mapping) und jede Umgebung (Wi-Fi-Netzwerke, Webanwendungen, Datenbankserver). Wir haben einige Experten konsultiert und zehn essenzielle Linux-Sicherheitstools für Sie zusammengestellt.

1. Aircrack-ng

Diese Suite von Software Tools ermöglicht es, drahtlose Netzwerke und WiFi-Protokolle Sicherheitsüberprüfungen zu unterziehen. Sicherheitsprofis verwenden das Tool für die Netzwerkadministration, Hacking und Penetrationstests. Dabei fokussiert Aircrack-ng auf:

Monitoring (Datenpakete erfassen und Daten in Textdateien zur Weiterverarbeitung durch Tools von Drittanbietern exportieren)

Angreifen (Replay-Angriffe, Deauthentication, Packet Injection)

Testing (WiFi-Karten und Treiberfunktionen überprüfen) und

Cracking (WEP und WPA PSK)

Laut der offiziellen Webseite funktionieren alle Tools kommandozeilenbasiert, was eine umfangreiche Skripterstellung ermöglicht. Das Tool funktioniert mit Linux genauso wie mit Windows, macOS, FreeBSD, OpenBSD, NetBSD, Solaris und sogar eComStation.

Preis: kostenlos

2. Burp Suite

Hierbei handelt es sich um eine Testing-Suite für Webanwendungen, die für Security Assessments von Websites eingesetzt wird. Burp Suite arbeitet als lokale Proxy-Lösung, die es Sicherheitsexperten ermöglicht, Anfragen (HTTP/Websockets) und Antworten zwischen einem Webserver und einem Browser

entschlüsseln,

beobachten,

manipulieren und

wiederholen zu können.

Burp Suite hat einen passiven Scanner an Bord, mit dem Security-Profis Webseiten (manuell) auf potenzielle Schwachstellen überprüfen können. Die Pro-Version bietet außerdem einen sehr nützlichen aktiven Web-Schwachstellen-Scanner, mit dem sich weitere Schwachstellen aufspüren lassen. Burp Suite ist über Plugins erweiterbar, so dass Sicherheitsexperten ihre eigenen Erweiterungen entwickeln können.

Preis: Die Professional-Version kostet 449 Euro pro Jahr und Benutzer. Darüber hinaus steht auch eine Enterprise-Version (ab ca. 2.000 Euro jährlich) zur Verfügung, die mehrere gleichzeitige Scans ermöglicht und von Anwendungsentwicklungsteams genutzt werden kann.

3. Impacket

Diese Sammlung von Tools ist für Pen-Tests von Netzwerkprotokollen und -diensten unerlässlich. Impacket wurde von SecureAuth entwickelt und ist eine Sammlung von Python Classes, um mit Netzwerkprotokollen zu arbeiten. Impacket konzentriert sich auf die Bereitstellung von Low-Level-Zugriff auf Pakete und bei einigen Protokollen wie SMB1-3 und MSRPC auf die Protokollimplementierung selbst. Sicherheitsexperten können Pakete von Grund auf neu konstruieren, aber auch auf Grundlage geparster Rohdaten. Die objektorientierte API macht es zudem einfach, mit tiefen Protokollhierarchien zu arbeiten. Impacket unterstützt die folgenden Protokolle:

Ethernet, Linux;

IP, TCP, UDP, ICMP, IGMP, ARP;

IPv4 und IPv6;

Umgänglicher zeigte sich Musk gegenüber den Anzeigenkunden von Twitter. In einem – natürlich auf Twitter geposteten – Brief erklärte der Tesla-Chef, der Grund für die Übernahme sei nicht, damit noch mehr Geld zu verdienen. Vielmehr sei es “wichtig für den Fortbestand der Zivilisation, einen gemeinsamen digitalen Treffpunkt zu haben, auf dem eine breite Palette von Überzeugungen auf gesunde Weise diskutiert werden kann.”

Trotz alledem dürfe Twitter nicht zu einer “für alle Nutzer freien Höllenlandschaft werden, in der alles ohne Konsequenzen gesagt werden kann”, fügte Musk hinzu. Zusätzlich zur Einhaltung der Gesetze müsse die Plattform “warmherzig und einladend” für alle sein und den Nutzern die Möglichkeit bieten, “die gewünschte Erfahrung nach ihren Vorlieben zu wählen” – ähnlich wie man zum Beispiel wählen kann, Filme zu sehen oder Videospiele zu spielen, die für alle Altersgruppen geeignet sind.

Plain-, NTLM- und Kerberos-Authentifizierungen, unter Verwendung von Kennwörtern/Hashes/Tickets/Schlüsseln;

EU-Kommissar Thierry Breton wiederum reagierte auf Musks Teet, dass der Vogel jetzt frei sein, mit der Anmerkung, “dass Twitter in Europa nach unseren Regeln fliegen muss”.

Preis: Kostenlos – Impacket wird unter einer leicht modifizierten Version der Apache Software License bereitgestellt. Die Unterschiede können Sie hier einsehen.

4. Metasploit

Metasploit ist ein Exploit-Framework von Rapid7, das für allgemeine Penetrationstests und Schwachstellenbewertungen verwendet wird. Sicherheitsexperten betrachten es als “Super-Tool”, das funktionierende Versionen fast aller bekannter Exploits enthält. Metasploit ermöglicht Sicherheitsexperten, Netzwerke und Endpunkte auf Schwachstellen zu scannen und anschließend automatisiert mögliche Exploits auszuführen, um Systeme zu übernehmen.

Metasploit erleichtert es mit protokollspezifischen Modulen (die alle unter der Funktion Auxiliary/Server/Capture laufen) Anmeldeinformationen zu erfassen. Sicherheitsexperten können jedes dieser Module einzeln starten und konfigurieren – zudem steht ein Capture-Plug-in zur Verfügung, das diesen Prozess vereinheitlicht.

Preis: Metasploit Pro kostet – inklusive kommerziellem Support durch Rapid7 – ab 12.000 Dollar pro Jahr. Es gibt aber auch eine kostenlose Version.

5. Ncat

Der Nachfolger des beliebten Tools Netcat heißt Ncat und kommt von den Machern von Nmap. Das Tool ermöglicht es, Daten per Kommandozeile über ein Netzwerk zu lesen und zu schreiben, bietet aber auch zusätzlich Funktionen wie SSL-Verschlüsselung. Sicherheitsexperten zufolge ist Ncat unerlässlich geworden, um TCP/UDP-Clients und -Server zu hosten und Daten von Angreifer- und Opfersystemen zu empfangen.

Ncat ist auch ein beliebtes Tool, um eine Reverse Shell einzurichten oder Daten zu exfiltrieren. Es wurde als zuverlässiges Back-End-Tool entwickelt, um Netzwerkverbindungen zu anderen Anwendungen und Benutzern herzustellen.

Preis: kostenlos

6. Nmap

Dieses Netzwerk-Scanning- und Mapping-Tool auf Kommandozeilen-Basis findet zugängliche Ports auf Remote Devices. Viele Sicherheitsexperten halten Nmap für eines der wichtigsten und effektivsten Tools – insbesondere im Bereich Penetration Testing ist es unerlässlich.

Die Skripting-Engine von Nmap erkennt anschließend automatisiert weitere Schwachstellen und nutzt diese aus. Nmap unterstützt Dutzende fortschrittlicher Techniken, um Netzwerke mit IP-Filtern, Firewalls, Routern und anderen Hindernissen abzubilden. Dazu gehören auch zahlreiche Mechanismen, um TCP- und UDP-Ports zu scannen, Betriebssysteme und Versionen sowie Ping-Sweeps zu erkennen.

Preis: kostenlos

7. ProxyChains

Dieses Werkzeug – der De-facto-Standard für Netzwerk-Tunneling – ermöglicht es Sicherheitsexperten, Proxy-Befehle von ihrem angreifenden Linux-Rechner aus über verschiedene kompromittierte Rechner zu senden, um Netzwerkgrenzen und Firewalls zu überwinden und dabei einer Entdeckung zu entgehen.

ProxyChains leitet den TCP-Verkehr von Penetrationstestern durch die folgenden Proxys: TOR, SOCKS und HTTP. ProxyChains ist mit TCP-Aufklärungs-Tools wie NMAP kompatibel und verwendet standardmäßig das TOR-Netzwerk. Sicherheitsexperten verwenden ProxyChains auch bei der IDS/IPS-Erkennung.

Preis: kostenlos

8. Responder

Responder ist ein NBT-NS (NetBIOS Name Service), LLMNR (Link-Local Multicast Name Resolution) und mDNS (Multicast DNS) Poisoner. Penetration Tester nutzen das Tool, um Angriffe zu simulieren, die darauf abzielen, Anmeldeinformationen und andere Daten während des Prozesses der Namensauflösung zu stehlen, wenn der DNS-Server keinen Eintrag findet. Ab Version 3.1.1.0 bietet Responder standardmäßig vollen IPv6-Support.

Preis: kostenlos

9. sqlmap

Das Open-Source-Tool sqlmap richtet sich ebenfalls an Penetrationstester und automatisiert den Prozess, SQL-Injection-Fehler zu erkennen, mit deren Hilfe Datenbankserver kompromittiert werden könnten. Das Tool verfügt über eine leistungsstarke Erkennungs-Engine und bietet zahlreiche Funktionen, darunter Datenbank-Fingerprinting und die Ausführung von Befehlen auf Betriebssystemebene über Out-of-Band-Verbindungen.

Sqlmap unterstützt eine breite Palette von Datenbankservern, darunter:

MySQL,

Oracle,

PostgreSQL,

Microsoft SQL Server,

Microsoft Access,

IBM DB2,

SQLite,

Firebird,

Sybase,

SAP MaxDB und

HSQLDB.

Preis: kostenlos

10. Wireshark

Das Netzwerkprotokoll-Analyse-Tool Wireshark wird auch oft als Network Interface Sniffer bezeichnet. Mit Wireshark können Sicherheitsexperten das Netzwerkverhalten eines Geräts beobachten, um zu sehen, mit welchen anderen Geräten es kommuniziert und warum.

Sicherheitsexperten zufolge eignet sich Wireshark hervorragend, um herauszufinden, wo sich DNS-Server und andere Dienste befinden, mit denen sich ein Netzwerk weiter kompromittieren lässt. Wireshark läuft nicht nur unter Linux, sondern funktioniert mit den allen gängigen Betriebssystemen, einschließlich Windows, MacOs und Unix.

Preis: kostenlos

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Linux-Pflicht-Tools für Netzwerk- und Security-Profis​ Weiterlesen »

VMware, Siemens und die Konsequenzen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?quality=50&strip=all 6371w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn es um Softwarelizenzen geht, kann ein Auge fürs Detail vor teuren Konsequenzen bewahren.Pavel Ignatov | shutterstock.com Bereits kurz nachdem Broadcom Ende 2023 den Virtualisierungsmarktführer VMware übernommen hatte, schlugen einige Experten mit Blick auf die Zukunft Alarm. Das nahm zunächst nicht jeder Unternehmensentscheider ernst, doch der (Lizenz-)Change kam schnell und heftig. Zahlreiche Beschwerden und gerichtliche Auseinandersetzungen wegen geänderter Lizenzbedingungen waren die logische Folge – teilweise mit ersten Erfolgen für die Kunden. Es kann aber auch ganz anders kommen, wie der Rechtsstreit zwischen Broadcom und Siemens in Zusammenhang mit VMware-Lizenzen zeigt, der aus Anwendersicht besonders beunruhigend ist. VMware als Pain Point Denn in diesem Fall hat die VMware-Mutter nach Beschwerden des deutschen Industriekonzerns eine Klage wegen Lizenzverstößen gegen diesen eingereicht. Den genauen Ablauf der Geschehnisse, beziehungsweise die Vorgeschichte dieser Auseinandersetzung können Sie über diese ausführliche (englischsprachige) Timeline nachvollziehen. Aktuell (Stand: Juli 2025) streiten Siemens und VMware/Broadcom gerade darum, wo der Prozess stattfinden soll. Siemens bevorzugt die deutsche Gerichtsbarkeit, die Gegenseite die US-amerikanische. Wird im Rahmen eines Audits nicht lizenzierte Software entdeckt, zahlt der betroffene Kunde in der Regel die entstandene Differenz und eventuell eine zusätzliche Strafgebühr. Die Anbieter versuchen normalerweise auch, diese Kosten einigermaßen im Rahmen zu halten. Schließlich ist ihnen bewusst, dass Kunden irgendwann auch von geschäftskritischer Software Abstand nehmen, wenn die Nachteile zu schwer wiegen. Allerdings sind Strafzahlungen nach Audits trotz allem ein einträgliches Geschäft für die Anbieter, wie eine aktuelle Flexera-Studie zeigt. Demnach: haben 45 Prozent der Befragten in den letzten drei Jahren mehr als eine Million Dollar in solche Strafen „investiert“, während diese Ausgaben bei weiteren 23 Prozent im selben Zeitraum sogar mehr als fünf Millionen Dollar betragen haben. Dabei landete VMware laut der Umfrage zwar “nur” auf Platz Acht der Anbieter, die in Bezug auf Audits besonders aggressiv agieren. Gemessen daran, wie relevant der Anbieter für das Software-Asset-Management von Unternehmen ist, liegt die Broadcom-Tochter allerdings hinter Microsoft auf Platz Zwei. Das dürfte auch Broadcom bewusst sein. Entsprechend schmerzfrei agiert der Konzern – nicht nur in der Causa Siemens. Dass Kunden von den Preiserhöhungen erdrückt werden oder in Massen abwandern könnten, scheint das Management um CEO Hock Tan nicht zu beeindrucken. Es wirkt so, als würde man die Schmerzgrenze der Anwender nicht nur austesten, sondern maximal ausreizen wollen. Und diese Strategie zahlt sich aus – zumindest kurzfristig. Broadcoms lehrreiche Lizenztricks Ein grundlegendes Problem bei Softwarelizenzen besteht darin, dass Unternehmen unter Umständen nicht vollumfänglich darüber informiert sind, welche Softwarelösungen zum Einsatz kommen – insbesondere ab einer bestimmten Firmengröße. Hinzu kommt dann noch das allgegenwärtige Schatten-IT-Problem. Doch selbst wenn ein Anwenderunternehmen über eine legal erworbene Lizenz verfügt, kommt es auf das Kleingedruckte an: Denn möglicherweise umfasst diese nicht alle verfügbaren Funktionen des jeweiligen Softwareprodukts. Laut Dean Bolton, Chefarchitekt und Mitbegründer von LicenseFortress, liegt genau diese Problematik dem Rechtsstreit von Siemens und VMware zugrunde: “Siemens ist scheinbar davon ausgegangen, dass sämtliche enthaltenen Funktionen mit der erworbenen Lizenz nutzbar sind.” Das sei ein Trick, den auch andere Softwareanbieter an ihren Kunden anwenden, meint der Lizenzprofi: “Die Funktion ist vielleicht vorhanden, leicht zugänglich und nicht ausgegraut, aber man darf sie trotzdem nur mit einer speziellen Zusatzlizenz nutzen. Wenn die Entscheidung in diesem Rechtsstreit zugunsten von Siemens ausfällt, könnte das meiner Meinung nach erhebliche Auswirkungen auf die gesamte Branche haben”, konstatiert Bolton – und fügt hinzu: “Aber ich gehe nicht davon aus, dass es dazu kommt.” Es reicht also nicht aus, dass ein Unternehmen alle Bedingungen der von ihm verwendeten Softwareprodukte genau kennt. Es muss auch detailliert verfolgen, wie diese Software im gesamten Unternehmen genutzt wird. Während einige Softwareanbieter eigene Tools zur Verfügung stellen, um die Nutzung ihrer Softwarelösungen nachzuverfolgen, ist das im Fall von VMware nicht so leicht, wie Bill Sudbrook, Senior Director im Bereich Solutions Advisory bei Flexera (ebenfalls Kunde von VMware), festhält: “Standardmäßig gibt VMware über seine Portale an, wie viele Lizenzen Sie haben. Diese sind allerdings extrem ungenau. Es ist deshalb dringend anzuraten, Gegenkontrollen in der eigenen Umgebung durchzuführen.” Eine gute Dokumentation könne Unternehmen auf Audits vorbereiten und sie vor unerwarteten Bußgeldern und Kostenüberschreitungen schützen, so Sudbrook. Allerdings könnten Anwender nicht wirklich etwas gegen Preiserhöhungen ausrichten, die sich aus drastischen Lizenzänderungen ergeben: “Einige Unternehmen suchen nach anderen Partnern, die Support für ihre VMware-Installationen anbieten. Darauf hat Broadcom mit Unterlassungserklärungen reagiert und ihnen mitgeteilt, dass sie direkt bei ihnen zu den neuen, deutlich höheren Preisen kaufen müssen.” Und auch Anwender, die sich dazu entscheiden, auf eine VMware-Alternative umzusteigen, kommen nicht günstig weg: Laut einer Gartner-Analyse kann eine Migration von VMware zu einem alternativen Anbieter je nach Fall zwischen 18 und 48 Monate in Anspruch nehmen, die Migrationsdienste zwischen 300 und 3.000 Dollar kosten – pro virtueller Maschine. Und solange die Migration läuft, müssten diese Anwender weiterhin ihre VMware-Abonnements bezahlen. Unternehmen können (und sollten) aus der aktuellen Situation rund um Siemens und Broadcom/VMware drei wesentliche Lehren ziehen. Nämlich:  Lizenzbedingungen sorgfältig zu prüfen, die tatsächliche Nutzung ihrer Softwarelösungen zu tracken, sowie  entsprechende Notfallpläne bereitzuhalten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten 

VMware, Siemens und die Konsequenzen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?quality=50&strip=all 6371w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Pavel-Ignatov-shutterstock_218564146_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn es um Softwarelizenzen geht, kann ein Auge fürs Detail vor teuren Konsequenzen bewahren.Pavel Ignatov | shutterstock.com

Bereits kurz nachdem Broadcom Ende 2023 den Virtualisierungsmarktführer VMware übernommen hatte, schlugen einige Experten mit Blick auf die Zukunft Alarm. Das nahm zunächst nicht jeder Unternehmensentscheider ernst, doch der (Lizenz-)Change kam schnell und heftig.

Zahlreiche Beschwerden und gerichtliche Auseinandersetzungen wegen geänderter Lizenzbedingungen waren die logische Folge – teilweise mit ersten Erfolgen für die Kunden. Es kann aber auch ganz anders kommen, wie der Rechtsstreit zwischen Broadcom und Siemens in Zusammenhang mit VMware-Lizenzen zeigt, der aus Anwendersicht besonders beunruhigend ist.

VMware als Pain Point

Denn in diesem Fall hat die VMware-Mutter nach Beschwerden des deutschen Industriekonzerns eine Klage wegen Lizenzverstößen gegen diesen eingereicht. Den genauen Ablauf der Geschehnisse, beziehungsweise die Vorgeschichte dieser Auseinandersetzung können Sie über diese ausführliche (englischsprachige) Timeline nachvollziehen. Aktuell (Stand: Juli 2025) streiten Siemens und VMware/Broadcom gerade darum, wo der Prozess stattfinden soll. Siemens bevorzugt die deutsche Gerichtsbarkeit, die Gegenseite die US-amerikanische.

Wird im Rahmen eines Audits nicht lizenzierte Software entdeckt, zahlt der betroffene Kunde in der Regel die entstandene Differenz und eventuell eine zusätzliche Strafgebühr. Die Anbieter versuchen normalerweise auch, diese Kosten einigermaßen im Rahmen zu halten. Schließlich ist ihnen bewusst, dass Kunden irgendwann auch von geschäftskritischer Software Abstand nehmen, wenn die Nachteile zu schwer wiegen.

Allerdings sind Strafzahlungen nach Audits trotz allem ein einträgliches Geschäft für die Anbieter, wie eine aktuelle Flexera-Studie zeigt. Demnach:

haben 45 Prozent der Befragten in den letzten drei Jahren mehr als eine Million Dollar in solche Strafen „investiert“, während

diese Ausgaben bei weiteren 23 Prozent im selben Zeitraum sogar mehr als fünf Millionen Dollar betragen haben.

Dabei landete VMware laut der Umfrage zwar “nur” auf Platz Acht der Anbieter, die in Bezug auf Audits besonders aggressiv agieren. Gemessen daran, wie relevant der Anbieter für das Software-Asset-Management von Unternehmen ist, liegt die Broadcom-Tochter allerdings hinter Microsoft auf Platz Zwei. Das dürfte auch Broadcom bewusst sein. Entsprechend schmerzfrei agiert der Konzern – nicht nur in der Causa Siemens. Dass Kunden von den Preiserhöhungen erdrückt werden oder in Massen abwandern könnten, scheint das Management um CEO Hock Tan nicht zu beeindrucken. Es wirkt so, als würde man die Schmerzgrenze der Anwender nicht nur austesten, sondern maximal ausreizen wollen. Und diese Strategie zahlt sich aus – zumindest kurzfristig.

Broadcoms lehrreiche Lizenztricks

Ein grundlegendes Problem bei Softwarelizenzen besteht darin, dass Unternehmen unter Umständen nicht vollumfänglich darüber informiert sind, welche Softwarelösungen zum Einsatz kommen – insbesondere ab einer bestimmten Firmengröße. Hinzu kommt dann noch das allgegenwärtige Schatten-IT-Problem. Doch selbst wenn ein Anwenderunternehmen über eine legal erworbene Lizenz verfügt, kommt es auf das Kleingedruckte an: Denn möglicherweise umfasst diese nicht alle verfügbaren Funktionen des jeweiligen Softwareprodukts. Laut Dean Bolton, Chefarchitekt und Mitbegründer von LicenseFortress, liegt genau diese Problematik dem Rechtsstreit von Siemens und VMware zugrunde: “Siemens ist scheinbar davon ausgegangen, dass sämtliche enthaltenen Funktionen mit der erworbenen Lizenz nutzbar sind.”

Das sei ein Trick, den auch andere Softwareanbieter an ihren Kunden anwenden, meint der Lizenzprofi: “Die Funktion ist vielleicht vorhanden, leicht zugänglich und nicht ausgegraut, aber man darf sie trotzdem nur mit einer speziellen Zusatzlizenz nutzen. Wenn die Entscheidung in diesem Rechtsstreit zugunsten von Siemens ausfällt, könnte das meiner Meinung nach erhebliche Auswirkungen auf die gesamte Branche haben”, konstatiert Bolton – und fügt hinzu: “Aber ich gehe nicht davon aus, dass es dazu kommt.”

Es reicht also nicht aus, dass ein Unternehmen alle Bedingungen der von ihm verwendeten Softwareprodukte genau kennt. Es muss auch detailliert verfolgen, wie diese Software im gesamten Unternehmen genutzt wird. Während einige Softwareanbieter eigene Tools zur Verfügung stellen, um die Nutzung ihrer Softwarelösungen nachzuverfolgen, ist das im Fall von VMware nicht so leicht, wie Bill Sudbrook, Senior Director im Bereich Solutions Advisory bei Flexera (ebenfalls Kunde von VMware), festhält: “Standardmäßig gibt VMware über seine Portale an, wie viele Lizenzen Sie haben. Diese sind allerdings extrem ungenau. Es ist deshalb dringend anzuraten, Gegenkontrollen in der eigenen Umgebung durchzuführen.”

Eine gute Dokumentation könne Unternehmen auf Audits vorbereiten und sie vor unerwarteten Bußgeldern und Kostenüberschreitungen schützen, so Sudbrook. Allerdings könnten Anwender nicht wirklich etwas gegen Preiserhöhungen ausrichten, die sich aus drastischen Lizenzänderungen ergeben: “Einige Unternehmen suchen nach anderen Partnern, die Support für ihre VMware-Installationen anbieten. Darauf hat Broadcom mit Unterlassungserklärungen reagiert und ihnen mitgeteilt, dass sie direkt bei ihnen zu den neuen, deutlich höheren Preisen kaufen müssen.”

Und auch Anwender, die sich dazu entscheiden, auf eine VMware-Alternative umzusteigen, kommen nicht günstig weg: Laut einer Gartner-Analyse kann eine Migration von VMware zu einem alternativen Anbieter je nach Fall zwischen 18 und 48 Monate in Anspruch nehmen, die Migrationsdienste zwischen 300 und 3.000 Dollar kosten – pro virtueller Maschine. Und solange die Migration läuft, müssten diese Anwender weiterhin ihre VMware-Abonnements bezahlen.

Unternehmen können (und sollten) aus der aktuellen Situation rund um Siemens und Broadcom/VMware drei wesentliche Lehren ziehen. Nämlich: 

Lizenzbedingungen sorgfältig zu prüfen,

die tatsächliche Nutzung ihrer Softwarelösungen zu tracken, sowie 

entsprechende Notfallpläne bereitzuhalten.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten

VMware, Siemens und die Konsequenzen​ Weiterlesen »

“Digitale Souveränität entsteht nicht allein durch gute Software”​

Allgemein

loading=”lazy” width=”400px”>Was ausschlaggebend für die digitale Souveränität Europas ist, darüber gibt es sehr unterschiedliche Auffassungen.koya979 – shutterstock.com Christian Klein, Vorstandschef von SAP, hat mit seiner Kritik an der europäischen KI-Strategie einen Nerv getroffen. Es stimmt, Europa kommt bei der praktischen Nutzung von Künstlicher Intelligenz zu langsam voran. Viele Unternehmen setzen längst auf amerikanische Cloud-Anbieter, ohne dabei automatisch die Kontrolle über ihre Daten zu verlieren. Und es ist richtig, dass Europa seine industriellen Stärken und Datenschätze viel konsequenter in marktfähige KI-Lösungen übersetzen sollte. Lesetipp: SAP-Chef Christian Klein sieht Problem der Digitalen Souveränität gelöst Doch aus all dem zu schließen, Europa könne sich den Aufbau eigener digitaler Infrastruktur sparen, greift zu kurz. Wer nur auf Anwendungen setzt, ohne die technischen und politischen Grundlagen mitzudenken, baut auf unsicherem Fundament. Digitale Souveränität entsteht nicht allein durch gute Software. Sie entsteht durch das Zusammenspiel aus Rechenleistung, Datenhoheit, klaren Regeln und der Fähigkeit, Innovation auch eigenständig umzusetzen. Ohne eigene Hochleistungsrechenzentren bleibt Europa strukturell abhängig von Anbietern außerhalb des Kontinents. Diese Abhängigkeit mag heute kaum stören, doch sie wird zur Schwäche, wenn sich geopolitische oder wirtschaftliche Rahmenbedingungen verschieben. Vieles spricht für eigene Infrastruktur In einer Welt, in der Technologie immer stärker mit politischer Gestaltungsmacht verknüpft ist, reicht rein betriebswirtschaftliches Denken nicht mehr aus. Wer seine digitale Basis nicht selbst kontrolliert, muss darauf vertrauen, dass externe Systeme auch in kritischen Momenten funktionieren. Das mag bequem sein, solange alles läuft. Aber es ist riskant, wenn es darauf ankommt. Wer seine digitale Basis nicht selbst kontrolliert, geht ein Risiko ein, sagt Frank Bösenberg, Geschäftsführer von Silicon Saxony.Silicon Saxony, Tommy Halfter Auch wirtschaftlich spricht vieles für eigene Infrastruktur. Richtig geplant, lässt sich europäische Rechenleistung effizient nutzen und in Wertschöpfung umwandeln. Wenn Universitäten, Startups und mittelständische Unternehmen unkomplizierten Zugang zu leistungsfähiger Technologie erhalten, entsteht Innovation dort, wo sie gebraucht wird. Wer diese Systeme offen, nachhaltig und verlässlich aufsetzt, schafft nicht nur Wachstum, sondern auch Vertrauen in eine Digitalpolitik, die ihren Namen verdient. Gleichzeitig ist unbestritten, dass Europa bei der Anwendung aufholen muss. Doch das gelingt nicht mit Leuchtturmprojekten, sondern nur durch echte Transformation in Industrie, Gesundheitswesen, Verwaltung und Wissenschaft. Für all das braucht es nicht nur gute Ideen, sondern auch Zugang zu Rechenleistung. Wer diese Grundlage anderen überlässt, verzichtet auf wirtschaftliche und technologische Handlungsfreiheit. Europa braucht Rechenzentren und KI-Förderung Was Europa jetzt braucht, ist kein Richtungswechsel, sondern eine doppelte Strategie. Einerseits Investitionen in europäische Rechenzentren, die unabhängig betrieben und nachhaltig organisiert sind. Andererseits entschlossene Programme, die KI-Anwendungen genau dort fördern, wo Europa seine Stärken hat. Nur wenn beides zusammen gedacht wird, kann daraus ein System entstehen, das Innovation ermöglicht und langfristig wettbewerbsfähig bleibt. Christian Klein hat recht, wenn er fordert, dass Europa seine Ressourcen auf Wirkung konzentrieren soll. Doch Wirkung entsteht nicht im luftleeren Raum. Sie braucht Struktur, Voraussetzungen und Handlungsspielräume. Eine KI-Strategie, die nur auf das schaut, was heute nützlich erscheint, riskiert morgen machtlos zu sein. Wer Anwendungen will, muss auch Infrastruktur sichern. Nur so wird Europa zum aktiven Gestalter der nächsten digitalen Epoche und bleibt nicht bloß Nutzer fremder Systeme. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

“Digitale Souveränität entsteht nicht allein durch gute Software”​ loading=”lazy” width=”400px”>Was ausschlaggebend für die digitale Souveränität Europas ist, darüber gibt es sehr unterschiedliche Auffassungen.koya979 – shutterstock.com

Christian Klein, Vorstandschef von SAP, hat mit seiner Kritik an der europäischen KI-Strategie einen Nerv getroffen. Es stimmt, Europa kommt bei der praktischen Nutzung von Künstlicher Intelligenz zu langsam voran. Viele Unternehmen setzen längst auf amerikanische Cloud-Anbieter, ohne dabei automatisch die Kontrolle über ihre Daten zu verlieren. Und es ist richtig, dass Europa seine industriellen Stärken und Datenschätze viel konsequenter in marktfähige KI-Lösungen übersetzen sollte.

Lesetipp: SAP-Chef Christian Klein sieht Problem der Digitalen Souveränität gelöst

Doch aus all dem zu schließen, Europa könne sich den Aufbau eigener digitaler Infrastruktur sparen, greift zu kurz. Wer nur auf Anwendungen setzt, ohne die technischen und politischen Grundlagen mitzudenken, baut auf unsicherem Fundament. Digitale Souveränität entsteht nicht allein durch gute Software. Sie entsteht durch das Zusammenspiel aus Rechenleistung, Datenhoheit, klaren Regeln und der Fähigkeit, Innovation auch eigenständig umzusetzen. Ohne eigene Hochleistungsrechenzentren bleibt Europa strukturell abhängig von Anbietern außerhalb des Kontinents. Diese Abhängigkeit mag heute kaum stören, doch sie wird zur Schwäche, wenn sich geopolitische oder wirtschaftliche Rahmenbedingungen verschieben.

Vieles spricht für eigene Infrastruktur

In einer Welt, in der Technologie immer stärker mit politischer Gestaltungsmacht verknüpft ist, reicht rein betriebswirtschaftliches Denken nicht mehr aus. Wer seine digitale Basis nicht selbst kontrolliert, muss darauf vertrauen, dass externe Systeme auch in kritischen Momenten funktionieren. Das mag bequem sein, solange alles läuft. Aber es ist riskant, wenn es darauf ankommt.

Wer seine digitale Basis nicht selbst kontrolliert, geht ein Risiko ein, sagt Frank Bösenberg, Geschäftsführer von Silicon Saxony.Silicon Saxony, Tommy Halfter

Auch wirtschaftlich spricht vieles für eigene Infrastruktur. Richtig geplant, lässt sich europäische Rechenleistung effizient nutzen und in Wertschöpfung umwandeln. Wenn Universitäten, Startups und mittelständische Unternehmen unkomplizierten Zugang zu leistungsfähiger Technologie erhalten, entsteht Innovation dort, wo sie gebraucht wird. Wer diese Systeme offen, nachhaltig und verlässlich aufsetzt, schafft nicht nur Wachstum, sondern auch Vertrauen in eine Digitalpolitik, die ihren Namen verdient.

Gleichzeitig ist unbestritten, dass Europa bei der Anwendung aufholen muss. Doch das gelingt nicht mit Leuchtturmprojekten, sondern nur durch echte Transformation in Industrie, Gesundheitswesen, Verwaltung und Wissenschaft. Für all das braucht es nicht nur gute Ideen, sondern auch Zugang zu Rechenleistung. Wer diese Grundlage anderen überlässt, verzichtet auf wirtschaftliche und technologische Handlungsfreiheit.

Europa braucht Rechenzentren und KI-Förderung

Was Europa jetzt braucht, ist kein Richtungswechsel, sondern eine doppelte Strategie. Einerseits Investitionen in europäische Rechenzentren, die unabhängig betrieben und nachhaltig organisiert sind. Andererseits entschlossene Programme, die KI-Anwendungen genau dort fördern, wo Europa seine Stärken hat. Nur wenn beides zusammen gedacht wird, kann daraus ein System entstehen, das Innovation ermöglicht und langfristig wettbewerbsfähig bleibt.

Christian Klein hat recht, wenn er fordert, dass Europa seine Ressourcen auf Wirkung konzentrieren soll. Doch Wirkung entsteht nicht im luftleeren Raum. Sie braucht Struktur, Voraussetzungen und Handlungsspielräume. Eine KI-Strategie, die nur auf das schaut, was heute nützlich erscheint, riskiert morgen machtlos zu sein. Wer Anwendungen will, muss auch Infrastruktur sichern. Nur so wird Europa zum aktiven Gestalter der nächsten digitalen Epoche und bleibt nicht bloß Nutzer fremder Systeme.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

“Digitale Souveränität entsteht nicht allein durch gute Software”​ Weiterlesen »

Die richtige ETL-Plattform, um zu wachsen – ein Erfahrungsbericht​

Allgemein

Berücksichtigt Ihre Datenplattform künftiges Wachstum in ausreichendem Maß?Roman Zaiets | shutterstock.com Als schnell wachsendes Healthcare-Unternehmen war unser Kundenstamm schneller als unsere Dateninfrastruktur gewachsen. Was einst flexibel erschien, wurde zunehmend anfällig: Pipelines fielen unbemerkt aus, Onboardings zogen sich über Wochen und für die Fehlersuche musste ein Log-Labyrinth durchdrungen werden. Allerdings haben wir schnell erkannt, dass wir nicht nur mit Tools zu kämpfen haben, sondern auch mit architektonischen Schulden. Also haben wir innegehalten, unsere Datenplattform auf den Prüfstand gestellt und damit begonnen, ETL-Tools zu evaluieren. Unser Ziel: Den Data-Ingestion-Stack zu modernisieren, um skalieren zu können. In diesem Artikel teile ich meine Erfahrungen, was dabei funktioniert hat, was nicht – und wie wir eine Evaluierungsrubrik erstellt haben, die nicht nur auf Funktionen, sondern der betrieblichen Realität fußt. Datengetriebene Skalierungsprobleme Unser drängendstes Problem lag dabei nicht im Datenvolumen, sondern in der wachsenden Belastung durch Pipelines, die auf jeden Kunden individuell zugeschnitten waren: einmalige Verknüpfungen, manuelle Schema-Patches, benutzerdefinierte Workflows. In Kombination mit unserem Wachstum führte diese Flexibilität jedoch zu Fragmentierung: Schema-Inkonsistenzen führten zu instabilen Transformationen, Sonderfälle manuell zu bearbeiten, verursachte hohe Onboarding-Kosten, die fehlende Modularität bedeutete, für jeden neuen Kunden nacharbeiten zu müssen, und ohne zentrales Monitoring waren Fehler schwer zu erkennen und zu beheben. Im Ergebnis stand eine instabile Infrastruktur und ein verlangsamtes Onboarding neuer Kunden. Beides Hemmnisse für das weitere Unternehmenswachstum. Wir wollten jedoch nicht nur die aktuellen Probleme beheben, sondern auch eine Datenplattform aufbauen, die das gesamte Unternehmen unterstützen kann. Besonders wichtig war uns dabei, eine Lösung zu finden, bei der die Kosten mit der Nutzung skalieren – keine Flatrate-Plattform, die bei geringer Auslastung hohe Kosten verursacht. Der ETL-Anforderungskatalog Statt uns von aktuellen Technologie-Hypes vereinnahmen zu lassen, haben wir zunächst definiert, was diese Plattform funktional und auch kulturell leisten muss. Folgendermaßen sahen dabei unsere Prioritäten aus. Schema-Validierung am Edge: Bevor Daten in unser System gelangen, sollten erwartete Felder, Typen und Strukturen im Voraus validiert werden. Das verhindert „Garbage in, Garbage out“-Probleme und minimiert Fehler in nachgelagerten Prozessen. Modulare, wiederverwendbare Transformationen: Anstatt die Geschäftslogik für jeden Kunden neu zu schreiben, mussten wir die Datenaufnahme in wiederverwendbare Module aufteilen – verknüpfen, anreichern, validieren, normalisieren. Diese sollten dann, basierend auf der Kundenkonfiguration, miteinander verkettet werden. Observability als Standard: Der Zustand der Pipeline sollte nicht erst nachgelagert eine Rolle spielen. Wir wollten integrierte Prüfungen für Metriken, Lineage und Datenqualität, die sowohl für Ingenieure als auch für Customer-Success-Teams sichtbar sind. Reibungslose Dev Experience: Unser Team bestand aus Data Engineers, Analytics-Experten und Backend-Entwicklern. Die ideale Plattform sollte mehrere Rollen unterstützen sowie zugängliche Debugging- und lokale Dev-Workflows bieten. Kosten und Wartbarkeit: Wir haben nicht auf hohen Durchsatz optimiert, sondern auf Hebelwirkung. Wir brauchten eine Plattform, die mit uns skalieren würde, wobei sich die Cloud-Kosten proportional zum Datenvolumen verhalten, während die Wartungsarbeiten sich überschaubar gestalten sollten. Das ideale Tool musste bei geringen Volumina kosteneffizient sein, aber mit Blick auf die Zukunft auch robust genug, um auch hohe Volumina zu unterstützen. Und vor allem musste die Plattform zur Größe unseres Teams passen. Mit einer schlanken Data-Engineering-Truppe konnten wir es uns nicht leisten, mehrere Tools einzusetzen. Die ETL-Plattformbewertung Als es darum ging, konkrete Lösungen zu evaluieren, haben wir sechs verschiedene Plattformen aus unterschiedlichen Bereichen analysiert. Im Folgenden ein Überblick inklusive der (aus unserer Sicht) Vor- und auch Nachteile des jeweiligen Angebots. Databricks Die Plattform empfiehlt sich für Teams, die bereits in Spark und Delta Lake investiert haben. Sie unterstützt sowohl großangelegte Transformationen als auch mehrstufige Architekturen. Pro: Notebook-Integration und robuste Rechenskalierung; nativer Support für Delta-Tabellen und Streaming-Workloads. Kontra: eine eher steile Lernkurve für Teams, die mit Spark nicht vertraut sind; für Monitoring ist entweder Unity Catalog oder eine benutzerdefinierte Einrichtung erforderlich. Mage.ai Dieser neuere Anbieter fokussiert auf entwicklerfreundliche Pipelines mit Metadata-First-Design. Pro: eine simple Benutzeroberfläche und Python-First-Konfiguration; integrierte Lineage-Tracking- und Planungsfunktionen. Kontra: das ausgereifte Konnektor-Ökosystem älterer Plattformen fehlt; wird mit Blick auf Deployment- und Enterprise-Funktionen noch weiterentwickelt. AWS Glue Diese Plattform ist serverless, skalierbar und eng in das AWS-Ökosystem integriert. Pro: kostengünstig für Batch-Workloads mit mäßiger Häufigkeit; unterstützt automatisches Crawling und Katalogisierung per Glue Data Catalog. Kontra: die Entwicklererfahrung kann aufgrund des eingeschränkten Debugging-Supports frustrieren; nach dem Deployment ist es schwierig, die Joblogik zu inspizieren. Airflow Dieser Orchestrator ist insbesondere unter Python-nativen Teams populär. Pro: flexibel und bewährt, mit Support durch eine große Community; lässt sich in jede Backend-Logik und jeden benutzerdefinierten Code integrieren. Kontra: an sich keine ETL-Engine – Rechenleistung und Observability müssen hinzugefügt werden; ohne Standards kann die Flexibilität ins Pipeline-Chaos führen. Boomi/Rivery Dieses Tool integriert Low-Code sowie Drag-and-Drop-Oberflächen. Pro: amortisiert sich bei einfachen Integrationen schnell; ist auch für Business- und Nicht-IT-Benutzer zugänglich. Kontra: Funktionen für komplexe oder verschachtelte Transformationen sind limitiert; nicht für große Datenmengen oder semi-strukturierte Daten konzipiert. DBT Dieser Industriestandard kommt zum Einsatz, um Transformationen innerhalb des Data Warehouse zu modellieren. Pro: fördert modulare, testbare SQL-basierte Transformationen; gute Dokumentation und Lineage Tracking. Kontra: nicht geeignet für Data Ingestion oder unstrukturierte Daten; erfordert eine bestehende Warehouse-Umgebung. Nachdem wir alle sechs Lösungen evaluiert hatten, haben wir uns schließlich für Databricks entschieden, um eine Ende-zu-Ende-Datenaufnahme zu realisieren – von der Rohdatenerfassung über die Transformation bis hin zu Observability und Lineage. Damit konnten wir zwar nicht alle Probleme lösen, aber immerhin etwa 60 Prozent – also ein bedeutender Fortschritt. Für unser kleines Team mit fünf Mitarbeitern brachte diese Konsolidierung die nötige Übersichtlichkeit, Wartbarkeit und Flexibilität. Um in allen Bereichen erstklassige Funktionen zu erhalten, hätten wir eigentlich zwei Tools auswählen müssen. Das war jedoch angesichts der begrenzten Zeit und der fehlenden Integrationserfahrung nicht praktikabel. Deshalb haben wir uns für das Tool entschieden, mit dem wir heute schneller vorankommen – auch wenn wir wissen, dass es nicht perfekt ist. Vielleicht finden wir später ein zweites Tool, das gut passt. Oder wir stellen fest, dass die verbleibenden Probleme eine maßgeschneiderte Lösung erfordern. ETL-Entscheidungstipps Das bringt uns zu der unvermeidlichen Frage in jeder technischen Roadmap: Kaufen oder selbst entwickeln? An dieser Stelle würde ich auf Grundlage unserer Erfahrungen allen Teams und Entscheidern, die heute Tools evaluieren, zwei Ratschläge mit auf den Weg geben: Seien Sie pragmatisch. Evaluieren Sie Ihre Anforderungen klar, behalten Sie die Zukunft im Blick und identifizieren Sie die drei wichtigsten Probleme, die Sie lösen möchten. Und: Stellen Sie sich von vornherein darauf ein, dass kein Tool alle Probleme hundertprozentig lösen kann. Seien Sie ehrlich in Bezug auf Ihre Stärken und Schwächen. Erstere waren in unserem Fall die überschaubare Datenmenge und dass wir keine dringenden Deliverables hatten – oder anders ausgedrückt: Wir hatten Raum zu gestalten. Zweitere der benutzerdefinierte Ingestion-Code und die Limitierungen eines Teams, das nach dem Lean-Ansatz agiert. Die Wahl einer ETL-Plattform ist nicht nur eine technische Entscheidung. Sie spiegelt wider, wie Ihr Team arbeitet und sich weiterentwickelt. Wenn Ihr aktueller Stack sich wie ein Flickwerk anfühlt, macht es Sinn, sich zu fragen, was passiert, wenn das Unternehmen weiter wächst. Denn die richtige ETL-Plattform verarbeitet nicht nur Daten – sie schafft Dynamik. Und manchmal bedeutet echter Fortschritt eben, sich für das beste unvollkommene Tool von heute zu entscheiden, um morgen schnell genug handeln und smartere Entscheidungen treffen zu können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die richtige ETL-Plattform, um zu wachsen – ein Erfahrungsbericht​ Berücksichtigt Ihre Datenplattform künftiges Wachstum in ausreichendem Maß?Roman Zaiets | shutterstock.com

Als schnell wachsendes Healthcare-Unternehmen war unser Kundenstamm schneller als unsere Dateninfrastruktur gewachsen. Was einst flexibel erschien, wurde zunehmend anfällig: Pipelines fielen unbemerkt aus, Onboardings zogen sich über Wochen und für die Fehlersuche musste ein Log-Labyrinth durchdrungen werden. Allerdings haben wir schnell erkannt, dass wir nicht nur mit Tools zu kämpfen haben, sondern auch mit architektonischen Schulden. Also haben wir innegehalten, unsere Datenplattform auf den Prüfstand gestellt und damit begonnen, ETL-Tools zu evaluieren. Unser Ziel: Den Data-Ingestion-Stack zu modernisieren, um skalieren zu können.

In diesem Artikel teile ich meine Erfahrungen, was dabei funktioniert hat, was nicht – und wie wir eine Evaluierungsrubrik erstellt haben, die nicht nur auf Funktionen, sondern der betrieblichen Realität fußt.

Datengetriebene Skalierungsprobleme

Unser drängendstes Problem lag dabei nicht im Datenvolumen, sondern in der wachsenden Belastung durch Pipelines, die auf jeden Kunden individuell zugeschnitten waren: einmalige Verknüpfungen, manuelle Schema-Patches, benutzerdefinierte Workflows. In Kombination mit unserem Wachstum führte diese Flexibilität jedoch zu Fragmentierung:

Schema-Inkonsistenzen führten zu instabilen Transformationen,

Sonderfälle manuell zu bearbeiten, verursachte hohe Onboarding-Kosten,

die fehlende Modularität bedeutete, für jeden neuen Kunden nacharbeiten zu müssen, und

ohne zentrales Monitoring waren Fehler schwer zu erkennen und zu beheben.

Im Ergebnis stand eine instabile Infrastruktur und ein verlangsamtes Onboarding neuer Kunden. Beides Hemmnisse für das weitere Unternehmenswachstum. Wir wollten jedoch nicht nur die aktuellen Probleme beheben, sondern auch eine Datenplattform aufbauen, die das gesamte Unternehmen unterstützen kann. Besonders wichtig war uns dabei, eine Lösung zu finden, bei der die Kosten mit der Nutzung skalieren – keine Flatrate-Plattform, die bei geringer Auslastung hohe Kosten verursacht.

Der ETL-Anforderungskatalog

Statt uns von aktuellen Technologie-Hypes vereinnahmen zu lassen, haben wir zunächst definiert, was diese Plattform funktional und auch kulturell leisten muss. Folgendermaßen sahen dabei unsere Prioritäten aus.

Schema-Validierung am Edge: Bevor Daten in unser System gelangen, sollten erwartete Felder, Typen und Strukturen im Voraus validiert werden. Das verhindert „Garbage in, Garbage out“-Probleme und minimiert Fehler in nachgelagerten Prozessen.

Modulare, wiederverwendbare Transformationen: Anstatt die Geschäftslogik für jeden Kunden neu zu schreiben, mussten wir die Datenaufnahme in wiederverwendbare Module aufteilen – verknüpfen, anreichern, validieren, normalisieren. Diese sollten dann, basierend auf der Kundenkonfiguration, miteinander verkettet werden.

Observability als Standard: Der Zustand der Pipeline sollte nicht erst nachgelagert eine Rolle spielen. Wir wollten integrierte Prüfungen für Metriken, Lineage und Datenqualität, die sowohl für Ingenieure als auch für Customer-Success-Teams sichtbar sind.

Reibungslose Dev Experience: Unser Team bestand aus Data Engineers, Analytics-Experten und Backend-Entwicklern. Die ideale Plattform sollte mehrere Rollen unterstützen sowie zugängliche Debugging- und lokale Dev-Workflows bieten.

Kosten und Wartbarkeit: Wir haben nicht auf hohen Durchsatz optimiert, sondern auf Hebelwirkung. Wir brauchten eine Plattform, die mit uns skalieren würde, wobei sich die Cloud-Kosten proportional zum Datenvolumen verhalten, während die Wartungsarbeiten sich überschaubar gestalten sollten. Das ideale Tool musste bei geringen Volumina kosteneffizient sein, aber mit Blick auf die Zukunft auch robust genug, um auch hohe Volumina zu unterstützen. Und vor allem musste die Plattform zur Größe unseres Teams passen. Mit einer schlanken Data-Engineering-Truppe konnten wir es uns nicht leisten, mehrere Tools einzusetzen.

Die ETL-Plattformbewertung

Als es darum ging, konkrete Lösungen zu evaluieren, haben wir sechs verschiedene Plattformen aus unterschiedlichen Bereichen analysiert. Im Folgenden ein Überblick inklusive der (aus unserer Sicht) Vor- und auch Nachteile des jeweiligen Angebots.

Databricks

Die Plattform empfiehlt sich für Teams, die bereits in Spark und Delta Lake investiert haben. Sie unterstützt sowohl großangelegte Transformationen als auch mehrstufige Architekturen.

Pro:

Notebook-Integration und robuste Rechenskalierung;

nativer Support für Delta-Tabellen und Streaming-Workloads.

Kontra:

eine eher steile Lernkurve für Teams, die mit Spark nicht vertraut sind;

für Monitoring ist entweder Unity Catalog oder eine benutzerdefinierte Einrichtung erforderlich.

Mage.ai

Dieser neuere Anbieter fokussiert auf entwicklerfreundliche Pipelines mit Metadata-First-Design.

Pro:

eine simple Benutzeroberfläche und Python-First-Konfiguration;

integrierte Lineage-Tracking- und Planungsfunktionen.

Kontra:

das ausgereifte Konnektor-Ökosystem älterer Plattformen fehlt;

wird mit Blick auf Deployment- und Enterprise-Funktionen noch weiterentwickelt.

AWS Glue

Diese Plattform ist serverless, skalierbar und eng in das AWS-Ökosystem integriert.

Pro:

kostengünstig für Batch-Workloads mit mäßiger Häufigkeit;

unterstützt automatisches Crawling und Katalogisierung per Glue Data Catalog.

Kontra:

die Entwicklererfahrung kann aufgrund des eingeschränkten Debugging-Supports frustrieren;

nach dem Deployment ist es schwierig, die Joblogik zu inspizieren.

Airflow

Dieser Orchestrator ist insbesondere unter Python-nativen Teams populär.

Pro:

flexibel und bewährt, mit Support durch eine große Community;

lässt sich in jede Backend-Logik und jeden benutzerdefinierten Code integrieren.

Kontra:

an sich keine ETL-Engine – Rechenleistung und Observability müssen hinzugefügt werden;

ohne Standards kann die Flexibilität ins Pipeline-Chaos führen.

Boomi/Rivery

Dieses Tool integriert Low-Code sowie Drag-and-Drop-Oberflächen.

Pro:

amortisiert sich bei einfachen Integrationen schnell;

ist auch für Business- und Nicht-IT-Benutzer zugänglich.

Kontra:

Funktionen für komplexe oder verschachtelte Transformationen sind limitiert;

nicht für große Datenmengen oder semi-strukturierte Daten konzipiert.

DBT

Dieser Industriestandard kommt zum Einsatz, um Transformationen innerhalb des Data Warehouse zu modellieren.

Pro:

fördert modulare, testbare SQL-basierte Transformationen;

gute Dokumentation und Lineage Tracking.

Kontra:

nicht geeignet für Data Ingestion oder unstrukturierte Daten;

erfordert eine bestehende Warehouse-Umgebung.

Nachdem wir alle sechs Lösungen evaluiert hatten, haben wir uns schließlich für Databricks entschieden, um eine Ende-zu-Ende-Datenaufnahme zu realisieren – von der Rohdatenerfassung über die Transformation bis hin zu Observability und Lineage. Damit konnten wir zwar nicht alle Probleme lösen, aber immerhin etwa 60 Prozent – also ein bedeutender Fortschritt. Für unser kleines Team mit fünf Mitarbeitern brachte diese Konsolidierung die nötige Übersichtlichkeit, Wartbarkeit und Flexibilität.

Um in allen Bereichen erstklassige Funktionen zu erhalten, hätten wir eigentlich zwei Tools auswählen müssen. Das war jedoch angesichts der begrenzten Zeit und der fehlenden Integrationserfahrung nicht praktikabel. Deshalb haben wir uns für das Tool entschieden, mit dem wir heute schneller vorankommen – auch wenn wir wissen, dass es nicht perfekt ist. Vielleicht finden wir später ein zweites Tool, das gut passt. Oder wir stellen fest, dass die verbleibenden Probleme eine maßgeschneiderte Lösung erfordern.

ETL-Entscheidungstipps

Das bringt uns zu der unvermeidlichen Frage in jeder technischen Roadmap: Kaufen oder selbst entwickeln? An dieser Stelle würde ich auf Grundlage unserer Erfahrungen allen Teams und Entscheidern, die heute Tools evaluieren, zwei Ratschläge mit auf den Weg geben:

Seien Sie pragmatisch. Evaluieren Sie Ihre Anforderungen klar, behalten Sie die Zukunft im Blick und identifizieren Sie die drei wichtigsten Probleme, die Sie lösen möchten. Und: Stellen Sie sich von vornherein darauf ein, dass kein Tool alle Probleme hundertprozentig lösen kann.

Seien Sie ehrlich in Bezug auf Ihre Stärken und Schwächen. Erstere waren in unserem Fall die überschaubare Datenmenge und dass wir keine dringenden Deliverables hatten – oder anders ausgedrückt: Wir hatten Raum zu gestalten. Zweitere der benutzerdefinierte Ingestion-Code und die Limitierungen eines Teams, das nach dem Lean-Ansatz agiert.

Die Wahl einer ETL-Plattform ist nicht nur eine technische Entscheidung. Sie spiegelt wider, wie Ihr Team arbeitet und sich weiterentwickelt. Wenn Ihr aktueller Stack sich wie ein Flickwerk anfühlt, macht es Sinn, sich zu fragen, was passiert, wenn das Unternehmen weiter wächst. Denn die richtige ETL-Plattform verarbeitet nicht nur Daten – sie schafft Dynamik. Und manchmal bedeutet echter Fortschritt eben, sich für das beste unvollkommene Tool von heute zu entscheiden, um morgen schnell genug handeln und smartere Entscheidungen treffen zu können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die richtige ETL-Plattform, um zu wachsen – ein Erfahrungsbericht​ Weiterlesen »

Die besten JavaScript-Editoren​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?quality=50&strip=all 4978w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Texteditoren bringen JavaScript-Developer weiter.  R.Narong | shutterstock.com JavaScript-Entwicklern stehen viele gute Tools zur Auswahl. Beinahe zu viele, um den Überblick zu behalten. In diesem Artikel stellen wir Ihnen die besten Texteditoren vor, um: mit JavaScript, HTML5 und CSS zu entwickeln, sowie mit Markdown zu dokumentieren. Sublime Text Bei Sublime Text sind Sie genau richtig, wenn: Sie einen flexiblen, leistungsstarken, erweiterbaren und ausgesprochen schnellen Code-Editor suchen. es Ihnen nichts ausmacht, für Code Checking, Debugging und Deployment zu anderen Fenstern zu wechseln.   Zu den vielen weiteren, bemerkenswerten Stärken von Sublime Text gehören neben seiner Geschwindigkeit und dem Support für mehr als 70 Datei-Typen (darunter JavaScript, HTML und CSS) auch noch: Instant-Navigation und Projekt-Switching, die Option, eine Reihe von Änderungen per Mehrfachauswahl „auf einen Schlag“ auszuführen, Support für mehrere Bildschirme und Split-Windows, eine Plug-in-API auf Python-Basis, sowie eine einheitliche, durchsuchbare Befehlspalette. loading=”lazy” width=”400px”>Sublime Text ist in vielerlei Hinsicht konfigurier- und anpassbar. IDG Für Programmierer, die von anderen Editoren kommen, hilfreich: Sublime Text unterstützt sowohl TextMate-Bundles (ohne Befehle) als auch die Vi/Vim-Emulation. Dabei lässt sich der Code-Editor in so gut wie jeder Hinsicht anpassen, egal, ob es um Farbschemata, Schriftarten, Tastenkombinationen, Snippets oder die Regeln für die Syntaxhervorhebung geht. Rund um Sublime Text existiert ebenfalls eine aktive Community, die Packages und Plug-ins erstellt und pflegt. Mit Hilfe des Package Installers sind diverse zusätzliche Funktionen verfügbar. Preis: unbegrenzte kostenlose Testversion; 65 Dollar pro Jahr und Seat für die Business-Version; 99 Dollar für eine Privatlizenz (Support für drei Jahre); Plattformen: Windows, macOS und Linux; Visual Studio Code Visual Studio Code ist ein quelloffener, kostenloser Editor von Microsoft. Er enthält einen Mix aus Komponenten von Visual Studio und der Open-Source-Shell Atom Electron und bietet umfassenden Support für: ASP.Net Core Development mit C# und Node.js Development mit TypeScript und JavaScript. Dank des TypeScript-Compilers und der Salsa-Engine bietet Visual Studio Code eine erstaunlich gute JavaScript-Codevervollständigung. Dazu sendet VS Code Ihren JavaScript-Code im Hintergrund an den TypeScript-Compiler, um Typen abzuleiten und eine Symboltabelle zu erstellen. loading=”lazy” width=”400px”>Visual Studio Code darf in einer Auflistung der besten JavaScript-Editoren nicht fehlen.IDG Während Sie eine Expression eingeben, ermöglicht dieselbe Symboltabelle es IntelliSense, diverse nützliche Pop-up-Optionen zur Codevervollständigung zur Verfügung zu stellen. Der Support für Git ist umfangreich und simpel zu nutzen, der VS-Code-Debugger bietet eine hervorragende Erfahrung für Node.js und ASP.Net-Projekte. Visual Studio Code kann darüber hinaus auch mit externen Task-Runnern wie gulp und jake integriert werden und kann mit einem umfangreichen Ökosystem für Extensions aufwarten. Preis: kostenlos; Plattformen: Windows, macOS, Linux; Brackets Brackets ist ein kostenloser Open-Source-Editor, der ursprünglich von Adobe stammt. Das Ziel der Entwickler: Bessere Tools für JavaScript, HTML, CSS und verwandte, offene Webtechnologien bereitzustellen. Auch Brackets selbst ist in JavaScript, HTML und CSS geschrieben. Zusätzlich zu den integrierten Funktionen verfügt Brackets über einen Extension Manager. Der ist auch nötig, denn die sind für diverse Programmiersprachen und Tools aus der Welt der Frontend-Entwickler verfügbar. In der Praxis ist Brackets zwar nicht so schnell wie Sublime Text (siehe weiter oben) oder TextMate (siehe weiter unten). Aber der Editor ist immer noch schnell genug. Brackets bietet umfassenden Support für: JavaScript, CSS, HTML und Node.js. Darüber hinaus bietet Brackets weitere nützliche Funktionen wie beispielsweise: CSS inline in Verbindung mit einer HTML-ID bearbeiten, eine übersichtliche Benutzeroberfläche und eine Live-Vorschau für Webseiten in Bearbeitung. loading=”lazy” width=”400px”>Brackets ist in erster Linie für die Webentwicklung konzipiert.IDG Auch beim Blick auf die automatische Vervollständigung von JavaScript-Code kann Brackets in der Praxis überzeugen: Es schließt automatisch sämtliche Klammern und stellt Dropdown-Menüs für Keywords, Variablen und Methoden zur Verfügung. Der JavaScript-Editor ist auch in der Lage, den Node.js-Debugger zu steuern und Node über ein Menüelement neu zu starten. Erweiterungen für zusätzliche Funktionen wie TypeScript– und JSX-Support, Bower- und Git-Integration lassen sich schnell und einfach hinzufügen. Preis: kostenlos; Plattformen: Windows, macOS, Linux; Atom Dieser kostenlose, quelloffene und “hack”-bare Programmier-Editor stammt aus dem Hause GitHub und lässt sich in die entsprechende Anwendung integrieren. Tausende von Packages und Themes stehen zur Verfügung, um Atom anzupassen. Der Quellcode von Atom wird selbstverständlich auch auf GitHub gehostet, ist in CoffeeScript geschrieben und in Node.js integriert. Bei Atom handelt es sich um eine spezialisierte Variante von Chromium, die eher als Texteditor denn als Webbrowser konzipiert ist. Jedes Atom-Fenster ist im Wesentlichen eine lokal gerenderte Webseite. loading=”lazy” width=”400px”>Der Open-Source-Editor von GitHub kann in der Praxis überzeugen.IDG In der Praxis zeigt sich Atom performant. Der Editor ist sofort einsatzbereit und überzeugt unter anderem mit: einem “Fuzzy-Finder”, der Möglichkeit, schnell und projektübergreifend zu suchen, Multi-Cursor- und Windows-Optionen, Snippets und Code-Folding sowie der Möglichkeit, TextMate-Grammatiken und -Themen zu importieren. Atom ist insbesondere praktisch, um Repositories zu durchsuchen, die von GitHub geklont wurden, weil die GitHub-Applikation zu diesem Zweck ein Kontextmenüelement enthält. Preis: kostenlos; Plattformen: Windows, macOS, Linux; Notepad++ Ein weiterer kostenloser Open-Source-Editor, der gut für JavaScript geeignet ist – allerdings nur auf Windows läuft. Notepad++ unterstützt außerdem etwa 50 weitere Programmier- und Markup-Sprachen. Neben seinem Multi-Document-Editing-Fenster bietet dieser Editor auch eine “Workspace Tree View”, sowie Registerkarten mit Funktionslisten und Dokumentenübersicht. In der Praxis bekommt man dabei nie das Gefühl, ausgebremst zu werden. Mit Syntax-Farb- und -Folding-Optionen, leistungsstarken Editing-Funktionen sowie Paramter-Hints hat Notepad++ das Zeug zum primären JavaScript-Texteditor. Allerdings ist es bei weitem nicht der umfassendste JavaScript-Editor, wenn es darum geht: Code zu generieren, Refactoring anzustoßen oder schnell durch große Projekte zu navigieren. Nichtsdestotrotz ist Notepad++ ist auch heute noch nützlich – vor allem, wenn es schnell und kostenlos gehen muss. Preis: kostenlos; Plattform: Windows; BBEdit Mit BBEdit steht auch für macOS-Benutzer ein proprietärer JavaScript-Editor bereit. Er unterstützt etwa 35 Programmier- und Markup-Sprachen. Für viele weitere Sprachen ist Community-Support (von unterschiedlicher Qualität) über die BBEdit-Website verfügbar. Sowohl die kostenlose als auch die lizenzierte Version bieten Syntaxhervorhebung. Code-Vervollständigung für Funktions- und Variablennamen, einige Keywords und ctags bleiben den Nutzern der kostenpflichtigen Version vorbehalten. Diese lässt sich auch in die Versionskontrollsysteme Git, Perforce und Subversion integrieren. BBEdit wurde bereits vor einiger Zeit grundlegend überarbeitet und überzeugt in der Praxis nun auch, wenn es größere Dateien verarbeiten muss. Auch was HTML und Markdown angeht, gibt es nichts zu beanstanden – das funktioniert sogar besser als JavaScript. Preis: kostenlose aber eingeschränkte Version; 59,99 Dollar pro Benutzer für die Vollversion; Plattform: macOS; TextMate Dieser (ebenfalls macOS-exklusive) Code-Editor war einmal der letzte Schrei, verlor dann stark an Bedeutung und wird inzwischen wieder aktiv weiterentwickelt. TextMate ist zwar keine IDE, lässt sich aber über Bundles, Snippets, Makros und sein Scoping-System mit Funktionen ausstatten, die selbst sprachspezifische Entwicklungsumgebungen vermissen lassen. Was die Geschwindigkeit angeht, ist TextMate fast so schnell wie Sublime Text. Für eine IDE-ähnliche Funktionalität können Sie die Shell-Integration von TextMate verwenden, erwarten Sie aber kein Code Refactoring oder automatische Unit- und Regressionstests. Wenn Sie Grunt richtig einrichten, können Sie Ihre JavaScript-Tests auf dieser Ebene natürlich trotzdem automatisieren. loading=”lazy” width=”400px”>TextMate bietet diverse Bundles.IDG Auch Support für Markdown wird über ein integriertes Bundle bereitgestellt. Dieses enthält: eine Preview-Funktion für Dokumente, ein Markdown-„Cheatsheet“ sowie diverse Tastenkombinationen, um Markup zu generieren. Um TextMate mit Git und GitHub zu integrieren, eignet sich hingegen das Git-Bundle gut. In der Praxis erkennt TextMate vorhandene Git-Repositories und kann diese per Pull-Befehl aus dem Bundle von GitHub aktualisieren. Mit dem SQL-Bundle können Sie mit MySQL- und PostgreSQL-Datenbanken arbeiten. Preis: kostenlos; Plattform: macOS; (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten JavaScript-Editoren​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?quality=50&strip=all 4978w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/R.Narong_shutterstock_2500804847_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Texteditoren bringen JavaScript-Developer weiter.  R.Narong | shutterstock.com

JavaScript-Entwicklern stehen viele gute Tools zur Auswahl. Beinahe zu viele, um den Überblick zu behalten. In diesem Artikel stellen wir Ihnen die besten Texteditoren vor, um:

mit JavaScript, HTML5 und CSS zu entwickeln, sowie

mit Markdown zu dokumentieren.

Sublime Text

Bei Sublime Text sind Sie genau richtig, wenn:

Sie einen flexiblen, leistungsstarken, erweiterbaren und ausgesprochen schnellen Code-Editor suchen.

es Ihnen nichts ausmacht, für Code Checking, Debugging und Deployment zu anderen Fenstern zu wechseln.  

Zu den vielen weiteren, bemerkenswerten Stärken von Sublime Text gehören neben seiner Geschwindigkeit und dem Support für mehr als 70 Datei-Typen (darunter JavaScript, HTML und CSS) auch noch:

Instant-Navigation und Projekt-Switching,

die Option, eine Reihe von Änderungen per Mehrfachauswahl „auf einen Schlag“ auszuführen,

Support für mehrere Bildschirme und Split-Windows,

eine Plug-in-API auf Python-Basis, sowie

eine einheitliche, durchsuchbare Befehlspalette.

loading=”lazy” width=”400px”>Sublime Text ist in vielerlei Hinsicht konfigurier- und anpassbar. IDG

Für Programmierer, die von anderen Editoren kommen, hilfreich: Sublime Text unterstützt sowohl TextMate-Bundles (ohne Befehle) als auch die Vi/Vim-Emulation. Dabei lässt sich der Code-Editor in so gut wie jeder Hinsicht anpassen, egal, ob es um Farbschemata, Schriftarten, Tastenkombinationen, Snippets oder die Regeln für die Syntaxhervorhebung geht.

Rund um Sublime Text existiert ebenfalls eine aktive Community, die Packages und Plug-ins erstellt und pflegt. Mit Hilfe des Package Installers sind diverse zusätzliche Funktionen verfügbar.

Preis: unbegrenzte kostenlose Testversion; 65 Dollar pro Jahr und Seat für die Business-Version; 99 Dollar für eine Privatlizenz (Support für drei Jahre);

Plattformen: Windows, macOS und Linux;

Visual Studio Code

Visual Studio Code ist ein quelloffener, kostenloser Editor von Microsoft. Er enthält einen Mix aus Komponenten von Visual Studio und der Open-Source-Shell Atom Electron und bietet umfassenden Support für:

ASP.Net Core Development mit C# und

Node.js Development mit TypeScript und JavaScript.

Dank des TypeScript-Compilers und der Salsa-Engine bietet Visual Studio Code eine erstaunlich gute JavaScript-Codevervollständigung. Dazu sendet VS Code Ihren JavaScript-Code im Hintergrund an den TypeScript-Compiler, um Typen abzuleiten und eine Symboltabelle zu erstellen.

loading=”lazy” width=”400px”>Visual Studio Code darf in einer Auflistung der besten JavaScript-Editoren nicht fehlen.IDG

Während Sie eine Expression eingeben, ermöglicht dieselbe Symboltabelle es IntelliSense, diverse nützliche Pop-up-Optionen zur Codevervollständigung zur Verfügung zu stellen.

Der Support für Git ist umfangreich und simpel zu nutzen, der VS-Code-Debugger bietet eine hervorragende Erfahrung für Node.js und ASP.Net-Projekte. Visual Studio Code kann darüber hinaus auch mit externen Task-Runnern wie gulp und jake integriert werden und kann mit einem umfangreichen Ökosystem für Extensions aufwarten.

Preis: kostenlos;

Plattformen: Windows, macOS, Linux;

Brackets

Brackets ist ein kostenloser Open-Source-Editor, der ursprünglich von Adobe stammt. Das Ziel der Entwickler: Bessere Tools für JavaScript, HTML, CSS und verwandte, offene Webtechnologien bereitzustellen. Auch Brackets selbst ist in JavaScript, HTML und CSS geschrieben.

Zusätzlich zu den integrierten Funktionen verfügt Brackets über einen Extension Manager. Der ist auch nötig, denn die sind für diverse Programmiersprachen und Tools aus der Welt der Frontend-Entwickler verfügbar. In der Praxis ist Brackets zwar nicht so schnell wie Sublime Text (siehe weiter oben) oder TextMate (siehe weiter unten). Aber der Editor ist immer noch schnell genug. Brackets bietet umfassenden Support für:

JavaScript,

CSS,

HTML und

Node.js.

Darüber hinaus bietet Brackets weitere nützliche Funktionen wie beispielsweise:

CSS inline in Verbindung mit einer HTML-ID bearbeiten,

eine übersichtliche Benutzeroberfläche und

eine Live-Vorschau für Webseiten in Bearbeitung.

loading=”lazy” width=”400px”>Brackets ist in erster Linie für die Webentwicklung konzipiert.IDG

Auch beim Blick auf die automatische Vervollständigung von JavaScript-Code kann Brackets in der Praxis überzeugen: Es schließt automatisch sämtliche Klammern und stellt Dropdown-Menüs für Keywords, Variablen und Methoden zur Verfügung. Der JavaScript-Editor ist auch in der Lage, den Node.js-Debugger zu steuern und Node über ein Menüelement neu zu starten. Erweiterungen für zusätzliche Funktionen wie TypeScript– und JSX-Support, Bower- und Git-Integration lassen sich schnell und einfach hinzufügen.

Preis: kostenlos;

Plattformen: Windows, macOS, Linux;

Atom

Dieser kostenlose, quelloffene und “hack”-bare Programmier-Editor stammt aus dem Hause GitHub und lässt sich in die entsprechende Anwendung integrieren. Tausende von Packages und Themes stehen zur Verfügung, um Atom anzupassen. Der Quellcode von Atom wird selbstverständlich auch auf GitHub gehostet, ist in CoffeeScript geschrieben und in Node.js integriert.

Bei Atom handelt es sich um eine spezialisierte Variante von Chromium, die eher als Texteditor denn als Webbrowser konzipiert ist. Jedes Atom-Fenster ist im Wesentlichen eine lokal gerenderte Webseite.

loading=”lazy” width=”400px”>Der Open-Source-Editor von GitHub kann in der Praxis überzeugen.IDG

In der Praxis zeigt sich Atom performant. Der Editor ist sofort einsatzbereit und überzeugt unter anderem mit:

einem “Fuzzy-Finder”,

der Möglichkeit, schnell und projektübergreifend zu suchen,

Multi-Cursor- und Windows-Optionen,

Snippets und Code-Folding sowie

der Möglichkeit, TextMate-Grammatiken und -Themen zu importieren.

Atom ist insbesondere praktisch, um Repositories zu durchsuchen, die von GitHub geklont wurden, weil die GitHub-Applikation zu diesem Zweck ein Kontextmenüelement enthält.

Preis: kostenlos;

Plattformen: Windows, macOS, Linux;

Notepad++

Ein weiterer kostenloser Open-Source-Editor, der gut für JavaScript geeignet ist – allerdings nur auf Windows läuft. Notepad++ unterstützt außerdem etwa 50 weitere Programmier- und Markup-Sprachen. Neben seinem Multi-Document-Editing-Fenster bietet dieser Editor auch eine “Workspace Tree View”, sowie Registerkarten mit Funktionslisten und Dokumentenübersicht. In der Praxis bekommt man dabei nie das Gefühl, ausgebremst zu werden.

Mit Syntax-Farb- und -Folding-Optionen, leistungsstarken Editing-Funktionen sowie Paramter-Hints hat Notepad++ das Zeug zum primären JavaScript-Texteditor. Allerdings ist es bei weitem nicht der umfassendste JavaScript-Editor, wenn es darum geht:

Code zu generieren,

Refactoring anzustoßen oder

schnell durch große Projekte zu navigieren.

Nichtsdestotrotz ist Notepad++ ist auch heute noch nützlich – vor allem, wenn es schnell und kostenlos gehen muss.

Preis: kostenlos;

Plattform: Windows;

BBEdit

Mit BBEdit steht auch für macOS-Benutzer ein proprietärer JavaScript-Editor bereit. Er unterstützt etwa 35 Programmier- und Markup-Sprachen. Für viele weitere Sprachen ist Community-Support (von unterschiedlicher Qualität) über die BBEdit-Website verfügbar. Sowohl die kostenlose als auch die lizenzierte Version bieten Syntaxhervorhebung. Code-Vervollständigung für Funktions- und Variablennamen, einige Keywords und ctags bleiben den Nutzern der kostenpflichtigen Version vorbehalten. Diese lässt sich auch in die Versionskontrollsysteme Git, Perforce und Subversion integrieren.

BBEdit wurde bereits vor einiger Zeit grundlegend überarbeitet und überzeugt in der Praxis nun auch, wenn es größere Dateien verarbeiten muss. Auch was HTML und Markdown angeht, gibt es nichts zu beanstanden – das funktioniert sogar besser als JavaScript.

Preis: kostenlose aber eingeschränkte Version; 59,99 Dollar pro Benutzer für die Vollversion;

Plattform: macOS;

TextMate

Dieser (ebenfalls macOS-exklusive) Code-Editor war einmal der letzte Schrei, verlor dann stark an Bedeutung und wird inzwischen wieder aktiv weiterentwickelt. TextMate ist zwar keine IDE, lässt sich aber über Bundles, Snippets, Makros und sein Scoping-System mit Funktionen ausstatten, die selbst sprachspezifische Entwicklungsumgebungen vermissen lassen. Was die Geschwindigkeit angeht, ist TextMate fast so schnell wie Sublime Text.

Für eine IDE-ähnliche Funktionalität können Sie die Shell-Integration von TextMate verwenden, erwarten Sie aber kein Code Refactoring oder automatische Unit- und Regressionstests. Wenn Sie Grunt richtig einrichten, können Sie Ihre JavaScript-Tests auf dieser Ebene natürlich trotzdem automatisieren.

loading=”lazy” width=”400px”>TextMate bietet diverse Bundles.IDG

Auch Support für Markdown wird über ein integriertes Bundle bereitgestellt. Dieses enthält:

eine Preview-Funktion für Dokumente,

ein Markdown-„Cheatsheet“ sowie

diverse Tastenkombinationen, um Markup zu generieren.

Um TextMate mit Git und GitHub zu integrieren, eignet sich hingegen das Git-Bundle gut. In der Praxis erkennt TextMate vorhandene Git-Repositories und kann diese per Pull-Befehl aus dem Bundle von GitHub aktualisieren. Mit dem SQL-Bundle können Sie mit MySQL- und PostgreSQL-Datenbanken arbeiten.

Preis: kostenlos;

Plattform: macOS;

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten JavaScript-Editoren​ Weiterlesen »

PWA-Tutorial: Background Sync per Service Worker​

Allgemein

Abbrechende Netzwerkverbindungen stellen für Progressive Web Apps kein Hindernis dar – Service Workers sei Dank. Foto: Pasuwan | shutterstock.com Progressive Web Apps (PWAs) sind ein wichtiges Konzept im Bereich Web Development, das die universelle Bereitstellung per Webbrowser mit der Feature-Vielfalt nativer Software verbindet. Eine besonders erwähnenswerte Eigenschaft progressiver Webanwendungen ist ihre Offline-Processing-Fähigkeit. Diese kommt beispielsweise zum Tragen, wenn ein Benutzer eine E-Mail übermittelt, aber keine Netzwerkverbindung verfügbar ist, um diese zu verarbeiten. In diesem Tutorial lesen Sie, wie das funktioniert – und lernen in diesem Zuge mehrere wichtige Komponenten einer PWA kennen. Nämlich: Service Worker, Synchronisierung, Sync Events sowie IndexedDB. Den Code für das PWA-Beispiel in diesem Artikel finden Sie auf GitHub. Service-Worker-Grundlagen Im Zusammenhang mit Progressive Web Apps wird jede Menge Hirnschmalz investiert, um deren Verhalten möglichst nahe an das von nativen Anwendungen anzugleichen. Dabei spielen Service Worker einer ganz wesentliche Rolle. Im Grunde handelt es sich bei einem Service Worker um eine eingeschränkte Variante eines Worker Thread, der mit dem Main Browser Thread ausschließlich über Event Messages kommuniziert – und keinen DOM-Zugriff hat. Dabei stellt der Service Worker eine Art eigener Umgebung dar (wie wir gleich sehen werden). Trotz ihrer Limitationen sind Service Worker relativ leistungsfähig, da sie einen eigenen, vom Main Thread unabhängigen Lebenszyklus haben – der eine Vielzahl von Hintergrundoperationen ermöglicht. In unserem Fall geht es dabei in erster Linie um die Sync API, die den Service Worker dazu befähigt, den Zustand der Netzwerkverbindung zu beobachten – und einen Netzwerk-Call solange zu widerholen, bis dieser erfolgreich ist. Sync-API und -Events Stellen Sie sich vor, Sie möchten einen “Retry”-Mechanismus konfigurieren, der Folgendes beinhaltet: Wenn das Netzwerk verfügbar ist, werden Request direkt übermittelt. Wenn das Netzwerk nicht verfügbar ist, erfolgt der nächste Übermittlungsversuch, sobald es wieder verfügbar ist. Sobald ein Retry fehlschlägt, kommt beim nächsten Versuch ein exponentieller Back-Off zur Anwendung und die Settings werden verworfen. Das in der Praxis umzusetzen, würde eine Menge granularer Arbeit nach sich ziehen. Glücklicherweise verfügen Service Worker für exakt diesen Zweck über ein spezielles Sync Event. Service Worker werden mit navigator.serviceWorker registriert. Dieses Objekt ist nur in einem sicheren Kontext verfügbar. Die Webseite muss also über HTTPS geladen werden. Unsere Beispielanwendung für diesen Artikel steht in der Tradition der kanonischen TODO-Sample-App. Nun werfen wir einen Blick darauf, wie sich ein neues To-Do mit Hilfe des sync-Events eines Service Workers abbilden lässt. Service-Worker-Synchronisierung einrichten Im Folgenden erörtern wir, wie Sie den gesamten Lebenszyklus einer Progressive Web App managen können, die Prozesse beinhaltet, die synchronisiert werden müssen. Dazu benötigen wir ein Full-Stack-Setup, in dem Requests für ein neues TODO dem eben beschriebenen Retry-Mechanismus folgen. Um das Frontend zu bedienen und den API Request zu händeln, nutzen wir Node und Express. Vorausgesetzt, npm ist installiert, starten Sie eine neue App mit folgendem Call: $ npm init -y Das erzeugt das Gerüst für eine neue Applikation. Im nächsten Schritt, gilt es, die express-Dependency hinzuzufügen: $ npm install express Nun können Sie einen einfachen Express-Server erstellen, der statische Dateien bereitstellt. Anschließend erstellen Sie eine neue index.js-Datei im Root-Verzeichnis und fügen dort Folgendes ein: const express = require(‘express’);const path = require(‘path’); // Required for serving static filesconst app = express();const port = process.env.PORT || 3000; // default to 3000app.use(express.static(path.join(__dirname, ‘public’)));// Serve the main HTML file for all unmatched routes (catch-all)app.get(‘*’, (req, res) => {res.sendFile(path.join(__dirname, ‘public’, ‘index.html’));});app.listen(port, () => {console.log(`Server listening on port ${port}`);}); Wenn Sie diese Anwendung starten, wird sie alles bedienen, was sich in /public befindet. Um den Ausführungsprozess zu vereinfachen, öffnen Sie die package.json-Datei, die npm erstellt hat und fügen ein Startskript hinzu: “scripts”: {“start”: “node index.js”,”test”: “echo “Error: no test specified” && exit 1″} Über die Befehlszeile können Sie die App nun starten: $ npm run start Bevor diese Anwendung etwas “tut”, müssen Sie eine neue index.html-Datei in das /public-Verzeichnis einfügen: PWA InfoWorldMy To-Do ListAdd Wenn Sie nun localhost:3000 aufrufen, erhalten Sie das grundlegende HTML-Layout – inklusive Titel, Input Box und Schaltfläche. Dabei ist zu beachten, dass eine Interaktion mit letztgenanntem Button den Wert eines neuen Task-Inputs übernimmt und diesen an die addTask()-Funktion übergibt. Das Hauptskript addTask() wird über script.js bereitgestellt. Sie können den Inhalt dieser Datei einfügen:if (‘serviceWorker’ in navigator) { // 1window.addEventListener(‘load’, () => { // 2navigator.serviceWorker.register(‘sw.js’) // 3.then(registration => { // 4console.log(‘Service Worker registered’, registration); // 5}).catch(err => console.error(‘Service Worker registration failed’, err)); // 6});}const taskChannel = new BroadcastChannel(‘task-channel’); // 7function addTask(task) { // 8taskChannel.postMessage({ type: ‘add-task’, data: task }); // 9} Diesen Code haben wir mit nummerierten Kommentaren ausgestattet, die erklären, was die einzelnen Zeilen “tun”: Überprüft, ob serviceWorker auf navigator vorhanden ist. Das ist nur der Fall, wenn ein sicherer Kontext besteht. Fügt einen Callback zum Load Observer hinzu, falls der serviceWorker vorhanden ist, damit dieser reagiert, wenn die Seite geladen wird. Nutzt die register-Methode, um die Datei sw.js als Service Worker zu laden. Nachdem sw.js geladen ist, folgt ein Callback mit dem Registrierungsobjekt. Das Registrierungsobjekt kann genutzt werden, um verschiedene Tasks auszuführen – in unserem Fall wird ausschließlich der Erfolg geloggt. Protokolliert sämtliche Fehler mit Hilfe des catch() promise-Callbacks. Erstellt einen BroadcastChannel namens “task-channel“. Das ist ein simpler Weg, um Ereignisse an den Service Worker zu übermitteln, der auf dem Codes in sw.js basiert. Die addTask()-Funktion wird von der HTML-Datei aufgerufen. Sendet eine Nachricht auf dem task-channel, definiert den Type als “add-task” sowie das Datenfeld als Task an sich. In diesem Beispiel ignorieren wir, wie das User Interface die Task Creation händeln würde. Wir könnten auch verschiedene andere Ansätze verwenden – beispielsweise einen optimistischen, bei dem wir den Task in die UI-Liste einfügen und anschließend versuchen, mit dem Backend zu synchronisieren. Alternativ wäre es auch möglich, zuerst einen Backend-Synchronisierungsversuch zu starten und im Erfolgsfall eine Nachricht an die Benutzeroberfläche zu senden, um einen Task hinzuzufügen. Der BroadcastChannel erleichtert es dabei, Nachrichten in beide Richtungen zu senden: vom Hauptthread zum Service Worker oder umgekehrt. Wie bereits eingangs erwähnt, ist im Rahmen einer Sicherheitseinschränkung eine HTTPS-Verbindung notwendig, damit serviceWorker auf navigator existieren kann. Um diese mit minimalem Aufwand herzustellen, haben wir in diesem Beispiel ngrok verwendet. Dieses praktische Befehlszeilen-Tool öffnet Ihre lokale Umgebung für die Außenwelt – ohne Konfiguration und inklusive HTTPS. Starten Sie etwa die Sample App ($ npm run start) und lassen den Befehl $ ngrok http 3000 folgen, erzeugt das einen Tunnel und sorgt dafür, dass die HTTP- und HTTPS-Endpunkte angezeigt werden. Damit können Sie die URL-Leiste Ihres Browser füttern. Zum Beispiel: Forwarding https://8041-35-223-70-178.ngrok-free.app -> http://localhost:3000 Nun können Sie die App über eine HTTPS-Verbindung unter https://8041-35-223-70-178.ngrok-free.app aufrufen. Mit dem Service Worker interagieren Die sw.js-Datei (die wir zuvor über den Browser mit serviceWorker geladen haben) dient dazu, mit dem Service Worker zu interagieren. Für das folgende Beispiel nutzen wie IndexedDB. Der Grund: Es steht dem Browser “frei”, Service-Worker-Kontexte nach Belieben zu erstellen oder zu verwerfen, um Ereignisse zu behandeln. Es gibt also keine Garantie dafür, dass derselbe Kontext verwendet wird, um den Broadcast- und den Snyc-Event zu behandeln. Lokale Variablen scheiden insofern als verlässliches Medium aus – LocalStorage ist für Service Worker nicht verfügbar. Sie könnten zwar CacheStorage verwenden (das sowohl in Main- als auch in Service Threads verfügbar ist) – das ist allerdings eigentlich dafür gedacht, Antworten auf Requests zwischenzuspeichern. Das führt uns letztlich zu IndexedDB, das in allen Service-Worker-Instanzen “lebt”. Wir nutzen die integrierte Browser-Datenbank dabei lediglich dafür, einen neuen Task zu pushen, sobald der Add-Task-Broadcast eintritt – und diese wieder zu verwerfen, wenn der Sync Event ansteht. Einen tieferen Einblick in IndexedDB bietet dieses hilfreiche Tutorial. Im Folgenden werfen wir einen Blick auf den Inhalt von sw.js. Im Anschluss werfen wir erneut einen kommentierten Blick auf die einzelnen Codezeilen. const URL = “https://8014-35-223-70-178.ngrok-free.app/”; // 1const taskChannel = new BroadcastChannel(‘task-channel’); // 2taskChannel.onmessage = event => { // 3persistTask(event.data.data); // 4registration.sync.register(‘task-sync’); // 5};let db = null; // 6let request = indexedDB.open(“TaskDB”, 1); // 7request.onupgradeneeded = function(event) { // 8db = event.target.result; // 9if (!db.objectStoreNames.contains(“tasks”)) { // 10let tasksObjectStore = db.createObjectStore(“tasks”, { autoIncrement: true }); // 11}};request.onsuccess = function(event) { db = event.target.result; }; // 12request.onerror = function(event) { console.log(“Error in db: ” + event); }; // 13persistTask = function(task){ // 14let transaction = db.transaction(“tasks”, “readwrite”);let tasksObjectStore = transaction.objectStore(“tasks”);let addRequest = tasksObjectStore.add(task);addRequest.onsuccess = function(event){ console.log(“Task added to DB”); };addRequest.onerror = function(event) { console.log(“Error: ” + event); };}self.addEventListener(‘sync’, async function(event) { // 15if (event.tag == ‘task-sync’) {event.waitUntil(new Promise((res, rej) => { // 16let transaction = db.transaction(“tasks”, “readwrite”);let tasksObjectStore = transaction.objectStore(“tasks”);let cursorRequest = tasksObjectStore.openCursor();cursorRequest.onsuccess = function(event) { // 17let cursor = event.target.result;if (cursor) {let task = cursor.value; // 18fetch(URL + ‘todos/add’, // a{ method: ‘POST’,headers: { ‘Content-Type’: ‘application/json’ },body: JSON.stringify({ “task” : task })}).then((serverResponse) => {console.log(“Task saved to backend.”);deleteTasks(); // bres(); // b}).catch((err) => {console.log(“ERROR: ” + err);rej(); //c})}}}))}})async function deleteTasks() { // 19const transaction = db.transaction(“tasks”, “readwrite”);const tasksObjectStore = transaction.objectStore(“tasks”);tasksObjectStore.clear();await transaction.complete;} Folgendes spielt sich in diesem Code-Block ab: Weil alle Requests durch denselben, sicheren Tunnel laufen (den wir mit ngrok erstellt haben) wird die URL hier gespeichert. Erstellt einen neuen Broadcast-Kanal mit demselben Namen, um auf Nachrichten warten zu können. Hält nach Message Events in task-channel Ausschau. Wenn eine Antwort auf solche Ereignisse erfolgt, laufen dabei die zwei nachfolgenden Punkte ab. Ruft persistTask() auf, um den neuen Task in IndexedDB abzuspeichern. Registriert einen neuen Sync Event. Das ruft die Fähigkeit auf den Plan, intelligent vorzugehen, wenn es darum geht, Requests zu wiederholen. Der Sync-Handler ermöglicht es, ein Promise zu spezifizieren, der einen Retry triggert, sobald das Netzwerk verfügbar ist – und implementiert eine Back-Off-Strategie sowie Give-Up-Bedingungen. Erstellt eine Referenz für das Datenbankobjekt. Sorgt für den Erhalt eines “Requests”. Sämtliche Inhalte von IndexedDB werden asynchron behandelt. Löst das Event onupgradeneeded aus, sobald der Zugriff auf eine neue oder aktualisierte Datenbank erfolgt. Innerhalb von onupgradeneeded ermöglicht das globale db-Objekt Zugriff auf die Datenbank selbst. Ist die Tasks Collection nicht vorhanden, wird sie erstellt. Wird die Datenbank erfolgreich erstellt, wird sie im db-Objekt gespeichert. Schlägt der Versuch fehl, eine Datenbank zu erstellen, wird der Fehler protokolliert. Ruft die persistTask()-Funktion durch den Broadcast Event add-task (4) auf. Hiermit wird lediglich der neue Task Value in die Tasks Collection aufgenommen. Ein Call erfolgt von Broadcast Event (5) an das Sync Event. Dabei wird überprüft, ob das event.tag-Feld task-sync ist, um sicherzustellen, dass es sich das Task-Sync-Ereignis handelt. event.waitUntil() ermöglicht, dem serviceWorker mitzuteilen, dass der Prozess erst abgeschlossen ist, wenn sein inhärentes Promise verwirklicht wurde. Das hat innerhalb eines Sync Events besondere Bedeutung. a. Definiert ein neues Promise, das zunächst mit der Datenbank verbunden wird. Innerhalb des onsuccess-Callbacks der Datenbank wird ein Cursor verwendet, um den gespeicherten Task zu übernehmen. Dabei dient das Wrapping Promise dazu, mit verschachtelten asynchronen Calls umzugehen. Die Variable mit dem Wert des Broadcast Task. a. Erzeugt einen neuen fetch-Request an den Endpunkt expressJS /todos/add. b. Verläuft dieser Request erfolgreich, wird der Task aus der Datenbank gelöscht und es erfolgt ein Call an res(), um das äußere Promise aufzulösen. c. Schlägt der Request fehl, erfolgt ein Call an rej(). Dadurch wird das enthaltene Promise zurückgewiesen und die Sync API darüber “informiert”, dass die Anfrage erneut übermittelt werden muss. Die Hilfsmethode deleteTasks() löscht alle Aufgaben in der Datenbank. Das ist eine Menge Arbeit – lohnt sich am Ende aber, wenn Requests bei unzureichender Netzwerkverbindung im Hintergrund mühelos wiederholt werden können. Und zwar In-Borwser und über alle möglichen Device-Kategorien. PWA-Beispiel testen Wenn Sie nun die Beispiel-PWA starten und ein To-Do erstellen, wird dieses an das Backend übertragen und dort gespeichert. Interessant wird es nun, wenn Sie über die Dev-Tools (F12) das Netzwerk deaktivieren. Dieser Screenshot zeigt, wo die Einstellung zu finden ist, um die Offline-Funktionalität des PWA-Beispiels zu testen. Foto: Matthew Tyson | IDG Wenn Sie nun im Offline-Modus ein To-Do hinzufügen, passiert erst einmal nichts – die Sync API überwacht den Netzwerkstatus. Sobald Sie das Netzwerk wieder aktivieren, können Sie beobachten, wie der Request an das Backend übergeben wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

PWA-Tutorial: Background Sync per Service Worker​ Abbrechende Netzwerkverbindungen stellen für Progressive Web Apps kein Hindernis dar – Service Workers sei Dank.
Foto: Pasuwan | shutterstock.com

Progressive Web Apps (PWAs) sind ein wichtiges Konzept im Bereich Web Development, das die universelle Bereitstellung per Webbrowser mit der Feature-Vielfalt nativer Software verbindet. Eine besonders erwähnenswerte Eigenschaft progressiver Webanwendungen ist ihre Offline-Processing-Fähigkeit. Diese kommt beispielsweise zum Tragen, wenn ein Benutzer eine E-Mail übermittelt, aber keine Netzwerkverbindung verfügbar ist, um diese zu verarbeiten.

In diesem Tutorial lesen Sie, wie das funktioniert – und lernen in diesem Zuge mehrere wichtige Komponenten einer PWA kennen. Nämlich:

Service Worker,

Synchronisierung,

Sync Events sowie

IndexedDB.

Den Code für das PWA-Beispiel in diesem Artikel finden Sie auf GitHub.

Service-Worker-Grundlagen

Im Zusammenhang mit Progressive Web Apps wird jede Menge Hirnschmalz investiert, um deren Verhalten möglichst nahe an das von nativen Anwendungen anzugleichen. Dabei spielen Service Worker einer ganz wesentliche Rolle. Im Grunde handelt es sich bei einem Service Worker um eine eingeschränkte Variante eines Worker Thread, der mit dem Main Browser Thread ausschließlich über Event Messages kommuniziert – und keinen DOM-Zugriff hat. Dabei stellt der Service Worker eine Art eigener Umgebung dar (wie wir gleich sehen werden).

Trotz ihrer Limitationen sind Service Worker relativ leistungsfähig, da sie einen eigenen, vom Main Thread unabhängigen Lebenszyklus haben – der eine Vielzahl von Hintergrundoperationen ermöglicht. In unserem Fall geht es dabei in erster Linie um die Sync API, die den Service Worker dazu befähigt, den Zustand der Netzwerkverbindung zu beobachten – und einen Netzwerk-Call solange zu widerholen, bis dieser erfolgreich ist.

Sync-API und -Events

Stellen Sie sich vor, Sie möchten einen “Retry”-Mechanismus konfigurieren, der Folgendes beinhaltet:

Wenn das Netzwerk verfügbar ist, werden Request direkt übermittelt.

Wenn das Netzwerk nicht verfügbar ist, erfolgt der nächste Übermittlungsversuch, sobald es wieder verfügbar ist.

Sobald ein Retry fehlschlägt, kommt beim nächsten Versuch ein exponentieller Back-Off zur Anwendung und die Settings werden verworfen.

Das in der Praxis umzusetzen, würde eine Menge granularer Arbeit nach sich ziehen. Glücklicherweise verfügen Service Worker für exakt diesen Zweck über ein spezielles Sync Event.

Service Worker werden mit navigator.serviceWorker registriert. Dieses Objekt ist nur in einem sicheren Kontext verfügbar. Die Webseite muss also über HTTPS geladen werden. Unsere Beispielanwendung für diesen Artikel steht in der Tradition der kanonischen TODO-Sample-App. Nun werfen wir einen Blick darauf, wie sich ein neues To-Do mit Hilfe des sync-Events eines Service Workers abbilden lässt.

Service-Worker-Synchronisierung einrichten

Im Folgenden erörtern wir, wie Sie den gesamten Lebenszyklus einer Progressive Web App managen können, die Prozesse beinhaltet, die synchronisiert werden müssen. Dazu benötigen wir ein Full-Stack-Setup, in dem Requests für ein neues TODO dem eben beschriebenen Retry-Mechanismus folgen.

Um das Frontend zu bedienen und den API Request zu händeln, nutzen wir Node und Express. Vorausgesetzt, npm ist installiert, starten Sie eine neue App mit folgendem Call:

$ npm init -y

Das erzeugt das Gerüst für eine neue Applikation. Im nächsten Schritt, gilt es, die express-Dependency hinzuzufügen:

$ npm install express

Nun können Sie einen einfachen Express-Server erstellen, der statische Dateien bereitstellt. Anschließend erstellen Sie eine neue index.js-Datei im Root-Verzeichnis und fügen dort Folgendes ein:

const express = require(‘express’);const path = require(‘path’); // Required for serving static filesconst app = express();const port = process.env.PORT || 3000; // default to 3000app.use(express.static(path.join(__dirname, ‘public’)));// Serve the main HTML file for all unmatched routes (catch-all)app.get(‘*’, (req, res) => {res.sendFile(path.join(__dirname, ‘public’, ‘index.html’));});app.listen(port, () => {console.log(`Server listening on port ${port}`);});

Wenn Sie diese Anwendung starten, wird sie alles bedienen, was sich in /public befindet. Um den Ausführungsprozess zu vereinfachen, öffnen Sie die package.json-Datei, die npm erstellt hat und fügen ein Startskript hinzu:

“scripts”: {“start”: “node index.js”,”test”: “echo “Error: no test specified” && exit 1″}

Über die Befehlszeile können Sie die App nun starten:

$ npm run start

Bevor diese Anwendung etwas “tut”, müssen Sie eine neue index.html-Datei in das /public-Verzeichnis einfügen:

PWA InfoWorldMy To-Do ListAdd

Wenn Sie nun localhost:3000 aufrufen, erhalten Sie das grundlegende HTML-Layout – inklusive Titel, Input Box und Schaltfläche. Dabei ist zu beachten, dass eine Interaktion mit letztgenanntem Button den Wert eines neuen Task-Inputs übernimmt und diesen an die addTask()-Funktion übergibt.

Das Hauptskript

addTask() wird über script.js bereitgestellt. Sie können den Inhalt dieser Datei einfügen:if (‘serviceWorker’ in navigator) { // 1window.addEventListener(‘load’, () => { // 2navigator.serviceWorker.register(‘sw.js’) // 3.then(registration => { // 4console.log(‘Service Worker registered’, registration); // 5}).catch(err => console.error(‘Service Worker registration failed’, err)); // 6});}const taskChannel = new BroadcastChannel(‘task-channel’); // 7function addTask(task) { // 8taskChannel.postMessage({ type: ‘add-task’, data: task }); // 9}

Diesen Code haben wir mit nummerierten Kommentaren ausgestattet, die erklären, was die einzelnen Zeilen “tun”:

Überprüft, ob serviceWorker auf navigator vorhanden ist. Das ist nur der Fall, wenn ein sicherer Kontext besteht.

Fügt einen Callback zum Load Observer hinzu, falls der serviceWorker vorhanden ist, damit dieser reagiert, wenn die Seite geladen wird.

Nutzt die register-Methode, um die Datei sw.js als Service Worker zu laden.

Nachdem sw.js geladen ist, folgt ein Callback mit dem Registrierungsobjekt.

Das Registrierungsobjekt kann genutzt werden, um verschiedene Tasks auszuführen – in unserem Fall wird ausschließlich der Erfolg geloggt.

Protokolliert sämtliche Fehler mit Hilfe des catch() promise-Callbacks.

Erstellt einen BroadcastChannel namens “task-channel“. Das ist ein simpler Weg, um Ereignisse an den Service Worker zu übermitteln, der auf dem Codes in sw.js basiert.

Die addTask()-Funktion wird von der HTML-Datei aufgerufen.

Sendet eine Nachricht auf dem task-channel, definiert den Type als “add-task” sowie das Datenfeld als Task an sich.

In diesem Beispiel ignorieren wir, wie das User Interface die Task Creation händeln würde.

Wir könnten auch verschiedene andere Ansätze verwenden – beispielsweise einen optimistischen, bei dem wir den Task in die UI-Liste einfügen und anschließend versuchen, mit dem Backend zu synchronisieren. Alternativ wäre es auch möglich, zuerst einen Backend-Synchronisierungsversuch zu starten und im Erfolgsfall eine Nachricht an die Benutzeroberfläche zu senden, um einen Task hinzuzufügen. Der BroadcastChannel erleichtert es dabei, Nachrichten in beide Richtungen zu senden: vom Hauptthread zum Service Worker oder umgekehrt.

Wie bereits eingangs erwähnt, ist im Rahmen einer Sicherheitseinschränkung eine HTTPS-Verbindung notwendig, damit serviceWorker auf navigator existieren kann. Um diese mit minimalem Aufwand herzustellen, haben wir in diesem Beispiel ngrok verwendet. Dieses praktische Befehlszeilen-Tool öffnet Ihre lokale Umgebung für die Außenwelt – ohne Konfiguration und inklusive HTTPS. Starten Sie etwa die Sample App ($ npm run start) und lassen den Befehl $ ngrok http 3000 folgen, erzeugt das einen Tunnel und sorgt dafür, dass die HTTP- und HTTPS-Endpunkte angezeigt werden. Damit können Sie die URL-Leiste Ihres Browser füttern. Zum Beispiel:

Forwarding https://8041-35-223-70-178.ngrok-free.app -> http://localhost:3000

Nun können Sie die App über eine HTTPS-Verbindung unter https://8041-35-223-70-178.ngrok-free.app aufrufen.

Mit dem Service Worker interagieren

Die sw.js-Datei (die wir zuvor über den Browser mit serviceWorker geladen haben) dient dazu, mit dem Service Worker zu interagieren.

Für das folgende Beispiel nutzen wie IndexedDB. Der Grund: Es steht dem Browser “frei”, Service-Worker-Kontexte nach Belieben zu erstellen oder zu verwerfen, um Ereignisse zu behandeln. Es gibt also keine Garantie dafür, dass derselbe Kontext verwendet wird, um den Broadcast- und den Snyc-Event zu behandeln. Lokale Variablen scheiden insofern als verlässliches Medium aus – LocalStorage ist für Service Worker nicht verfügbar. Sie könnten zwar CacheStorage verwenden (das sowohl in Main- als auch in Service Threads verfügbar ist) – das ist allerdings eigentlich dafür gedacht, Antworten auf Requests zwischenzuspeichern.

Das führt uns letztlich zu IndexedDB, das in allen Service-Worker-Instanzen “lebt”. Wir nutzen die integrierte Browser-Datenbank dabei lediglich dafür, einen neuen Task zu pushen, sobald der Add-Task-Broadcast eintritt – und diese wieder zu verwerfen, wenn der Sync Event ansteht. Einen tieferen Einblick in IndexedDB bietet dieses hilfreiche Tutorial.

Im Folgenden werfen wir einen Blick auf den Inhalt von sw.js. Im Anschluss werfen wir erneut einen kommentierten Blick auf die einzelnen Codezeilen.

const URL = “https://8014-35-223-70-178.ngrok-free.app/”; // 1const taskChannel = new BroadcastChannel(‘task-channel’); // 2taskChannel.onmessage = event => { // 3persistTask(event.data.data); // 4registration.sync.register(‘task-sync’); // 5};let db = null; // 6let request = indexedDB.open(“TaskDB”, 1); // 7request.onupgradeneeded = function(event) { // 8db = event.target.result; // 9if (!db.objectStoreNames.contains(“tasks”)) { // 10let tasksObjectStore = db.createObjectStore(“tasks”, { autoIncrement: true }); // 11}};request.onsuccess = function(event) { db = event.target.result; }; // 12request.onerror = function(event) { console.log(“Error in db: ” + event); }; // 13persistTask = function(task){ // 14let transaction = db.transaction(“tasks”, “readwrite”);let tasksObjectStore = transaction.objectStore(“tasks”);let addRequest = tasksObjectStore.add(task);addRequest.onsuccess = function(event){ console.log(“Task added to DB”); };addRequest.onerror = function(event) { console.log(“Error: ” + event); };}self.addEventListener(‘sync’, async function(event) { // 15if (event.tag == ‘task-sync’) {event.waitUntil(new Promise((res, rej) => { // 16let transaction = db.transaction(“tasks”, “readwrite”);let tasksObjectStore = transaction.objectStore(“tasks”);let cursorRequest = tasksObjectStore.openCursor();cursorRequest.onsuccess = function(event) { // 17let cursor = event.target.result;if (cursor) {let task = cursor.value; // 18fetch(URL + ‘todos/add’, // a{ method: ‘POST’,headers: { ‘Content-Type’: ‘application/json’ },body: JSON.stringify({ “task” : task })}).then((serverResponse) => {console.log(“Task saved to backend.”);deleteTasks(); // bres(); // b}).catch((err) => {console.log(“ERROR: ” + err);rej(); //c})}}}))}})async function deleteTasks() { // 19const transaction = db.transaction(“tasks”, “readwrite”);const tasksObjectStore = transaction.objectStore(“tasks”);tasksObjectStore.clear();await transaction.complete;}

Folgendes spielt sich in diesem Code-Block ab:

Weil alle Requests durch denselben, sicheren Tunnel laufen (den wir mit ngrok erstellt haben) wird die URL hier gespeichert.

Erstellt einen neuen Broadcast-Kanal mit demselben Namen, um auf Nachrichten warten zu können.

Hält nach Message Events in task-channel Ausschau. Wenn eine Antwort auf solche Ereignisse erfolgt, laufen dabei die zwei nachfolgenden Punkte ab.

Ruft persistTask() auf, um den neuen Task in IndexedDB abzuspeichern.

Registriert einen neuen Sync Event. Das ruft die Fähigkeit auf den Plan, intelligent vorzugehen, wenn es darum geht, Requests zu wiederholen. Der Sync-Handler ermöglicht es, ein Promise zu spezifizieren, der einen Retry triggert, sobald das Netzwerk verfügbar ist – und implementiert eine Back-Off-Strategie sowie Give-Up-Bedingungen.

Erstellt eine Referenz für das Datenbankobjekt.

Sorgt für den Erhalt eines “Requests”. Sämtliche Inhalte von IndexedDB werden asynchron behandelt.

Löst das Event onupgradeneeded aus, sobald der Zugriff auf eine neue oder aktualisierte Datenbank erfolgt.

Innerhalb von onupgradeneeded ermöglicht das globale db-Objekt Zugriff auf die Datenbank selbst.

Ist die Tasks Collection nicht vorhanden, wird sie erstellt.

Wird die Datenbank erfolgreich erstellt, wird sie im db-Objekt gespeichert.

Schlägt der Versuch fehl, eine Datenbank zu erstellen, wird der Fehler protokolliert.

Ruft die persistTask()-Funktion durch den Broadcast Event add-task (4) auf. Hiermit wird lediglich der neue Task Value in die Tasks Collection aufgenommen.

Ein Call erfolgt von Broadcast Event (5) an das Sync Event. Dabei wird überprüft, ob das event.tag-Feld task-sync ist, um sicherzustellen, dass es sich das Task-Sync-Ereignis handelt.

event.waitUntil() ermöglicht, dem serviceWorker mitzuteilen, dass der Prozess erst abgeschlossen ist, wenn sein inhärentes Promise verwirklicht wurde. Das hat innerhalb eines Sync Events besondere Bedeutung. a. Definiert ein neues Promise, das zunächst mit der Datenbank verbunden wird.

Innerhalb des onsuccess-Callbacks der Datenbank wird ein Cursor verwendet, um den gespeicherten Task zu übernehmen. Dabei dient das Wrapping Promise dazu, mit verschachtelten asynchronen Calls umzugehen.

Die Variable mit dem Wert des Broadcast Task. a. Erzeugt einen neuen fetch-Request an den Endpunkt expressJS /todos/add. b. Verläuft dieser Request erfolgreich, wird der Task aus der Datenbank gelöscht und es erfolgt ein Call an res(), um das äußere Promise aufzulösen. c. Schlägt der Request fehl, erfolgt ein Call an rej(). Dadurch wird das enthaltene Promise zurückgewiesen und die Sync API darüber “informiert”, dass die Anfrage erneut übermittelt werden muss.

Die Hilfsmethode deleteTasks() löscht alle Aufgaben in der Datenbank.

Das ist eine Menge Arbeit – lohnt sich am Ende aber, wenn Requests bei unzureichender Netzwerkverbindung im Hintergrund mühelos wiederholt werden können. Und zwar In-Borwser und über alle möglichen Device-Kategorien.

PWA-Beispiel testen

Wenn Sie nun die Beispiel-PWA starten und ein To-Do erstellen, wird dieses an das Backend übertragen und dort gespeichert. Interessant wird es nun, wenn Sie über die Dev-Tools (F12) das Netzwerk deaktivieren.

Dieser Screenshot zeigt, wo die Einstellung zu finden ist, um die Offline-Funktionalität des PWA-Beispiels zu testen.
Foto: Matthew Tyson | IDG

Wenn Sie nun im Offline-Modus ein To-Do hinzufügen, passiert erst einmal nichts – die Sync API überwacht den Netzwerkstatus. Sobald Sie das Netzwerk wieder aktivieren, können Sie beobachten, wie der Request an das Backend übergeben wird. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

PWA-Tutorial: Background Sync per Service Worker​ Weiterlesen »

Versteckte Talente oder Blender?: So finden Arbeitgeber die richtigen Mitarbeiter​

Allgemein

Einen neuen Bewerber einschätzen zu können, gehört zu den wichtigsten Aufgaben von Personalern und Führungskräften. Foto: Sudtawee Thepsuponkul – shutterstock.comEinen neuen Bewerber einschätzen zu können, gehört zu den wichtigsten Aufgaben von Personalern und Führungskräften. Doch der klassische Lebenslauf ist wenig verlässlich, schließlich kann er geschönt werden und besitzt als reines Schriftstück wenig Vorhersagekraft für die Leistung im kommenden Job. “Papier ist geduldig, ebenso ist ein unstrukturiertes Interview nicht sehr valide, denn es birgt die Gefahren in Form von Bias, also Wahrnehmungsverzerrungen und Fehleinschätzungen”, weiß Dominik Roth, Headhunter und Partner der weltweit tätigen Personalberatung Mercuri Urval. Stattdessen sollten Unternehmen sich eines strukturierten Auswahlprozesses bedienen.Der Personalexperte Dominik Roth vermittelt Führungskräfte an gefragte Unternehmen und weiß damit, worauf es in heutigen Recruiting-Prozessen zu achten gilt. Foto: Dominik RothDer Personalexperte vermittelt Führungskräfte an gefragte Unternehmen und weiß damit, worauf es in heutigen Recruiting-Prozessen zu achten gilt. Wie Unternehmen eingehende Bewerbungen richtig bewerten und so talentierte Kandidaten von sogenannten Blendern unterscheiden können, hat Roth im Folgenden zusammengefasst.1. Track Record prüfenBei der Einschätzung eines Kandidaten geht es nicht nur darum, seine Erfahrungen abzufragen. In Lebenslauf und biografischen Angaben finden sich meist nur Angaben dazu, “was” der Bewerber getan hat, jedoch nicht “wie”. Unternehmen auf der Suche nach Führungskräften sollten daher gezielt den Track Record des Bewerbers erfragen. Dabei wird der Kandidat nach konkreten Erfolgen aus der Vergangenheit befragt, die er nachweislich durch Ergebnisse belegen und hierzu die dabei verfolgten Handlungsstrategien darstellen kann.Dabei kann der Personaler zum Beispiel nach der sogenannten Critical Incident Method vorgehen: Der Bewerber wird direkt nach kritischen Situationen aus seiner letzten Berufsstation gefragt, die für den Job relevant sein könnten. So erhält der Kandidat nicht nur die Gelegenheit, seine Kenntnisse und Fähigkeiten unter Beweis zu stellen, sondern gibt auch Auskunft zu Ergebnissen und seiner Arbeitsweise.2. Referenzen einholenZudem ist es immer eine gute Idee, sich solche und andere Angaben auch von einem Dritten belegen zu lassen. Selbstbehauptungen sind oft geschönt, was nicht einmal absichtlich geschehen muss. Allerdings sollten Arbeitgeber sich die geschilderten Erfolge von anderer Stelle am besten durch einen Referenz-Anruf bestätigen lassen, um die gröbsten Abweichungen in Erfahrung zu bringen. Zwar sind die Referenzgeber auch aus arbeitsrechtlichen Gründen in der Regel sehr wohlwollend, eine Referenz kann jedoch einen wertvollen Eindruck von der grundsätzlichen Glaubhaftigkeit eines Kandidaten geben. Zu betonen ist allerdings, dass es hier nicht um die Gewinnung zusätzlicher Informationen geht – vor allem sollen die geschilderten Erfolge validiert werden.3. Assessment-Methodik anwendenViele Unternehmen setzen zur ersten Einschätzung der Bewerber auf Persönlichkeitstests. Diese haben ihre Berechtigung, allerdings geht es im beruflichen Kontext vor allem um konkretes Verhalten und nicht um Selbstbeschreibungen. Die Einteilung in rote, blaue, grüne und gelbe Typen oder fünf verschiedene Persönlichkeitsmodelle mag im Alltag hilfreich sein, zur Einschätzung zukünftigen Verhaltens sind sie jedoch nicht geeignet.Zudem unterliegen derartige Frage-Antwort-Schemata einer Verzerrung im Sinne der sozialen Erwünschtheit – welcher Bewerber für eine Position in Vertrieb oder Marketing würde sich nicht als kommunikativ und emphatisch beschreiben? Personaler sollten daher derartige Selbstauskünfte in einem anschließenden und strukturierten Interview näher hinterfragen. Dies kann etwa gelingen, indem der Kandidat nach einem konkreten beruflichen Ereignis gefragt wird, bei dem sich nach seiner Einschätzung die betreffende Persönlichkeitseigenschaft oder Fähigkeit gezeigt hat. Auch wenn Tests ein erster Indikator sein können, ersetzen sie daher niemals ein professionelles Interview durch einen erfahrenen Personaler.Lesen Sie auch:Kompetenzen wichtiger als perfekter LebenslaufVideo Recruiting: So sprechen Sie Bewerber visuell anErfolgreich bewerben mit ChatGPTWann Bewerber lügen dürfenUnzulässige Fragen im Bewerbungsgespräch … Foto: baranq – shutterstock.com… muss man nicht wahrheitsgemäß beantworten.Frage nach Vorstrafen Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Frage nach dem Glauben Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber.Frage nach Aids-Erkrankung Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden. Frage nach Parteizugehörigkeit Foto: Anne Czichos – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Frage nach Familienplanung Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig.Frage nach Gewerkschaftszugehörigkeit Foto: Achim Wagner – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Frage nach Lohnpfändungen und Vermögensverhältnissen Foto: Markgraf – shutterstock.comDiese Fragen sind unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt.Souverän antworten Foto: tsyhun – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben.Frage nach Schwangerschaft Foto: Adam Gregor – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte. 

Versteckte Talente oder Blender?: So finden Arbeitgeber die richtigen Mitarbeiter​ Einen neuen Bewerber einschätzen zu können, gehört zu den wichtigsten Aufgaben von Personalern und Führungskräften.
Foto: Sudtawee Thepsuponkul – shutterstock.comEinen neuen Bewerber einschätzen zu können, gehört zu den wichtigsten Aufgaben von Personalern und Führungskräften. Doch der klassische Lebenslauf ist wenig verlässlich, schließlich kann er geschönt werden und besitzt als reines Schriftstück wenig Vorhersagekraft für die Leistung im kommenden Job. “Papier ist geduldig, ebenso ist ein unstrukturiertes Interview nicht sehr valide, denn es birgt die Gefahren in Form von Bias, also Wahrnehmungsverzerrungen und Fehleinschätzungen”, weiß Dominik Roth, Headhunter und Partner der weltweit tätigen Personalberatung Mercuri Urval. Stattdessen sollten Unternehmen sich eines strukturierten Auswahlprozesses bedienen.Der Personalexperte Dominik Roth vermittelt Führungskräfte an gefragte Unternehmen und weiß damit, worauf es in heutigen Recruiting-Prozessen zu achten gilt.
Foto: Dominik RothDer Personalexperte vermittelt Führungskräfte an gefragte Unternehmen und weiß damit, worauf es in heutigen Recruiting-Prozessen zu achten gilt. Wie Unternehmen eingehende Bewerbungen richtig bewerten und so talentierte Kandidaten von sogenannten Blendern unterscheiden können, hat Roth im Folgenden zusammengefasst.1. Track Record prüfenBei der Einschätzung eines Kandidaten geht es nicht nur darum, seine Erfahrungen abzufragen. In Lebenslauf und biografischen Angaben finden sich meist nur Angaben dazu, “was” der Bewerber getan hat, jedoch nicht “wie”. Unternehmen auf der Suche nach Führungskräften sollten daher gezielt den Track Record des Bewerbers erfragen. Dabei wird der Kandidat nach konkreten Erfolgen aus der Vergangenheit befragt, die er nachweislich durch Ergebnisse belegen und hierzu die dabei verfolgten Handlungsstrategien darstellen kann.Dabei kann der Personaler zum Beispiel nach der sogenannten Critical Incident Method vorgehen: Der Bewerber wird direkt nach kritischen Situationen aus seiner letzten Berufsstation gefragt, die für den Job relevant sein könnten. So erhält der Kandidat nicht nur die Gelegenheit, seine Kenntnisse und Fähigkeiten unter Beweis zu stellen, sondern gibt auch Auskunft zu Ergebnissen und seiner Arbeitsweise.2. Referenzen einholenZudem ist es immer eine gute Idee, sich solche und andere Angaben auch von einem Dritten belegen zu lassen. Selbstbehauptungen sind oft geschönt, was nicht einmal absichtlich geschehen muss. Allerdings sollten Arbeitgeber sich die geschilderten Erfolge von anderer Stelle am besten durch einen Referenz-Anruf bestätigen lassen, um die gröbsten Abweichungen in Erfahrung zu bringen. Zwar sind die Referenzgeber auch aus arbeitsrechtlichen Gründen in der Regel sehr wohlwollend, eine Referenz kann jedoch einen wertvollen Eindruck von der grundsätzlichen Glaubhaftigkeit eines Kandidaten geben. Zu betonen ist allerdings, dass es hier nicht um die Gewinnung zusätzlicher Informationen geht – vor allem sollen die geschilderten Erfolge validiert werden.3. Assessment-Methodik anwendenViele Unternehmen setzen zur ersten Einschätzung der Bewerber auf Persönlichkeitstests. Diese haben ihre Berechtigung, allerdings geht es im beruflichen Kontext vor allem um konkretes Verhalten und nicht um Selbstbeschreibungen. Die Einteilung in rote, blaue, grüne und gelbe Typen oder fünf verschiedene Persönlichkeitsmodelle mag im Alltag hilfreich sein, zur Einschätzung zukünftigen Verhaltens sind sie jedoch nicht geeignet.Zudem unterliegen derartige Frage-Antwort-Schemata einer Verzerrung im Sinne der sozialen Erwünschtheit – welcher Bewerber für eine Position in Vertrieb oder Marketing würde sich nicht als kommunikativ und emphatisch beschreiben? Personaler sollten daher derartige Selbstauskünfte in einem anschließenden und strukturierten Interview näher hinterfragen. Dies kann etwa gelingen, indem der Kandidat nach einem konkreten beruflichen Ereignis gefragt wird, bei dem sich nach seiner Einschätzung die betreffende Persönlichkeitseigenschaft oder Fähigkeit gezeigt hat. Auch wenn Tests ein erster Indikator sein können, ersetzen sie daher niemals ein professionelles Interview durch einen erfahrenen Personaler.Lesen Sie auch:Kompetenzen wichtiger als perfekter LebenslaufVideo Recruiting: So sprechen Sie Bewerber visuell anErfolgreich bewerben mit ChatGPTWann Bewerber lügen dürfenUnzulässige Fragen im Bewerbungsgespräch …
Foto: baranq – shutterstock.com… muss man nicht wahrheitsgemäß beantworten.Frage nach Vorstrafen
Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Frage nach dem Glauben
Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber.Frage nach Aids-Erkrankung
Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden. Frage nach Parteizugehörigkeit
Foto: Anne Czichos – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Frage nach Familienplanung
Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig.Frage nach Gewerkschaftszugehörigkeit
Foto: Achim Wagner – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Frage nach Lohnpfändungen und Vermögensverhältnissen
Foto: Markgraf – shutterstock.comDiese Fragen sind unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt.Souverän antworten
Foto: tsyhun – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben.Frage nach Schwangerschaft
Foto: Adam Gregor – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte.

Versteckte Talente oder Blender?: So finden Arbeitgeber die richtigen Mitarbeiter​ Weiterlesen »

So wirkt GenAI hirnfördernd​

Allgemein

Gehirnleistung ist kein Selbstläufer.Chizhevskaya Ekaterina | shutterstock.com Immer mehr Menschen lassen generative KI für sich schreiben, erstellen und denken. Das ist problematisch – schließlich muss man ein menschliches Gehirn regelmäßig nutzen, damit es nicht eingeht. Im Folgenden werfen wir einen Blick auf aktuelle wissenschaftliche Erkenntnisse zum Thema “GenAI-bedingter Hirnverfall” – und sagen Ihnen, wie Sie dafür sorgen, dass dieser ausbleibt. Wie GenAI unser Gehirn zersetzt Eine aktuelle Studie der Carnegie Mellon University hat ergeben, dass Menschen, die im Rahmen von Brainstorming-Sessions die Google-Suche nutzen, weniger kreative Ideen vorzuweisen haben, als Gruppen ohne diesen Zugang. Die Google-Nutzer präsentierten ihre Ideen zudem in derselben Reihenfolge wie die Suchmaschine – was laut den Forschern ein Hinweis darauf ist, dass die Suchergebnisse ihre Kreativität ersetzt hat. Das bezeichnen die Studienautoren als „Fixierungseffekt”: Wenn Menschen einige wenige Beispiele sehen, neigen sie dazu, sich daran festzuklammern und haben Schwierigkeiten, über den Tellerrand hinauszudenken. Das lässt sich wunderbar auf KI übertragen – nicht nur weil die Suchergebnisse bei Google zunehmend KI-Zusammenfassungen weichen. Eine andere aktuelle Studie, veröffentlicht in The Journal of Creative Behavior, hat den Unterschied zwischen der allgemeinen Einschätzung der eigenen Kreativität und der Kreativität, die Menschen sich selbst zuschreiben, wenn sie mit KI arbeiten, untersucht. Das Ergebnis: Die meisten Teilnehmer fühlten sich mit GenAI weniger kreativ als ohne. Teilnehmer, die bereits an den eigenen kreativen Fähigkeiten zweifelten, wurden durch die KI noch zusätzlich verunsichert. Und selbst Menschen, die normalerweise von ihrer Kreativität überzeugt sind, empfanden das nicht immer so, sobald sie die Technologie verwendeten. Eine weitere Studie des MIT Media Lab bietet einen seltenen Einblick in unsere Gehirnaktivitäten während der Schreibarbeit – mit und ohne KI-Unterstützung. Dazu rekrutierten die Forscher 54 College-Studenten aus den USA und ließen sie in drei verschiedenen Gruppen kurze Aufsätze schreiben. Während die erste Gruppe ohne Hilfestellung auskommen musste, durfte die zweite auf eine Suchmaschine zurückgreifen und die dritte auf GPT-4o von OpenAI. Dabei trugen sämtliche Teilnehmer eine EEG-Kappe, um ihre Gehirnaktivität in Echtzeit verfolgen zu können. Das Experiment lief über vier Monate, wobei jeder Student drei Aufsätze schrieb. In einer finalen Session wurden dann die zugewiesenen Methoden getauscht. Das Ergebnis: Studenten, die ihre Aufsätze ohne fremde Hilfe schrieben, zeigten die höchste Gehirnaktivität, insbesondere in Regionen, die mit Gedächtnis, Kreativität und semantischer Verarbeitung in Verbindung stehen. Diejenigen, die Suchmaschinen nutzten, zeigten weniger Hirnaktivität, aber immer noch mehr als die Gruppe, die den KI-Chatbot verwendete. Die GPT-Gruppe zeigte die geringste Gehirnaktivität von allen, mit einem Rückgang der neuronalen Konnektivität um bis zu 55 Prozent (im Vergleich zur Gruppe ohne Hilfe). Und es kommt noch schlimmer: Als die Forscher die Studierenden baten, sich an das Geschriebene zu erinnern und es zusammenzufassen, erinnerte sich die GenAI-Gruppe insgesamt an weniger Details und fühlte sich zudem weniger für ihre Arbeit verantwortlich. Als die Gruppe der Chatbot-Studenten in der finalen Session gebeten wurde, ohne Hilfe auszukommen, blieb ihre Leistung und ihre Gehirnaktivität zudem deutlich hinter den Studenten zurück, die ohne Hilfe eingestiegen waren. Laut den Forschern führt der “kognitive Entlastungseffekt” der KI-Tools dazu, dass ihre Benutzer sich auch bei Aufgaben, die sie sonst selbst erledigen würden, auf GenAI verlassen. Tipps, um KI gehirnfördernd zu nutzen Um sowohl die Qualität Ihrer Arbeit als auch Ihre geistige Leistungsfähigkeit zu steigern, sollten Sie zunächst Ihre Dokumente, E-Mails oder Beiträge völlig ohne KI-Unterstützung verfassen. Erst wenn Sie ein Thema verstanden haben und Ihre eigenen Fähigkeiten ausgeschöpft sind, können KI-Chatbots als Katalysator eingesetzt werden, um Ergebnisse weiter zu optimieren oder neue, zusätzliche Ideen zu generieren. Sehen Sie insbesondere davon ab, erste Informationen über soziale Medien (beziehungsweise Algorithmen) oder Chatbots zu beziehen. Setzen Sie stattdessen auf Fachbücher, -Zeitschriften und -Portale, um ein Thema initial zu durchdringen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So wirkt GenAI hirnfördernd​ Gehirnleistung ist kein Selbstläufer.Chizhevskaya Ekaterina | shutterstock.com

Immer mehr Menschen lassen generative KI für sich schreiben, erstellen und denken. Das ist problematisch – schließlich muss man ein menschliches Gehirn regelmäßig nutzen, damit es nicht eingeht. Im Folgenden werfen wir einen Blick auf aktuelle wissenschaftliche Erkenntnisse zum Thema “GenAI-bedingter Hirnverfall” – und sagen Ihnen, wie Sie dafür sorgen, dass dieser ausbleibt.

Wie GenAI unser Gehirn zersetzt

Eine aktuelle Studie der Carnegie Mellon University hat ergeben, dass Menschen, die im Rahmen von Brainstorming-Sessions die Google-Suche nutzen, weniger kreative Ideen vorzuweisen haben, als Gruppen ohne diesen Zugang. Die Google-Nutzer präsentierten ihre Ideen zudem in derselben Reihenfolge wie die Suchmaschine – was laut den Forschern ein Hinweis darauf ist, dass die Suchergebnisse ihre Kreativität ersetzt hat. Das bezeichnen die Studienautoren als „Fixierungseffekt”: Wenn Menschen einige wenige Beispiele sehen, neigen sie dazu, sich daran festzuklammern und haben Schwierigkeiten, über den Tellerrand hinauszudenken. Das lässt sich wunderbar auf KI übertragen – nicht nur weil die Suchergebnisse bei Google zunehmend KI-Zusammenfassungen weichen.

Eine andere aktuelle Studie, veröffentlicht in The Journal of Creative Behavior, hat den Unterschied zwischen der allgemeinen Einschätzung der eigenen Kreativität und der Kreativität, die Menschen sich selbst zuschreiben, wenn sie mit KI arbeiten, untersucht. Das Ergebnis: Die meisten Teilnehmer fühlten sich mit GenAI weniger kreativ als ohne. Teilnehmer, die bereits an den eigenen kreativen Fähigkeiten zweifelten, wurden durch die KI noch zusätzlich verunsichert. Und selbst Menschen, die normalerweise von ihrer Kreativität überzeugt sind, empfanden das nicht immer so, sobald sie die Technologie verwendeten.

Eine weitere Studie des MIT Media Lab bietet einen seltenen Einblick in unsere Gehirnaktivitäten während der Schreibarbeit – mit und ohne KI-Unterstützung. Dazu rekrutierten die Forscher 54 College-Studenten aus den USA und ließen sie in drei verschiedenen Gruppen kurze Aufsätze schreiben. Während die erste Gruppe ohne Hilfestellung auskommen musste, durfte die zweite auf eine Suchmaschine zurückgreifen und die dritte auf GPT-4o von OpenAI. Dabei trugen sämtliche Teilnehmer eine EEG-Kappe, um ihre Gehirnaktivität in Echtzeit verfolgen zu können. Das Experiment lief über vier Monate, wobei jeder Student drei Aufsätze schrieb. In einer finalen Session wurden dann die zugewiesenen Methoden getauscht.

Das Ergebnis:

Studenten, die ihre Aufsätze ohne fremde Hilfe schrieben, zeigten die höchste Gehirnaktivität, insbesondere in Regionen, die mit Gedächtnis, Kreativität und semantischer Verarbeitung in Verbindung stehen.

Diejenigen, die Suchmaschinen nutzten, zeigten weniger Hirnaktivität, aber immer noch mehr als die Gruppe, die den KI-Chatbot verwendete.

Die GPT-Gruppe zeigte die geringste Gehirnaktivität von allen, mit einem Rückgang der neuronalen Konnektivität um bis zu 55 Prozent (im Vergleich zur Gruppe ohne Hilfe).

Und es kommt noch schlimmer: Als die Forscher die Studierenden baten, sich an das Geschriebene zu erinnern und es zusammenzufassen, erinnerte sich die GenAI-Gruppe insgesamt an weniger Details und fühlte sich zudem weniger für ihre Arbeit verantwortlich. Als die Gruppe der Chatbot-Studenten in der finalen Session gebeten wurde, ohne Hilfe auszukommen, blieb ihre Leistung und ihre Gehirnaktivität zudem deutlich hinter den Studenten zurück, die ohne Hilfe eingestiegen waren. Laut den Forschern führt der “kognitive Entlastungseffekt” der KI-Tools dazu, dass ihre Benutzer sich auch bei Aufgaben, die sie sonst selbst erledigen würden, auf GenAI verlassen.

Tipps, um KI gehirnfördernd zu nutzen

Um sowohl die Qualität Ihrer Arbeit als auch Ihre geistige Leistungsfähigkeit zu steigern, sollten Sie zunächst Ihre Dokumente, E-Mails oder Beiträge völlig ohne KI-Unterstützung verfassen. Erst wenn Sie ein Thema verstanden haben und Ihre eigenen Fähigkeiten ausgeschöpft sind, können KI-Chatbots als Katalysator eingesetzt werden, um Ergebnisse weiter zu optimieren oder neue, zusätzliche Ideen zu generieren.

Sehen Sie insbesondere davon ab, erste Informationen über soziale Medien (beziehungsweise Algorithmen) oder Chatbots zu beziehen. Setzen Sie stattdessen auf Fachbücher, -Zeitschriften und -Portale, um ein Thema initial zu durchdringen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So wirkt GenAI hirnfördernd​ Weiterlesen »

US-Geheimdienst rät: So oft sollten Sie Ihr Handy ausschalten​

Allgemein

Melnikov Dmitriy / Shutterstock.com Der richtige Umgang mit Smartphones will für viele erst einmal gelernt sein. Denn die Allrounder-Geräte wollen regelmäßig gepflegt und mit wichtigen Updates versorgt werden, um auch optimal vor Verschleiß sowie Angriffen geschützt zu sein. Das Handy ganz auszuschalten schützt Dazu gehört erstaunlicherweise eine ganz simple Funktion: das komplette Ausschalten des Smartphones. Laut Sicherheitsexperten der NSA hilft das allein schon, um das Gerät vor Hacking-Angriffen zu schützen. Mittlerweile sei es nämlich nicht nur üblich, Zugriff auf Smartphones über schädliche Links zu erhalten, sondern auch über sogenannte Zero-Click-Exploits. Hierbei werden die Sicherheitsfunktionen des Smartphones Schritt für Schritt umgangen. Angefangen mit einem verpassten Anruf, dann den ersten installierten Dateien, die nach und nach Zugriff auf das System ermöglichen und Informationen abgreifen. Dies geht meist unbemerkt vonstatten, kann aber glücklicherweise durch einen kompletten Reboot des Geräts unterbunden werden. Also: Wie oft sollte ich mein Handy ausschalten? Die einfache Antwort der Sicherheitsexperten, wie oft ein Handy nun komplett ausgeschaltet gehört, lautet: mindestens einmal die Woche. Im besten Fall denken wir aber noch häufiger daran, dem Gerät eine Pause zu gönnen. Denn neben dem Sicherheitsrisiko, das wir damit eliminieren, ermöglicht es dem Betriebssystem des Smartphones auch einen reibungslosen Ablauf aller Funktionen. Übrigens: Um zu sehen, wie lange Ihr Gerät schon ohne Abschaltung auskommen muss, können Sie ganz einfach in den Systemeinstellungen nachsehen. Auf Android-Geräten findet man dies in der Regel unter “Gerät” und dann “Status”. Dort wird die Uptime in Stunden angezeigt. (PC-Welt) 

US-Geheimdienst rät: So oft sollten Sie Ihr Handy ausschalten​ Melnikov Dmitriy / Shutterstock.com

Der richtige Umgang mit Smartphones will für viele erst einmal gelernt sein. Denn die Allrounder-Geräte wollen regelmäßig gepflegt und mit wichtigen Updates versorgt werden, um auch optimal vor Verschleiß sowie Angriffen geschützt zu sein.

Das Handy ganz auszuschalten schützt

Dazu gehört erstaunlicherweise eine ganz simple Funktion: das komplette Ausschalten des Smartphones. Laut Sicherheitsexperten der NSA hilft das allein schon, um das Gerät vor Hacking-Angriffen zu schützen. Mittlerweile sei es nämlich nicht nur üblich, Zugriff auf Smartphones über schädliche Links zu erhalten, sondern auch über sogenannte Zero-Click-Exploits.

Hierbei werden die Sicherheitsfunktionen des Smartphones Schritt für Schritt umgangen. Angefangen mit einem verpassten Anruf, dann den ersten installierten Dateien, die nach und nach Zugriff auf das System ermöglichen und Informationen abgreifen. Dies geht meist unbemerkt vonstatten, kann aber glücklicherweise durch einen kompletten Reboot des Geräts unterbunden werden.

Also: Wie oft sollte ich mein Handy ausschalten?

Die einfache Antwort der Sicherheitsexperten, wie oft ein Handy nun komplett ausgeschaltet gehört, lautet: mindestens einmal die Woche. Im besten Fall denken wir aber noch häufiger daran, dem Gerät eine Pause zu gönnen. Denn neben dem Sicherheitsrisiko, das wir damit eliminieren, ermöglicht es dem Betriebssystem des Smartphones auch einen reibungslosen Ablauf aller Funktionen.

Übrigens: Um zu sehen, wie lange Ihr Gerät schon ohne Abschaltung auskommen muss, können Sie ganz einfach in den Systemeinstellungen nachsehen. Auf Android-Geräten findet man dies in der Regel unter “Gerät” und dann “Status”. Dort wird die Uptime in Stunden angezeigt.

(PC-Welt)

US-Geheimdienst rät: So oft sollten Sie Ihr Handy ausschalten​ Weiterlesen »

Die besten Android-Tablets im Test: Es muss nicht immer ein iPad sein​

Allgemein

Peshkova / shutterstock.com Für die meisten Nutzer ist ein iPad klar die erste Wahl – wenn Sie das Budget für die vergleichsweise kostspieligen Tablets haben. Doch es gibt auch gute Gründe für ein Android-basiertes Tablet. Android-Tablets gibt es in vielen Größen und mit stark abweichender Ausstattung. Es gibt günstige Modelle für die Familie und leistungsstarke Tablets für den professionellen Einsatz. Jedes Modell hat Stärken und Schwächen. In unserem Test haben wir die besten Android-Tablets berücksichtigt. Honor Pad V9: Das beste Android-Tablet Christoph Hoffmann Warum wir das Honor Pad V9 mögen Auf den ersten Blick erweckt das Honor Pad V9 den Eindruck eines Apple-Geräts. Das 11,5 Zoll große Display ist von einem schmalen, gewölbten Rahmen umgeben und sogar die Lautsprechergitter erinnern an ein iPad. Zusätzlich ist ein Stylus, der Magic Pencil, erhältlich. Die Verarbeitungsqualität des Geräts ist durchweg beeindruckend. Ein herausragendes Merkmal des Honor Pad V9 ist das große, helle Display, welches als exzellent bewertet wird. Mit einer Bildwiederholrate von 144 Hz und einer Helligkeit von bis zu 500 Nits erscheint alles wunderbar flüssig und dynamisch. Die Auflösung beträgt 2.800 × 1.840 Pixel. Auch bei direkter Sonneneinstrahlung bleibt der Bildschirm gut lesbar und hinterlässt insgesamt einen sehr positiven Eindruck. Der leistungsstarke 10.100-mAh-Akku des Honor Pad V9 erzielte in unserem Test mit dem Work 3.0 Benchmark von PC Mark eine Laufzeit von 13,5 Stunden. Während in einigen Ländern eine Version mit 12 Gigabyte RAM verfügbar ist, wird hierzulande nur die Variante mit 256 Gigabyte Speicher und 8 Gigabyte RAM angeboten. Honor Pad V9: Weitere Überlegungen Das Honor Pad V9 ist das leistungsstärkste Tablet auf dem Markt. Sein Display ist hochwertig. Das Gerät hat uns überzeugt und wir sind der Ansicht, dass es eine ernst zu nehmende Konkurrenz für die iPad-Produktreihe von Apple darstellt. Wir erwarten für zukünftige Modelle definitiv verbesserte Kameras. Doch das aktuelle Modell bietet bereits ein ausgezeichnetes Gesamtpaket. Xiaomi Pad 7: Preis-Leistungs-Tipp Christoph Hoffmann Warum wir das Xiaomi Pad 7 mögen Xiaomi hat es wieder einmal geschafft. Das Unternehmen gehört definitiv zu den besten Android-Tablet-Herstellern. Wenn Sie nicht an Samsung oder Google gebunden sind und eine Alternative zum iPad suchen, ist das Pad 7 die beste Wahl. Es fühlt sich an wie ein Flaggschiff und bietet die entsprechende Leistung zu einem niedrigen Preis. Das Xiaomi Pad 7 ist mit einer Dicke von lediglich 6,2 Millimetern angenehm schlank und erreicht beim Gewicht die 500-Gramm-Marke. Das Pad 7 behält das 3:2-Seitenverhältnis bei und bietet eine Bildwiederholfrequenz von 144 Hertz. Es ist kein OLED-Display, aber die Qualität ist trotzdem erstklassig. Xiaomi hat die Auflösung auf 3,2K und die Helligkeit auf 800 Nits erhöht. Im Inneren arbeitet die Qualcomm-CPU Snapdragon 7+ Gen 3, unterstützt von acht Gigabyte Arbeitsspeicher. Beim internen Speicher (UFS 4.0) haben Sie die Wahl zwischen 128 oder 256 Gigabyte. Das Xiaomi Pad 7 ist das beste Gesamtpaket auf dem Markt und das zu einem unschlagbaren Preis. Vergleichbare Modelle von Samsung und anderen Herstellern sind teurer. Xiaomi Pad 7: Weitere Überlegungen Das Pad 7 bietet herausragende Upgrades: die neue Benutzeroberfläche HyperOS 2, einen helleren Bildschirm, einen neueren Prozessor und schnelleres Laden. Xiaomis breites Zubehörangebot, inklusive des ersten Tastatur-Covers mit schwebendem Scharnier, positioniert das Pad 7 eindeutig als ernst zu nehmenden Konkurrenten zum iPad Pro und als vielseitigen Laptop-Ersatz. Samsung Galaxy Tab S10 Ultra: Bestes XXL-Tablet > Christoph Hoffmann Warum wir das Samsung Galaxy Tab S10 Ultra mögen Das Samsung Galaxy Tab S10 Ultra ist das Beste vom Besten. Es ist riesig, leistungsstark und mit erstklassigen Spezifikationen ausgestattet. Samsungs XXL-Tablet überzeugt mit einer überragenden Leistung in allen Bereichen. Das Tablet hat ein riesiges Display, richtig Power und der Akku hält auch richtig lange. Es mag sein, dass es fast identisch mit seinem Vorgänger aussieht, aber es gibt definitiv verschiedene Änderungen. Der Tech-Gigant hat sich dieses Mal für einen Flaggschiff-Prozessor von MediaTek statt der üblichen Qualcomm-CPU entschieden. Außerdem gibt es jede Menge neue Galaxy-AI-Funktionen. Die Modelle sind mit 12 oder 16 Gigabyte großzügigem Arbeitsspeicher ausgestattet, je nachdem, welches Modell Sie wählen. Unser Produkt hat bis zu 1 Terabyte Speicherplatz. Der Bildschirm zeichnet sich durch seine einzigartige Größe aus. Mit einer Diagonale von 14,6 Zoll (ca. 17 cm) ist es das mit Abstand größte Tablet, das wir bislang getestet haben. Das Seitenverhältnis von 16:10 ist für Laptops typisch und eine der größten Stärken des Galaxy Tab S10 Ultra. Samsung Galaxy Tab S10 Ultra: Weitere Überlegungen Da es jedoch seit der letzten Generation nur minimale Verbesserungen gibt, empfiehlt es sich für clevere Käufer, das Tab S9 Ultra in Betracht zu ziehen. Es bietet ein nahezu identisches Erlebnis zu einem niedrigeren Preis. Das Zubehör des älteren Tablets ist sogar kompatibel mit diesem Modell. Der einzige äußere Unterschied besteht darin, dass es etwas schlanker ist und neue Farboptionen bietet. Honor MagicPad 2: Perfekt für Medienkonsum Christoph Hoffmann Warum wir das Honor MagicPad 2 mögen Das Honor MagicPad 2 ist vielseitig und kostengünstig. Es ist die perfekte Wahl für den Medienkonsum, leichte Produktivitätsaufgaben und Spiele. Mit einer Dicke von lediglich 5,8 Millimetern und einem Gewicht von 555 Gramm ist das Tablet für seine Größe äußerst kompakt und leicht. Das 12,3 Zoll (ca. 17 cm) große OLED-Display des Honor MagicPad 2 sticht besonders hervor. Es überzeugt mit einer scharfen 3K-Auflösung (3.000 x 1.920 Pixel), hoher Farbsättigung und einer exzellenten Schwarzwiedergabe. Die hohe Leuchtkraft von 1.600 cd sorgt für eine gute Sichtbarkeit des Bildschirms auch bei direkter Sonneneinstrahlung. Das Honor MagicPad 2 wird vom Snapdragon-8s-Gen-3-Prozessor angetrieben. Dieser bewältigt mühelos eine Vielzahl von Aufgaben. Der 12 GB große Arbeitsspeicher ermöglicht ein reibungsloses Multitasking zwischen verschiedenen Produktivitäts-Apps und Spiele-Anwendungen. Der 10.050-mAh-Akku ermöglicht eine außergewöhnlich lange Nutzungsdauer, ohne dass die Leistung beeinträchtigt wird. Mit einer einzigen Akkuladung kommen Sie problemlos einen ganzen Tag lang aus. Honor MagicPad 2: Weitere Überlegungen Das Honor MagicPad 2 überzeugt durch ein hervorragendes Preis-Leistungs-Verhältnis im Android-Tablet-Segment. Das 12,3-Zoll-OLED-Display mit einer Bildwiederholfrequenz von 144 Hz zählt zu den besten Bildschirmen in dieser Preisklasse und eignet sich ideal für Medienkonsum, Spiele und leichte Produktivität. Die fehlende IP-Zertifizierung und das Fehlen eines Trackpads im Tastaturgehäuse könnten die Funktionalität für einige Benutzer einschränken. Das Honor MagicPad 2 ist eine vielseitige Option für verschiedene Nutzergruppen, darunter Studenten, Profis und Gelegenheitsnutzer. OnePlus Pad 2: Starkes Preis-Leistungs-Verhältnis Christoph Hoffmann Warum wir das OnePlus Pad 2 mögen Das OnePlus Pad 2 überzeugt mit seinem eleganten Design, dem hohen Komfort, dem überraschend guten Bildschirm und der ganztägigen Akkulaufzeit. Das Pad 2 wird vom Snapdragon 8 Gen 3 angetrieben. Sie erhalten außerdem 12 Gigabyte Arbeitsspeicher und 256 Gigabyte UFS 3.1-Speicher. Der Bildschirm mit einer Bildwiederholrate von bis zu 144 Hertz, einer großen Farbskala, einer hohen Helligkeit und der Unterstützung von HDR10+ und Dolby Vision ist definitiv gut zum Spielen geeignet. Es handelt sich nicht um ein OLED-, sondern um ein IPS-Panel, sodass Sie nicht den ultimativen Kontrast erhalten. Sechs Lautsprecher, zwei Paare an den kurzen Seiten und zwei eingebaute Tieftöner sorgen für einen schönen und satten Klang. Im Surround-Modus überzeugt der Sound auf ganzer Linie – dank der herausragenden Klangverbesserungstechnologie von Oppo. Die Akkulaufzeit des Tablets von bis zu 11 bis 12 Stunden bei aktiver App-Nutzung oder sogar mehr bei Videostreaming ist eindeutig positiv. OnePlus Pad 2: Weitere Überlegungen Obwohl der Anspruch des Produktivität-Tablets zum Testzeitpunkt bisher nicht vollständig erfüllt wurde, könnten zukünftige Software-Updates dies verbessern. Einige Aspekte von Oneplus fehlen jedoch noch, um das Pad 2 zu einem effizienteren Produktivität-Tablet für die tägliche Arbeit zu machen. Ein Desktop-Modus, der die Steuerung von Maus und Tastatur zentraler gestaltet, wäre dabei besonders hilfreich. Samsung Galaxy Tab A9: Spar-Tipp Christoph Hoffmann > Warum wir das Samsung Galaxy Tab A9 mögen Das A9 wiegt lediglich 332 Gramm und hat eine Dicke von 8 Millimetern. Es ist daher schlank und verfügt nicht über einen sperrigen Rahmen, wie es bei vielen anderen günstigen Tablets der Fall ist. Das überwiegend aus Metall bestehende Gehäuse, die klaren Linien und die solide Konstruktion verleihen ihm eine weitaus hochwertigere Verarbeitung im Vergleich zur Konkurrenz. Für Gelegenheitsnutzer ist das Tablet ausreichend, solange keine Vielzahl von Aufgaben gleichzeitig ausgeführt wird. Für anspruchsvollere Anwendungen empfehlen wir jedoch das Modell mit 8 GB Speicher. Insgesamt präsentiert sich das Galaxy Tab A9 angesichts des günstigen Einstiegspreises als ein äußerst beeindruckendes Gerät. Die Spezifikationen und die Leistung übertreffen die Erwartungen, die der Preis vermuten lässt. Der helle Bildschirm und die guten Stereo-Lautsprecher machen das A9 zu einem hervorragenden Begleiter auf dem Sofa, auf Reisen oder sogar als Tablet für Kinder. Samsung Galaxy Tab A9: Weitere Überlegungen Es gibt einige Nachteile, aber die meisten Leute können bei diesem Preis damit leben. Das Aufladen dauert zu lange und die Kameras sind miserabel. Samsung konzentriert sich eben auf andere Bereiche. Wenn Sie jedoch ein kompaktes und kompetentes Tablet suchen, das nur Wi-Fi beherrscht, ist das Galaxy Tab A9 eines der besten Budget-Tablets, das Sie kaufen können. Samsung Galaxy Tab S10 Plus: Bester Allrounder mit KI Christoph Hoffmann Warum wir das Samsung Galaxy Tab S10 Plus mögen Samsung bleibt weiterhin einer der führenden Hersteller für überzeugende Android-Tablets auf dem Markt. Das Galaxy Tab S10+ ist ein weiteres hervorragendes Modell von Samsung. Neben dem allgegenwärtigen S Pen und Samsungs Vorliebe für leistungsstarkes Silizium und beeindruckende OLED-Displays bietet das Gerät auch Ergänzungen wie die Galaxy AI. Die bemerkenswerte 7-jährige Update-Unterstützung macht es zu einem langfristig attraktiven Kauf. Laut Samsung ist das Armor Aluminium, aus dem das Gehäuse des Tab S10 besteht, 10 Prozent robuster im Vergleich zur Tab-S9-Reihe. Zudem verfügt das Tablet über eine IP68-Zertifizierung, die Schutz gegen Staub und Wasser bietet. Der neue Dimensity-9300-Chipsatz von MediaTek, welcher in der Tab-S10-Serie verwendet wird, erweist sich ebenfalls als vorteilhaft. Durch die Verkleinerung des Displays von 14,6 auf 12,4 Zoll (31,5 cm) und die Gewichtsreduktion gegenüber dem Vorgänger ist das Tab S10 Plus deutlich portabler. Es ist leicht und lässt sich bequem mit einer Hand bedienen. Samsung Galaxy Tab S10 Plus: Weitere Überlegungen Ein hoher Listenpreis und starke Konkurrenz machen die Empfehlung für dieses Galaxy Tab allerdings etwas schwieriger. Auch im Juni 2025 ist der durchschnittliche Straßenpreis mit rund 850 Euro (noch zu) hoch. Für alle, die keinen Eingabestift brauchen oder nicht vorhaben, ihr Tablet sieben Jahre lang zu behalten, gibt es mehrere günstigere Alternativen. Die sind dem Tab S10 in manchen Bereichen ebenbürtig oder sogar überlegen – und das für weniger Geld. Lenovo Idea Tab Pro: Günstiges 13-Zoll-Tablet > Christoph Hoffmann Warum wir das Lenovo Idea Tab Pro mögen Das Lenovo Idea Tab Pro zielt darauf ab, ein großformatiges Tablet zu sein, das nicht die hohen Kosten eines Apple-Flaggschiffs aufweist. Mit einem 13-Zoll-Display, vier Lautsprechern für Musik und Filme sowie einem mitgelieferten Stylus spricht es insbesondere kreative Nutzer an. Allerdings gibt es auch spezifische Einschränkungen: Der MediaTek-Chipsatz Dimensity 8300 eignet sich nur bedingt für produktives Arbeiten oder echtes Multitasking mit mehreren Apps. Trotz der Größe ist das Display ein IPS-Panel mit einer Auflösung von 2.944 × 1.840 Pixeln. Helligkeit und Kontrast liegen unter dem erwarteten Niveau. Zudem ist das Display bei direkter Sonneneinstrahlung weniger gut ablesbar als OLED-Alternativen, weshalb es besser für den Innenbereich geeignet ist. Ein Vorteil großer Tablets ist typischerweise ein größerer Akku – so auch beim Lenovo Idea Tab Pro. Es verfügt über eine Akkukapazität von 10.200 Milliamperestunden, was lange Laufzeiten ermöglicht. In unseren Tests konnte eine Laufzeit von etwa 11 Stunden mit einer Mischung aus Surfen, Spielen und Lesen digitaler Magazine erreicht werden. Lenovo Idea Tab Pro: Weitere Überlegungen Das Lenovo Idea Tab Pro zeichnet sich durch seine Größe und hochwertige Verarbeitung aus, weist jedoch Leistungsdefizite auf, die eine uneingeschränkte Empfehlung verhindern. Dennoch machen der mitgelieferte Stylus, das große Display und die guten Lautsprecher das Tablet ideal für Notizen oder Medienkonsum. Allerdings sollte es nicht als Laptop-Ersatz betrachtet werden. Samsung Galaxy Tab S10 FE: Mittelklasse mit Stylus Christoph Hoffmann Warum wir das Samsung Galaxy Tab S10 FE mögen Sie werden kaum ein besser ausgestattetes Premium-Android-Tablet als das Samsung Galaxy Tab S10 Ultra finden. Doch es ist für die meisten Menschen zu teuer. Das Samsung Galaxy Tab S10 FE bietet ein hervorragendes Preis-Leistungs-Verhältnis. Es ist mit einem 10,9-Zoll-Display ausgestattet, das durch sein hochwertiges, flaches Metalldesign überzeugt. Das Tablet verfügt über ausreichend Leistung, um alltägliche Aufgaben effizient zu bewältigen. Ferner wird jedes Gerät mit einem S-Pen-Eingabestift geliefert, der die Nutzung für kreative Tätigkeiten erleichtert. Die Abmessungen des Tablets betragen 254,3 × 165,8 Millimeter und es wiegt 497 Gramm. Die Verarbeitung vermittelt einen Premium-Eindruck, was vor allem auf die stabile Ganzmetallkonstruktion zurückzuführen ist. Das Display ist ein 10,9-Zoll-IPS-LCD mit einer Auflösung von 1.440 × 2.304 Pixeln und einer Bildwiederholrate von 90 Hertz. Es bietet eine ausreichende Helligkeit, Schärfe und natürliche Farbwiedergabe. Im Akkutest, welcher eine gemischte Arbeitsbelastung simuliert, erreichte das Samsung-Tablet eine Laufzeit von 13 Stunden und 28 Minuten. Samsung Galaxy Tab S10 FE: Weitere Überlegungen Das Samsung Galaxy Tab S10 FE ist ein weiteres gut ausgestattetes Tablet der Mittelklasse. Allerdings beginnt der Mangel an echten Innovationen zu einem wesentlichen Nachteil zu werden. Solange Sie nicht explizit den mitgelieferten S Pen benötigen, bieten inzwischen andere Mitbewerber mehr Leistung zu einem geringeren Preis. Nubia Redmagic Nova: Bestes Gaming-Tablet Christoph Hoffmann Warum wir das Nubia Redmagic Nova mögen Das Redmagic Nova misst 253,3 × 164,6 × 7,3 Millimeter und wiegt 530 Gramm. Der Rahmen besteht aus Aluminium mit Bedienelementen am Rand für die Lautstärke. Auf der Rückseite befindet sich eine transparente Abdeckung, die den Lüfter mit mehrfarbigen LEDs, das Kameramodul sowie Teile des internen Kühlsystems sichtbar macht. An der unteren Kante sind fünf Metallstifte angebracht, die den magnetischen Anschluss für das optionale Redmagic Nova Magnetic Keyboard bilden. Das Nova ist mit einem 3,4 GHz Snapdragon 8 Gen 3 Leading Edge ausgestattet. Dazu kommen entweder 256 oder 512 Gigabyte UFS-4.0-Speicher und 12 beziehungsweise 16 Gigabyte LDR5X-Speicher. Das kompakte Design des Nova-Tablets ist größtenteils dem 10,9-Zoll-IPS-LCD-Panel zu verdanken. Die Auflösung von 2.880 × 1.800 Pixeln sorgt für eine klare und detaillierte Darstellung. Die Bildwiederholfrequenz von 144 Hertz stellt sicher, dass der Bildschirminhalt flüssig und präzise dargestellt wird. Auch die Reaktionszeiten sind erstklassig, mit bis zu 840 Hertz Touch-Sampling-Raten. Nubia Redmagic Nova: Weitere Überlegungen Mit der Veröffentlichung des neuen Nova-Gaming-Tablets drängt der Hersteller nun auf einen größeren Bildschirm. Wie gut funktioniert dieser Wechsel? Das Redmagic Nova ist ein hervorragendes Gaming-Tablet für Android-Nutzer. Die Leistung ist erstklassig und das Gerät ist wirklich angenehm zu bedienen. Leider wird die schlechte Software-Unterstützung für viele Käufer ein Hindernis darstellen. Amazon Fire HD 8 (2024): Preiskracher für Amazon-Fans Christoph Hoffmann Warum wir das Amazon Fire HD 8 (2024) mögen Ein Hauptargument für das Fire HD 8 ist dessen Leichtigkeit und kompakte Größe. Es wiegt lediglich 337 Gramm. Im Vergleich dazu wiegt ein herkömmliches 10,9-Zoll-iPad 447 Gramm, während das Samsung Galaxy Tab S10 Ultra bemerkenswerte 718 Gramm auf die Waage bringt. Mit Abmessungen von 202 × 137 × 9,6 Millimetern kann das Fire HD 8 problemlos in den meisten Rucksäcken, Handtaschen oder Schulranzen verstaut werden. Das Design ist klar und funktional, wenn auch nicht besonders hochwertig, insbesondere aufgrund der großen Einfassungen an der Vorderseite. Das 8-Zoll-Display bietet eine Auflösung von 1.200 x 800 Pixeln, was 189 Pixeln pro Zoll entspricht. Dies ist das absolute Minimum, um als hochauflösender Bildschirm zu gelten. Zwar ist die Leistungsfähigkeit des Geräts mäßig und die Kamera bietet nur begrenzte Einsatzmöglichkeiten, jedoch hat das Fire HD 8 nie den Anspruch erhoben, hochmoderne Spiele auszuführen oder hochwertige Fotos aufzunehmen. Amazon Fire HD 8 (2024): Weitere Überlegungen Die Fire HD-Serie ist seit der Einführung des ersten Modells im Oktober 2012 ein beständiger und wesentlicher Bestandteil der Android-Tablet-Produktlinie. Seither haben sich die Änderungen an den nachfolgenden Modellen nur geringfügig entwickelt. Jede Aktualisierung des Tablets beinhaltete lediglich kleinere Verbesserungen, wie beispielsweise eine Erhöhung des Arbeitsspeichers, eine Aufstockung der Megapixel sowie einige Anpassungen in der Displaygröße und den Abmessungen. Kaufberatung: Worauf Sie bei einem Android-Tablet achten sollten  Der erste wichtige Punkt ist die Bildschirmgröße. Die Bildschirmdiagonale reicht von 7 bis 14 Zoll. Große Bildschirme bringen mehr Gewicht mit sich. Die Auflösung in Pixeln und die Bildwiederholrate ist ebenfalls wichtig. Die meisten Tablets arbeiten mit 60 Hz, aber 120 Hz liefern eine deutlich flüssigere Darstellung. Achten Sie auf einen IPS-LCD- oder (besser noch) OLED/AMOLED-Bildschirm und vermeiden Sie alles mit einem “TN”-Bildschirm, da diese einen schlechten Betrachtungswinkel haben. Ich bin überzeugt, dass eine höhere Auflösung besser ist. Die wichtigere Zahl bezieht sich auf die Pixeldichte. Sie wünschen sich ein scharfes Bild? Dann streben Sie 300 Pixel pro Zoll (oft als ppi abgekürzt) oder mehr an. Es ist absolut unerlässlich, dass das Tablet mindestens 32 GB internen Speicher hat. Viele, aber nicht alle Android-Tablets haben einen Micro-SD-Kartensteckplatz. Das heißt, Sie können bei Bedarf mehr Speicherplatz hinzufügen. Entscheiden Sie sich für ein Tablet ohne Steckplatz, sollten Sie die größte Kapazität wählen. Videos und einige Apps verbrauchen auf einen Schlag sehr viel Speicherplatz. Sie sollten sich darüber im Klaren sein, dass sich Android und die herstellereigene Benutzeroberfläche bereits einen beträchtlichen Teil des angegebenen Speichers reservieren. Der tatsächlich nutzbare Speicherplatz ist deutlich kleiner. Alle Android-Tablets haben selbstverständlich Wi-Fi und Bluetooth an Bord. Für manche Modelle gibt es auch eine Mobilfunkoption (LTE/5G). Wenn Sie auf Reisen sind oder sich außerhalb des WLAN-Bereichs befinden, brauchen Sie das. Denn dann ist es nützlich. Allerdings zahlen Sie in der Regel mehr für ein Mobilfunk-Tablet. Sie brauchen eine spezielle SIM-Karte mit einem reinen Datentarif. Tipp: Das Tablet lässt sich auch mit einem Smartphone koppeln. NFC ist eine praktische Funktion, um sich schnell mit anderen kompatiblen Geräten zu verbinden. Bei Tablets ist sie jedoch eher die Ausnahme. FAQ: Android-Tablets 1. Was unterscheidet Android-Tablets von anderen Tablets?  Android-Tablets basieren auf dem offenen Betriebssystem Android von Google. Sie zeichnen sich durch eine große Gerätevielfalt aus und bieten Zugang zum Google Play Store mit Millionen von Apps. Im Vergleich zu beispielsweise Apple iPads profitieren Nutzer von einer breiteren Preisspanne und größerer Auswahl, sowohl bei Marken als auch bei Hardware-Spezifikationen. 2. Auf welche technischen Merkmale sollte man beim Kauf achten?  Zentrale Kriterien sind Displaygröße und -auflösung, Prozessorleistung, Arbeitsspeicher, Speicherkapazität sowie Akkulaufzeit. Für den langen Einsatz empfiehlt es sich, ein Modell mit mindestens 4 GB Arbeitsspeicher und 64 GB internem Speicher zu wählen. Wer das Tablet mobil nutzt, sollte auf die Option eines SIM-Kartenslots (LTE/5G) achten. 3. Wie steht es um Updates und Sicherheit bei Android-Tablets?  Anders als bei Apple erhalten nicht alle Android-Tablets regelmäßig Software-Updates. Hier lohnt sich der Blick auf die Update-Politik des Herstellers: Große Marken wie Samsung oder Lenovo bieten oft längere Updates, während No-Name-Modelle oft schnell auf alten Stand bleiben. Sicherheitspatches und Betriebssystem-Updates sollten vorab geprüft werden. 4. Kann ich Android-Tablets als Laptop-Ersatz nutzen?  Mit entsprechender Hardware – etwa einer Tastaturhülle oder Bluetooth-Tastatur – lassen sich viele Android-Tablets für Office-Arbeiten nutzen. Dennoch sind sie meist weniger leistungsfähig als Laptops und bei Spezialanwendungen limitiert. Für E-Mails, Webrecherche oder leichte Office-Tätigkeiten reicht ein gutes Tablet aber oft aus. 5. Welche Apps und Funktionen bieten Android-Tablets?  Über den Google Play Store steht eine riesige Auswahl an Apps zur Verfügung – von klassischen Office-Anwendungen über Streaming bis zu kreativen Tools. Viele Tablets unterstützen Multitasking, Split-Screen und Stiftbedienung. Umfangreiche Schnittstellen wie USB-C, Micro-SD oder HDMI-Adapter bieten zudem Flexibilität im Alltag. 6. Wie lässt sich der Datenschutz auf einem Android-Tablet gewährleisten?  Nutzer sollten regelmäßig System- und App-Updates installieren, Berechtigungen kritisch prüfen und eventuell mit zusätzlichen Sicherheits-Apps arbeiten. Der Einsatz eines starken Bildschirmsperrmechanismus (PIN, Muster, Fingerabdruck) wird ebenso empfohlen wie das Meiden von Apps aus unsicheren Quellen. (PC-Welt) 

Die besten Android-Tablets im Test: Es muss nicht immer ein iPad sein​ Peshkova / shutterstock.com

Für die meisten Nutzer ist ein iPad klar die erste Wahl – wenn Sie das Budget für die vergleichsweise kostspieligen Tablets haben. Doch es gibt auch gute Gründe für ein Android-basiertes Tablet.

Android-Tablets gibt es in vielen Größen und mit stark abweichender Ausstattung. Es gibt günstige Modelle für die Familie und leistungsstarke Tablets für den professionellen Einsatz. Jedes Modell hat Stärken und Schwächen. In unserem Test haben wir die besten Android-Tablets berücksichtigt.

Honor Pad V9: Das beste Android-Tablet

Christoph Hoffmann

Warum wir das Honor Pad V9 mögen

Auf den ersten Blick erweckt das Honor Pad V9 den Eindruck eines Apple-Geräts. Das 11,5 Zoll große Display ist von einem schmalen, gewölbten Rahmen umgeben und sogar die Lautsprechergitter erinnern an ein iPad. Zusätzlich ist ein Stylus, der Magic Pencil, erhältlich. Die Verarbeitungsqualität des Geräts ist durchweg beeindruckend. Ein herausragendes Merkmal des Honor Pad V9 ist das große, helle Display, welches als exzellent bewertet wird. Mit einer Bildwiederholrate von 144 Hz und einer Helligkeit von bis zu 500 Nits erscheint alles wunderbar flüssig und dynamisch. Die Auflösung beträgt 2.800 × 1.840 Pixel. Auch bei direkter Sonneneinstrahlung bleibt der Bildschirm gut lesbar und hinterlässt insgesamt einen sehr positiven Eindruck. Der leistungsstarke 10.100-mAh-Akku des Honor Pad V9 erzielte in unserem Test mit dem Work 3.0 Benchmark von PC Mark eine Laufzeit von 13,5 Stunden. Während in einigen Ländern eine Version mit 12 Gigabyte RAM verfügbar ist, wird hierzulande nur die Variante mit 256 Gigabyte Speicher und 8 Gigabyte RAM angeboten.

Honor Pad V9: Weitere Überlegungen

Das Honor Pad V9 ist das leistungsstärkste Tablet auf dem Markt. Sein Display ist hochwertig. Das Gerät hat uns überzeugt und wir sind der Ansicht, dass es eine ernst zu nehmende Konkurrenz für die iPad-Produktreihe von Apple darstellt. Wir erwarten für zukünftige Modelle definitiv verbesserte Kameras. Doch das aktuelle Modell bietet bereits ein ausgezeichnetes Gesamtpaket.

Xiaomi Pad 7: Preis-Leistungs-Tipp

Christoph Hoffmann

Warum wir das Xiaomi Pad 7 mögen

Xiaomi hat es wieder einmal geschafft. Das Unternehmen gehört definitiv zu den besten Android-Tablet-Herstellern. Wenn Sie nicht an Samsung oder Google gebunden sind und eine Alternative zum iPad suchen, ist das Pad 7 die beste Wahl. Es fühlt sich an wie ein Flaggschiff und bietet die entsprechende Leistung zu einem niedrigen Preis. Das Xiaomi Pad 7 ist mit einer Dicke von lediglich 6,2 Millimetern angenehm schlank und erreicht beim Gewicht die 500-Gramm-Marke. Das Pad 7 behält das 3:2-Seitenverhältnis bei und bietet eine Bildwiederholfrequenz von 144 Hertz. Es ist kein OLED-Display, aber die Qualität ist trotzdem erstklassig. Xiaomi hat die Auflösung auf 3,2K und die Helligkeit auf 800 Nits erhöht. Im Inneren arbeitet die Qualcomm-CPU Snapdragon 7+ Gen 3, unterstützt von acht Gigabyte Arbeitsspeicher. Beim internen Speicher (UFS 4.0) haben Sie die Wahl zwischen 128 oder 256 Gigabyte. Das Xiaomi Pad 7 ist das beste Gesamtpaket auf dem Markt und das zu einem unschlagbaren Preis. Vergleichbare Modelle von Samsung und anderen Herstellern sind teurer.

Xiaomi Pad 7: Weitere Überlegungen

Das Pad 7 bietet herausragende Upgrades: die neue Benutzeroberfläche HyperOS 2, einen helleren Bildschirm, einen neueren Prozessor und schnelleres Laden. Xiaomis breites Zubehörangebot, inklusive des ersten Tastatur-Covers mit schwebendem Scharnier, positioniert das Pad 7 eindeutig als ernst zu nehmenden Konkurrenten zum iPad Pro und als vielseitigen Laptop-Ersatz.

Samsung Galaxy Tab S10 Ultra: Bestes XXL-Tablet

>

Christoph Hoffmann

Warum wir das Samsung Galaxy Tab S10 Ultra mögen

Das Samsung Galaxy Tab S10 Ultra ist das Beste vom Besten. Es ist riesig, leistungsstark und mit erstklassigen Spezifikationen ausgestattet. Samsungs XXL-Tablet überzeugt mit einer überragenden Leistung in allen Bereichen. Das Tablet hat ein riesiges Display, richtig Power und der Akku hält auch richtig lange. Es mag sein, dass es fast identisch mit seinem Vorgänger aussieht, aber es gibt definitiv verschiedene Änderungen. Der Tech-Gigant hat sich dieses Mal für einen Flaggschiff-Prozessor von MediaTek statt der üblichen Qualcomm-CPU entschieden. Außerdem gibt es jede Menge neue Galaxy-AI-Funktionen. Die Modelle sind mit 12 oder 16 Gigabyte großzügigem Arbeitsspeicher ausgestattet, je nachdem, welches Modell Sie wählen. Unser Produkt hat bis zu 1 Terabyte Speicherplatz. Der Bildschirm zeichnet sich durch seine einzigartige Größe aus. Mit einer Diagonale von 14,6 Zoll (ca. 17 cm) ist es das mit Abstand größte Tablet, das wir bislang getestet haben. Das Seitenverhältnis von 16:10 ist für Laptops typisch und eine der größten Stärken des Galaxy Tab S10 Ultra.

Samsung Galaxy Tab S10 Ultra: Weitere Überlegungen

Da es jedoch seit der letzten Generation nur minimale Verbesserungen gibt, empfiehlt es sich für clevere Käufer, das Tab S9 Ultra in Betracht zu ziehen. Es bietet ein nahezu identisches Erlebnis zu einem niedrigeren Preis. Das Zubehör des älteren Tablets ist sogar kompatibel mit diesem Modell. Der einzige äußere Unterschied besteht darin, dass es etwas schlanker ist und neue Farboptionen bietet.

Honor MagicPad 2: Perfekt für Medienkonsum

Christoph Hoffmann

Warum wir das Honor MagicPad 2 mögen

Das Honor MagicPad 2 ist vielseitig und kostengünstig. Es ist die perfekte Wahl für den Medienkonsum, leichte Produktivitätsaufgaben und Spiele. Mit einer Dicke von lediglich 5,8 Millimetern und einem Gewicht von 555 Gramm ist das Tablet für seine Größe äußerst kompakt und leicht. Das 12,3 Zoll (ca. 17 cm) große OLED-Display des Honor MagicPad 2 sticht besonders hervor. Es überzeugt mit einer scharfen 3K-Auflösung (3.000 x 1.920 Pixel), hoher Farbsättigung und einer exzellenten Schwarzwiedergabe. Die hohe Leuchtkraft von 1.600 cd sorgt für eine gute Sichtbarkeit des Bildschirms auch bei direkter Sonneneinstrahlung. Das Honor MagicPad 2 wird vom Snapdragon-8s-Gen-3-Prozessor angetrieben. Dieser bewältigt mühelos eine Vielzahl von Aufgaben. Der 12 GB große Arbeitsspeicher ermöglicht ein reibungsloses Multitasking zwischen verschiedenen Produktivitäts-Apps und Spiele-Anwendungen. Der 10.050-mAh-Akku ermöglicht eine außergewöhnlich lange Nutzungsdauer, ohne dass die Leistung beeinträchtigt wird. Mit einer einzigen Akkuladung kommen Sie problemlos einen ganzen Tag lang aus.

Honor MagicPad 2: Weitere Überlegungen

Das Honor MagicPad 2 überzeugt durch ein hervorragendes Preis-Leistungs-Verhältnis im Android-Tablet-Segment. Das 12,3-Zoll-OLED-Display mit einer Bildwiederholfrequenz von 144 Hz zählt zu den besten Bildschirmen in dieser Preisklasse und eignet sich ideal für Medienkonsum, Spiele und leichte Produktivität. Die fehlende IP-Zertifizierung und das Fehlen eines Trackpads im Tastaturgehäuse könnten die Funktionalität für einige Benutzer einschränken. Das Honor MagicPad 2 ist eine vielseitige Option für verschiedene Nutzergruppen, darunter Studenten, Profis und Gelegenheitsnutzer.

OnePlus Pad 2: Starkes Preis-Leistungs-Verhältnis

Christoph Hoffmann

Warum wir das OnePlus Pad 2 mögen

Das OnePlus Pad 2 überzeugt mit seinem eleganten Design, dem hohen Komfort, dem überraschend guten Bildschirm und der ganztägigen Akkulaufzeit. Das Pad 2 wird vom Snapdragon 8 Gen 3 angetrieben. Sie erhalten außerdem 12 Gigabyte Arbeitsspeicher und 256 Gigabyte UFS 3.1-Speicher. Der Bildschirm mit einer Bildwiederholrate von bis zu 144 Hertz, einer großen Farbskala, einer hohen Helligkeit und der Unterstützung von HDR10+ und Dolby Vision ist definitiv gut zum Spielen geeignet. Es handelt sich nicht um ein OLED-, sondern um ein IPS-Panel, sodass Sie nicht den ultimativen Kontrast erhalten. Sechs Lautsprecher, zwei Paare an den kurzen Seiten und zwei eingebaute Tieftöner sorgen für einen schönen und satten Klang. Im Surround-Modus überzeugt der Sound auf ganzer Linie – dank der herausragenden Klangverbesserungstechnologie von Oppo. Die Akkulaufzeit des Tablets von bis zu 11 bis 12 Stunden bei aktiver App-Nutzung oder sogar mehr bei Videostreaming ist eindeutig positiv.

OnePlus Pad 2: Weitere Überlegungen

Obwohl der Anspruch des Produktivität-Tablets zum Testzeitpunkt bisher nicht vollständig erfüllt wurde, könnten zukünftige Software-Updates dies verbessern. Einige Aspekte von Oneplus fehlen jedoch noch, um das Pad 2 zu einem effizienteren Produktivität-Tablet für die tägliche Arbeit zu machen. Ein Desktop-Modus, der die Steuerung von Maus und Tastatur zentraler gestaltet, wäre dabei besonders hilfreich.

Samsung Galaxy Tab A9: Spar-Tipp

Christoph Hoffmann

>

Warum wir das Samsung Galaxy Tab A9 mögen

Das A9 wiegt lediglich 332 Gramm und hat eine Dicke von 8 Millimetern. Es ist daher schlank und verfügt nicht über einen sperrigen Rahmen, wie es bei vielen anderen günstigen Tablets der Fall ist. Das überwiegend aus Metall bestehende Gehäuse, die klaren Linien und die solide Konstruktion verleihen ihm eine weitaus hochwertigere Verarbeitung im Vergleich zur Konkurrenz. Für Gelegenheitsnutzer ist das Tablet ausreichend, solange keine Vielzahl von Aufgaben gleichzeitig ausgeführt wird. Für anspruchsvollere Anwendungen empfehlen wir jedoch das Modell mit 8 GB Speicher. Insgesamt präsentiert sich das Galaxy Tab A9 angesichts des günstigen Einstiegspreises als ein äußerst beeindruckendes Gerät. Die Spezifikationen und die Leistung übertreffen die Erwartungen, die der Preis vermuten lässt. Der helle Bildschirm und die guten Stereo-Lautsprecher machen das A9 zu einem hervorragenden Begleiter auf dem Sofa, auf Reisen oder sogar als Tablet für Kinder.

Samsung Galaxy Tab A9: Weitere Überlegungen

Es gibt einige Nachteile, aber die meisten Leute können bei diesem Preis damit leben. Das Aufladen dauert zu lange und die Kameras sind miserabel. Samsung konzentriert sich eben auf andere Bereiche. Wenn Sie jedoch ein kompaktes und kompetentes Tablet suchen, das nur Wi-Fi beherrscht, ist das Galaxy Tab A9 eines der besten Budget-Tablets, das Sie kaufen können.

Samsung Galaxy Tab S10 Plus: Bester Allrounder mit KI

Christoph Hoffmann

Warum wir das Samsung Galaxy Tab S10 Plus mögen

Samsung bleibt weiterhin einer der führenden Hersteller für überzeugende Android-Tablets auf dem Markt. Das Galaxy Tab S10+ ist ein weiteres hervorragendes Modell von Samsung. Neben dem allgegenwärtigen S Pen und Samsungs Vorliebe für leistungsstarkes Silizium und beeindruckende OLED-Displays bietet das Gerät auch Ergänzungen wie die Galaxy AI. Die bemerkenswerte 7-jährige Update-Unterstützung macht es zu einem langfristig attraktiven Kauf. Laut Samsung ist das Armor Aluminium, aus dem das Gehäuse des Tab S10 besteht, 10 Prozent robuster im Vergleich zur Tab-S9-Reihe. Zudem verfügt das Tablet über eine IP68-Zertifizierung, die Schutz gegen Staub und Wasser bietet. Der neue Dimensity-9300-Chipsatz von MediaTek, welcher in der Tab-S10-Serie verwendet wird, erweist sich ebenfalls als vorteilhaft. Durch die Verkleinerung des Displays von 14,6 auf 12,4 Zoll (31,5 cm) und die Gewichtsreduktion gegenüber dem Vorgänger ist das Tab S10 Plus deutlich portabler. Es ist leicht und lässt sich bequem mit einer Hand bedienen.

Samsung Galaxy Tab S10 Plus: Weitere Überlegungen

Ein hoher Listenpreis und starke Konkurrenz machen die Empfehlung für dieses Galaxy Tab allerdings etwas schwieriger. Auch im Juni 2025 ist der durchschnittliche Straßenpreis mit rund 850 Euro (noch zu) hoch. Für alle, die keinen Eingabestift brauchen oder nicht vorhaben, ihr Tablet sieben Jahre lang zu behalten, gibt es mehrere günstigere Alternativen. Die sind dem Tab S10 in manchen Bereichen ebenbürtig oder sogar überlegen – und das für weniger Geld.

Lenovo Idea Tab Pro: Günstiges 13-Zoll-Tablet

>

Christoph Hoffmann

Warum wir das Lenovo Idea Tab Pro mögen

Das Lenovo Idea Tab Pro zielt darauf ab, ein großformatiges Tablet zu sein, das nicht die hohen Kosten eines Apple-Flaggschiffs aufweist. Mit einem 13-Zoll-Display, vier Lautsprechern für Musik und Filme sowie einem mitgelieferten Stylus spricht es insbesondere kreative Nutzer an. Allerdings gibt es auch spezifische Einschränkungen: Der MediaTek-Chipsatz Dimensity 8300 eignet sich nur bedingt für produktives Arbeiten oder echtes Multitasking mit mehreren Apps. Trotz der Größe ist das Display ein IPS-Panel mit einer Auflösung von 2.944 × 1.840 Pixeln. Helligkeit und Kontrast liegen unter dem erwarteten Niveau. Zudem ist das Display bei direkter Sonneneinstrahlung weniger gut ablesbar als OLED-Alternativen, weshalb es besser für den Innenbereich geeignet ist. Ein Vorteil großer Tablets ist typischerweise ein größerer Akku – so auch beim Lenovo Idea Tab Pro. Es verfügt über eine Akkukapazität von 10.200 Milliamperestunden, was lange Laufzeiten ermöglicht. In unseren Tests konnte eine Laufzeit von etwa 11 Stunden mit einer Mischung aus Surfen, Spielen und Lesen digitaler Magazine erreicht werden.

Lenovo Idea Tab Pro: Weitere Überlegungen

Das Lenovo Idea Tab Pro zeichnet sich durch seine Größe und hochwertige Verarbeitung aus, weist jedoch Leistungsdefizite auf, die eine uneingeschränkte Empfehlung verhindern. Dennoch machen der mitgelieferte Stylus, das große Display und die guten Lautsprecher das Tablet ideal für Notizen oder Medienkonsum. Allerdings sollte es nicht als Laptop-Ersatz betrachtet werden.

Samsung Galaxy Tab S10 FE: Mittelklasse mit Stylus

Christoph Hoffmann

Warum wir das Samsung Galaxy Tab S10 FE mögen

Sie werden kaum ein besser ausgestattetes Premium-Android-Tablet als das Samsung Galaxy Tab S10 Ultra finden. Doch es ist für die meisten Menschen zu teuer. Das Samsung Galaxy Tab S10 FE bietet ein hervorragendes Preis-Leistungs-Verhältnis. Es ist mit einem 10,9-Zoll-Display ausgestattet, das durch sein hochwertiges, flaches Metalldesign überzeugt. Das Tablet verfügt über ausreichend Leistung, um alltägliche Aufgaben effizient zu bewältigen. Ferner wird jedes Gerät mit einem S-Pen-Eingabestift geliefert, der die Nutzung für kreative Tätigkeiten erleichtert. Die Abmessungen des Tablets betragen 254,3 × 165,8 Millimeter und es wiegt 497 Gramm. Die Verarbeitung vermittelt einen Premium-Eindruck, was vor allem auf die stabile Ganzmetallkonstruktion zurückzuführen ist. Das Display ist ein 10,9-Zoll-IPS-LCD mit einer Auflösung von 1.440 × 2.304 Pixeln und einer Bildwiederholrate von 90 Hertz. Es bietet eine ausreichende Helligkeit, Schärfe und natürliche Farbwiedergabe. Im Akkutest, welcher eine gemischte Arbeitsbelastung simuliert, erreichte das Samsung-Tablet eine Laufzeit von 13 Stunden und 28 Minuten.

Samsung Galaxy Tab S10 FE: Weitere Überlegungen

Das Samsung Galaxy Tab S10 FE ist ein weiteres gut ausgestattetes Tablet der Mittelklasse. Allerdings beginnt der Mangel an echten Innovationen zu einem wesentlichen Nachteil zu werden. Solange Sie nicht explizit den mitgelieferten S Pen benötigen, bieten inzwischen andere Mitbewerber mehr Leistung zu einem geringeren Preis.

Nubia Redmagic Nova: Bestes Gaming-Tablet

Christoph Hoffmann

Warum wir das Nubia Redmagic Nova mögen

Das Redmagic Nova misst 253,3 × 164,6 × 7,3 Millimeter und wiegt 530 Gramm. Der Rahmen besteht aus Aluminium mit Bedienelementen am Rand für die Lautstärke. Auf der Rückseite befindet sich eine transparente Abdeckung, die den Lüfter mit mehrfarbigen LEDs, das Kameramodul sowie Teile des internen Kühlsystems sichtbar macht. An der unteren Kante sind fünf Metallstifte angebracht, die den magnetischen Anschluss für das optionale Redmagic Nova Magnetic Keyboard bilden. Das Nova ist mit einem 3,4 GHz Snapdragon 8 Gen 3 Leading Edge ausgestattet. Dazu kommen entweder 256 oder 512 Gigabyte UFS-4.0-Speicher und 12 beziehungsweise 16 Gigabyte LDR5X-Speicher. Das kompakte Design des Nova-Tablets ist größtenteils dem 10,9-Zoll-IPS-LCD-Panel zu verdanken. Die Auflösung von 2.880 × 1.800 Pixeln sorgt für eine klare und detaillierte Darstellung. Die Bildwiederholfrequenz von 144 Hertz stellt sicher, dass der Bildschirminhalt flüssig und präzise dargestellt wird. Auch die Reaktionszeiten sind erstklassig, mit bis zu 840 Hertz Touch-Sampling-Raten.

Nubia Redmagic Nova: Weitere Überlegungen

Mit der Veröffentlichung des neuen Nova-Gaming-Tablets drängt der Hersteller nun auf einen größeren Bildschirm. Wie gut funktioniert dieser Wechsel? Das Redmagic Nova ist ein hervorragendes Gaming-Tablet für Android-Nutzer. Die Leistung ist erstklassig und das Gerät ist wirklich angenehm zu bedienen. Leider wird die schlechte Software-Unterstützung für viele Käufer ein Hindernis darstellen.

Amazon Fire HD 8 (2024): Preiskracher für Amazon-Fans

Christoph Hoffmann

Warum wir das Amazon Fire HD 8 (2024) mögen

Ein Hauptargument für das Fire HD 8 ist dessen Leichtigkeit und kompakte Größe. Es wiegt lediglich 337 Gramm. Im Vergleich dazu wiegt ein herkömmliches 10,9-Zoll-iPad 447 Gramm, während das Samsung Galaxy Tab S10 Ultra bemerkenswerte 718 Gramm auf die Waage bringt. Mit Abmessungen von 202 × 137 × 9,6 Millimetern kann das Fire HD 8 problemlos in den meisten Rucksäcken, Handtaschen oder Schulranzen verstaut werden. Das Design ist klar und funktional, wenn auch nicht besonders hochwertig, insbesondere aufgrund der großen Einfassungen an der Vorderseite. Das 8-Zoll-Display bietet eine Auflösung von 1.200 x 800 Pixeln, was 189 Pixeln pro Zoll entspricht. Dies ist das absolute Minimum, um als hochauflösender Bildschirm zu gelten. Zwar ist die Leistungsfähigkeit des Geräts mäßig und die Kamera bietet nur begrenzte Einsatzmöglichkeiten, jedoch hat das Fire HD 8 nie den Anspruch erhoben, hochmoderne Spiele auszuführen oder hochwertige Fotos aufzunehmen.

Amazon Fire HD 8 (2024): Weitere Überlegungen

Die Fire HD-Serie ist seit der Einführung des ersten Modells im Oktober 2012 ein beständiger und wesentlicher Bestandteil der Android-Tablet-Produktlinie. Seither haben sich die Änderungen an den nachfolgenden Modellen nur geringfügig entwickelt. Jede Aktualisierung des Tablets beinhaltete lediglich kleinere Verbesserungen, wie beispielsweise eine Erhöhung des Arbeitsspeichers, eine Aufstockung der Megapixel sowie einige Anpassungen in der Displaygröße und den Abmessungen.

Kaufberatung: Worauf Sie bei einem Android-Tablet achten sollten 

Der erste wichtige Punkt ist die Bildschirmgröße. Die Bildschirmdiagonale reicht von 7 bis 14 Zoll. Große Bildschirme bringen mehr Gewicht mit sich. Die Auflösung in Pixeln und die Bildwiederholrate ist ebenfalls wichtig. Die meisten Tablets arbeiten mit 60 Hz, aber 120 Hz liefern eine deutlich flüssigere Darstellung. Achten Sie auf einen IPS-LCD- oder (besser noch) OLED/AMOLED-Bildschirm und vermeiden Sie alles mit einem “TN”-Bildschirm, da diese einen schlechten Betrachtungswinkel haben. Ich bin überzeugt, dass eine höhere Auflösung besser ist. Die wichtigere Zahl bezieht sich auf die Pixeldichte. Sie wünschen sich ein scharfes Bild? Dann streben Sie 300 Pixel pro Zoll (oft als ppi abgekürzt) oder mehr an.

Es ist absolut unerlässlich, dass das Tablet mindestens 32 GB internen Speicher hat. Viele, aber nicht alle Android-Tablets haben einen Micro-SD-Kartensteckplatz. Das heißt, Sie können bei Bedarf mehr Speicherplatz hinzufügen. Entscheiden Sie sich für ein Tablet ohne Steckplatz, sollten Sie die größte Kapazität wählen. Videos und einige Apps verbrauchen auf einen Schlag sehr viel Speicherplatz. Sie sollten sich darüber im Klaren sein, dass sich Android und die herstellereigene Benutzeroberfläche bereits einen beträchtlichen Teil des angegebenen Speichers reservieren. Der tatsächlich nutzbare Speicherplatz ist deutlich kleiner.

Alle Android-Tablets haben selbstverständlich Wi-Fi und Bluetooth an Bord. Für manche Modelle gibt es auch eine Mobilfunkoption (LTE/5G). Wenn Sie auf Reisen sind oder sich außerhalb des WLAN-Bereichs befinden, brauchen Sie das. Denn dann ist es nützlich. Allerdings zahlen Sie in der Regel mehr für ein Mobilfunk-Tablet. Sie brauchen eine spezielle SIM-Karte mit einem reinen Datentarif. Tipp: Das Tablet lässt sich auch mit einem Smartphone koppeln. NFC ist eine praktische Funktion, um sich schnell mit anderen kompatiblen Geräten zu verbinden. Bei Tablets ist sie jedoch eher die Ausnahme.

FAQ: Android-Tablets

1. Was unterscheidet Android-Tablets von anderen Tablets? 

Android-Tablets basieren auf dem offenen Betriebssystem Android von Google. Sie zeichnen sich durch eine große Gerätevielfalt aus und bieten Zugang zum Google Play Store mit Millionen von Apps. Im Vergleich zu beispielsweise Apple iPads profitieren Nutzer von einer breiteren Preisspanne und größerer Auswahl, sowohl bei Marken als auch bei Hardware-Spezifikationen.

2. Auf welche technischen Merkmale sollte man beim Kauf achten? 

Zentrale Kriterien sind Displaygröße und -auflösung, Prozessorleistung, Arbeitsspeicher, Speicherkapazität sowie Akkulaufzeit. Für den langen Einsatz empfiehlt es sich, ein Modell mit mindestens 4 GB Arbeitsspeicher und 64 GB internem Speicher zu wählen. Wer das Tablet mobil nutzt, sollte auf die Option eines SIM-Kartenslots (LTE/5G) achten.

3. Wie steht es um Updates und Sicherheit bei Android-Tablets? 

Anders als bei Apple erhalten nicht alle Android-Tablets regelmäßig Software-Updates. Hier lohnt sich der Blick auf die Update-Politik des Herstellers: Große Marken wie Samsung oder Lenovo bieten oft längere Updates, während No-Name-Modelle oft schnell auf alten Stand bleiben. Sicherheitspatches und Betriebssystem-Updates sollten vorab geprüft werden.

4. Kann ich Android-Tablets als Laptop-Ersatz nutzen? 

Mit entsprechender Hardware – etwa einer Tastaturhülle oder Bluetooth-Tastatur – lassen sich viele Android-Tablets für Office-Arbeiten nutzen. Dennoch sind sie meist weniger leistungsfähig als Laptops und bei Spezialanwendungen limitiert. Für E-Mails, Webrecherche oder leichte Office-Tätigkeiten reicht ein gutes Tablet aber oft aus.

5. Welche Apps und Funktionen bieten Android-Tablets? 

Über den Google Play Store steht eine riesige Auswahl an Apps zur Verfügung – von klassischen Office-Anwendungen über Streaming bis zu kreativen Tools. Viele Tablets unterstützen Multitasking, Split-Screen und Stiftbedienung. Umfangreiche Schnittstellen wie USB-C, Micro-SD oder HDMI-Adapter bieten zudem Flexibilität im Alltag.

6. Wie lässt sich der Datenschutz auf einem Android-Tablet gewährleisten? 

Nutzer sollten regelmäßig System- und App-Updates installieren, Berechtigungen kritisch prüfen und eventuell mit zusätzlichen Sicherheits-Apps arbeiten. Der Einsatz eines starken Bildschirmsperrmechanismus (PIN, Muster, Fingerabdruck) wird ebenso empfohlen wie das Meiden von Apps aus unsicheren Quellen.

(PC-Welt)

Die besten Android-Tablets im Test: Es muss nicht immer ein iPad sein​ Weiterlesen »

Nach oben scrollen
×