Computerhaus Quickborn

April 2025

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​

Allgemein

Der maximale Nutzen eines Digitalen Zwillings ergibt sich erst dann, wenn er nicht nur in der Produktentwicklung, sondern auch in der Produktion, der Logistik und der Wartung zum Einsatz kommt. (Foto Siemens) „Shutterstock.com – Rechteinhaber“ Wer neue Produkte schneller auf den Markt bringen kann, genießt deutliche Konkurrenzvorteile. Digitale Zwillinge beschleunigen die Produktentwicklung und haben sich deshalb in diesem Bereich auf breiter Front durchgesetzt. Bei einem Digitalen Zwilling handelt es sich um eine virtuelle Darstellung oder um ein digitales Gegenstück von einem physischen Objekt, System oder Prozess. Er entsteht unter Verwendung von bekannten Daten, Simulationen und Modellrechnungen. Ziel ist es, das Verhalten, die Eigenschaften und die Leistungsdaten des physischen Gegenstücks weitestgehend zu simulieren. Das unterstützt dann vor allem das Design und die Entwicklung, da man an dem virtuellen Prototyp die Einhaltung aller Konstruktionsvorgaben leicht überprüfen kann. Das heißt, Digitale Zwillinge machen physische Prototypen weitgehend überflüssig, verkürzen damit die Entwicklungszeit und verbessern die Qualität, indem sie Multiphysik-Simulation, Datenanalyse und maschinelles Lernen kombinieren. Ziel: Closed-Loop-Optimierung Diese Möglichkeiten sollten sich aber nicht nur auf die Konstruktionsphase beschränkten, sondern auch auf die Zeit danach, wenn das Produkt gefertigt, verkauft und gewartet wird. Hierzu muss der Digitale Zwilling über smarte Verbindungen von Produktdesign, Fertigung und Betrieb verfügen, denn erst die Abbildung der vollständigen realen Welt erlaubt auch eine entsprechende Simulation aller relevanten Umstände. Das heißt, ein Digitaler Zwilling muss vom virtuellen Design und Prototyping über Simulation und Tests bis hin zur Automatisierung von Fabrikprozessen und der Wartung des Endprodukts alles unterstützen. Basis für einen solchen „umfassenden“ Digitalen Zwilling ist ein fortlaufendes Feedback, bei der reale Betriebsdaten über die gesamte Produktlebensdauer hinweg erfasst und ausgewertet werden. So entsteht ein geschlossenes System, das kontinuierliche Verbesserungen am Produkt und an den Prozessen ermöglicht. „Closed-Loop-Optimierung“ nennt sich das und ist laut einer Analyse der Harvard Business Review ein wichtiger Teil moderner Fertigungsdigitalisierung, weil sie dadurch nicht nur schneller, sondern auch effizienter und nachhaltiger wird. Siemens: Umfassender Digitaler Zwilling Leider aber unterstützen nicht alle Plattformen derartig umfassende Closed-Loop-Zwillinge. Siemens bietet eine solche von Branchenanalysten und Kunden anerkannte Lösung zum Aufbau und dem Betrieb von umfassenden Closed-Loop-Zwillingen für nahezu alle Branchen an. Deren Plattform deckt das gesamte Spektrum des Produktlebenszyklus ab. Dazu gehören domänenübergreifende Modelle und Daten sowie digitale Verknüpfungen, die vom mechanischen und elektrischen Design über Halbleiter und andere Systemkomponenten bis hin zur Software, den Stücklisten und den Prozesslisten reichen. Dieser ganzheitliche Ansatz erlaubt es, die exakte physische Form, alle Funktionen und das Verhalten des Produktes sowie deren Konfigurationen exakt nachzubilden und kontinuierlich zu verbessern. Einen hohen Stellenwert nimmt hierbei auch die offene digitale Business Plattform Siemens Xcelerator ein. Dieser Marktplatz bietet erprobte Software und Technologien von verschiedenen Siemens-Partnern an, was vor allem dann wichtig ist, wenn branchenspezifische Funktionen erforderlich sind. Verbesserungen im zweistelligen Bereich Nicht nur Kunden und Partner profitieren von den vertrauenswürdigen, zuverlässigen und innovativen Siemens-Lösungen, sondern auch Siemens selbst. Beispielsweise wird im Siemens-Elektronikwerk Erlangen ein Digitaler Zwilling zur kontinuierlichen Optimierung der Produktion genutzt. Das hat zu einer drastischen Verkürzung der Inbetriebnahme und zu deutlich weniger Ausschusses geführt. Gleichzeitig kann früher mit der Schulung des späteren Bedienungspersonals begonnen werden. Laut einer Fallstudie von Manufacturing Technology Insights erzielte die Implementierung eines umfassenden Digitalen Zwillings in Erlangen eine 30-prozentige Verkürzung der Inbetriebnahme und eine 25-prozentige Verbesserung der Gesamt-Anlagen Effektivität (GAE). Diese Ergebnisse übertreffen die branchenüblichen Verbesserungen von 12 bis 15 Prozent, die beim Einsatz von nicht umfassenden Digitalen Zwillingen erreicht werden, deutlich. Fazit Digitale Zwillinge, die nur Design und Konstruktion unterstützen, reichen bei weitem nicht mehr aus. Gefordert sind heute umfassende Closed-Loop-Zwillinge, bei denen alle relevanten Daten über den gesamten Produkt- und Prozesslebenszyklus hinweg erfasst und ausgewertet werden. So entsteht kontinuierlich eine präzise virtuelle Abbildung der Produkt- oder Prozesskonfigurationen mit der nicht nur das Produkt, sondern auch die Produktion und die Nachbetreuung simuliert und optimieren werden kann. Siemens bietet im Rahmen seiner breiten Palette an Software, Automatisierungslösungen und Services eine führende Plattform für Closed-Loop-Zwillinge an, was in unabhängigen Studien und Kundenimplementierungen bestätigt wurde. Dieser Ansatz ist auch die Grundlage für weitere Maßnahmen der industriellen Transformationen, beispielsweise mittels KI oder Metaverse. Mehr über Digitale Zwillinge Autor: Klaus Löckel, CEO DACH, Siemens Digital Industries Software 

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​ Der maximale Nutzen eines Digitalen Zwillings ergibt sich erst dann, wenn er nicht nur in der Produktentwicklung, sondern auch in der Produktion, der Logistik und der Wartung zum Einsatz kommt. (Foto Siemens)
„Shutterstock.com – Rechteinhaber“

Wer neue Produkte schneller auf den Markt bringen kann, genießt deutliche Konkurrenzvorteile. Digitale Zwillinge beschleunigen die Produktentwicklung und haben sich deshalb in diesem Bereich auf breiter Front durchgesetzt. Bei einem Digitalen Zwilling handelt es sich um eine virtuelle Darstellung oder um ein digitales Gegenstück von einem physischen Objekt, System oder Prozess. Er entsteht unter Verwendung von bekannten Daten, Simulationen und Modellrechnungen. Ziel ist es, das Verhalten, die Eigenschaften und die Leistungsdaten des physischen Gegenstücks weitestgehend zu simulieren. Das unterstützt dann vor allem das Design und die Entwicklung, da man an dem virtuellen Prototyp die Einhaltung aller Konstruktionsvorgaben leicht überprüfen kann. Das heißt, Digitale Zwillinge machen physische Prototypen weitgehend überflüssig, verkürzen damit die Entwicklungszeit und verbessern die Qualität, indem sie Multiphysik-Simulation, Datenanalyse und maschinelles Lernen kombinieren.

Ziel: Closed-Loop-Optimierung

Diese Möglichkeiten sollten sich aber nicht nur auf die Konstruktionsphase beschränkten, sondern auch auf die Zeit danach, wenn das Produkt gefertigt, verkauft und gewartet wird. Hierzu muss der Digitale Zwilling über smarte Verbindungen von Produktdesign, Fertigung und Betrieb verfügen, denn erst die Abbildung der vollständigen realen Welt erlaubt auch eine entsprechende Simulation aller relevanten Umstände. Das heißt, ein Digitaler Zwilling muss vom virtuellen Design und Prototyping über Simulation und Tests bis hin zur Automatisierung von Fabrikprozessen und der Wartung des Endprodukts alles unterstützen. Basis für einen solchen „umfassenden“ Digitalen Zwilling ist ein fortlaufendes Feedback, bei der reale Betriebsdaten über die gesamte Produktlebensdauer hinweg erfasst und ausgewertet werden. So entsteht ein geschlossenes System, das kontinuierliche Verbesserungen am Produkt und an den Prozessen ermöglicht. „Closed-Loop-Optimierung“ nennt sich das und ist laut einer Analyse der Harvard Business Review ein wichtiger Teil moderner Fertigungsdigitalisierung, weil sie dadurch nicht nur schneller, sondern auch effizienter und nachhaltiger wird.

Siemens: Umfassender Digitaler Zwilling

Leider aber unterstützen nicht alle Plattformen derartig umfassende Closed-Loop-Zwillinge. Siemens bietet eine solche von Branchenanalysten und Kunden anerkannte Lösung zum Aufbau und dem Betrieb von umfassenden Closed-Loop-Zwillingen für nahezu alle Branchen an. Deren Plattform deckt das gesamte Spektrum des Produktlebenszyklus ab. Dazu gehören domänenübergreifende Modelle und Daten sowie digitale Verknüpfungen, die vom mechanischen und elektrischen Design über Halbleiter und andere Systemkomponenten bis hin zur Software, den Stücklisten und den Prozesslisten reichen. Dieser ganzheitliche Ansatz erlaubt es, die exakte physische Form, alle Funktionen und das Verhalten des Produktes sowie deren Konfigurationen exakt nachzubilden und kontinuierlich zu verbessern. Einen hohen Stellenwert nimmt hierbei auch die offene digitale Business Plattform Siemens Xcelerator ein. Dieser Marktplatz bietet erprobte Software und Technologien von verschiedenen Siemens-Partnern an, was vor allem dann wichtig ist, wenn branchenspezifische Funktionen erforderlich sind.

Verbesserungen im zweistelligen Bereich

Nicht nur Kunden und Partner profitieren von den vertrauenswürdigen, zuverlässigen und innovativen Siemens-Lösungen, sondern auch Siemens selbst. Beispielsweise wird im Siemens-Elektronikwerk Erlangen ein Digitaler Zwilling zur kontinuierlichen Optimierung der Produktion genutzt. Das hat zu einer drastischen Verkürzung der Inbetriebnahme und zu deutlich weniger Ausschusses geführt. Gleichzeitig kann früher mit der Schulung des späteren Bedienungspersonals begonnen werden. Laut einer Fallstudie von Manufacturing Technology Insights erzielte die Implementierung eines umfassenden Digitalen Zwillings in Erlangen eine 30-prozentige Verkürzung der Inbetriebnahme und eine 25-prozentige Verbesserung der Gesamt-Anlagen Effektivität (GAE). Diese Ergebnisse übertreffen die branchenüblichen Verbesserungen von 12 bis 15 Prozent, die beim Einsatz von nicht umfassenden Digitalen Zwillingen erreicht werden, deutlich.

Fazit

Digitale Zwillinge, die nur Design und Konstruktion unterstützen, reichen bei weitem nicht mehr aus. Gefordert sind heute umfassende Closed-Loop-Zwillinge, bei denen alle relevanten Daten über den gesamten Produkt- und Prozesslebenszyklus hinweg erfasst und ausgewertet werden. So entsteht kontinuierlich eine präzise virtuelle Abbildung der Produkt- oder Prozesskonfigurationen mit der nicht nur das Produkt, sondern auch die Produktion und die Nachbetreuung simuliert und optimieren werden kann. Siemens bietet im Rahmen seiner breiten Palette an Software, Automatisierungslösungen und Services eine führende Plattform für Closed-Loop-Zwillinge an, was in unabhängigen Studien und Kundenimplementierungen bestätigt wurde. Dieser Ansatz ist auch die Grundlage für weitere Maßnahmen der industriellen Transformationen, beispielsweise mittels KI oder Metaverse.

Mehr über Digitale Zwillinge

Autor: Klaus Löckel, CEO DACH, Siemens Digital Industries Software

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​ Weiterlesen »

Daran scheitert Low-Code​

Allgemein

Guter Low-Code-Start, jähes Ende? hmorena | shutterstock.com Die potenziellen Vorteile, die sich mit Low-Code- und No-Code-Tools erschließen lassen, sind hinlänglich bekannt. Allerdings eignen sich diese Tools nicht für jedes Business-Szenario. Im schlimmsten Fall können sie der Produktivität sogar abträglich sein.    Damit Ihnen das erspart bleibt, haben wir Experten und Entscheider zu den häufigsten Gründen befragt, die sich hinter erfolglosen Low-Code- und No-Code-Initiativen verbergen. 1. Überraschende Flexibilitätsverluste Der wesentliche Use Case für Low-Code- und No-Code-Tools ist es, Nicht-Entwicklern zu ermöglichen, Software zu erstellen. Das kann einerseits den Developer-Pool vergrößern, andererseits auch finanzielle Vorteile bringen. Allerdings sollten sich Anwender der damit einhergehenden Flexibilitätsverluste bewusst sein, wie Clayton Davis, Senior Director beim Cloud Service Provider Caylent, mahnend hervorhebt: „Die vorgefertigten Templates und Komponenten, die solche Plattformen zur Verfügung stellen, lassen oft den nötigen Tiefgang und die Flexibilität vermissen. Diese wären aber nötig, um wirklich maßgeschneiderte, zweckorientierte Lösungen zu entwickeln, die bei den Endbenutzern gut ankommen.“ So reichten Low-Code- und No-Code Tools nach Einschätzung des Managers zwar für interne Lösungen und einfache Tasks aus. Die Anforderungen für an Kunden gerichtete Applikationen, bei denen die User Experience erfolgskritisch ist, könnten die Plattformen jedoch nicht erfüllen. Arsalan Zafar, Mitbegründer und CTO des Videospezialisten Deep Render, weist zudem darauf hin, dass auch erfahrene Entwickler durch die Technologie eingeschränkt werden können. Sein Gegenmittel: „Developer, die die Kontrolle über die Anwendungsarchitektur behalten wollen, brauchen erweiterbare Low-Code- und No-Code-Tools. Diese erlauben es, benutzerdefinierte Funktionen zu integrieren.“ 2. Simplifizierungs-Overkill Eine damit zusammenhängende Herausforderung liegt laut Zafar in der ausgeprägten Simplifizierung, mit denen Low-Code- und No-Code-Tools Geschäftsanwendern ermöglichen, Anwendungen zu erstellen. Das kann dazu führen, dass bestimmte Problemnuancen unter den Tisch fallen, wie der CTO mit Blick auf die eigenen Erfahrungswerte festhält: „Wir haben in unserem Unternehmen eine Anwendung entwickelt, um Videocodecs miteinander zu vergleichen. Dabei ermöglichte uns eine No-Code-Plattform besonders schnell einen Prototypen sowie eine Basisversion der Applikation zu erstellen.“ Im weiteren Verlauf der Entwicklungsarbeit sei das Deep-Render-Team jedoch auf nachhaltige Hürden gestoßen, wie Zafar preisgibt: „Als es darum ging, benutzerdefinierte Funktionen zu integrieren, um unser Produkt von der Konkurrenz abzuheben, wurden die Grenzen der Technologie immer deutlicher. Fortschrittlichere Funktionen wie mehrschichtige Videovergleichsmetriken oder KI-gesteuerte Optimierungen zu integrieren, ist so zu einem mühsamen und zeitaufwändigen Prozess ausgeartet.“ 3. Skalierungsbeschwerden Das führt uns zum nächsten gängigen Problem, an dem Low-Code- und No-Code-Initiativen kranken. Kushank Aggarwal, Software Engineer und Gründer der KI-Plattform DigitalSamaritan, bringt dieses auf den Punkt: „Low-Code- und No-Code-Plattformen sind absolut erstaunlich, wenn es darum geht, Prototypen zu bauen oder MVPs zu testen. Soll das Ergebnis dann jedoch skaliert werden, ist es mit der Begeisterung vorbei.“ Auch Aggarwals Einschätzung beruht auf persönlichen Erfahrungen, wie er darlegt: „Wir hatten eine Idee für ein KI-Tool und konnten diese mit einem No-Code-Ansatz in nur vier Tagen umsetzen. Als das Produkt marktreif war, stießen wir jedoch bei der Skalierung auf erhebliche Schwierigkeiten.“ Denn die gewählte Plattform, so der Gründer, sei nicht auf eine weiter wachsende User-Basis ausgelegt gewesen. Letztlich habe das dazu geführt, dass die Applikation komplett neu erstellt und sämtliche Benutzer migriert werden mussten. Der Manager warnt deshalb: „Evaluieren Sie, ob die Plattform Ihrer Wahl langfristig tragfähig ist, bevor sie sie in geschäftskritischen Systemen einsetzen“. 4. Unzuverlässige LLMs Large Language Models (LLMs) sind heutzutage fast schon allgegenwärtig – und treiben in vielen Fällen auch die Entwicklung mit Low-Code- und No-Code-Tools an. Das kann Unternehmen allerdings unter Umständen teuer zu stehen kommen, wie Devansh Agarwal, Senior Machine Learning Engineer bei Amazon Web Services (AWS), erklärt: „LLMs sind wirklich gut darin, auf Basis von Wahrscheinlichkeiten vorherzusagen, welches Wort oder Token als nächstes folgen wird. Aber die Anforderungen an Softwareprodukte sind äußerst komplex und entwickeln sich beständig weiter. Damit ein LLM ordentlichen Output generiert, müssen deshalb diverse Prompts getestet werden. Und das kann teuer werden.“ Einem LLM einfach Produktanforderungen zu übergeben und zu erwarten, dass daraus eine zufriedenstellende Lösung entsteht, funktioniere nicht, so der AWS-Experte: „Vielleicht haben Sie ChatGPT schon einmal Code schreiben lassen und es nach einem Fehler gebeten, diesen zu korrigieren. Wahrscheinlich wurden Sie anschließend von einer völlig neuen Lösung überrascht. Jetzt stellen Sie sich das Chaos vor, das entsteht, wenn die KI Software auf der Grundlage veränderter Produktanforderungen erstellen soll.“ 5. Sicherheitsrisiken Jon Kennedy, CIO beim Projektmanagement-Spezialisten Quickbase, hat hingegen völlig andere Low-Code- und No-Code-Bauchschmerzen: „Leider sind nicht alle Plattformen dieser Art mit einem Framework ausgestattet, das Security und Governance unterstützt. Damit sind diese nicht dazu geeignet, in stark regulierten Branchen wie dem Gesundheitswesen eingesetzt zu werden.“ AWS-ML-Experte Agarwal weist auf weitere, mögliche Risiken beim Einsatz von Low-Code- und No-Code-Technologien hin: „Wenn viele Webseiten mit einem No-Code-Tool erstellt werden und auch nur eine kleine Sicherheitslücke im Code enthalten ist, sind sämtliche Seiten und möglicherweise Millionen von Nutzern gefährdet. Wenn die Menschen, die die Tools bedienen, noch dazu nicht wissen, dass diese Risiken bestehen – oder wie sie zu beheben sind – kann das drastische Folgen haben.“ Um solche Szenarien von vorneherein zu verhindern, gibt es laut dem Dev-Experten jedoch eine Best Practice: „Betrachten Sie die Tools ausschließlich als Hilfsmittel und sorgen Sie dafür, dass ein menschlicher Experte am Steuer bleibt: Sie sollten mindestens einen davon in ihrem Team haben, der alles überprüfen kann, was mit der Technologie erstellt wird.“ 6. Vendor Lock-In Nicht wenige Low-Code- und No-Code-Plattformen funktionieren als geschlossene Ökosysteme. Das kann es nach Einschätzung von KI-Gründer Aggarwal erschweren, den Anbieter zu wechseln: „Diese Art der Abhängigkeit kann zu höheren Kosten und eingeschränkter Flexibilität führen. Zudem besteht immer das Risiko, dass ein Anbieter eine für sie erfolgskritische Funktion abschaltet.“ Das kann Siri Varma Vegiraju, Security Tech Lead bei Microsoft, bestätigen: „Eine Low-Code- oder No-Code-Plattform wechseln zu müssen, ist ein Albtraum, weil es bedeutet, alles von Grund auf neu aufbauen zu müssen. Das erfordert wiederum, die neue Plattform auch vollständig zu verstehen.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Daran scheitert Low-Code​ Guter Low-Code-Start, jähes Ende? hmorena | shutterstock.com

Die potenziellen Vorteile, die sich mit Low-Code- und No-Code-Tools erschließen lassen, sind hinlänglich bekannt. Allerdings eignen sich diese Tools nicht für jedes Business-Szenario. Im schlimmsten Fall können sie der Produktivität sogar abträglich sein.   

Damit Ihnen das erspart bleibt, haben wir Experten und Entscheider zu den häufigsten Gründen befragt, die sich hinter erfolglosen Low-Code- und No-Code-Initiativen verbergen.

1. Überraschende Flexibilitätsverluste

Der wesentliche Use Case für Low-Code- und No-Code-Tools ist es, Nicht-Entwicklern zu ermöglichen, Software zu erstellen. Das kann einerseits den Developer-Pool vergrößern, andererseits auch finanzielle Vorteile bringen. Allerdings sollten sich Anwender der damit einhergehenden Flexibilitätsverluste bewusst sein, wie Clayton Davis, Senior Director beim Cloud Service Provider Caylent, mahnend hervorhebt: „Die vorgefertigten Templates und Komponenten, die solche Plattformen zur Verfügung stellen, lassen oft den nötigen Tiefgang und die Flexibilität vermissen. Diese wären aber nötig, um wirklich maßgeschneiderte, zweckorientierte Lösungen zu entwickeln, die bei den Endbenutzern gut ankommen.“

So reichten Low-Code- und No-Code Tools nach Einschätzung des Managers zwar für interne Lösungen und einfache Tasks aus. Die Anforderungen für an Kunden gerichtete Applikationen, bei denen die User Experience erfolgskritisch ist, könnten die Plattformen jedoch nicht erfüllen.

Arsalan Zafar, Mitbegründer und CTO des Videospezialisten Deep Render, weist zudem darauf hin, dass auch erfahrene Entwickler durch die Technologie eingeschränkt werden können. Sein Gegenmittel: „Developer, die die Kontrolle über die Anwendungsarchitektur behalten wollen, brauchen erweiterbare Low-Code- und No-Code-Tools. Diese erlauben es, benutzerdefinierte Funktionen zu integrieren.“

2. Simplifizierungs-Overkill

Eine damit zusammenhängende Herausforderung liegt laut Zafar in der ausgeprägten Simplifizierung, mit denen Low-Code- und No-Code-Tools Geschäftsanwendern ermöglichen, Anwendungen zu erstellen. Das kann dazu führen, dass bestimmte Problemnuancen unter den Tisch fallen, wie der CTO mit Blick auf die eigenen Erfahrungswerte festhält: „Wir haben in unserem Unternehmen eine Anwendung entwickelt, um Videocodecs miteinander zu vergleichen. Dabei ermöglichte uns eine No-Code-Plattform besonders schnell einen Prototypen sowie eine Basisversion der Applikation zu erstellen.“

Im weiteren Verlauf der Entwicklungsarbeit sei das Deep-Render-Team jedoch auf nachhaltige Hürden gestoßen, wie Zafar preisgibt: „Als es darum ging, benutzerdefinierte Funktionen zu integrieren, um unser Produkt von der Konkurrenz abzuheben, wurden die Grenzen der Technologie immer deutlicher. Fortschrittlichere Funktionen wie mehrschichtige Videovergleichsmetriken oder KI-gesteuerte Optimierungen zu integrieren, ist so zu einem mühsamen und zeitaufwändigen Prozess ausgeartet.“

3. Skalierungsbeschwerden

Das führt uns zum nächsten gängigen Problem, an dem Low-Code- und No-Code-Initiativen kranken. Kushank Aggarwal, Software Engineer und Gründer der KI-Plattform DigitalSamaritan, bringt dieses auf den Punkt: „Low-Code- und No-Code-Plattformen sind absolut erstaunlich, wenn es darum geht, Prototypen zu bauen oder MVPs zu testen. Soll das Ergebnis dann jedoch skaliert werden, ist es mit der Begeisterung vorbei.“

Auch Aggarwals Einschätzung beruht auf persönlichen Erfahrungen, wie er darlegt: „Wir hatten eine Idee für ein KI-Tool und konnten diese mit einem No-Code-Ansatz in nur vier Tagen umsetzen. Als das Produkt marktreif war, stießen wir jedoch bei der Skalierung auf erhebliche Schwierigkeiten.“

Denn die gewählte Plattform, so der Gründer, sei nicht auf eine weiter wachsende User-Basis ausgelegt gewesen. Letztlich habe das dazu geführt, dass die Applikation komplett neu erstellt und sämtliche Benutzer migriert werden mussten. Der Manager warnt deshalb: „Evaluieren Sie, ob die Plattform Ihrer Wahl langfristig tragfähig ist, bevor sie sie in geschäftskritischen Systemen einsetzen“.

4. Unzuverlässige LLMs

Large Language Models (LLMs) sind heutzutage fast schon allgegenwärtig – und treiben in vielen Fällen auch die Entwicklung mit Low-Code- und No-Code-Tools an.

Das kann Unternehmen allerdings unter Umständen teuer zu stehen kommen, wie Devansh Agarwal, Senior Machine Learning Engineer bei Amazon Web Services (AWS), erklärt: „LLMs sind wirklich gut darin, auf Basis von Wahrscheinlichkeiten vorherzusagen, welches Wort oder Token als nächstes folgen wird. Aber die Anforderungen an Softwareprodukte sind äußerst komplex und entwickeln sich beständig weiter. Damit ein LLM ordentlichen Output generiert, müssen deshalb diverse Prompts getestet werden. Und das kann teuer werden.“

Einem LLM einfach Produktanforderungen zu übergeben und zu erwarten, dass daraus eine zufriedenstellende Lösung entsteht, funktioniere nicht, so der AWS-Experte: „Vielleicht haben Sie ChatGPT schon einmal Code schreiben lassen und es nach einem Fehler gebeten, diesen zu korrigieren. Wahrscheinlich wurden Sie anschließend von einer völlig neuen Lösung überrascht. Jetzt stellen Sie sich das Chaos vor, das entsteht, wenn die KI Software auf der Grundlage veränderter Produktanforderungen erstellen soll.“

5. Sicherheitsrisiken

Jon Kennedy, CIO beim Projektmanagement-Spezialisten Quickbase, hat hingegen völlig andere Low-Code- und No-Code-Bauchschmerzen: „Leider sind nicht alle Plattformen dieser Art mit einem Framework ausgestattet, das Security und Governance unterstützt. Damit sind diese nicht dazu geeignet, in stark regulierten Branchen wie dem Gesundheitswesen eingesetzt zu werden.“

AWS-ML-Experte Agarwal weist auf weitere, mögliche Risiken beim Einsatz von Low-Code- und No-Code-Technologien hin: „Wenn viele Webseiten mit einem No-Code-Tool erstellt werden und auch nur eine kleine Sicherheitslücke im Code enthalten ist, sind sämtliche Seiten und möglicherweise Millionen von Nutzern gefährdet. Wenn die Menschen, die die Tools bedienen, noch dazu nicht wissen, dass diese Risiken bestehen – oder wie sie zu beheben sind – kann das drastische Folgen haben.“

Um solche Szenarien von vorneherein zu verhindern, gibt es laut dem Dev-Experten jedoch eine Best Practice: „Betrachten Sie die Tools ausschließlich als Hilfsmittel und sorgen Sie dafür, dass ein menschlicher Experte am Steuer bleibt: Sie sollten mindestens einen davon in ihrem Team haben, der alles überprüfen kann, was mit der Technologie erstellt wird.“

6. Vendor Lock-In

Nicht wenige Low-Code- und No-Code-Plattformen funktionieren als geschlossene Ökosysteme. Das kann es nach Einschätzung von KI-Gründer Aggarwal erschweren, den Anbieter zu wechseln: „Diese Art der Abhängigkeit kann zu höheren Kosten und eingeschränkter Flexibilität führen. Zudem besteht immer das Risiko, dass ein Anbieter eine für sie erfolgskritische Funktion abschaltet.“

Das kann Siri Varma Vegiraju, Security Tech Lead bei Microsoft, bestätigen: „Eine Low-Code- oder No-Code-Plattform wechseln zu müssen, ist ein Albtraum, weil es bedeutet, alles von Grund auf neu aufbauen zu müssen. Das erfordert wiederum, die neue Plattform auch vollständig zu verstehen.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Daran scheitert Low-Code​ Weiterlesen »

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​

Allgemein

Wiederholen Sie mit Blick auf das LLM Deployment möglichst nicht die Fehler der frühen Cloud-Computing-Ära. Foto: C. Fish Images | shutterstock.com Im Zuge der weiter rollenden Generative-AI-Welle setzen diverse Unternehmen Large Language Models (LLMs) auf Cloud-Plattformen ein. Dieser Weg wird in erster Linie gewählt, weil ein Public-Cloud-Ökosystem bereits existiert und das den Weg des geringsten Widerstands darstellt. Ihn zu beschreiten, ist dafür in der Regel nicht günstig. Weil sich einige Firmen dabei blindlings in den Hype stürzen, kommt es jedoch immer öfter zu folgenreichen Fehlern. Insbesondere mit Blick auf den Deployment-Prozess großer Sprachmodelle in Public-Cloud-Umgebungen entscheiden einige Aspekte über Erfolg oder Misserfolg, die bislang wenig Beachtung finden. 1. Kosteneffizienz und Skalierbarkeit Ein wesentlicher Beweggrund, LLMs über Cloud-Plattformen bereitzustellen, besteht darin, die Ressourcen nach Bedarf skalieren zu können. Das macht eine Kapazitätsplanung überflüssig – Cloud-Ressourcen lassen sich per Mausklick, respektive automatisiert allokieren. Effektiv Kosten zu managen und parallel zu skalieren, ist jedoch kein Standard-Skill und erfordert in den meisten Fällen eine Hilfestellung. Je mehr Cloud Services sie nutzen, desto mehr bezahlen sie. Das ist angesichts der höheren Grund- und Stromkosten, die für den Einsatz von GPUs anfallen, ein zentrales Problem, wenn es um große Sprachmodelle geht, die bei Public-Cloud-Anbietern laufen. Tipp: Nutzen Sie Kostenmanagement-Tools. Und zwar sowohl diejenigen, die die Cloud-Anbieter zur Verfügung stellen, als auch solide Lösungen von Drittanbietern im Bereich Cost Governance und -Monitoring. Beispiele hierfür wären etwa: Auto-Scaling und -Scheduling zu implementieren, geeignete Instanztypen zu wählen oder Preemptible-Instanzen zu nutzen, um Kosten zu optimieren. Zudem empfiehlt es sich, Deployments kontinuierlich zu überwachen, um den Ressourcenverbrauch an die Nutzung anzuspassen – und nicht einfach den Forecast Load zu nutzen. Im Klartext: Vermeiden Sie Overprovisioning um jeden Preis. 2. Datenschutz in Multitenant-Umgebungen Large Language Models bereitzustellen, bedeutet auch, große Datenmengen zu verarbeiten, die sensible oder proprietäre Daten beinhalten können. Wenn dabei eine Public Cloud zum Einsatz kommt, besteht ein grundsätzliches Risiko, weil es “Nachbarn” in Form von verarbeitenden Instanzen gibt. Das kann dazu führen, dass virtuelle Maschinen, die auf derselben physischen Hardware operieren, auf die Daten zugreifen. Wenn Sie Public-Cloud-Anbieter auf dieses Problem ansprechen, werden diese es eher kleinreden – womit sie auch ein bisschen Recht haben, schließlich ist die Wahrscheinlichkeit verschwindend gering. Aber es ist nun mal ein Fakt, dass allen mandantenfähigen Systemen dieses Risiko anhaftet. Tipp: Um es möglichst zu minimieren, sollten Sie einen Cloud-Anbieter auswählen, der nachweislich strengen Sicherheitsstandards genügt. Das signalisieren beispielweise: Daten, die sowohl im Ruhezustand als auch während der Übertragung verschlüsselt werden, Identity and Access Management und Isolationsrichtlinien. Eine noch bessere Idee wäre es allerdings, Ihre eigene Security-Strategie und Ihren eigenen Technologie-Stack zu implementieren. 3. Stateful Model Deployment Große Sprachmodelle sind meistens “stateful” – behalten also Informationen von einer Interaktion zur nächsten. Das bringt den Vorteil, die Effizienz in Continuous-Learning-Szenarien steigern zu können. Diese LLM-“Statefulness” in Cloud-Umgebungen zu managen, wo Instanzen ephemer oder “stateless by design” sein können, ist diffizil. Tipp: Hilfreich sind an dieser Stelle vor allem Orchestrierungs-Tools, die Stateful Deployments unterstützen – beispielsweise Kubernetes. Sie ermöglichen persistente Storage-Optionen für die LLMs und können so konfiguriert werden, dass deren State Session-übergreifend bewahrt wird. Um die Continuity und die Performance der großen Sprachmodelle zu gewährleisten, ist das essenziell. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​ Wiederholen Sie mit Blick auf das LLM Deployment möglichst nicht die Fehler der frühen Cloud-Computing-Ära.
Foto: C. Fish Images | shutterstock.com

Im Zuge der weiter rollenden Generative-AI-Welle setzen diverse Unternehmen Large Language Models (LLMs) auf Cloud-Plattformen ein. Dieser Weg wird in erster Linie gewählt, weil ein Public-Cloud-Ökosystem bereits existiert und das den Weg des geringsten Widerstands darstellt. Ihn zu beschreiten, ist dafür in der Regel nicht günstig.

Weil sich einige Firmen dabei blindlings in den Hype stürzen, kommt es jedoch immer öfter zu folgenreichen Fehlern. Insbesondere mit Blick auf den Deployment-Prozess großer Sprachmodelle in Public-Cloud-Umgebungen entscheiden einige Aspekte über Erfolg oder Misserfolg, die bislang wenig Beachtung finden.

1. Kosteneffizienz und Skalierbarkeit

Ein wesentlicher Beweggrund, LLMs über Cloud-Plattformen bereitzustellen, besteht darin, die Ressourcen nach Bedarf skalieren zu können. Das macht eine Kapazitätsplanung überflüssig – Cloud-Ressourcen lassen sich per Mausklick, respektive automatisiert allokieren.

Effektiv Kosten zu managen und parallel zu skalieren, ist jedoch kein Standard-Skill und erfordert in den meisten Fällen eine Hilfestellung. Je mehr Cloud Services sie nutzen, desto mehr bezahlen sie. Das ist angesichts der höheren Grund- und Stromkosten, die für den Einsatz von GPUs anfallen, ein zentrales Problem, wenn es um große Sprachmodelle geht, die bei Public-Cloud-Anbietern laufen.

Tipp: Nutzen Sie Kostenmanagement-Tools. Und zwar sowohl diejenigen, die die Cloud-Anbieter zur Verfügung stellen, als auch solide Lösungen von Drittanbietern im Bereich Cost Governance und -Monitoring. Beispiele hierfür wären etwa:

Auto-Scaling und -Scheduling zu implementieren,

geeignete Instanztypen zu wählen oder

Preemptible-Instanzen zu nutzen, um Kosten zu optimieren.

Zudem empfiehlt es sich, Deployments kontinuierlich zu überwachen, um den Ressourcenverbrauch an die Nutzung anzuspassen – und nicht einfach den Forecast Load zu nutzen. Im Klartext: Vermeiden Sie Overprovisioning um jeden Preis.

2. Datenschutz in Multitenant-Umgebungen

Large Language Models bereitzustellen, bedeutet auch, große Datenmengen zu verarbeiten, die sensible oder proprietäre Daten beinhalten können. Wenn dabei eine Public Cloud zum Einsatz kommt, besteht ein grundsätzliches Risiko, weil es “Nachbarn” in Form von verarbeitenden Instanzen gibt. Das kann dazu führen, dass virtuelle Maschinen, die auf derselben physischen Hardware operieren, auf die Daten zugreifen.

Wenn Sie Public-Cloud-Anbieter auf dieses Problem ansprechen, werden diese es eher kleinreden – womit sie auch ein bisschen Recht haben, schließlich ist die Wahrscheinlichkeit verschwindend gering. Aber es ist nun mal ein Fakt, dass allen mandantenfähigen Systemen dieses Risiko anhaftet.

Tipp: Um es möglichst zu minimieren, sollten Sie einen Cloud-Anbieter auswählen, der nachweislich strengen Sicherheitsstandards genügt. Das signalisieren beispielweise:

Daten, die sowohl im Ruhezustand als auch während der Übertragung verschlüsselt werden,

Identity and Access Management und

Isolationsrichtlinien.

Eine noch bessere Idee wäre es allerdings, Ihre eigene Security-Strategie und Ihren eigenen Technologie-Stack zu implementieren.

3. Stateful Model Deployment

Große Sprachmodelle sind meistens “stateful” – behalten also Informationen von einer Interaktion zur nächsten. Das bringt den Vorteil, die Effizienz in Continuous-Learning-Szenarien steigern zu können. Diese LLM-“Statefulness” in Cloud-Umgebungen zu managen, wo Instanzen ephemer oder “stateless by design” sein können, ist diffizil.

Tipp: Hilfreich sind an dieser Stelle vor allem Orchestrierungs-Tools, die Stateful Deployments unterstützen – beispielsweise Kubernetes. Sie ermöglichen persistente Storage-Optionen für die LLMs und können so konfiguriert werden, dass deren State Session-übergreifend bewahrt wird. Um die Continuity und die Performance der großen Sprachmodelle zu gewährleisten, ist das essenziell. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​ Weiterlesen »

Mit KI: Schau mir in die Augen, Kleines​

Allgemein

Schau mir in die Augen, Kleines – doch im 21. Jahrhundert betört nicht mehr Humphrey Bogart, sondern die KI. spatuletail – shutterstock.com Fast ein Dreivierteljahrhundert (1952) ist es her, dass Humphrey Bogart in der ersten deutschen Fassung von Casablanca den berühmten Satz sprach: Schau mir in die Augen, Kleines. Einen Blickkontakt, aber mit Hilfe von KI, will im 21. Jahrhundert das deutsche Startup Casablanca.AI in Videocalls sicherstellen. Dazu hat die Firma jetzt eine entsprechende Enterprise-Version vorgestellt. Der Anspruch des 2020 gegründeten Unternehmens aus dem schwäbischen Pforzheim: Es will in Videokonferenzen wie Zoom oder Teams einen authentischen Blickkontakt herstellen, um so virtuelle Meetings – egal, ob beim Recruiting oder im Consulting – effizienter zu gestalten. Dahinter steckt der Gedanke, dass virtuelle Meetings mit direktem Blickkontakt, so Forschungen der Yale University und des Karlsruher Institut für Technologie (KIT), über 20 Prozent produktiver, effizienter und effektiver sind. Virtuelle Kamera mit KI Die KI-gestützte Software Casablanca soll einen authentischen Blickkontakt in Videocalls sicherstellen. Casablanca.AI Mit CEO Carsten Kraus steckt hinter dem Startup ein alter Bekannter aus der deutschen IT-Gründerszene. Er gründete bereits in den 80er Jahren mit 16 Jahren seine erste Firma. So entwickelte er eine Variante der Programmiersprache BASIC, die er an Atari verkaufte. Seine Idee hinter Casablanca.AI: Eine virtuelle Kamera auf dem Rechner, die mit KI-Unterstützung die Blicke eines Gesprächspartners so ausrichtet, dass er mit dem Gegenüber in direktem Blickkontakt steht. Wer allerdings glaubt, mit Hilfe der KI in virtuellen Meetings eine interessierte Teilnahme vorgaukeln zu können, obwohl er auf dem Handy spielt oder E-Mails liest, wird enttäuscht werden. Täuschen ist nicht Getreu dem Unternehmensmotto, „Authentic Video Calls“ zu liefern, funktioniert die Lösung nur, wenn der User tatsächlich auf seinen Bildschirm schaut. Wendet er seinen Blick ab, so ist das trotz KI auch für die anderen Teilnehmer zu sehen. Dank der Implementierung als virtuelle Kamera ist die Software laut Anbieter mit gängiger Videokonferenz-Software kompatibel. So laufe das Tool etwa unter Zoom, Teams oder Webex. Verarbeitung am Edge Stellte die Betaversion noch relativ hohe Anforderungen an die Hardware, so soll die Enterprise-Variante auf allen Windows-11-fähigen Geräten laufen – ohne zusätzliche Hardware oder Grafikkarte. Dank zentraler Verwaltung durch MSI-Pakete und MS Entra kann die IT-Abteilung die Software, so das Unternehmen, auf allen Geräten über den gesamten Lebenszyklus zentral administrieren. Um den Datenschutz zu gewährleisten, arbeitet das Tool, wie es heißt, ausschließlich “on-edge” auf dem lokalen Rechner. Eine Übertragung der Videostreams an die Casablanca-Server finde nicht statt. Angaben zu den Kosten für die Enterprise-Version macht das Unternehmen auf seiner Webseite nicht. Für die Pro-Version berechnen die Pforzheimer monatlich sieben Euro zuzüglich Mehrwertsteuer.   

Mit KI: Schau mir in die Augen, Kleines​ Schau mir in die Augen, Kleines – doch im 21. Jahrhundert betört nicht mehr Humphrey Bogart, sondern die KI.
spatuletail – shutterstock.com

Fast ein Dreivierteljahrhundert (1952) ist es her, dass Humphrey Bogart in der ersten deutschen Fassung von Casablanca den berühmten Satz sprach: Schau mir in die Augen, Kleines. Einen Blickkontakt, aber mit Hilfe von KI, will im 21. Jahrhundert das deutsche Startup Casablanca.AI in Videocalls sicherstellen. Dazu hat die Firma jetzt eine entsprechende Enterprise-Version vorgestellt.

Der Anspruch des 2020 gegründeten Unternehmens aus dem schwäbischen Pforzheim: Es will in Videokonferenzen wie Zoom oder Teams einen authentischen Blickkontakt herstellen, um so virtuelle Meetings – egal, ob beim Recruiting oder im Consulting – effizienter zu gestalten. Dahinter steckt der Gedanke, dass virtuelle Meetings mit direktem Blickkontakt, so Forschungen der Yale University und des Karlsruher Institut für Technologie (KIT), über 20 Prozent produktiver, effizienter und effektiver sind.

Virtuelle Kamera mit KI

Die KI-gestützte Software Casablanca soll einen authentischen Blickkontakt in Videocalls sicherstellen.
Casablanca.AI

Mit CEO Carsten Kraus steckt hinter dem Startup ein alter Bekannter aus der deutschen IT-Gründerszene. Er gründete bereits in den 80er Jahren mit 16 Jahren seine erste Firma. So entwickelte er eine Variante der Programmiersprache BASIC, die er an Atari verkaufte.

Seine Idee hinter Casablanca.AI: Eine virtuelle Kamera auf dem Rechner, die mit KI-Unterstützung die Blicke eines Gesprächspartners so ausrichtet, dass er mit dem Gegenüber in direktem Blickkontakt steht. Wer allerdings glaubt, mit Hilfe der KI in virtuellen Meetings eine interessierte Teilnahme vorgaukeln zu können, obwohl er auf dem Handy spielt oder E-Mails liest, wird enttäuscht werden.

Täuschen ist nicht

Getreu dem Unternehmensmotto, „Authentic Video Calls“ zu liefern, funktioniert die Lösung nur, wenn der User tatsächlich auf seinen Bildschirm schaut. Wendet er seinen Blick ab, so ist das trotz KI auch für die anderen Teilnehmer zu sehen.

Dank der Implementierung als virtuelle Kamera ist die Software laut Anbieter mit gängiger Videokonferenz-Software kompatibel. So laufe das Tool etwa unter Zoom, Teams oder Webex.

Verarbeitung am Edge

Stellte die Betaversion noch relativ hohe Anforderungen an die Hardware, so soll die Enterprise-Variante auf allen Windows-11-fähigen Geräten laufen – ohne zusätzliche Hardware oder Grafikkarte.

Dank zentraler Verwaltung durch MSI-Pakete und MS Entra kann die IT-Abteilung die Software, so das Unternehmen, auf allen Geräten über den gesamten Lebenszyklus zentral administrieren. Um den Datenschutz zu gewährleisten, arbeitet das Tool, wie es heißt, ausschließlich “on-edge” auf dem lokalen Rechner. Eine Übertragung der Videostreams an die Casablanca-Server finde nicht statt.

Angaben zu den Kosten für die Enterprise-Version macht das Unternehmen auf seiner Webseite nicht. Für die Pro-Version berechnen die Pforzheimer monatlich sieben Euro zuzüglich Mehrwertsteuer.

 

Mit KI: Schau mir in die Augen, Kleines​ Weiterlesen »

Robot-Cop patrouilliert jetzt auch in Thailand​

Allgemein

Werden Straßen bald von Robo-Polizisten patrouilliert? In Asien geht der Trend immer stärker in diese Richtung. ProStockStudio – shutterstock.com KI-gestützte Roboter können immer mehr, sei es winken, laufen oder Gesichter analysieren. Diesen Fortschritt machte sich die Polizei in Thailand zunutze und setzte den „KI Cyborg 1.0“ während des Songkran-Festivals in der Provinz Nakhon Pathom ein, um die öffentliche Sicherheit zu erhöhen. Gesichtserkennung zur Identifikation gesuchter Personen Entwickelt wurde er von lokalen Polizeibehörden und ist mit moderner Überwachungs- sowie Bedrohungserkennungstechnologie ausgestattet. Der Roboter verarbeitet in Echtzeit Daten aus Drohnen und Videoüberwachungsnetzwerken. Eine schnelle Reaktionskoordination wird durch die in den Roboter eingebauten intelligenten 360-Grad-Kameras ermöglicht. Diese sind sofort mit dem Kommando- und Kontrollzentrum der Provinz verbunden und werden von einer Videoanalysesoftware unterstützt, wie das Nachrichtenportal The Nation berichtet. Der Roboter nutzt hierfür Gesichtserkennung und visuelle Analyse, um gesuchte oder als „risikoreich“ eingestufte Personen an belebten Orten zu identifizieren. Er erkennt Merkmale wie Geschlecht, Körperform, Kleidung und Gesichtszüge. Darüber hinaus kann er auffällige Aktivitäten wie Kämpfe oder Störungen erkennen. Dabei kann er zwischen gefährlichen Objekten wie Waffen und harmlosen Gegenständen unterscheiden. Technologieoffensive für Sicherheit und Notdienste Diese Entwicklung beschränkt sich nicht nur auf Thailand, sondern wurde bereits in der Volksrepublik China erfolgreich eingesetzt: In Shenzhen etwa nutzt die Polizei humanoide PM01-Roboter von EngineAI an der Seite von Polizisten. Sie interagieren mit Passanten durch Winken, Händeschütteln und Sprachbefehle. China integriert zunehmend Robotik in Bereiche wie öffentliche Sicherheit, Notdienste und Strafverfolgung. Humanoide Roboter einzusetzen ist Teil dieser Strategie. Zusätzlich sollen fortschrittliche Systeme wie der RT-G-Roboter erprobt werden. Diese Maschine ist eine autonome, kugelförmige Einheit, die extremen Bedingungen standhält und sich mit bis zu 35 km/h an Land und zu Wasser fortbewegen kann. 

Robot-Cop patrouilliert jetzt auch in Thailand​ Werden Straßen bald von Robo-Polizisten patrouilliert? In Asien geht der Trend immer stärker in diese Richtung.
ProStockStudio – shutterstock.com

KI-gestützte Roboter können immer mehr, sei es winken, laufen oder Gesichter analysieren. Diesen Fortschritt machte sich die Polizei in Thailand zunutze und setzte den „KI Cyborg 1.0“ während des Songkran-Festivals in der Provinz Nakhon Pathom ein, um die öffentliche Sicherheit zu erhöhen.

Gesichtserkennung zur Identifikation gesuchter Personen

Entwickelt wurde er von lokalen Polizeibehörden und ist mit moderner Überwachungs- sowie Bedrohungserkennungstechnologie ausgestattet. Der Roboter verarbeitet in Echtzeit Daten aus Drohnen und Videoüberwachungsnetzwerken.

Eine schnelle Reaktionskoordination wird durch die in den Roboter eingebauten intelligenten 360-Grad-Kameras ermöglicht. Diese sind sofort mit dem Kommando- und Kontrollzentrum der Provinz verbunden und werden von einer Videoanalysesoftware unterstützt, wie das Nachrichtenportal The Nation berichtet.

Der Roboter nutzt hierfür Gesichtserkennung und visuelle Analyse, um gesuchte oder als „risikoreich“ eingestufte Personen an belebten Orten zu identifizieren. Er erkennt Merkmale wie

Geschlecht,

Körperform,

Kleidung und

Gesichtszüge.

Darüber hinaus kann er auffällige Aktivitäten wie Kämpfe oder Störungen erkennen. Dabei kann er zwischen gefährlichen Objekten wie Waffen und harmlosen Gegenständen unterscheiden.

Technologieoffensive für Sicherheit und Notdienste

Diese Entwicklung beschränkt sich nicht nur auf Thailand, sondern wurde bereits in der Volksrepublik China erfolgreich eingesetzt: In Shenzhen etwa nutzt die Polizei humanoide PM01-Roboter von EngineAI an der Seite von Polizisten. Sie interagieren mit Passanten durch Winken, Händeschütteln und Sprachbefehle.

China integriert zunehmend Robotik in Bereiche wie öffentliche Sicherheit, Notdienste und Strafverfolgung. Humanoide Roboter einzusetzen ist Teil dieser Strategie. Zusätzlich sollen fortschrittliche Systeme wie der RT-G-Roboter erprobt werden. Diese Maschine ist eine autonome, kugelförmige Einheit, die extremen Bedingungen standhält und sich mit bis zu 35 km/h an Land und zu Wasser fortbewegen kann.

Robot-Cop patrouilliert jetzt auch in Thailand​ Weiterlesen »

Oracle stößt SAP vom ERP-Thron​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?quality=50&strip=all 2670w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle gibt im ERP-Geschäft Gas – und hat vermutlich SAP überholt.Santiparp Wattanaporn – Shutterstock.com Nach Berechnungen der Analysten von „Apps Run The World“ (ARTW) musste SAP im vergangenen Jahr die Marktführerschaft im Bereich Enterprise Ressource Planning (ERP) an den Rivalen Oracle abgeben.   Wie die Marktforscher ausführen, verdankt Oracle die neue Spitzenposition den schnell wachsenden Oracle Fusion Cloud ERP-Produkten für Buchhaltung, Auftragsverwaltung und andere geschäftskritische Prozesse. Mit ihrer Hilfe soll Oracle 2024 im Bereich ERP-Software einen Umsatz von 8,7 Milliarden Dollar erzielt haben, was laut ARTW einem Marktanteil von 6,63 Prozent entspricht.   Im Vergleich dazu soll „Branchenprimus“ SAP im vergangenen Jahr mit seinen ERP-Lösungen „lediglich“ einen Umsatz von 8,6 Milliarden Dollar erwirtschaftet haben, was einem Marktanteil von 6,57 Prozent entspricht.  Allerdings weisen beide Anbieter die Ergebnisse im ERP-Bereich nicht explizit aus. Grundlage für die Werte sind laut Apps Run The World vielmehr Schätzungen, die auf öffentlichen Aufzeichnungen, Cloud- und Nicht-Cloud-Geschäftsmodellen in der Lieferantendatenbank von ARTW sowie den Ergebnissen jährlicher Umfragen einschließlich des Feedbacks der Lieferanten basieren.  Oracle-Kunden werden stärker gemolken  Den Analysten zufolge ist der Grund für den Führungswechsel einfache Mathematik. So zählt Oracle im gesamten ERP-Bereich (der sowohl Finanzmanagement- als auch branchenspezifische Backoffice-Lösungen umfasst) mehr als 100.000 Kunden, die im vergangenen Jahr durchschnittlich jeweils 87.700 Dollar beigetragen haben. Im Gegensatz dazu habe SAP mit jedem seiner 141.399 ERP-Kunden nur durchschnittlich 61.429 Dollar erwirtschaftet, also rund 30 Prozent weniger.   Den durchschnittlichen Umsatz eines Kunden mit Oracle Fusion Cloud ERP beziffert Apps Run The World auf 257.286 Dollar, den mit SAP S/4 HANA auf 253.100 Euro. Gleichzeitig verweisen die Analysten darauf, dass Oracle 2024 um 17,7 Prozent wuchs, SAP dagegen lediglich um 13,7 Prozent.  

Oracle stößt SAP vom ERP-Thron​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?quality=50&strip=all 2670w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle gibt im ERP-Geschäft Gas – und hat vermutlich SAP überholt.Santiparp Wattanaporn – Shutterstock.com

Nach Berechnungen der Analysten von „Apps Run The World“ (ARTW) musste SAP im vergangenen Jahr die Marktführerschaft im Bereich Enterprise Ressource Planning (ERP) an den Rivalen Oracle abgeben.  

Wie die Marktforscher ausführen, verdankt Oracle die neue Spitzenposition den schnell wachsenden Oracle Fusion Cloud ERP-Produkten für Buchhaltung, Auftragsverwaltung und andere geschäftskritische Prozesse. Mit ihrer Hilfe soll Oracle 2024 im Bereich ERP-Software einen Umsatz von 8,7 Milliarden Dollar erzielt haben, was laut ARTW einem Marktanteil von 6,63 Prozent entspricht.  

Im Vergleich dazu soll „Branchenprimus“ SAP im vergangenen Jahr mit seinen ERP-Lösungen „lediglich“ einen Umsatz von 8,6 Milliarden Dollar erwirtschaftet haben, was einem Marktanteil von 6,57 Prozent entspricht. 

Allerdings weisen beide Anbieter die Ergebnisse im ERP-Bereich nicht explizit aus. Grundlage für die Werte sind laut Apps Run The World vielmehr Schätzungen, die auf öffentlichen Aufzeichnungen, Cloud- und Nicht-Cloud-Geschäftsmodellen in der Lieferantendatenbank von ARTW sowie den Ergebnissen jährlicher Umfragen einschließlich des Feedbacks der Lieferanten basieren. 

Oracle-Kunden werden stärker gemolken 

Den Analysten zufolge ist der Grund für den Führungswechsel einfache Mathematik. So zählt Oracle im gesamten ERP-Bereich (der sowohl Finanzmanagement- als auch branchenspezifische Backoffice-Lösungen umfasst) mehr als 100.000 Kunden, die im vergangenen Jahr durchschnittlich jeweils 87.700 Dollar beigetragen haben. Im Gegensatz dazu habe SAP mit jedem seiner 141.399 ERP-Kunden nur durchschnittlich 61.429 Dollar erwirtschaftet, also rund 30 Prozent weniger.  

Den durchschnittlichen Umsatz eines Kunden mit Oracle Fusion Cloud ERP beziffert Apps Run The World auf 257.286 Dollar, den mit SAP S/4 HANA auf 253.100 Euro. Gleichzeitig verweisen die Analysten darauf, dass Oracle 2024 um 17,7 Prozent wuchs, SAP dagegen lediglich um 13,7 Prozent. 

Oracle stößt SAP vom ERP-Thron​ Weiterlesen »

Intel streicht tausende Arbeitsplätze​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bei Intel wird sich einiges ändern müssen, um den Chip-Konzern wieder in die Erfolgsspur zu setzen.Tada Images – shutterstock.com Intel plant angeblich, 20 Prozent seiner Belegschaft zu entlassen. Das berichteten der Finanznachrichtendienst Bloomberg unter Berufung auf Personen, die angeblich mit den Plänen vertraut seien, und die Nachrichtenagentur Reuters. Es gehe vor allem darum, den eigenen Betrieb effizienter zu machen und interne Bürokratie abzubauen, hieß es. Der Stellenabbau sei Teil einer breiter angelegten Strategie, eine wieder stärker auf Entwicklung und technische Ingenieurskunst getrimmte Firmenkultur zu etablieren.  Dahinter steckt der neue Intel-CEO Lip-Bu Tan, der den strauchelnden Halbleiterriesen wieder zurück in die Erfolgsspur bringen soll. Tan hatte den Chefposten bei Intel erst am 18. März dieses Jahres übernommen. Bis dato hatten nach dem Rausschmiss von Pat Gelsinger im Dezember 2024 David Zinser und Michelle Johnston Holthaus als Interim CEOs die Geschäfte geführt.  Intel-CEO Tan kündigt harte Entscheidungen an Bereits in den zurückliegenden Wochen war wiederholt darüber spekuliert worden, Tan könnte den Chiphersteller von Grund auf restrukturieren. In einem Memo an die Belegschaft kurz nach seiner Amtsübernahme hatte der neue starke Mann bei Intel davon gesprochen, dass dafür harte Entscheidungen nötig sein könnten. Wie diese Maßnahmen aussehen könnten, blieb jedoch erst einmal im Dunklen. Tan hatte allerdings zuletzt begonnen, die mittlere Führungsmannschaft bei Intel auszudünnen. Die Verantwortlichen für die wichtigen Chipprodukte berichten nun offenbar direkt an Tan.  Intel unter Tan: Was den Chiphersteller erwartet Tan kennt die Interna bei Intel. Der Manager saß bis August 2024 im Vorstand des Halbleiterproduzenten. Angeblich hatte er den Posten wegen anderer Verpflichtungen aufgegeben. Unter der Hand wurde kolportiert, Tan sei unzufrieden gewesen mit der Behäbigkeit des Intel-Boards, Veränderungen im Unternehmen anzuschieben.  Der neue Intel-Chef Lip-Bu Tan will offenbar viele tausend weitere Stellen beim Halbleiterriesen streichen.Intel Der Stellenkahlschlag wäre nicht der erste in der jüngeren Intel-Geschichte. Mitte August 2024 hatte der Chipproduzent angekündigt 15 Prozent seiner Arbeitsplätze zu streichen. Vor allem die schlechte Bilanz für das zweite Quartal des Geschäftsjahres 2024 hatte die Investoren enttäuscht und das Management zu diesem drastischen Schritt gezwungen. Ende 2024 beschäftigte Intel noch 108.900 Menschen. Wenige Monate zuvor waren es noch 124.100 Mitarbeiterinnen und Mitarbeiter. Kosten zu hoch – Margen zu niedrig „Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte der damals noch amtierende Intel-CEO Gelsinger gegenüber der Nachrichtenagentur Reuters. Gelsinger sprach von einer enttäuschenden finanziellen Performance und stimmte seine Belegschaft auf harte Zeiten ein. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern, schrieb der Intel-Chef in einem offenen Brief an seine Mitarbeiterinnen und Mitarbeiter. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig.“  Lesen Sie hier alle Hintergründe zur Krise bei Intel: Intel-Chef Pat Gelsinger muss gehen Intel streicht tausende Stellen Intel träumt vom goldenen Halbleiter-Zeitalter Intel sucht Anschluss im RZ und bei KI Willkommen im Siliconomy-Zeitalter: KI soll Intels Geschäfte ankurbeln Für das Geschäftsjahr 2024 meldete Intel Einnahmen in Höhe von 53,1 Milliarden Dollar, rund zwei Prozent weniger als im Vorjahr. Unter dem Strich stand ein Verlust von 18,8 Milliarden Dollar. Zahlen für das erste Quartal 2025 will Intel am 24. April vorlegen. Dann rechnen Experten auch mit weiteren Details zum Umbau des Halbleiterkonzerns.  

Intel streicht tausende Arbeitsplätze​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bei Intel wird sich einiges ändern müssen, um den Chip-Konzern wieder in die Erfolgsspur zu setzen.Tada Images – shutterstock.com

Intel plant angeblich, 20 Prozent seiner Belegschaft zu entlassen. Das berichteten der Finanznachrichtendienst Bloomberg unter Berufung auf Personen, die angeblich mit den Plänen vertraut seien, und die Nachrichtenagentur Reuters. Es gehe vor allem darum, den eigenen Betrieb effizienter zu machen und interne Bürokratie abzubauen, hieß es. Der Stellenabbau sei Teil einer breiter angelegten Strategie, eine wieder stärker auf Entwicklung und technische Ingenieurskunst getrimmte Firmenkultur zu etablieren. 

Dahinter steckt der neue Intel-CEO Lip-Bu Tan, der den strauchelnden Halbleiterriesen wieder zurück in die Erfolgsspur bringen soll. Tan hatte den Chefposten bei Intel erst am 18. März dieses Jahres übernommen. Bis dato hatten nach dem Rausschmiss von Pat Gelsinger im Dezember 2024 David Zinser und Michelle Johnston Holthaus als Interim CEOs die Geschäfte geführt. 

Intel-CEO Tan kündigt harte Entscheidungen an

Bereits in den zurückliegenden Wochen war wiederholt darüber spekuliert worden, Tan könnte den Chiphersteller von Grund auf restrukturieren. In einem Memo an die Belegschaft kurz nach seiner Amtsübernahme hatte der neue starke Mann bei Intel davon gesprochen, dass dafür harte Entscheidungen nötig sein könnten. Wie diese Maßnahmen aussehen könnten, blieb jedoch erst einmal im Dunklen. Tan hatte allerdings zuletzt begonnen, die mittlere Führungsmannschaft bei Intel auszudünnen. Die Verantwortlichen für die wichtigen Chipprodukte berichten nun offenbar direkt an Tan. 

Intel unter Tan: Was den Chiphersteller erwartet

Tan kennt die Interna bei Intel. Der Manager saß bis August 2024 im Vorstand des Halbleiterproduzenten. Angeblich hatte er den Posten wegen anderer Verpflichtungen aufgegeben. Unter der Hand wurde kolportiert, Tan sei unzufrieden gewesen mit der Behäbigkeit des Intel-Boards, Veränderungen im Unternehmen anzuschieben. 

Der neue Intel-Chef Lip-Bu Tan will offenbar viele tausend weitere Stellen beim Halbleiterriesen streichen.Intel

Der Stellenkahlschlag wäre nicht der erste in der jüngeren Intel-Geschichte. Mitte August 2024 hatte der Chipproduzent angekündigt 15 Prozent seiner Arbeitsplätze zu streichen. Vor allem die schlechte Bilanz für das zweite Quartal des Geschäftsjahres 2024 hatte die Investoren enttäuscht und das Management zu diesem drastischen Schritt gezwungen. Ende 2024 beschäftigte Intel noch 108.900 Menschen. Wenige Monate zuvor waren es noch 124.100 Mitarbeiterinnen und Mitarbeiter.

Kosten zu hoch – Margen zu niedrig

„Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte der damals noch amtierende Intel-CEO Gelsinger gegenüber der Nachrichtenagentur Reuters. Gelsinger sprach von einer enttäuschenden finanziellen Performance und stimmte seine Belegschaft auf harte Zeiten ein. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern, schrieb der Intel-Chef in einem offenen Brief an seine Mitarbeiterinnen und Mitarbeiter. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig.“ 

Lesen Sie hier alle Hintergründe zur Krise bei Intel:

Intel-Chef Pat Gelsinger muss gehen

Intel streicht tausende Stellen

Intel träumt vom goldenen Halbleiter-Zeitalter

Intel sucht Anschluss im RZ und bei KI

Willkommen im Siliconomy-Zeitalter: KI soll Intels Geschäfte ankurbeln

Für das Geschäftsjahr 2024 meldete Intel Einnahmen in Höhe von 53,1 Milliarden Dollar, rund zwei Prozent weniger als im Vorjahr. Unter dem Strich stand ein Verlust von 18,8 Milliarden Dollar. Zahlen für das erste Quartal 2025 will Intel am 24. April vorlegen. Dann rechnen Experten auch mit weiteren Details zum Umbau des Halbleiterkonzerns. 

Intel streicht tausende Arbeitsplätze​ Weiterlesen »

SAP trotzt der Wirtschaftsflaute​

Allgemein

width=”2497″ height=”1404″ sizes=”(max-width: 2497px) 100vw, 2497px”>SAP kann mit dem Start ins Geschäftsjahr 2025 zufrieden sein.360b – shutterstock.com SAP ist gut ins Geschäftsjahr 2025 gestartet. Der deutsche Softwarekonzern meldete für das erste Quartal einen Umsatz von gut neun Milliarden Euro, zwölf Prozent mehr als im Vorjahresquartal. Die Cloud-Erlöse legten um 27 Prozent auf fast fünf Milliarden Euro zu. Beim bereinigten operativen Betriebsergebnis erzielte SAP 2,45 Milliarden Euro, ein Plus von 60 Prozent gegenüber dem ersten Quartal 2024 und deutlich mehr als von Analysten erwartet. Unter dem Strich blieb ein Gewinn von knapp 1,8 Milliarden Euro, nachdem der Softwarehersteller aufgrund von Sondereffekten im Vorjahresquartal ein Minus von 824 Millionen Euro verbuchen musste. Hier lesen Sie alles zur neuen SAP-Strategie: SAP baut neue Business Suite in der Cloud Die Verantwortlichen in Walldorf zeigten sich zufrieden mit den Zahlen. „Das erste Quartal verdeutlicht erneut, dass unsere Erfolgsformel aufgeht“, kommentierte der Vorstandsvorsitzende Christian Klein die Quartalsbilanz. Mit einem Anteil der besser planbaren Umsätze von 86 Prozent habe sich das Geschäftsmodell der SAP trotz unsicherer Zeiten nach wie vor widerstandsfähig präsentiert. Unbeständiges Umfeld – SAP will wachsam bleiben Finanzchef Dominik Asam sprach von einem „soliden Start in das Jahr in einem äußerst unbeständigen Umfeld“. Die Ergebnisse seien ein Beleg für SAPs Kostendisziplin und die gezielte Umsetzung der eigenen Strategie. Der Finanzvorstand mahnte jedoch zur Vorsicht: „Auch wenn uns diese dynamische Entwicklung bestärkt, behalten wir immer auch das breite Umfeld im Blick und bleiben für den weiteren Verlauf des Jahres wachsam.“ width=”7661″ height=”4309″ sizes=”(max-width: 7661px) 100vw, 7661px”>Es war ein solider Start in einem äußerst unbeständigen Umfeld. SAPs Finanzchef Dominik Asam ist daher zufrieden mit den Zahlen für das erste Quartal 2025.SAP SE / Ingo Cordes SAP zufolge sei das Restrukturierungsprogramm, das der Konzern im Januar 2024 angekündigt hatte und rund 10.000 Stellen im Unternehmen betraf, mittlerweile planmäßig abgeschlossen. Die Gesamtkosten für das Programm bezifferten die Verantwortlichen auf 3,2 Milliarden Euro, wovon der größte Teil (2,8 Milliarden Euro) bereits im Geschäftsjahr 2024 und im ersten Quartal des laufenden Jahres verbucht wurde. Im Verlauf des Jahres 2025 würden weitere Zahlungen in Höhe von rund 0,4 Milliarden Euro erwartet. SAP zufolge sind derzeit 108.187 Menschen bei dem Softwarehersteller beschäftigt – vor einem Jahr waren es 108.133.  So sehen SAP-Kunden die neue Strategie ihres Softwarelieferanten SAP bekräftigte seine Prognosen für das laufende Geschäftsjahr, „auch wenn das derzeitige Umfeld von hoher Dynamik und Unsicherheit geprägt und die weitere Entwicklung daher schwer einzuschätzen ist“. Der Konzern rechnet für 2025 mit Cloud-Erlösen von 21,6 bis 21,9 Milliarden Euro (2024: 17,1 Milliarden Euro). Das währungsbereinigte Betriebsergebnis soll zwischen 10,3 und 10,6 Milliarden Euro betragen (2024: 8,15 Milliarden Euro). USA sind SAPs wichtigster Einzelmarkt Allerdings dürfte die erratische Finanzpolitik des neuen US-Präsidenten Donald Trump, die vor allem den Dollar schwächt, auch Folgen für SAP haben. Der Konzern rechnet angesichts der Wechselkursschwankungen mit einem um zwei Prozentpunkte geringeren Wachstum bei den Cloud-Erlösen. Beim Betriebsergebnis sei mit einem um einen Prozentpunkt geringeren Wachstum zu rechnen, hieß es.  Die USA sind der wichtigste Einzelmarkt für SAP. Zwischen Januar und Märze 2025 verbuchte der Konzern einen Umsatz von fast drei Milliarden Euro in den Vereinigten Staaten. Zum Vergleich: Für Deutschland meldet SAP im ersten Quartal des Jahres einen Umsatz von knapp 1,4 Milliarden Euro, für die gesamte Region EMEA gut vier Milliarden Euro.  

SAP trotzt der Wirtschaftsflaute​ width=”2497″ height=”1404″ sizes=”(max-width: 2497px) 100vw, 2497px”>SAP kann mit dem Start ins Geschäftsjahr 2025 zufrieden sein.360b – shutterstock.com

SAP ist gut ins Geschäftsjahr 2025 gestartet. Der deutsche Softwarekonzern meldete für das erste Quartal einen Umsatz von gut neun Milliarden Euro, zwölf Prozent mehr als im Vorjahresquartal. Die Cloud-Erlöse legten um 27 Prozent auf fast fünf Milliarden Euro zu. Beim bereinigten operativen Betriebsergebnis erzielte SAP 2,45 Milliarden Euro, ein Plus von 60 Prozent gegenüber dem ersten Quartal 2024 und deutlich mehr als von Analysten erwartet. Unter dem Strich blieb ein Gewinn von knapp 1,8 Milliarden Euro, nachdem der Softwarehersteller aufgrund von Sondereffekten im Vorjahresquartal ein Minus von 824 Millionen Euro verbuchen musste.

Hier lesen Sie alles zur neuen SAP-Strategie: SAP baut neue Business Suite in der Cloud

Die Verantwortlichen in Walldorf zeigten sich zufrieden mit den Zahlen. „Das erste Quartal verdeutlicht erneut, dass unsere Erfolgsformel aufgeht“, kommentierte der Vorstandsvorsitzende Christian Klein die Quartalsbilanz. Mit einem Anteil der besser planbaren Umsätze von 86 Prozent habe sich das Geschäftsmodell der SAP trotz unsicherer Zeiten nach wie vor widerstandsfähig präsentiert.

Unbeständiges Umfeld – SAP will wachsam bleiben

Finanzchef Dominik Asam sprach von einem „soliden Start in das Jahr in einem äußerst unbeständigen Umfeld“. Die Ergebnisse seien ein Beleg für SAPs Kostendisziplin und die gezielte Umsetzung der eigenen Strategie. Der Finanzvorstand mahnte jedoch zur Vorsicht: „Auch wenn uns diese dynamische Entwicklung bestärkt, behalten wir immer auch das breite Umfeld im Blick und bleiben für den weiteren Verlauf des Jahres wachsam.“

width=”7661″ height=”4309″ sizes=”(max-width: 7661px) 100vw, 7661px”>Es war ein solider Start in einem äußerst unbeständigen Umfeld. SAPs Finanzchef Dominik Asam ist daher zufrieden mit den Zahlen für das erste Quartal 2025.SAP SE / Ingo Cordes

SAP zufolge sei das Restrukturierungsprogramm, das der Konzern im Januar 2024 angekündigt hatte und rund 10.000 Stellen im Unternehmen betraf, mittlerweile planmäßig abgeschlossen. Die Gesamtkosten für das Programm bezifferten die Verantwortlichen auf 3,2 Milliarden Euro, wovon der größte Teil (2,8 Milliarden Euro) bereits im Geschäftsjahr 2024 und im ersten Quartal des laufenden Jahres verbucht wurde. Im Verlauf des Jahres 2025 würden weitere Zahlungen in Höhe von rund 0,4 Milliarden Euro erwartet. SAP zufolge sind derzeit 108.187 Menschen bei dem Softwarehersteller beschäftigt – vor einem Jahr waren es 108.133. 

So sehen SAP-Kunden die neue Strategie ihres Softwarelieferanten

SAP bekräftigte seine Prognosen für das laufende Geschäftsjahr, „auch wenn das derzeitige Umfeld von hoher Dynamik und Unsicherheit geprägt und die weitere Entwicklung daher schwer einzuschätzen ist“. Der Konzern rechnet für 2025 mit Cloud-Erlösen von 21,6 bis 21,9 Milliarden Euro (2024: 17,1 Milliarden Euro). Das währungsbereinigte Betriebsergebnis soll zwischen 10,3 und 10,6 Milliarden Euro betragen (2024: 8,15 Milliarden Euro).

USA sind SAPs wichtigster Einzelmarkt

Allerdings dürfte die erratische Finanzpolitik des neuen US-Präsidenten Donald Trump, die vor allem den Dollar schwächt, auch Folgen für SAP haben. Der Konzern rechnet angesichts der Wechselkursschwankungen mit einem um zwei Prozentpunkte geringeren Wachstum bei den Cloud-Erlösen. Beim Betriebsergebnis sei mit einem um einen Prozentpunkt geringeren Wachstum zu rechnen, hieß es. 

Die USA sind der wichtigste Einzelmarkt für SAP. Zwischen Januar und Märze 2025 verbuchte der Konzern einen Umsatz von fast drei Milliarden Euro in den Vereinigten Staaten. Zum Vergleich: Für Deutschland meldet SAP im ersten Quartal des Jahres einen Umsatz von knapp 1,4 Milliarden Euro, für die gesamte Region EMEA gut vier Milliarden Euro. 

SAP trotzt der Wirtschaftsflaute​ Weiterlesen »

Security- und Datenschutz-Experten überschätzen sich bei KI​

Allgemein

Trotz hoher Sicherheitsansprüche geben viele Experten sensible Daten in GenAI-Anwendungen ein. Raushan_films – shutterstock.com 41 Prozent der Experten für Datenschutz und Sicherheit in Deutschland glauben, sich gut mit Künstlicher Intelligenz (KI) auskennen. 53 Prozent kennen sich nach eigener Einschätzung sogar sehr gut hiermit aus. Sicherheitsbewusstsein vs. Praxis Trotz dieses angeblich hohen Sicherheitsbewusstseins trägt jedoch mehr als die Hälfte der Teilnehmenden der 2025 Data Privacy Benchmark Study von Cisco Informationen über interne Prozesse (54 Prozent), Daten oder Namen von Mitarbeitenden (52 Prozent) sowie nicht öffentliche Angaben über das Unternehmen (51 Prozent) in GenAI-Anwendungen ein. Schulung dringend notwendig Über ein Drittel gibt hier sogar Kundennamen oder -daten ein, ein Problem, dass auch Christian Korff, Mitglied der Geschäftsleitung von Cisco Deutschland und Leiter der Bundesfachkommission Künstliche Intelligenz und Wertschöpfung 4.0 im Wirtschaftsrat der CDU, erkennt: „Dass man fast alles in GenAI-Tools eingeben kann, bedeutet noch lange nicht, dass man es auch sollte. Daher müssen Unternehmen in Deutschland dringend den richtigen Umgang mit den neuen Technologien schulen und kontrollieren. Sonst drohen Compliance-Probleme, Rufschädigung und Kundenverlust.“ Grundlage der Studie ist eine anonyme Umfrage aus dem Herbst 2024 unter mehr als 2.600 Datenschutz- und Sicherheitsexperten in 12 Ländern, davon 200 aus Deutschland. Wissenslücke bei Datenschutzregelungen Zugleich gaben nur 48 Prozent der Befragten aus Deutschland an, die geltenden Regelungen und Gesetze gut zu kennen. Trotz dieser Wissenslücke bewerten 94 Prozent die Vorteile von Datenschutzinvestitionen höher als die Kosten. Die größten Vorteile sehen sie in Agilität und Innovation (77 Prozent) sowie Vertrauen und beschleunigtem Vertrieb (je 76 Prozent).  85 Prozent glauben zudem, dass strenge Datenschutzgesetze das Vertrauen in KI-Anwendungen fördern. 91 Prozent der Teilnehmenden sehen darin sogar eine Kaufvoraussetzung für Kunden. Lokal versus global Geht es um die Sicherheit solcher sensiblen Daten, da sind sich 92 Prozent der Unternehmen einig, halten sie es für sicherer, wenn diese im eigenen Land oder in der EU gespeichert werden. Gleichzeitig meinen jedoch 85 Prozent, dass globale Anbieter besseren Datenschutz bieten als die lokale Konkurrenz. 84 Prozent sehen zudem im freien, vertrauenswürdigen Datenfluss eine Chance für mehr Wirtschaftswachstum. Diese Perspektiven schließen sich aus Sicht der Studienmacher nicht aus, erfordern aber technische Lösungen wie KI-Workloads in lokalen Rechenzentren.  AI-Governance stärkt Compliance und Qualität Für die deutschen Datenschutz- und Sicherheitsexperten spielt KI, insbesondere GenAI, eine zentrale Rolle: 86 Prozent sehen darin einen hohen oder sehr hohen Mehrwert und 98 Prozent erwarten steigende Investitionen in den KI-bezogenen Datenschutz. Gleichzeitig sehen sie Risiken wie falsche Ergebnisse (66 Prozent), Gefährdung geistigen Eigentums (62 Prozent), Arbeitsplatzverlust (57 Prozent) und sogar Bedrohungen für die Menschheit (56 Prozent). Jeweils 34 Prozent der Befragten gaben an, dass für sie ein vorausschauendes KI-Governance-Programm hilfreich für die Vorbereitung auf Compliance und Produktqualität sei. Genau ein Drittel sieht auch Vorteile für die Unternehmenskultur und weitere 31 Prozent für die Unternehmenswerte. 

Security- und Datenschutz-Experten überschätzen sich bei KI​ Trotz hoher Sicherheitsansprüche geben viele Experten sensible Daten in GenAI-Anwendungen ein.
Raushan_films – shutterstock.com

41 Prozent der Experten für Datenschutz und Sicherheit in Deutschland glauben, sich gut mit Künstlicher Intelligenz (KI) auskennen. 53 Prozent kennen sich nach eigener Einschätzung sogar sehr gut hiermit aus.

Sicherheitsbewusstsein vs. Praxis

Trotz dieses angeblich hohen Sicherheitsbewusstseins trägt jedoch mehr als die Hälfte der Teilnehmenden der 2025 Data Privacy Benchmark Study von Cisco Informationen über

interne Prozesse (54 Prozent),

Daten oder Namen von Mitarbeitenden (52 Prozent) sowie

nicht öffentliche Angaben über das Unternehmen (51 Prozent)

in GenAI-Anwendungen ein.

Schulung dringend notwendig

Über ein Drittel gibt hier sogar Kundennamen oder -daten ein, ein Problem, dass auch Christian Korff, Mitglied der Geschäftsleitung von Cisco Deutschland und Leiter der Bundesfachkommission Künstliche Intelligenz und Wertschöpfung 4.0 im Wirtschaftsrat der CDU, erkennt:

„Dass man fast alles in GenAI-Tools eingeben kann, bedeutet noch lange nicht, dass man es auch sollte. Daher müssen Unternehmen in Deutschland dringend den richtigen Umgang mit den neuen Technologien schulen und kontrollieren. Sonst drohen Compliance-Probleme, Rufschädigung und Kundenverlust.“

Grundlage der Studie ist eine anonyme Umfrage aus dem Herbst 2024 unter mehr als 2.600 Datenschutz- und Sicherheitsexperten in 12 Ländern, davon 200 aus Deutschland.

Wissenslücke bei Datenschutzregelungen

Zugleich gaben nur 48 Prozent der Befragten aus Deutschland an, die geltenden Regelungen und Gesetze gut zu kennen. Trotz dieser Wissenslücke bewerten 94 Prozent die Vorteile von Datenschutzinvestitionen höher als die Kosten. Die größten Vorteile sehen sie in

Agilität und Innovation (77 Prozent) sowie

Vertrauen und beschleunigtem Vertrieb (je 76 Prozent). 

85 Prozent glauben zudem, dass strenge Datenschutzgesetze das Vertrauen in KI-Anwendungen fördern. 91 Prozent der Teilnehmenden sehen darin sogar eine Kaufvoraussetzung für Kunden.

Lokal versus global

Geht es um die Sicherheit solcher sensiblen Daten, da sind sich 92 Prozent der Unternehmen einig, halten sie es für sicherer, wenn diese im eigenen Land oder in der EU gespeichert werden. Gleichzeitig meinen jedoch 85 Prozent, dass globale Anbieter besseren Datenschutz bieten als die lokale Konkurrenz. 84 Prozent sehen zudem im freien, vertrauenswürdigen Datenfluss eine Chance für mehr Wirtschaftswachstum.

Diese Perspektiven schließen sich aus Sicht der Studienmacher nicht aus, erfordern aber technische Lösungen wie KI-Workloads in lokalen Rechenzentren. 

AI-Governance stärkt Compliance und Qualität

Für die deutschen Datenschutz- und Sicherheitsexperten spielt KI, insbesondere GenAI, eine zentrale Rolle: 86 Prozent sehen darin einen hohen oder sehr hohen Mehrwert und 98 Prozent erwarten steigende Investitionen in den KI-bezogenen Datenschutz.

Gleichzeitig sehen sie Risiken wie

falsche Ergebnisse (66 Prozent),

Gefährdung geistigen Eigentums (62 Prozent),

Arbeitsplatzverlust (57 Prozent) und

sogar Bedrohungen für die Menschheit (56 Prozent).

Jeweils 34 Prozent der Befragten gaben an, dass für sie ein vorausschauendes KI-Governance-Programm hilfreich für die Vorbereitung auf Compliance und Produktqualität sei. Genau ein Drittel sieht auch Vorteile für die Unternehmenskultur und weitere 31 Prozent für die Unternehmenswerte.

Security- und Datenschutz-Experten überschätzen sich bei KI​ Weiterlesen »

Drohnen sind die Cybercrime-Zukunft​

Allgemein

loading=”lazy” width=”400px”>Bleiben Drohnen unter Ihrem Security-Radar? Agon Nimani – shutterstock.com Wie sich Drohnen auf kreative Weise für Angriff und Verteidigung in Kriegsszenarien einsetzen lassen, kann man seit dem russischen Überfall auf die Ukraine quasi live mitverfolgen. Die ukrainischen Streitkräfte haben ein riesiges Arsenal an militärischen Drohnen aufgebaut, das nicht nur für Präzisionsschläge, Aufklärungs- sowie Kamikaze-Missionen zum Einsatz kommen – sondern auch für Offensiv- und Defensivaktionen im Bereich Cybersicherheit.   Von diesem Beispiel lassen sich längst Cyberkriminelle auf der ganzen Welt inspirieren, um Drohnen künftig verstärkt für maliziöse Zwecke einzusetzen. Deswegen sollten sich auch alle IT- und insbesondere Security-Profis eingehend mit dem Thema Drohnen beschäftigen – beziehungsweise mit den Möglichkeiten, diese für maliziöse Zwecke zu missbrauchen. Malware an Bord… Vor kurzem machte auf Reddit ein Video die Runde, das beschreibt, welche Taktiken das ukrainische Militär mit Blick auf seine Drohnen einsetzt. Demnach werden die Fluggeräte inzwischen gezielt mit Malware ausgestattet, um die Hardware der russischen Angreifer zu sabotieren, falls sie eine der ukrainischen Drohnen in die Finger bekommen. Dazu sollen die Fluggeräte etwa USB-Anschlüsse ausbrennen, eine Neuprogrammierung blockieren oder die Systeme der Russen mit einem Virus infizieren, um beispielweise deren Standorte aufzudecken. Auch remote ausnutzbare Schwachstellen sind offenbar teilweise bereits in ukrainische Drohnen integriert. Diese Bemühungen erschweren es dem russischen Militär erheblich, erbeutete Drohnen umzufunktionieren und wiederzuverwenden – beispielsweise, um Informationen zu sammeln. Zwar gab es in der Ukraine schon vor dem russischen Überfall eine starke Cybersecurity-Branche und jede Menge Expertise. Diese wird nun aber von globalem Knowhow ergänzt. So unterstützt unter anderem der britische Sicherheitsspezialist Periphery die Ukraine mit Technologie. Das Security-Unternehmen ist auf militärische Threat-Management-Systeme für IoT-Geräte spezialisiert und bietet KI-gestützte Embedded-Lösungen an, um kritische Infrastrukturen zu überwachen und abzusichern. Diese kommen nun auch zum Einsatz, um die ukrainische Drohnenflotte vor Hackerangriffen und sonstigen Störungen zu schützen.      Das markiert einen Paradigmenwechsel, denn während in den Anfangstagen des Krieges wurden noch einfache Consumer-Geräte in den Kampfeinsatz geschickt, um Videoaufnahmen anzufertigen oder auch Granaten abzuwerfen. Inzwischen werden die unbemannten Fluggeräte jedoch zunehmend mit offensiven wie defensiven Cyber-Fähigkeiten ausgestattet. … nicht nur im Krieg Dass solche Taktiken längst nicht mehr nur im Ukraine-Krieg (und anderen Kampfeinsätzen) angewandt werden, beweist eine wahre Begebenheit eindrücklich, über die Security-Forscher Greg Linares bereits im Oktober 2022 auf dem Kurznachrichtendienst X informierte. Demnach wurde ein US-Finanzdienstleister im Sommer 2022 zum Ziel einer neuen Art von Cyberangriff mit Beteiligung von Drohnen. Ans Licht gekommen war der Vorfall, nachdem das Security-Team des Unternehmens ungewöhnliche Aktivitäten auf seiner internen Atlassian-Confluence-Seite feststellte, die scheinbar aus dem Unternehmensnetzwerk stammten. Allerdings wurde die identische MAC-Adresse parallel von einem Remote-Mitarbeiter verwendet.   Der Versuch, das unerwünschte Signal aufzuspüren führte die Sicherheitsspezialisten auf das Dach des Firmengebäudes, wo sie zwei modifizierte Drohnen von DJI (globaler Marktführer im Bereich Drohnen) entdeckten: Eine Drohne vom Typ DJI Phantom war mit einem Wi-Fi Pineapple Device ausgestattet. Dieses Tool ist eigentlich für Penetrationstests gedacht, wurde in diesem Szenario aber dazu missbraucht, das legitime Unternehmensnetzwerk zu „spoofen“. Das ermöglichte es den Angreifern, die Anmeldedaten der Benutzer, beziehungsweise Mitarbeiter abzufangen, die sich unwissentlich mit dem gefälschten Netzwerk verbunden haben. Im Laufe der Untersuchungen stellte sich heraus, dass die Phantom-Drohne wohl zur Aufklärung eingesetzt wurde und unbemerkt die Anmeldedaten und den WLAN-Zugang eines Mitarbeiters erfasst hatte. Diese Login-Daten wurden anschließend auf der zweiten Drohne (Modell Matrice) hartkodiert – womit diese dazu eingesetzt werden konnte, um auf die interne Confluence-Seite des Unternehmens (und andere dort vorgehaltene Ressourcen) zuzugreifen. Letztlich wurde dieser Angriffsversuch zwar vereitelt, die Angreifer konnten jedoch nie ermittelt werden. Dieser Angriff war an sich nicht besonders raffiniert oder exotisch. Die Drohnen jedoch mit zusätzlicher Hard- und Software auszustatten, hat den Cyberkriminellen ermöglicht, physische Sicherheitsmaßnahmen einfach zu umgehen und parallel anonym zu bleiben.  Luftbasierte Angriffsszenarien Dieses Beispiel verdeutlicht, dass Drohnen längst zum Arsenal von Cyberkriminellen gehören. Die müssen dabei nicht auf militärische Spezialmodelle zurückgreifen – die normalen UAVs aus dem Consumer-Bereich reichen völlig aus, ihrer technologischen Entwicklung beziehungsweise Reife sei Dank. DJIs Mini 4 Pro beispielsweise kostet bei Amazon um die 900 Euro. Dafür bekommen Cyberkriminelle ein Fluggerät, das über eine Reichweite von 19 Kilometern steuerbar ist, 4K-Videos mit 100 Bildern pro Sekunde aufnimmt und auch automatisch bestimmten Objekten – etwa einem Auto – folgen kann. In Kombination mit weiteren Devices ließen sich etliche Angriffsszenarien spinnen. Zum Beispiel:   Netzwerk-Sniffing und -Spoofing: Drohnen lassen sich mit kleinen, modifizierbaren Computern wie einem Raspberry Pi kombinieren, um Informationen über WLAN-Netzwerke (inklusive MAC-Adressen und SSIDs) auszuspähen. Die Drohne kann dann ein bekanntes WLAN-Netzwerk imitieren und sensible Informationen wie Anmeldedaten abfangen. Denial-of-Service-Angriffe: Drohnen können auch mit Geräten kombiniert werden, die die Kommunikation zwischen einem Benutzer und einem WLAN-Zugangspunkt stören oder zu unterbrechen. Heimliche Überwachung: Mit hochwertigen Kameras ausgestattete Drohnen können dazu eingesetzt werden, Firmenareale auszuspähen und Informationen über Sicherheitsprotokolle zu sammeln. Das unterstützt Angreifer dabei, physische und virtuelle Angriffe zu planen, indem potenzielle Einstiegspunkte oder Schwachstellen identifiziert werden. Um gezielt sensible Geräte wie Server zu lokalisieren, können die Fluggeräte auch mit Wärmebildkameras ausgestattet werden. Data Interception: Drohnen lassen sich so modifizieren, dass sie verschiedene drahtlose Kommunikationsmittel, einschließlich WLAN-, Bluetooth- und RFID-Signale, abfangen und Daten stehlen können. Eine Drohne könnte beispielsweise auf Bluetooth-verbundene Tastaturen abzielen, um Tastenanschläge aufzuzeichnen und so möglicherweise Benutzernamen und Passwörter abzugreifen. Schädliche Hardware aus der Luft: Drohnen könnten auch kleinere Geräte wie Raspberry Pis oder WiFi-Pineapple-Devices in der Nähe eines Zielortes abwerfen, um Netzwerke aus nächster Nähe zu infiltrieren. Diese Geräte lassen sich im Anschluss für verschiedene Cyberangriffe nutzen. Schädliche Software aus der Luft: Zugegebenermaßen ist dieses Szenario für den Unternehmensalltag weniger relevant als für die Kriegsgebiete in der Ukraine. Dennoch ist auch diese Taktik ein möglicher Weg für Cyberkriminelle, Malware auszuliefern. Physische Angriffe auf Cyberinfrastruktur: Drohnen könnten außerdem eingesetzt werden, um Infrastrukturen anzugreifen, die die Cybersecurity stützen – etwa die Kühlsysteme auf den Dächern von Rechenzentren. Das könnte Störungen, Datenverlust oder Systemausfälle zur Folge haben. Unternehmen und Organisationen sind deshalb gut damit beraten, sich auf künftige Cyberbedrohungsszenarien aus der Luft vorzubereiten und ihr Sicherheitssystem – speziell mit Blick auf physische Security – auf den Prüfstand zu stellen. Zu diesem Zweck hat beispielsweise das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein umfassendes (englischsprachiges) Arbeitspapier (PDF) veröffentlicht – inklusive Angriffsszenarien und empfohlenen Abhilfemaßnahmen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Drohnen sind die Cybercrime-Zukunft​ loading=”lazy” width=”400px”>Bleiben Drohnen unter Ihrem Security-Radar? Agon Nimani – shutterstock.com

Wie sich Drohnen auf kreative Weise für Angriff und Verteidigung in Kriegsszenarien einsetzen lassen, kann man seit dem russischen Überfall auf die Ukraine quasi live mitverfolgen. Die ukrainischen Streitkräfte haben ein riesiges Arsenal an militärischen Drohnen aufgebaut, das nicht nur für Präzisionsschläge, Aufklärungs- sowie Kamikaze-Missionen zum Einsatz kommen – sondern auch für Offensiv- und Defensivaktionen im Bereich Cybersicherheit.  

Von diesem Beispiel lassen sich längst Cyberkriminelle auf der ganzen Welt inspirieren, um Drohnen künftig verstärkt für maliziöse Zwecke einzusetzen. Deswegen sollten sich auch alle IT- und insbesondere Security-Profis eingehend mit dem Thema Drohnen beschäftigen – beziehungsweise mit den Möglichkeiten, diese für maliziöse Zwecke zu missbrauchen.

Malware an Bord…

Vor kurzem machte auf Reddit ein Video die Runde, das beschreibt, welche Taktiken das ukrainische Militär mit Blick auf seine Drohnen einsetzt. Demnach werden die Fluggeräte inzwischen gezielt mit Malware ausgestattet, um die Hardware der russischen Angreifer zu sabotieren, falls sie eine der ukrainischen Drohnen in die Finger bekommen. Dazu sollen die Fluggeräte etwa USB-Anschlüsse ausbrennen, eine Neuprogrammierung blockieren oder die Systeme der Russen mit einem Virus infizieren, um beispielweise deren Standorte aufzudecken. Auch remote ausnutzbare Schwachstellen sind offenbar teilweise bereits in ukrainische Drohnen integriert. Diese Bemühungen erschweren es dem russischen Militär erheblich, erbeutete Drohnen umzufunktionieren und wiederzuverwenden – beispielsweise, um Informationen zu sammeln.

Zwar gab es in der Ukraine schon vor dem russischen Überfall eine starke Cybersecurity-Branche und jede Menge Expertise. Diese wird nun aber von globalem Knowhow ergänzt. So unterstützt unter anderem der britische Sicherheitsspezialist Periphery die Ukraine mit Technologie. Das Security-Unternehmen ist auf militärische Threat-Management-Systeme für IoT-Geräte spezialisiert und bietet KI-gestützte Embedded-Lösungen an, um kritische Infrastrukturen zu überwachen und abzusichern. Diese kommen nun auch zum Einsatz, um die ukrainische Drohnenflotte vor Hackerangriffen und sonstigen Störungen zu schützen.     

Das markiert einen Paradigmenwechsel, denn während in den Anfangstagen des Krieges wurden noch einfache Consumer-Geräte in den Kampfeinsatz geschickt, um Videoaufnahmen anzufertigen oder auch Granaten abzuwerfen. Inzwischen werden die unbemannten Fluggeräte jedoch zunehmend mit offensiven wie defensiven Cyber-Fähigkeiten ausgestattet.

… nicht nur im Krieg

Dass solche Taktiken längst nicht mehr nur im Ukraine-Krieg (und anderen Kampfeinsätzen) angewandt werden, beweist eine wahre Begebenheit eindrücklich, über die Security-Forscher Greg Linares bereits im Oktober 2022 auf dem Kurznachrichtendienst X informierte.

Demnach wurde ein US-Finanzdienstleister im Sommer 2022 zum Ziel einer neuen Art von Cyberangriff mit Beteiligung von Drohnen. Ans Licht gekommen war der Vorfall, nachdem das Security-Team des Unternehmens ungewöhnliche Aktivitäten auf seiner internen Atlassian-Confluence-Seite feststellte, die scheinbar aus dem Unternehmensnetzwerk stammten. Allerdings wurde die identische MAC-Adresse parallel von einem Remote-Mitarbeiter verwendet.  

Der Versuch, das unerwünschte Signal aufzuspüren führte die Sicherheitsspezialisten auf das Dach des Firmengebäudes, wo sie zwei modifizierte Drohnen von DJI (globaler Marktführer im Bereich Drohnen) entdeckten: Eine Drohne vom Typ DJI Phantom war mit einem Wi-Fi Pineapple Device ausgestattet. Dieses Tool ist eigentlich für Penetrationstests gedacht, wurde in diesem Szenario aber dazu missbraucht, das legitime Unternehmensnetzwerk zu „spoofen“.

Das ermöglichte es den Angreifern, die Anmeldedaten der Benutzer, beziehungsweise Mitarbeiter abzufangen, die sich unwissentlich mit dem gefälschten Netzwerk verbunden haben. Im Laufe der Untersuchungen stellte sich heraus, dass die Phantom-Drohne wohl zur Aufklärung eingesetzt wurde und unbemerkt die Anmeldedaten und den WLAN-Zugang eines Mitarbeiters erfasst hatte. Diese Login-Daten wurden anschließend auf der zweiten Drohne (Modell Matrice) hartkodiert – womit diese dazu eingesetzt werden konnte, um auf die interne Confluence-Seite des Unternehmens (und andere dort vorgehaltene Ressourcen) zuzugreifen. Letztlich wurde dieser Angriffsversuch zwar vereitelt, die Angreifer konnten jedoch nie ermittelt werden. Dieser Angriff war an sich nicht besonders raffiniert oder exotisch. Die Drohnen jedoch mit zusätzlicher Hard- und Software auszustatten, hat den Cyberkriminellen ermöglicht, physische Sicherheitsmaßnahmen einfach zu umgehen und parallel anonym zu bleiben. 

Luftbasierte Angriffsszenarien

Dieses Beispiel verdeutlicht, dass Drohnen längst zum Arsenal von Cyberkriminellen gehören. Die müssen dabei nicht auf militärische Spezialmodelle zurückgreifen – die normalen UAVs aus dem Consumer-Bereich reichen völlig aus, ihrer technologischen Entwicklung beziehungsweise Reife sei Dank.

DJIs Mini 4 Pro beispielsweise kostet bei Amazon um die 900 Euro. Dafür bekommen Cyberkriminelle ein Fluggerät, das über eine Reichweite von 19 Kilometern steuerbar ist, 4K-Videos mit 100 Bildern pro Sekunde aufnimmt und auch automatisch bestimmten Objekten – etwa einem Auto – folgen kann. In Kombination mit weiteren Devices ließen sich etliche Angriffsszenarien spinnen. Zum Beispiel:  

Netzwerk-Sniffing und -Spoofing: Drohnen lassen sich mit kleinen, modifizierbaren Computern wie einem Raspberry Pi kombinieren, um Informationen über WLAN-Netzwerke (inklusive MAC-Adressen und SSIDs) auszuspähen. Die Drohne kann dann ein bekanntes WLAN-Netzwerk imitieren und sensible Informationen wie Anmeldedaten abfangen.

Denial-of-Service-Angriffe: Drohnen können auch mit Geräten kombiniert werden, die die Kommunikation zwischen einem Benutzer und einem WLAN-Zugangspunkt stören oder zu unterbrechen.

Heimliche Überwachung: Mit hochwertigen Kameras ausgestattete Drohnen können dazu eingesetzt werden, Firmenareale auszuspähen und Informationen über Sicherheitsprotokolle zu sammeln. Das unterstützt Angreifer dabei, physische und virtuelle Angriffe zu planen, indem potenzielle Einstiegspunkte oder Schwachstellen identifiziert werden. Um gezielt sensible Geräte wie Server zu lokalisieren, können die Fluggeräte auch mit Wärmebildkameras ausgestattet werden.

Data Interception: Drohnen lassen sich so modifizieren, dass sie verschiedene drahtlose Kommunikationsmittel, einschließlich WLAN-, Bluetooth- und RFID-Signale, abfangen und Daten stehlen können. Eine Drohne könnte beispielsweise auf Bluetooth-verbundene Tastaturen abzielen, um Tastenanschläge aufzuzeichnen und so möglicherweise Benutzernamen und Passwörter abzugreifen.

Schädliche Hardware aus der Luft: Drohnen könnten auch kleinere Geräte wie Raspberry Pis oder WiFi-Pineapple-Devices in der Nähe eines Zielortes abwerfen, um Netzwerke aus nächster Nähe zu infiltrieren. Diese Geräte lassen sich im Anschluss für verschiedene Cyberangriffe nutzen.

Schädliche Software aus der Luft: Zugegebenermaßen ist dieses Szenario für den Unternehmensalltag weniger relevant als für die Kriegsgebiete in der Ukraine. Dennoch ist auch diese Taktik ein möglicher Weg für Cyberkriminelle, Malware auszuliefern.

Physische Angriffe auf Cyberinfrastruktur: Drohnen könnten außerdem eingesetzt werden, um Infrastrukturen anzugreifen, die die Cybersecurity stützen – etwa die Kühlsysteme auf den Dächern von Rechenzentren. Das könnte Störungen, Datenverlust oder Systemausfälle zur Folge haben.

Unternehmen und Organisationen sind deshalb gut damit beraten, sich auf künftige Cyberbedrohungsszenarien aus der Luft vorzubereiten und ihr Sicherheitssystem – speziell mit Blick auf physische Security – auf den Prüfstand zu stellen. Zu diesem Zweck hat beispielsweise das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein umfassendes (englischsprachiges) Arbeitspapier (PDF) veröffentlicht – inklusive Angriffsszenarien und empfohlenen Abhilfemaßnahmen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Drohnen sind die Cybercrime-Zukunft​ Weiterlesen »

So geht modernes Recruiting heute​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?quality=50&strip=all 4444w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  3rdtimeluckystudio – Shutterstock 2159636061 Fachkräfte fehlen überall – besonders in der IT-Branche. Der Branchenverband Bitkom warnt seit Jahren vor einem zunehmenden Fachkräftemangel in IT-Berufen. Neue Technologien wie KI und Automatisierung dürften den Engpass weiter verschärfen. Unternehmen, die mit der rasanten Entwicklung Schritt halten wollen, sind mehr denn je auf qualifizierte Mitarbeiterinnen und Mitarbeiter angewiesen.  Schon heute zeigt sich: Das klassische post and pray – also Stellenanzeigen schalten und abwarten – funktioniert schon lange nicht mehr. Statt passiv zu hoffen, müssen Unternehmen aktiv um Talente werben und sie für sich begeistern. Die Konsequenz? Unternehmen, die weiterhin auf traditionelle – oder schlicht veraltete – Rekrutierungsmethoden setzen, geraten ins Hintertreffen. Denn:  1. Unternehmen konkurrieren um wenige Fachkräfte: Die meisten High Potentials, vor allem im IT-Bereich, sind längst bei Unternehmen unter Vertrag und daher gar nicht erst auf Jobsuche. Wenn ein solches Talent dann auf dem Markt ist, sind mehrere Arbeitgeber im Wettbewerb um diese Person.  2.  Langwierige und undurchsichtige Prozesse schrecken ab: Unternehmen, die nicht in moderne Recruiting-Prozesse investiert haben, sind für die meisten IT-Talente unattraktiv. Überspitzt formuliert: Warum sollte ein gesuchter IT-Spezialist eine Woche auf eine standardisierte Nachricht in einem Bewerbungsprozess warten, wenn er oder sie bei einem anderen Unternehmen jederzeit einen persönlichen Ansprechpartner hat – der übrigens kein Mensch sein muss, aber dazu später mehr.  3. Stellenausschreibung und Anforderungsprofil passen nicht zusammen: Wer glaubt, dass die Diskrepanzen zwischen der veröffentlichten Stellenanzeige (bzw. dem Kurzprofil, nach dem Recruiter aktiv suchen) und den tatsächlichen Anforderungen, die in der jeweiligen Abteilung an den neuen Mitarbeiter gestellt werden, längst überwunden sind, der irrt gewaltig. In vielen Unternehmen ist es heute noch so, dass die Personalabteilung die Stellenausschreibung verfasst – und die Personalabteilung selbst weiß vielleicht gar nicht so genau, welche Fähigkeiten von dem Mitarbeiter wirklich verlangt werden.     Neue Wege gehen: IT-Talente finden und binden Wer die besten Talente finden will, muss sich heute etwas einfallen lassen und innovative Ansätze im Recruiting ausprobieren. Das beginnt bei der Wahl der Plattformen und der Art der Ansprache. Aber auch einige „traditionelle“ Ansätze können vielversprechend sein:   Nischenplattformen nutzen: Klassische Jobbörsen reichen längst nicht mehr aus. Vielversprechender sind spezialisierte Plattformen wie GitHub, Kaggle oder Stack Overflow, auf denen sich viele Entwickler aktiv austauschen.  Kontakte früh knüpfen: Unternehmen sollten bereits an Hochschulen oder Coding-Schools präsent sein. Durch Partnerschaften mit Bildungseinrichtungen können frühzeitig Beziehungen zu zukünftigen Fachkräften aufgebaut werden.  Veranstaltungen nutzen: Hackathons oder Tech-Meetups bieten die Möglichkeit, in ungezwungener Atmosphäre mit IT-Talenten ins Gespräch zu kommen und frühzeitig Kontakte zu knüpfen.  Fakt ist aber auch: Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert den Bewerbungsprozess. Durch Machine Learning und Big-Data-Analysen lassen sich Bewerbungen schnell und präzise auswerten – selbst bei einer großen Anzahl an Bewerbern.  Datenschutz und Fairness sicherstellen  Digitale Tools und KI verändern den Bewerbungsprozess – doch damit steigt auch die Verantwortung der Unternehmen. Bevor KI-Systeme zum Einsatz kommen, müssen alle datenschutzrechtlichen Vorgaben – allen voran die Datenschutz-Grundverordnung (DSGVO) – erfüllt sein.  Dabei gilt: Transparenz ist Trumpf. Bewerber sollten wissen, wie ihre Daten verarbeitet werden und welche Rolle KI bei Entscheidungen spielt. Ein offener Umgang damit schafft Vertrauen und minimiert das Risiko von Diskriminierung.    Video-Bewerbungen und digitale Interviews Parallel zu KI-gestützten Analysen gewinnen weitere neue Bewerbungsformate an Bedeutung. Video-Bewerbungen und asynchrone Interviews machen den Prozess schneller, flexibler und effizienter. Während früher die Terminfindung für Gespräche Wochen dauerte, können asynchrone Interviews jederzeit bearbeitet werden – ein Pluspunkt für beide Seiten.  Gerade in der IT- und Digitalbranche, wo Talente mehrere Optionen haben, sind unkomplizierte und innovative Verfahren ein echter Wettbewerbsvorteil. Wer den Bewerbungsprozess transparent, schnell und reibungslos gestaltet, hat die Nase vorn.  Diese neue Art der Rekrutierung bietet Vorteile für beide Seiten. Zum Beispiel diese:  1. Schnelle Ersteinschätzung durch Video-Bewerbungen: Anstatt aufwändige Anschreiben zu verfassen, präsentieren sich Bewerber innerhalb weniger Minuten per Video. Dies ermöglicht eine schnelle und authentische Einschätzung der Person – bereits vor einem persönlichen Gespräch.  2. Asynchrone Interviews bieten maximale Flexibilität: Zeitliche Abstimmungsprobleme gehören der Vergangenheit an. Bewerber können vordefinierte Fragen per Video beantworten – wann es für sie passt. Das erleichtert den Prozess.  3. Bessere Vorauswahl durch persönliche Eindrücke: Schriftliche Bewerbungen geben oft nur bedingt Aufschluss über Soft Skills oder kommunikative Fähigkeiten. Videointerviews bieten die Möglichkeit, diese wichtigen Aspekte frühzeitig zu berücksichtigen.   Wie der Bewerbungsprozess über den Erfolg entscheidet  Entscheidend dabei, neue Talente zu gewinnen, ist nicht nur, wer einstellt, sondern vor allem, wie der Bewerbungsprozess abläuft. Ein transparenter und effizienter Recruiting-Prozess ist dabei längst nicht mehr nur in der IT-Branche wichtig – er macht in nahezu jeder Branche den Unterschied.  Ein besonders wichtiger Faktor: Geschwindigkeit. Studien zeigen immer wieder: Je länger Bewerber auf eine Rückmeldung warten, desto wahrscheinlicher ist es, dass ihr Interesse nachlässt. Als akzeptable Reaktionszeit gelten zwei Wochen. Danach steigt das Risiko, dass vielversprechende Kandidaten abspringen oder bei der Konkurrenz unterschreiben.    KI-Bots als Beschleuniger Hier können KI-Bots einen entscheidenden Unterschied machen. Unternehmen setzen zunehmend auf intelligente Chatbots, um Bewerber durch den Prozess zu begleiten. Diese Bots beantworten Fragen in Echtzeit und informieren über den Status der Bewerbung.  Der Vorteil: Schnellere Reaktionszeiten und durchgängige Erreichbarkeit – zwei Faktoren, die besonders bei IT-Fachkräften, die sich nicht selten zwischen mehreren Angeboten entscheiden müssen, den Ausschlag geben können. Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  KI-Bots können nicht nur standardisierte Aufgaben wie Terminvereinbarungen übernehmen oder häufig gestellte Fragen beantworten, sondern auch Bewerber vorqualifizieren leisten. So bleibt dem HR-Team mehr Zeit für strategische Entscheidungen und die persönliche Ansprache vielversprechender Kandidaten.  Zusammengefasst: Was macht einen erfolgreichen Bewerbungsprozess aus? Im War for Talents zählt jeder Schritt – denn das Bewerbungsverfahren ist oft der erste Eindruck, den ein Unternehmen bei potenziellen Mitarbeitenden hinterlässt. Wer hier überzeugt, gewinnt nicht nur die besten Talente, sondern stärkt auch seine Arbeitgebermarke.  Erfolgreiche Unternehmen setzen auf klare Abläufe, schnelle Entscheidungen und eine wertschätzende Kommunikation. Ein transparenter und effizienter Prozess zeigt Professionalität und signalisiert Bewerbern, dass sie und ihre Zeit geschätzt werden.  Folgende Erfolgsfaktoren helfen, Talente langfristig zu binden:  1. Klare Prozessstruktur: Definieren Sie von Anfang an die einzelnen Schritte des Auswahlverfahrens und kommunizieren Sie diese offen mit den Bewerbern. Ein transparenter Prozess schafft Vertrauen und gibt den Kandidaten die Möglichkeit, sich gezielt auf die einzelnen Phasen vorzubereiten.  2. Zeitliche Effizienz: Minimieren Sie die Dauer zwischen den verschiedenen Prozessschritten. Eine zügige Bearbeitung zeigt nicht nur Professionalität, sondern signalisiert auch Wertschätzung gegenüber den Bewerbern.  3. Standardisierte Bewertungskriterien: Einheitliche und klar definierte Kriterien stellen sicher, dass alle Kandidaten objektiv und fair beurteilt werden. Dies reduziert nicht nur den Einfluss subjektiver Wahrnehmungen, sondern erleichtert auch vergleichbare Entscheidungen.  4. Personalisierte Kommunikation: Vermeiden Sie unpersönliche Standardabsagen. Individuelle und wertschätzende Rückmeldungen hinterlassen einen positiven Eindruck – auch dann, wenn es nicht zu einer Einstellung kommt. Ein Bewerbungsprozess endet nicht mit einer Zusage oder Absage: Auch abgelehnte Kandidaten können zu späteren Zeitpunkten wieder interessant werden oder das Unternehmen weiterempfehlen.  

So geht modernes Recruiting heute​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?quality=50&strip=all 4444w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  3rdtimeluckystudio – Shutterstock 2159636061

Fachkräfte fehlen überall – besonders in der IT-Branche. Der Branchenverband Bitkom warnt seit Jahren vor einem zunehmenden Fachkräftemangel in IT-Berufen. Neue Technologien wie KI und Automatisierung dürften den Engpass weiter verschärfen. Unternehmen, die mit der rasanten Entwicklung Schritt halten wollen, sind mehr denn je auf qualifizierte Mitarbeiterinnen und Mitarbeiter angewiesen. 

Schon heute zeigt sich: Das klassische post and pray – also Stellenanzeigen schalten und abwarten – funktioniert schon lange nicht mehr. Statt passiv zu hoffen, müssen Unternehmen aktiv um Talente werben und sie für sich begeistern. Die Konsequenz? Unternehmen, die weiterhin auf traditionelle – oder schlicht veraltete – Rekrutierungsmethoden setzen, geraten ins Hintertreffen. Denn: 

1. Unternehmen konkurrieren um wenige Fachkräfte: Die meisten High Potentials, vor allem im IT-Bereich, sind längst bei Unternehmen unter Vertrag und daher gar nicht erst auf Jobsuche. Wenn ein solches Talent dann auf dem Markt ist, sind mehrere Arbeitgeber im Wettbewerb um diese Person. 

2.  Langwierige und undurchsichtige Prozesse schrecken ab: Unternehmen, die nicht in moderne Recruiting-Prozesse investiert haben, sind für die meisten IT-Talente unattraktiv. Überspitzt formuliert: Warum sollte ein gesuchter IT-Spezialist eine Woche auf eine standardisierte Nachricht in einem Bewerbungsprozess warten, wenn er oder sie bei einem anderen Unternehmen jederzeit einen persönlichen Ansprechpartner hat – der übrigens kein Mensch sein muss, aber dazu später mehr. 

3. Stellenausschreibung und Anforderungsprofil passen nicht zusammen: Wer glaubt, dass die Diskrepanzen zwischen der veröffentlichten Stellenanzeige (bzw. dem Kurzprofil, nach dem Recruiter aktiv suchen) und den tatsächlichen Anforderungen, die in der jeweiligen Abteilung an den neuen Mitarbeiter gestellt werden, längst überwunden sind, der irrt gewaltig. In vielen Unternehmen ist es heute noch so, dass die Personalabteilung die Stellenausschreibung verfasst – und die Personalabteilung selbst weiß vielleicht gar nicht so genau, welche Fähigkeiten von dem Mitarbeiter wirklich verlangt werden.  

 

Neue Wege gehen: IT-Talente finden und binden

Wer die besten Talente finden will, muss sich heute etwas einfallen lassen und innovative Ansätze im Recruiting ausprobieren. Das beginnt bei der Wahl der Plattformen und der Art der Ansprache. Aber auch einige „traditionelle“ Ansätze können vielversprechend sein:  

Nischenplattformen nutzen: Klassische Jobbörsen reichen längst nicht mehr aus. Vielversprechender sind spezialisierte Plattformen wie GitHub, Kaggle oder Stack Overflow, auf denen sich viele Entwickler aktiv austauschen. 

Kontakte früh knüpfen: Unternehmen sollten bereits an Hochschulen oder Coding-Schools präsent sein. Durch Partnerschaften mit Bildungseinrichtungen können frühzeitig Beziehungen zu zukünftigen Fachkräften aufgebaut werden. 

Veranstaltungen nutzen: Hackathons oder Tech-Meetups bieten die Möglichkeit, in ungezwungener Atmosphäre mit IT-Talenten ins Gespräch zu kommen und frühzeitig Kontakte zu knüpfen. 

Fakt ist aber auch: Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert den Bewerbungsprozess. Durch Machine Learning und Big-Data-Analysen lassen sich Bewerbungen schnell und präzise auswerten – selbst bei einer großen Anzahl an Bewerbern. 

Datenschutz und Fairness sicherstellen 

Digitale Tools und KI verändern den Bewerbungsprozess – doch damit steigt auch die Verantwortung der Unternehmen. Bevor KI-Systeme zum Einsatz kommen, müssen alle datenschutzrechtlichen Vorgaben – allen voran die Datenschutz-Grundverordnung (DSGVO) – erfüllt sein. 

Dabei gilt: Transparenz ist Trumpf. Bewerber sollten wissen, wie ihre Daten verarbeitet werden und welche Rolle KI bei Entscheidungen spielt. Ein offener Umgang damit schafft Vertrauen und minimiert das Risiko von Diskriminierung. 

 

Video-Bewerbungen und digitale Interviews

Parallel zu KI-gestützten Analysen gewinnen weitere neue Bewerbungsformate an Bedeutung. Video-Bewerbungen und asynchrone Interviews machen den Prozess schneller, flexibler und effizienter. Während früher die Terminfindung für Gespräche Wochen dauerte, können asynchrone Interviews jederzeit bearbeitet werden – ein Pluspunkt für beide Seiten. 

Gerade in der IT- und Digitalbranche, wo Talente mehrere Optionen haben, sind unkomplizierte und innovative Verfahren ein echter Wettbewerbsvorteil. Wer den Bewerbungsprozess transparent, schnell und reibungslos gestaltet, hat die Nase vorn. 

Diese neue Art der Rekrutierung bietet Vorteile für beide Seiten. Zum Beispiel diese: 

1. Schnelle Ersteinschätzung durch Video-Bewerbungen: Anstatt aufwändige Anschreiben zu verfassen, präsentieren sich Bewerber innerhalb weniger Minuten per Video. Dies ermöglicht eine schnelle und authentische Einschätzung der Person – bereits vor einem persönlichen Gespräch. 

2. Asynchrone Interviews bieten maximale Flexibilität: Zeitliche Abstimmungsprobleme gehören der Vergangenheit an. Bewerber können vordefinierte Fragen per Video beantworten – wann es für sie passt. Das erleichtert den Prozess. 

3. Bessere Vorauswahl durch persönliche Eindrücke: Schriftliche Bewerbungen geben oft nur bedingt Aufschluss über Soft Skills oder kommunikative Fähigkeiten. Videointerviews bieten die Möglichkeit, diese wichtigen Aspekte frühzeitig zu berücksichtigen. 

 Wie der Bewerbungsprozess über den Erfolg entscheidet 

Entscheidend dabei, neue Talente zu gewinnen, ist nicht nur, wer einstellt, sondern vor allem, wie der Bewerbungsprozess abläuft. Ein transparenter und effizienter Recruiting-Prozess ist dabei längst nicht mehr nur in der IT-Branche wichtig – er macht in nahezu jeder Branche den Unterschied. 

Ein besonders wichtiger Faktor: Geschwindigkeit. Studien zeigen immer wieder: Je länger Bewerber auf eine Rückmeldung warten, desto wahrscheinlicher ist es, dass ihr Interesse nachlässt. Als akzeptable Reaktionszeit gelten zwei Wochen. Danach steigt das Risiko, dass vielversprechende Kandidaten abspringen oder bei der Konkurrenz unterschreiben. 

 

KI-Bots als Beschleuniger

Hier können KI-Bots einen entscheidenden Unterschied machen. Unternehmen setzen zunehmend auf intelligente Chatbots, um Bewerber durch den Prozess zu begleiten. Diese Bots beantworten Fragen in Echtzeit und informieren über den Status der Bewerbung. 

Der Vorteil: Schnellere Reaktionszeiten und durchgängige Erreichbarkeit – zwei Faktoren, die besonders bei IT-Fachkräften, die sich nicht selten zwischen mehreren Angeboten entscheiden müssen, den Ausschlag geben können. Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich. 

KI-Bots können nicht nur standardisierte Aufgaben wie Terminvereinbarungen übernehmen oder häufig gestellte Fragen beantworten, sondern auch Bewerber vorqualifizieren leisten. So bleibt dem HR-Team mehr Zeit für strategische Entscheidungen und die persönliche Ansprache vielversprechender Kandidaten. 

Zusammengefasst: Was macht einen erfolgreichen Bewerbungsprozess aus? Im War for Talents zählt jeder Schritt – denn das Bewerbungsverfahren ist oft der erste Eindruck, den ein Unternehmen bei potenziellen Mitarbeitenden hinterlässt. Wer hier überzeugt, gewinnt nicht nur die besten Talente, sondern stärkt auch seine Arbeitgebermarke. 

Erfolgreiche Unternehmen setzen auf klare Abläufe, schnelle Entscheidungen und eine wertschätzende Kommunikation. Ein transparenter und effizienter Prozess zeigt Professionalität und signalisiert Bewerbern, dass sie und ihre Zeit geschätzt werden. 

Folgende Erfolgsfaktoren helfen, Talente langfristig zu binden: 

1. Klare Prozessstruktur: Definieren Sie von Anfang an die einzelnen Schritte des Auswahlverfahrens und kommunizieren Sie diese offen mit den Bewerbern. Ein transparenter Prozess schafft Vertrauen und gibt den Kandidaten die Möglichkeit, sich gezielt auf die einzelnen Phasen vorzubereiten. 

2. Zeitliche Effizienz: Minimieren Sie die Dauer zwischen den verschiedenen Prozessschritten. Eine zügige Bearbeitung zeigt nicht nur Professionalität, sondern signalisiert auch Wertschätzung gegenüber den Bewerbern. 

3. Standardisierte Bewertungskriterien: Einheitliche und klar definierte Kriterien stellen sicher, dass alle Kandidaten objektiv und fair beurteilt werden. Dies reduziert nicht nur den Einfluss subjektiver Wahrnehmungen, sondern erleichtert auch vergleichbare Entscheidungen. 

4. Personalisierte Kommunikation: Vermeiden Sie unpersönliche Standardabsagen. Individuelle und wertschätzende Rückmeldungen hinterlassen einen positiven Eindruck – auch dann, wenn es nicht zu einer Einstellung kommt. Ein Bewerbungsprozess endet nicht mit einer Zusage oder Absage: Auch abgelehnte Kandidaten können zu späteren Zeitpunkten wieder interessant werden oder das Unternehmen weiterempfehlen. 

So geht modernes Recruiting heute​ Weiterlesen »

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​

Allgemein

Geht es um Nachhaltigkeit, sind die Ziele in vielen Unternehmen ehrgeizig. Lesen Sie, mit welchen Softwarelösungen sie zu erreichen sind. Foto: kmingwwww – shutterstock.com Organisationen stehen zunehmend unter dem Druck zahlreicher Stakeholder, Nachhaltigkeitspraktiken in ihre Geschäftsstrategien zu integrieren. Geht es darum, die oft ehrgeizigen Ziele im Bereich Enterprise, Social und Governance (ESG) auch zu erreichen, kann Nachhaltigkeitsmanagement-Software die entscheidende Rolle spielen. Entsprechend sind Lösungen in diesem Bereich zunehmend gefragt, wie Amy Cravens, Research Manager bei den Marktforschern von IDC, bestätigt: “ESG ist für viele Unternehmen noch neu. Sie müssen erst noch verstehen, was sie genau tun müssen und wie sie das angehen sollen. Software in Verbindung mit Serviceangeboten kann Unternehmen dabei unterstützen, ihr ESG-Reporting zu bewältigen.” Im Folgenden lesen Sie, was Software für das Nachhaltigkeitsmanagement leisten sollte, welche Fallstricke Sie vermeiden sollten und welche Lösungen sich in diesem noch jungen Bereich empfehlen. Was ESG-Software leisten sollte Sustainability-Management-Softwarelösungen sollten allgemein gesprochen folgende Funktionen mitbringen: Umwelt-Compliance: Diese Funktion überwacht die “Environmental Performance” eines Unternehmens, indem sie die entsprechenden Erfordernisse trackt, managt und die Ergebnisse in Reportings gießt. Soziale Compliance: Hilft Unternehmen zu verstehen, wie mit verschiedene Personengruppen (Kunden, Mitarbeiter, Lieferanten, etc.) umzugehen ist und wie sich geschäftliche Entscheidungen gesellschaftlich auswirken. Governance Compliance: Unterstützt Firmen dabei, die Wirksamkeit ihrer Governance-Richtlinien zu bewerten und Compliance zu gewährleisten. Energiemanagement: Datenanalyse-Tools können den Energieverbrauch überwachen und Bereiche beziehungsweise Muster und Trends identifizieren, die Raum für Optimierungen aufweisen. Emissions-Monitoring: Diese Funktion hilft Unternehmen dabei, Umweltvorschriften einzuhalten und Möglichkeiten zu identifizieren, Emissionen zu reduzieren. Reporting und Analytics: Daten aus einer Vielzahl von Quellen, zum Beispiel Wasser- oder Stromzähler und Abfallmanagementsysteme aber auch zu sozialen Faktoren, sollten in einer zentralen Datenbank zusammenlaufen. Das ermöglicht, Analysen zu fahren und in diesem Zuge Trends, Muster sowie Unregelmäßigkeiten aufzudecken. Alerts: Tools für das Nachhaltigkeitsmanagement sollten Unternehmen erlauben, die Initiative zu ergreifen und potenzielle Umweltprobleme aktiv zu erkennen und anzugehen. Dazu werden Grenzwerte für Umweltfaktoren definiert, die von der Software überwacht werden. Bei Überschreitung dieser Werte wird eine Alarmmeldung ausgegeben. Inspektionsmanagement: Unternehmen können Nachhaltigkeitsmanagement-Tools auch nutzen, um entsprechende Inspektionen für ihre Anlagen, Geräte und Einrichtungen zu organisieren und zu managen. KPI-Monitoring: Auch bestimmte ökologische und soziale Ziele lassen sich in Sustainability-Management-Lösungen als Leistungsindikatoren festlegen und tracken. Die Fortschritte des Unternehmens lassen sich anhand entsprechender Reportings nachvollziehen. 4 Sustainability-Management-Fallstricke Im Folgenden werfen wir einen Blick auf die vier häufigsten Fallstricke von Nachhaltigkeitsmanagement-Tools, die Unternehmen vermeiden sollten. 1. Tools, die nicht skalierbar sind “Wir raten Endanwendern regelmäßig, auf Skalierbarkeit zu achten”, berichtet Gartner-Analyst Aapo Markkanen. “Diese Tools können sehr überzeugend erscheinen, wenn sie als Proof of Concept oder in einem Pilotprojekt eingesetzt werden. Eine solche Lösung allerdings auf globaler Ebene zu skalieren, um alle Unternehmensprozesse abzudecken, ist eine Herausforderung.” 2. ESG-Software steckt in den Kinderschuhen “Die meisten Nachhaltigkeitsmanagement-Tools sind erst seit etwa zwei Jahren auf dem Markt”, unterstreicht IDC-Analystin Craven. Sie fügt hinzu: “Da sich viele Funktionen noch in der Entwicklung befinden, ist es aktuell wirklich schwierig zu sagen, welche Lösung die beste sein wird, wenn es um Langlebigkeit und die besten Funktionen geht.” In der Konsequenz rät die Analystin Unternehmen, auf etablierte Anbieter mit Marktpräsenz zu setzen, die eine solide Finanzierung sowie einen guten Kunden- und Partnerstamm vorweisen können: “Identifizieren Sie Anbieter, die sich seit langem der Nachhaltigkeit verschreiben – etwa IBM oder SAP. Diese sind oft besonders engagiert.” 3. Falsche Prioritäten ESG-Tools bieten eine Vielzahl von Funktionen – die Unternehmen auf der Grundlage ihrer Branche und ihrer aktuellen Situation evaluieren sollten, wie Abhijit Sunil, Senior Analyst bei Forrester, empfiehlt: “Einige Unternehmen verfügen beispielsweise über sehr fortschrittliche interne Sustainability-Teams und haben bereits Prozesse eingeführt, während andere noch gar nicht begonnen haben.” Genauso wichtig sei es darüber hinaus, die Erfolgsbilanz des Anbieters für die jeweilige Branche zu ermitteln: “Wenn Sie in der Automobilindustrie tätig sind, sollten Sie herausfinden, ob das betreffende Tool in dieser Branche gute Benchmarks aufweisen kann.” 4. Kein Weitblick Weil sich Vorschriften, Regularien und Rahmenbedingungen kontinuierlich verändern, ist es für Unternehmen essenziell, Nachhaltigkeitsmanagement-Tools zu wählen, die entsprechende Flexibilität ermöglichen. 6 Lösungen fürs Nachhaltigkeitsmanagement Auf dem Markt gibt es zahlreiche Plattformen und Lösungen für das Nachhaltigkeitsmanagement. Um Ihnen die Recherche zu erleichtern, haben wir die folgenden sechs Produkte und Plattformen auf der Grundlage unserer Gespräche mit Analysten und unabhängigen Studien ausgewählt. IBM Envizi ESG Suite Die ESG-Suite von Big Blue wird als Software-as-a-Service (SaaS)-Kollektion angeboten, bestehend aus neun modularen Daten- und Analyseprodukten. Die Nachhaltigkeitsmanagement-Lösung unterstützt Anwender dabei, ESG-Daten zu Energieverbrauch und Emissionen zu erfassen, zu tracken und zu reporten. Dazu konsolidiert die Lösung mehr als 500 ESG-Datenquellen in einem System, um den Anwendern zu erleichtern, die Informationen zu erfassen, zu managen und auszuwerten. Die ESG-Suite ist mit IBMs Application Resource Management, Facility Management und Enterprise Asset Management Tools integrierbar und eignet sich in erster Linie für IBM-Kunden und Unternehmen mit ausgereiften Sustainability-Programmen. Microsoft Cloud for Sustainability Mit automatisierten Datenverbindungen und “actionable” Insights möchte Microsoft Unternehmen dabei unterstützen, die Umweltauswirkungen ihrer betreiblichen Systeme und Prozesse in Echtzeit zu erfassen, zu reporten und effektiv zu reduzieren. Dazu kombiniert die Lösung zahlreiche ESG-Funktionalitäten aus dem gesamten Cloud-Portfolio der Redmonder sowie ihren Partnern. Mit Hilfe der Microsoft Cloud for Sustainability API können Anwender beispielsweise ermitteln, welche Emissionswerte die Nutzung von Microsoft-365-Services (Outlook, SharePoint, Teams, Excel und so weiter) im Rechenzentrum verursacht. Persefoni Laut Hersteller handelt es sich bei dieser Lösung um eine “Klimamanagement-Plattform”. Diese wartet mit einer einheitlichen “Emissionsbuchhaltung” auf und ermöglicht Unternehmen, ihre CO2-freie Zukunft zu planen. Die Plattform ist insbesondere auf eine simple Bedienung ausgelegt und ermöglicht den Anwendern, ihre Emissionen über sämtliche Geschäftsbereiche und -prozesse hinweg zu tracken und zu messen. Mit dem “Net Zero Navigator” des Anbieters können Unternehmen eigene, auf ihre jeweiligen Bedürfnisse zugeschnittene Dekarbonisierungsstrategien entwickeln. Die Nachhaltigkeitsmanagement-Lösung von Persefoni eignet sich am ehesten für große, multinational agierende Unternehmen, Asset Manager und Finanzinstitutionen, die eine automatisierte Treibhausgasbilanzierung und Finanzberichterstattung benötigen. Salesforce Net Zero Cloud Die Sustainability-Management-Lösung von Salesforce fußt auf der Lightning-Plattform des Anbieters und ermöglicht Anwendern, ihren Environmental Impact zu managen und zu tracken. Zum Lösungspaket gehören zahlreiche Tools und Ressourcen, um Energieverbrauch, Emissionswerte und Abfallproduktion zu messen beziehungsweise zu reduzieren. Die Salesforce-Lösung integriert Daten aus verschiedenen Quellen, automatisiert Workflows und bietet Reportings inklusive wichtiger Nachhaltigkeitskennzahlen. Sie eignet sich am besten für Unternehmen, die auf absehbare Zeit auf Zero Emission umstellen möchten. SAP Cloud for Sustainable Enterprises Auch SAP unterstützt Unternehmen dabei, ihren CO2-Verbrauch zu managen, Abfälle zu reduzieren und ihrer sozialen Verantwortung gerecht zu werden. Dazu bieten die Walldorfer eine Sammlung cloudbasierter Software, inklusive ESG- und Nachhaltigkeits-Reporting-Tools. Das soll den Anwendern ermöglichen, ihre Finanz-, Sozial- und Umweltdaten miteinander zu verknüpfen, um bessere Geschäftsentscheidungen treffen zu können. Der SAP Sustainability Control Tower soll Unternehmen darüber hinaus dabei unterstützen, noch nicht erreichte Nachhaltigkeitsziele zu identifizieren, zu analysieren und entsprechende Maßnahmen zu ergreifen, um das zu ändern. Mit SAP Sustainability Footprint Management können die Anwender zudem ihren CO2-Fußabdruck auf Produkt- und Unternehmensebene evaluieren. Wolters Kluwer Enablon ESG Die Lösung von Wolters Kluwer enthält Tools für Nachhaltigkeits- und ESG-Reportings sowie Anwendungen, mit denen Unternehmen Treibhausgasemissionen, Nachhaltigkeitsleistungen und Stakeholder-Beziehungen managen können. Der Anbieter verspricht seinen Kunden, ihre ESG-Daten aus unternehmensweiten Quellen zu zentralisieren und zu validieren, was den Zeitaufwand für die Datenerfassung reduzieren und die Berichterstattung vereinfachen soll. Diese Nachhaltigkeitsmanagement-Lösung eignet sich in besonderem Maße für Anwender aus den Bereichen Biowissenschaften, Energiewirtschaft, Fertigung und anderen Sektoren, die Umwelt- und Gesundheitsdaten benötigen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​ Geht es um Nachhaltigkeit, sind die Ziele in vielen Unternehmen ehrgeizig. Lesen Sie, mit welchen Softwarelösungen sie zu erreichen sind.
Foto: kmingwwww – shutterstock.com

Organisationen stehen zunehmend unter dem Druck zahlreicher Stakeholder, Nachhaltigkeitspraktiken in ihre Geschäftsstrategien zu integrieren. Geht es darum, die oft ehrgeizigen Ziele im Bereich Enterprise, Social und Governance (ESG) auch zu erreichen, kann Nachhaltigkeitsmanagement-Software die entscheidende Rolle spielen. Entsprechend sind Lösungen in diesem Bereich zunehmend gefragt, wie Amy Cravens, Research Manager bei den Marktforschern von IDC, bestätigt: “ESG ist für viele Unternehmen noch neu. Sie müssen erst noch verstehen, was sie genau tun müssen und wie sie das angehen sollen. Software in Verbindung mit Serviceangeboten kann Unternehmen dabei unterstützen, ihr ESG-Reporting zu bewältigen.”

Im Folgenden lesen Sie, was Software für das Nachhaltigkeitsmanagement leisten sollte, welche Fallstricke Sie vermeiden sollten und welche Lösungen sich in diesem noch jungen Bereich empfehlen.

Was ESG-Software leisten sollte

Sustainability-Management-Softwarelösungen sollten allgemein gesprochen folgende Funktionen mitbringen:

Umwelt-Compliance: Diese Funktion überwacht die “Environmental Performance” eines Unternehmens, indem sie die entsprechenden Erfordernisse trackt, managt und die Ergebnisse in Reportings gießt.

Soziale Compliance: Hilft Unternehmen zu verstehen, wie mit verschiedene Personengruppen (Kunden, Mitarbeiter, Lieferanten, etc.) umzugehen ist und wie sich geschäftliche Entscheidungen gesellschaftlich auswirken.

Governance Compliance: Unterstützt Firmen dabei, die Wirksamkeit ihrer Governance-Richtlinien zu bewerten und Compliance zu gewährleisten.

Energiemanagement: Datenanalyse-Tools können den Energieverbrauch überwachen und Bereiche beziehungsweise Muster und Trends identifizieren, die Raum für Optimierungen aufweisen.

Emissions-Monitoring: Diese Funktion hilft Unternehmen dabei, Umweltvorschriften einzuhalten und Möglichkeiten zu identifizieren, Emissionen zu reduzieren.

Reporting und Analytics: Daten aus einer Vielzahl von Quellen, zum Beispiel Wasser- oder Stromzähler und Abfallmanagementsysteme aber auch zu sozialen Faktoren, sollten in einer zentralen Datenbank zusammenlaufen. Das ermöglicht, Analysen zu fahren und in diesem Zuge Trends, Muster sowie Unregelmäßigkeiten aufzudecken.

Alerts: Tools für das Nachhaltigkeitsmanagement sollten Unternehmen erlauben, die Initiative zu ergreifen und potenzielle Umweltprobleme aktiv zu erkennen und anzugehen. Dazu werden Grenzwerte für Umweltfaktoren definiert, die von der Software überwacht werden. Bei Überschreitung dieser Werte wird eine Alarmmeldung ausgegeben.

Inspektionsmanagement: Unternehmen können Nachhaltigkeitsmanagement-Tools auch nutzen, um entsprechende Inspektionen für ihre Anlagen, Geräte und Einrichtungen zu organisieren und zu managen.

KPI-Monitoring: Auch bestimmte ökologische und soziale Ziele lassen sich in Sustainability-Management-Lösungen als Leistungsindikatoren festlegen und tracken. Die Fortschritte des Unternehmens lassen sich anhand entsprechender Reportings nachvollziehen.

4 Sustainability-Management-Fallstricke

Im Folgenden werfen wir einen Blick auf die vier häufigsten Fallstricke von Nachhaltigkeitsmanagement-Tools, die Unternehmen vermeiden sollten.

1. Tools, die nicht skalierbar sind

“Wir raten Endanwendern regelmäßig, auf Skalierbarkeit zu achten”, berichtet Gartner-Analyst Aapo Markkanen. “Diese Tools können sehr überzeugend erscheinen, wenn sie als Proof of Concept oder in einem Pilotprojekt eingesetzt werden. Eine solche Lösung allerdings auf globaler Ebene zu skalieren, um alle Unternehmensprozesse abzudecken, ist eine Herausforderung.”

2. ESG-Software steckt in den Kinderschuhen

“Die meisten Nachhaltigkeitsmanagement-Tools sind erst seit etwa zwei Jahren auf dem Markt”, unterstreicht IDC-Analystin Craven. Sie fügt hinzu: “Da sich viele Funktionen noch in der Entwicklung befinden, ist es aktuell wirklich schwierig zu sagen, welche Lösung die beste sein wird, wenn es um Langlebigkeit und die besten Funktionen geht.”

In der Konsequenz rät die Analystin Unternehmen, auf etablierte Anbieter mit Marktpräsenz zu setzen, die eine solide Finanzierung sowie einen guten Kunden- und Partnerstamm vorweisen können: “Identifizieren Sie Anbieter, die sich seit langem der Nachhaltigkeit verschreiben – etwa IBM oder SAP. Diese sind oft besonders engagiert.”

3. Falsche Prioritäten

ESG-Tools bieten eine Vielzahl von Funktionen – die Unternehmen auf der Grundlage ihrer Branche und ihrer aktuellen Situation evaluieren sollten, wie Abhijit Sunil, Senior Analyst bei Forrester, empfiehlt: “Einige Unternehmen verfügen beispielsweise über sehr fortschrittliche interne Sustainability-Teams und haben bereits Prozesse eingeführt, während andere noch gar nicht begonnen haben.”

Genauso wichtig sei es darüber hinaus, die Erfolgsbilanz des Anbieters für die jeweilige Branche zu ermitteln: “Wenn Sie in der Automobilindustrie tätig sind, sollten Sie herausfinden, ob das betreffende Tool in dieser Branche gute Benchmarks aufweisen kann.”

4. Kein Weitblick

Weil sich Vorschriften, Regularien und Rahmenbedingungen kontinuierlich verändern, ist es für Unternehmen essenziell, Nachhaltigkeitsmanagement-Tools zu wählen, die entsprechende Flexibilität ermöglichen.

6 Lösungen fürs Nachhaltigkeitsmanagement

Auf dem Markt gibt es zahlreiche Plattformen und Lösungen für das Nachhaltigkeitsmanagement. Um Ihnen die Recherche zu erleichtern, haben wir die folgenden sechs Produkte und Plattformen auf der Grundlage unserer Gespräche mit Analysten und unabhängigen Studien ausgewählt.

IBM Envizi ESG Suite

Die ESG-Suite von Big Blue wird als Software-as-a-Service (SaaS)-Kollektion angeboten, bestehend aus neun modularen Daten- und Analyseprodukten. Die Nachhaltigkeitsmanagement-Lösung unterstützt Anwender dabei, ESG-Daten zu Energieverbrauch und Emissionen zu erfassen, zu tracken und zu reporten.

Dazu konsolidiert die Lösung mehr als 500 ESG-Datenquellen in einem System, um den Anwendern zu erleichtern, die Informationen zu erfassen, zu managen und auszuwerten. Die ESG-Suite ist mit IBMs Application Resource Management, Facility Management und Enterprise Asset Management Tools integrierbar und eignet sich in erster Linie für IBM-Kunden und Unternehmen mit ausgereiften Sustainability-Programmen.

Microsoft Cloud for Sustainability

Mit automatisierten Datenverbindungen und “actionable” Insights möchte Microsoft Unternehmen dabei unterstützen, die Umweltauswirkungen ihrer betreiblichen Systeme und Prozesse in Echtzeit zu erfassen, zu reporten und effektiv zu reduzieren. Dazu kombiniert die Lösung zahlreiche ESG-Funktionalitäten aus dem gesamten Cloud-Portfolio der Redmonder sowie ihren Partnern.

Mit Hilfe der Microsoft Cloud for Sustainability API können Anwender beispielsweise ermitteln, welche Emissionswerte die Nutzung von Microsoft-365-Services (Outlook, SharePoint, Teams, Excel und so weiter) im Rechenzentrum verursacht.

Persefoni

Laut Hersteller handelt es sich bei dieser Lösung um eine “Klimamanagement-Plattform”. Diese wartet mit einer einheitlichen “Emissionsbuchhaltung” auf und ermöglicht Unternehmen, ihre CO2-freie Zukunft zu planen. Die Plattform ist insbesondere auf eine simple Bedienung ausgelegt und ermöglicht den Anwendern, ihre Emissionen über sämtliche Geschäftsbereiche und -prozesse hinweg zu tracken und zu messen. Mit dem “Net Zero Navigator” des Anbieters können Unternehmen eigene, auf ihre jeweiligen Bedürfnisse zugeschnittene Dekarbonisierungsstrategien entwickeln.

Die Nachhaltigkeitsmanagement-Lösung von Persefoni eignet sich am ehesten für große, multinational agierende Unternehmen, Asset Manager und Finanzinstitutionen, die eine automatisierte Treibhausgasbilanzierung und Finanzberichterstattung benötigen.

Salesforce Net Zero Cloud

Die Sustainability-Management-Lösung von Salesforce fußt auf der Lightning-Plattform des Anbieters und ermöglicht Anwendern, ihren Environmental Impact zu managen und zu tracken. Zum Lösungspaket gehören zahlreiche Tools und Ressourcen, um Energieverbrauch, Emissionswerte und Abfallproduktion zu messen beziehungsweise zu reduzieren.

Die Salesforce-Lösung integriert Daten aus verschiedenen Quellen, automatisiert Workflows und bietet Reportings inklusive wichtiger Nachhaltigkeitskennzahlen. Sie eignet sich am besten für Unternehmen, die auf absehbare Zeit auf Zero Emission umstellen möchten.

SAP Cloud for Sustainable Enterprises

Auch SAP unterstützt Unternehmen dabei, ihren CO2-Verbrauch zu managen, Abfälle zu reduzieren und ihrer sozialen Verantwortung gerecht zu werden. Dazu bieten die Walldorfer eine Sammlung cloudbasierter Software, inklusive ESG- und Nachhaltigkeits-Reporting-Tools. Das soll den Anwendern ermöglichen, ihre Finanz-, Sozial- und Umweltdaten miteinander zu verknüpfen, um bessere Geschäftsentscheidungen treffen zu können.

Der SAP Sustainability Control Tower soll Unternehmen darüber hinaus dabei unterstützen, noch nicht erreichte Nachhaltigkeitsziele zu identifizieren, zu analysieren und entsprechende Maßnahmen zu ergreifen, um das zu ändern. Mit SAP Sustainability Footprint Management können die Anwender zudem ihren CO2-Fußabdruck auf Produkt- und Unternehmensebene evaluieren.

Wolters Kluwer Enablon ESG

Die Lösung von Wolters Kluwer enthält Tools für Nachhaltigkeits- und ESG-Reportings sowie Anwendungen, mit denen Unternehmen Treibhausgasemissionen, Nachhaltigkeitsleistungen und Stakeholder-Beziehungen managen können. Der Anbieter verspricht seinen Kunden, ihre ESG-Daten aus unternehmensweiten Quellen zu zentralisieren und zu validieren, was den Zeitaufwand für die Datenerfassung reduzieren und die Berichterstattung vereinfachen soll.

Diese Nachhaltigkeitsmanagement-Lösung eignet sich in besonderem Maße für Anwender aus den Bereichen Biowissenschaften, Energiewirtschaft, Fertigung und anderen Sektoren, die Umwelt- und Gesundheitsdaten benötigen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​ Weiterlesen »

Bewerber betrügen zunehmend mit KI​

Allgemein

Wenn die KI nicht-existente Skills vortäuscht, wird’s teuer – im Regelfall für die einstellenden Unternehmen.FAMILY STOCK | shutterstock.com Generative AI (GenAI) wird nicht nur von kriminellen Hackern missbraucht. Auch Jobsuchende mit unlauteren Absichten machen sich Tools wie ChatGPT zunehmend zu Nutze – etwa, um Teile ihres Lebenslaufs oder Anschreibens zu fälschen oder gleich ihre komplette Identität. Alternative Skill-Fakten Das beobachtet zumindest Joel Wolfe, President des im US-Bundesstaat Kalifornien ansässigen Outsourcing-Spezialisten HiredSupport. Das Unternehmen betreut weltweit mehr als 100 Kunden aus verschiedenen Branchen – etwa dem E-Commerce-, Healthcare- und Finanzdienstleistungssektor. Dass Bewerber mit KI betrügen, ist dem Manager zufolge zwar mit Blick auf alle Funktionen und Positionen verbreitet – besonders ausgeprägt sei diese Masche aber, wenn es um Tech- und speziell Entwickler-Jobs gehe. „Im Regelfall ist das ganz deutlich an der Satzstruktur sowie dem übermäßigen Gebrauch von Buzzwords abzulesen“, erklärt Wolfe. Das kann auch Cliff Jurkiewicz, Vice President of Global Strategy beim HR-Softwareanbieter Phenom, bestätigen: „Wir beobachten schon seit einiger Zeit einen Anstieg der Betrugsfälle bei Bewerbungen und Vorstellungsgesprächen. In jüngster Zeit häufen sich diese Fälle jedoch enorm“. Laut dem Manager greifen Bewerber inzwischen auch für Video-Interviews auf KI-Tools zurück – entweder, um mit deren Hilfe die gestellten Fragen beantworten zu können oder um heimlich jemanden ins Vorstellungsgespräch zu schleusen, der tatsächlich qualifiziert ist. „Das spielt sich weltweit und branchenübergreifend ab“, konstatiert Jurkiewicz. „Unsere Kunden berichten davon, dass inzwischen zehn bis 30 Prozent aller Vorstellungsgespräche in gewissem Umfang von Betrug betroffen sind – ganz besonders betroffen sind davon Jobs in Bereichen wie dem Engineering.“ Die Beobachtungen der Experten decken sich mit aktuellen Studienerkenntnissen. In einer Umfrage des Bewerbungsdienstleisters Resume Builder geben etwa 45 Prozent der Befragten zu, ihre Kompetenzen im Rahmen eines Einstellungsprozesses mit KI übertrieben ausgeschmückt zu haben. Im Allgemeinen haben Arbeitgeber jedoch kein Problem damit, dass Bewerber KI-Tools einsetzen, um ihren Lebenslauf zu schreiben. Zumindest, solange dieser die Qualifikationen und Erfahrungen des jeweiligen Bewerbers korrekt wiedergibt. So kommt der Onlinestellenmarkt ZipRecruiter in seinem „2024 Employer Report“ zum Ergebnis, dass 67 Prozent der befragten Arbeitgeber offen sind für KI-gestützte Lebensläufe und Anschreiben. Fake-Bewerber, die mit KI ganze Lebensläufe oder Identitäten fälschen, entwickeln sich für Unternehmen jedoch zunehmend zu einer Bedrohung – nicht nur in finanzieller Hinsicht. So könnten die falschen Bewerber ihre neue Stelle zum Beispiel auch dazu nutzen, Daten zu stehlen oder Mal-, respektive Ransomware in Unternehmensnetzwerke einzuschleusen – Stichwort Nordkorea. Angesichts des wachsenden Trends mit KI bei Bewerbungen zu betrügen, gehen die Analysten von Gartner inzwischen davon aus, dass bis 2028 jeder vierte Bewerber weltweit ein Fake sein könnte. „Ich gehe davon aus, dass die Mehrheit der Bewerber ihre Bewerbungen mittlerweile mit KI ergänzt“, meint Emi Chiba, HR-Chefanalystin bei Gartner. Sie fügt hinzu: “In meinen Gesprächen mit Unternehmen wird mir oft davon berichtet, dass Bewerber KI in Vorstellungsgesprächen oder Assessments einsetzen – zum Beispiel, indem KI-generierte Antworten vorgetragen werden oder als Vorlage für die eigenen Antworten dienen.” Diese Erfahrung musste auch Phenom-Manager Jurkiewicz machen: “Wir haben jemanden in Texas eingestellt, der dann heimlich einen Teil seiner Arbeit ins Ausland ausgelagert hat – für einen Bruchteil seines Gehalts“. Diese Betrugsmasche habe der Fake-Mitarbeiter parallel bei vier Arbeitgebern abgezogen und so ein Jahresgehalt zwischen 300.000 und 500.000 Dollar eingestrichen – „fast ohne selbst einen Handstrich zu tun“, so Jurkiewicz. Um dieser Art von Betrug einen Riegel vorzuschieben, appelliert der Manager für bessere technologische Lösungen – zum Beispiel auf Basis von generativer KI. Die Folgen des KI-Betrugstrends Die wachsende Flut der mit Hilfe von KI gefälschten Bewerbungen (und Bewerber) könnte langfristig dazu führen, dass die Chancen realer Job-Aspiranten geschmälert werden. Schließlich sind Qualifikationen in vielen Fällen (job)entscheidend. Zwar werden Bewerber mit Fake-Qualifikationen früher oder später entdeckt. Aber bis es soweit ist, haben sie erst einmal leichtes Spiel, wie Jurkiewicz unterstreicht: „Für diese Fake-Bewerber ist es ein reines Zahlenspiel: Sie reichen Hunderte von Bewerbungen ein, in der Hoffnung, dass ein paar durchrutschen. Wenn ihnen das gelingt, reichen bereits kleine Erfolge, um das System in großem Stil auszunutzen. Nach drei, vier oder sechs Monaten verlassen die falschen Mitarbeiter das Unternehmen dann mit ihrem ‚verdienten‘ Lohn und suchen sich ein neues Arbeitgeber-Opfer.“ Die finanziellen Auswirkungen für Unternehmen, die auf diese Masche hereinfallen, können beträchtlich sein. So kommt das US-Arbeitsministerium in einer Berechnung zum Ergebnis, dass die Fehlbesetzung einer Stelle bis zu 30 Prozent des dafür veranschlagten Jahresgehalts kosten kann. HR-Spezialisten gehen hingegen davon aus, dass ein einzelner Fake-Mitarbeiter Kosten zwischen 240.000 und 850.000 Dollar verursacht. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Bewerber betrügen zunehmend mit KI​ Wenn die KI nicht-existente Skills vortäuscht, wird’s teuer – im Regelfall für die einstellenden Unternehmen.FAMILY STOCK | shutterstock.com

Generative AI (GenAI) wird nicht nur von kriminellen Hackern missbraucht. Auch Jobsuchende mit unlauteren Absichten machen sich Tools wie ChatGPT zunehmend zu Nutze – etwa, um Teile ihres Lebenslaufs oder Anschreibens zu fälschen oder gleich ihre komplette Identität.

Alternative Skill-Fakten

Das beobachtet zumindest Joel Wolfe, President des im US-Bundesstaat Kalifornien ansässigen Outsourcing-Spezialisten HiredSupport. Das Unternehmen betreut weltweit mehr als 100 Kunden aus verschiedenen Branchen – etwa dem E-Commerce-, Healthcare- und Finanzdienstleistungssektor. Dass Bewerber mit KI betrügen, ist dem Manager zufolge zwar mit Blick auf alle Funktionen und Positionen verbreitet – besonders ausgeprägt sei diese Masche aber, wenn es um Tech- und speziell Entwickler-Jobs gehe. „Im Regelfall ist das ganz deutlich an der Satzstruktur sowie dem übermäßigen Gebrauch von Buzzwords abzulesen“, erklärt Wolfe.

Das kann auch Cliff Jurkiewicz, Vice President of Global Strategy beim HR-Softwareanbieter Phenom, bestätigen: „Wir beobachten schon seit einiger Zeit einen Anstieg der Betrugsfälle bei Bewerbungen und Vorstellungsgesprächen. In jüngster Zeit häufen sich diese Fälle jedoch enorm“. Laut dem Manager greifen Bewerber inzwischen auch für Video-Interviews auf KI-Tools zurück – entweder, um mit deren Hilfe die gestellten Fragen beantworten zu können oder um heimlich jemanden ins Vorstellungsgespräch zu schleusen, der tatsächlich qualifiziert ist. „Das spielt sich weltweit und branchenübergreifend ab“, konstatiert Jurkiewicz. „Unsere Kunden berichten davon, dass inzwischen zehn bis 30 Prozent aller Vorstellungsgespräche in gewissem Umfang von Betrug betroffen sind – ganz besonders betroffen sind davon Jobs in Bereichen wie dem Engineering.“

Die Beobachtungen der Experten decken sich mit aktuellen Studienerkenntnissen. In einer Umfrage des Bewerbungsdienstleisters Resume Builder geben etwa 45 Prozent der Befragten zu, ihre Kompetenzen im Rahmen eines Einstellungsprozesses mit KI übertrieben ausgeschmückt zu haben. Im Allgemeinen haben Arbeitgeber jedoch kein Problem damit, dass Bewerber KI-Tools einsetzen, um ihren Lebenslauf zu schreiben. Zumindest, solange dieser die Qualifikationen und Erfahrungen des jeweiligen Bewerbers korrekt wiedergibt. So kommt der Onlinestellenmarkt ZipRecruiter in seinem „2024 Employer Report“ zum Ergebnis, dass 67 Prozent der befragten Arbeitgeber offen sind für KI-gestützte Lebensläufe und Anschreiben.

Fake-Bewerber, die mit KI ganze Lebensläufe oder Identitäten fälschen, entwickeln sich für Unternehmen jedoch zunehmend zu einer Bedrohung – nicht nur in finanzieller Hinsicht. So könnten die falschen Bewerber ihre neue Stelle zum Beispiel auch dazu nutzen, Daten zu stehlen oder Mal-, respektive Ransomware in Unternehmensnetzwerke einzuschleusen – Stichwort Nordkorea.

Angesichts des wachsenden Trends mit KI bei Bewerbungen zu betrügen, gehen die Analysten von Gartner inzwischen davon aus, dass bis 2028 jeder vierte Bewerber weltweit ein Fake sein könnte. „Ich gehe davon aus, dass die Mehrheit der Bewerber ihre Bewerbungen mittlerweile mit KI ergänzt“, meint Emi Chiba, HR-Chefanalystin bei Gartner. Sie fügt hinzu: “In meinen Gesprächen mit Unternehmen wird mir oft davon berichtet, dass Bewerber KI in Vorstellungsgesprächen oder Assessments einsetzen – zum Beispiel, indem KI-generierte Antworten vorgetragen werden oder als Vorlage für die eigenen Antworten dienen.”

Diese Erfahrung musste auch Phenom-Manager Jurkiewicz machen: “Wir haben jemanden in Texas eingestellt, der dann heimlich einen Teil seiner Arbeit ins Ausland ausgelagert hat – für einen Bruchteil seines Gehalts“. Diese Betrugsmasche habe der Fake-Mitarbeiter parallel bei vier Arbeitgebern abgezogen und so ein Jahresgehalt zwischen 300.000 und 500.000 Dollar eingestrichen – „fast ohne selbst einen Handstrich zu tun“, so Jurkiewicz. Um dieser Art von Betrug einen Riegel vorzuschieben, appelliert der Manager für bessere technologische Lösungen – zum Beispiel auf Basis von generativer KI.

Die Folgen des KI-Betrugstrends

Die wachsende Flut der mit Hilfe von KI gefälschten Bewerbungen (und Bewerber) könnte langfristig dazu führen, dass die Chancen realer Job-Aspiranten geschmälert werden. Schließlich sind Qualifikationen in vielen Fällen (job)entscheidend. Zwar werden Bewerber mit Fake-Qualifikationen früher oder später entdeckt. Aber bis es soweit ist, haben sie erst einmal leichtes Spiel, wie Jurkiewicz unterstreicht: „Für diese Fake-Bewerber ist es ein reines Zahlenspiel: Sie reichen Hunderte von Bewerbungen ein, in der Hoffnung, dass ein paar durchrutschen. Wenn ihnen das gelingt, reichen bereits kleine Erfolge, um das System in großem Stil auszunutzen. Nach drei, vier oder sechs Monaten verlassen die falschen Mitarbeiter das Unternehmen dann mit ihrem ‚verdienten‘ Lohn und suchen sich ein neues Arbeitgeber-Opfer.“

Die finanziellen Auswirkungen für Unternehmen, die auf diese Masche hereinfallen, können beträchtlich sein. So kommt das US-Arbeitsministerium in einer Berechnung zum Ergebnis, dass die Fehlbesetzung einer Stelle bis zu 30 Prozent des dafür veranschlagten Jahresgehalts kosten kann. HR-Spezialisten gehen hingegen davon aus, dass ein einzelner Fake-Mitarbeiter Kosten zwischen 240.000 und 850.000 Dollar verursacht. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Bewerber betrügen zunehmend mit KI​ Weiterlesen »

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?quality=50&strip=all 2761w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lenovo schlägt bei der Nutzung von KI auf seinen PCs einen eigenen Weg ein. JHVEPhoto / Shutterstock Während PC-Anbieter weiterhin zahlreiche Varianten von KI-PCs auf den Markt bringen, haben sich Microsoft Copilot und Copilot+ PCs bislang als wenig relevant für Unternehmen erwiesen. Der Grund: Es fehlen schlicht überzeugende Use Cases, die die Anschaffung rechtfertigen. Lenovo möchte das nun mit seinem eigenen KI-Assistenten AI Now ändern.  Kleines Modell, große Wirkung   Lenovo AI Now ist ein kleines Sprachmodell (Small Language Model – SLM), das auf Llama 3.0 von Meta basiert und sich auf eine begrenzte Anzahl von Aufgaben fokussiert, etwa Dokumente zu organisieren und Devices zu managen. Die Verarbeitung erfolgt lokal auf dem Gerät, so dass sich Anwender keine Sorgen um die Weitergabe ihrer Daten an Dritte machen müssen. Außerdem können Aufgaben wie das Zusammenfassen von Dokumenten sogar im Flugzeug ohne Internetverbindung erledigt werden.  Die Inspiration für AI Now kommt aus der eher bescheidenen Erfolgsgeschichte von Copilot als PC-Assistent. „Als Microsoft Copilot im Juni letzten Jahres eingeführt hat, waren die Versprechungen groß – und anschließend mussten sie einen Rückzieher machen“, erklärt Tom Butler, Executive Director of Commercial Portfolio and Product Management bei Lenovo. „Ich glaube, es wird noch einige Zeit dauern, bis wir eine breite Einführung sehen werden, insbesondere für Funktionen wie Recall, die Microsoft gezeigt und dann wieder zurückgezogen hat.“  „Für AI Now haben wir ein sehr fokussiertes lokales Modell verwendet. Wir wollen nicht in die Cloud. Wir demonstrieren eigentlich nur zwei Dinge. Das eine ist der Wissensassistent, der Ihre persönliche Wissensdatenbank nutzt; Sie legen bestimmte Dateien und Dokumente in dieser Wissensdatenbank ab. Dann können Sie Abfragen, Vergleiche und Zusammenfassungen durchführen und nur diese Dokumente bearbeiten“, so Butler.  „Der andere Aspekt ist ein PC-Assistent, der auf Sprachbefehle reagieren kann, etwa, um die PC-Einstellungen zu ändern, beispielsweise mit dem Befehl ‘Dark Mode einschalten‘.“  Herausforderungen mit Copilot+ PCs  Datenschutzprobleme im Zusammenhang mit Microsoft Recall, das als einer der wichtigsten Anwendungsfälle für Microsoft Copilot+ PCs beworben wurde, hätten die Positionierung von Microsoft beeinträchtigt, erklärt Udit Singh, Vice President der Everest Group.  „Insofern ist der Business Case für Microsoft Copilot+ derzeit schwach. Allerdings ist das für Microsoft nicht ungewöhnlich. Das Unternehmen beginnt oft mit einem vagen Business Caseund baut das Angebot dann schrittweise aus.“  Auch andere Experten tun sich schwer damit, einen triftigen Grund für Unternehmen zu erkennen, in KI-PCs zu investieren. „Zum jetzigen Zeitpunkt bieten KI-PCs keinen ausreichenden Mehrwert, um große Investitionen zu rechtfertigen“, führt Eric Helmer, CTO bei Rimini Street, an. Das gelte insbesondere für Unternehmen, die bereits über KI-Fähigkeiten in Cloud- oder Rechenzentrumsumgebungen verfügten. Viele KI-Workloads könnten schon heute effektiv verwaltet werden, ohne dass auf jedem Mitarbeitergerät eine dedizierte Neural Processing Unit (NPU) erforderlich sei, so Helmer.  Da viele Unternehmen bei den IT-Ausgaben ohnehin bereits zurückhaltend agierten, hätten Initiativen, die einen sofortigen und messbaren ROI bieten, weiterhin Priorität. Heute in KI-PCs zu investieren, könnte bedeuten, einen Aufpreis für Funktionen zu zahlen, die bald durch Standard-Hardware- und Software-Fortschritte verfügbar sein könnten, betont Helmer. „Anstatt auf von Anbietern vorangetriebene Zyklen zu reagieren, sollten CIOs prüfen, ob KI-PCs mit ihren umfassenderen IT-Modernisierungsstrategien übereinstimmen und ob die Investition angesichts der spezifischen Anforderungen ihres Unternehmens sinnvoll ist.“  Himani Reddy, PC-Research-Manager bei Canalys, sieht PC-Anbieter wie Lenovo mit der Entwicklung von On-Device-AI-Lösungen auf dem richtigen Weg. „Dieser Ansatz adressiert das wichtigste Anliegen von Unternehmen: den Datenschutz“, argumentiert Reddy. „Derzeit gibt es auf dem Markt nur begrenzte Optionen, und Verbraucher müssen sich entweder für die verfügbaren Lösungen entscheiden oder auf zukünftige Entwicklungen warten.“   Wenn Anbieter keine eigene KI für PCs entwickeln, wie beispielsweise Lenovo mit „AI Now“ und HP mit „AI Companion“, seien Copilot+ PCs trotz Datenschutzbedenken die erste Wahl, räumt sie ein. Obwohl Copilot mit Datenschutzbedenken behaftet sei, bleibe es eine sicherere Option als öffentlich verfügbare generative KI-Modelle, bei deren Einführung Unternehmen möglicherweise zögerten.  Umstieg auf agentenbasierte KI  Lenovo will sich allerdings nicht nur mit einem lokalen KI-Assistenten zufriedengeben, sondern daraus eine Plattform entwickeln, über die Unternehmen künftig zwischen verschiedenen LLMs (Large Language Models) und Agentic-AI-Angeboten von Anbietern wie OpenAI, Meta oder DeepSeek wählen können.   „Bei unserer Vision als Unternehmen haben wir zwei Leitsätze. Der erste lautet: Smartere KI für alle – und das zu jedem Preisniveau“, so Butler. Das andere Ziel von Lenovo ist es laut Butler, den PC zum digitalen Zwilling des Benutzers zu machen. „Wenn jedes dieser Geräte unsere individuelle Stimme, unseren digitalen Zwilling repräsentiert, und ich AI Now sagen kann: ‚Plane meinen Flug in die USA‘, und das System erledigt das einfach – dann ist das eine enorme Zeitersparnis“, so der Lenovo-Manager.  Um diesen digitalen Zwilling zu erschaffen, will Lenovo auf Agentic AI setzen. Mit dieser Technologie soll AI Now von einem bloßen persönlichen Assistenten zu einem digitalen Zwilling werden, der das Maximum aus der Hardware herausholt.  Um weitere LLMs und AI Agents zu integrieren und diese Vision Wirklichkeit werden zu lassen, arbeitet Lenovo mit mehreren Softwareanbietern zusammen. (mb) 

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?quality=50&strip=all 2761w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lenovo schlägt bei der Nutzung von KI auf seinen PCs einen eigenen Weg ein. JHVEPhoto / Shutterstock

Während PC-Anbieter weiterhin zahlreiche Varianten von KI-PCs auf den Markt bringen, haben sich Microsoft Copilot und Copilot+ PCs bislang als wenig relevant für Unternehmen erwiesen. Der Grund: Es fehlen schlicht überzeugende Use Cases, die die Anschaffung rechtfertigen. Lenovo möchte das nun mit seinem eigenen KI-Assistenten AI Now ändern. 

Kleines Modell, große Wirkung  

Lenovo AI Now ist ein kleines Sprachmodell (Small Language Model – SLM), das auf Llama 3.0 von Meta basiert und sich auf eine begrenzte Anzahl von Aufgaben fokussiert, etwa Dokumente zu organisieren und Devices zu managen. Die Verarbeitung erfolgt lokal auf dem Gerät, so dass sich Anwender keine Sorgen um die Weitergabe ihrer Daten an Dritte machen müssen. Außerdem können Aufgaben wie das Zusammenfassen von Dokumenten sogar im Flugzeug ohne Internetverbindung erledigt werden. 

Die Inspiration für AI Now kommt aus der eher bescheidenen Erfolgsgeschichte von Copilot als PC-Assistent. „Als Microsoft Copilot im Juni letzten Jahres eingeführt hat, waren die Versprechungen groß – und anschließend mussten sie einen Rückzieher machen“, erklärt Tom Butler, Executive Director of Commercial Portfolio and Product Management bei Lenovo. „Ich glaube, es wird noch einige Zeit dauern, bis wir eine breite Einführung sehen werden, insbesondere für Funktionen wie Recall, die Microsoft gezeigt und dann wieder zurückgezogen hat.“ 

„Für AI Now haben wir ein sehr fokussiertes lokales Modell verwendet. Wir wollen nicht in die Cloud. Wir demonstrieren eigentlich nur zwei Dinge. Das eine ist der Wissensassistent, der Ihre persönliche Wissensdatenbank nutzt; Sie legen bestimmte Dateien und Dokumente in dieser Wissensdatenbank ab. Dann können Sie Abfragen, Vergleiche und Zusammenfassungen durchführen und nur diese Dokumente bearbeiten“, so Butler. 

„Der andere Aspekt ist ein PC-Assistent, der auf Sprachbefehle reagieren kann, etwa, um die PC-Einstellungen zu ändern, beispielsweise mit dem Befehl ‘Dark Mode einschalten‘.“ 

Herausforderungen mit Copilot+ PCs 

Datenschutzprobleme im Zusammenhang mit Microsoft Recall, das als einer der wichtigsten Anwendungsfälle für Microsoft Copilot+ PCs beworben wurde, hätten die Positionierung von Microsoft beeinträchtigt, erklärt Udit Singh, Vice President der Everest Group. 

„Insofern ist der Business Case für Microsoft Copilot+ derzeit schwach. Allerdings ist das für Microsoft nicht ungewöhnlich. Das Unternehmen beginnt oft mit einem vagen Business Caseund baut das Angebot dann schrittweise aus.“ 

Auch andere Experten tun sich schwer damit, einen triftigen Grund für Unternehmen zu erkennen, in KI-PCs zu investieren. „Zum jetzigen Zeitpunkt bieten KI-PCs keinen ausreichenden Mehrwert, um große Investitionen zu rechtfertigen“, führt Eric Helmer, CTO bei Rimini Street, an. Das gelte insbesondere für Unternehmen, die bereits über KI-Fähigkeiten in Cloud- oder Rechenzentrumsumgebungen verfügten. Viele KI-Workloads könnten schon heute effektiv verwaltet werden, ohne dass auf jedem Mitarbeitergerät eine dedizierte Neural Processing Unit (NPU) erforderlich sei, so Helmer. 

Da viele Unternehmen bei den IT-Ausgaben ohnehin bereits zurückhaltend agierten, hätten Initiativen, die einen sofortigen und messbaren ROI bieten, weiterhin Priorität. Heute in KI-PCs zu investieren, könnte bedeuten, einen Aufpreis für Funktionen zu zahlen, die bald durch Standard-Hardware- und Software-Fortschritte verfügbar sein könnten, betont Helmer. „Anstatt auf von Anbietern vorangetriebene Zyklen zu reagieren, sollten CIOs prüfen, ob KI-PCs mit ihren umfassenderen IT-Modernisierungsstrategien übereinstimmen und ob die Investition angesichts der spezifischen Anforderungen ihres Unternehmens sinnvoll ist.“ 

Himani Reddy, PC-Research-Manager bei Canalys, sieht PC-Anbieter wie Lenovo mit der Entwicklung von On-Device-AI-Lösungen auf dem richtigen Weg. „Dieser Ansatz adressiert das wichtigste Anliegen von Unternehmen: den Datenschutz“, argumentiert Reddy. „Derzeit gibt es auf dem Markt nur begrenzte Optionen, und Verbraucher müssen sich entweder für die verfügbaren Lösungen entscheiden oder auf zukünftige Entwicklungen warten.“  

Wenn Anbieter keine eigene KI für PCs entwickeln, wie beispielsweise Lenovo mit „AI Now“ und HP mit „AI Companion“, seien Copilot+ PCs trotz Datenschutzbedenken die erste Wahl, räumt sie ein. Obwohl Copilot mit Datenschutzbedenken behaftet sei, bleibe es eine sicherere Option als öffentlich verfügbare generative KI-Modelle, bei deren Einführung Unternehmen möglicherweise zögerten. 

Umstieg auf agentenbasierte KI 

Lenovo will sich allerdings nicht nur mit einem lokalen KI-Assistenten zufriedengeben, sondern daraus eine Plattform entwickeln, über die Unternehmen künftig zwischen verschiedenen LLMs (Large Language Models) und Agentic-AI-Angeboten von Anbietern wie OpenAI, Meta oder DeepSeek wählen können.  

„Bei unserer Vision als Unternehmen haben wir zwei Leitsätze. Der erste lautet: Smartere KI für alle – und das zu jedem Preisniveau“, so Butler. Das andere Ziel von Lenovo ist es laut Butler, den PC zum digitalen Zwilling des Benutzers zu machen. „Wenn jedes dieser Geräte unsere individuelle Stimme, unseren digitalen Zwilling repräsentiert, und ich AI Now sagen kann: ‚Plane meinen Flug in die USA‘, und das System erledigt das einfach – dann ist das eine enorme Zeitersparnis“, so der Lenovo-Manager. 

Um diesen digitalen Zwilling zu erschaffen, will Lenovo auf Agentic AI setzen. Mit dieser Technologie soll AI Now von einem bloßen persönlichen Assistenten zu einem digitalen Zwilling werden, der das Maximum aus der Hardware herausholt. 

Um weitere LLMs und AI Agents zu integrieren und diese Vision Wirklichkeit werden zu lassen, arbeitet Lenovo mit mehreren Softwareanbietern zusammen. (mb)

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​ Weiterlesen »

Suchmaschinen: Die besten Google-Alternativen​

Allgemein

Suchmaschinen im Überblick: Die besten Alternativen zu Google. Foto: Semisatch – shutterstock.com Die meisten Anwender nutzen die Google-Suchmaschine, um im Internet zu recherchieren. Weltweit bringt es Google auf einen Suchmaschinen-Marktanteil von knapp 80 Prozent (Stand März 2025). Die restlichen 20 Prozent teilen sich auf die Konkurrenten auf. Dazu gehören neben Bing, Yahoo und Yandex (jeweils um die zwei Prozent) auch kleinere Suchmaschinen, die oft aber auch sinnvoll sind: Google zeigt einerseits nicht alle Ergebnisse an, andererseits kann das Surfverhalten hier deutlich leichter nachverfolgt werden. Mit Alternativen lassen sich teilweise verschiedene Ergebnisse zu Suchanfragen finden. Außerdem können Alternativen oft besseren Datenschutz gewährleisten. Dazu kommen spezielle Suchmaschinen, die keine Benutzerdaten speichern, oder mehrere andere Suchmaschinen nutzen. Bing Microsoft Bing ist der größte Konkurrent von Google, hat allerdings deutlich weniger Marktanteil. Microsoft bindet Bing vor allem in Windows ein. Bing ist generell so aufgebaut wie Google und hat seine Vorteile – vor allem bei der Suche nach Videos und Bildern. Hier lohnt es sich, parallel zu Google auf Bing zu setzen. Bing ist die Microsoft-Antwort auf Google. Foto: Bing DuckDuckGo Bei DuckDuckGo handelt es sich wie bei Google um eine amerikanische Suchmaschine, die allerdings sehr hohen Wert auf Datenschutz legt. Auch hier werden andere Suchmaschinen eingebunden, um passende Ergebnisse zu finden. DuckDuckGo ist in vielen Browsern als Suchmaschine hinterlegt, und kann als Standardsuche verwendet werden. DuckDuckGo und andere Suchmaschinen sind auch in Browsern hinterlegt. Foto: Thomas Joos Weitere Google-Alternativen – Yahoo, Lycos und Co. Für eine gründliche Recherche im Internet sollten Sie immer mehrere Suchmaschinen einsetzen, da Sie unterschiedliche Ergebnisse erhalten. Anbei einige interessante Suchmaschinen: Yahoo.de – Internet-Urgestein, vor allem im Bereich Finanzen stark Lycos.de – eine weitere deutschsprachige Suchmaschine Fastbot.de – sehr schnelle und einfache Suchmaschine mit Anonymisierungs-Option Fireball.com – deutschsprachige, anonyme Suchmaschine Seekport.com– schnelle und einfache Suchmaschine Metager – Metasuchmaschinen nutzen Eine andere Art Suchmaschinen sind ” Metasuchmaschinen”. Normale Suchmaschinen wie Google können angesichts der Milliarden Internetseiten nicht das gesamte Internet durchsuchen. Viele Spezialisten sagen, dass selbst Google nur maximal 20 Prozent des ganzen Internets durchsucht. Wahrscheinlich sind es nicht einmal 5 Prozent. Wenn Sie möglichst viele Informationen aus dem Internet zu einem bestimmten Thema finden wollen, können Metasuchmaschinen eine enorme Hilfe sein. Diese Suchmaschinen verwenden keinen eigenen Algorithmus, um das Internet zu durchsuchen, sondern geben die Suchbegriffe an eine gewisse Anzahl weiterer Suchmaschinen weiter. MetaGer gehört zu den beliebtesten deutschen Metasuchmaschinen. Foto: MetaGer Die Metasuchmaschine entfernt gefundene doppelte Suchergebnisse und sortiert die Ergebnisse der einzelnen Suchmaschinen in einem eigenen Ranking. Die Suchergebnisse werden genauso angeordnet wie bei normalen Suchmaschinen. Allerdings dauert die Suche in Metasuchmaschinen teilweise etwas länger, da die Seite auf das Ergebnis sämtlicher Suchmaschinen warten muss. Die beliebteste deutsche Metasuchmaschine – Metager – wird von der Universität Hannover betrieben. Sie ist nicht nur die beliebteste deutsche Metasuchmaschine, sondern auch die älteste und ausgereifteste. Die Entwickler von MetaGer verbessern die Suchmaschine ständig weiter. Sie können mit MetaGer in Forschungsberichten suchen. Auf den Seiten der Entwickler können Sie darüber hinaus viel über die Entwicklung von Suchmaschinen erfahren. Vor allem wissenschaftlich interessierte Internetbenutzer können mit MetaGer viele interessante Informationen finden. Außer MetaGer gibt es noch andere deutschsprachige Metasuchmaschinen. Zum Beispiel: Etools.ch oder Websuche.de Ecosia Die Suchmaschine Ecosia ist ökologisch insipiriert. Die deutsche Suchmaschine spendet einen Großteil ihrer Einnahme an Naturschutzorganisationen. Im Fokus steht seit einiger Zeit das Pflanzen von Bäumen in Burkina Faso. Ecosia arbeitet bei den Sucherergebnissen vor allem mit Bing zusammen. Ecosia spendet einen Teil der Umsätze an Naturschutzprojekte. Foto: Ecosia Qwant Qwant liefert ebenfalls anonyme Suchfunktionen und gleichzeitig eine Integration in soziale Netzwerke. Die Suchergebnisse werden nach verschiedenen Kategorien aufgeschlüsselt. Suchergebnisse lassen sich in sozialen Netzwerken teilen, zum Beispiel über Twitter und Facebook. Startpage Startpage nutzt Google als Algorithmus, anonymisiert die Anfragen aber. Das Unternehmen hat seinen Sitz in Holland. Die Entwickler nutzen kein “Targeted Advertising”. Es werden also keine Nutzerdaten ausgewertet. Die Suchmaschine finanziert sich zwar ebenfalls über Werbung, diese ist aber nicht personalisiert. Neben Startpage bot das Unternehmen bis 2016 auch die Metasuchmaschine Ixquick an. Diese ist mittlerweile eingestellt beziehungsweise in Startpage integriert. Wolfram Alpha Die Suchmaschine Wolfram Alpha basiert auf Mathematikca. Im Gegensatz zu herkömmlichen Suchmaschinen, nutzt Wolfram Alpha einen semantischen Ansatz. Bei den Ergebnissen handelt es sich um synthetische Antworten auf Fragen. Geben Sie zum Beispiel “earth” ein, erhalten Sie keine Suchergebnisse zu Internetseiten mit diesem Begriff, sondern Informationen zur Erde, wie zum Beispiel die Entfernung zur Sonne, den Umfang, das Gewicht, und vieles mehr. Wolfram Alpha liefert also Ergebnisse zu bestimmten Fragen, die Anwender haben, keine Liste an Webseiten, auf denen bestimmte Begriffe auftreten. Wolfram Alpha ist eine intelligente Suchmaschine, die Fragen von Anwendern beantworten kann. Foto: Thomas Joos Kinder-Suchmaschinen Für Kinder gibt es spezielle Suchmaschinen, wie zum Beispiel Blinde-kuh.de. Auf dieser Seite wird speziell auf die Bedürfnisse von Kindern eingegangen. Die Suchmaschine wird von der Regierung gefördert und ist seriös und jugendsicher. Eltern finden auf diesen Seiten Tipps, welche Internetseiten es speziell für Kinder gibt, sowie Buchtipps. Weitere Internetseiten für Kinder: Kindersache.de Internet-abc.de FragFinn.de Helles-Koepfchen.de (hal/fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Suchmaschinen: Die besten Google-Alternativen​ Suchmaschinen im Überblick: Die besten Alternativen zu Google.
Foto: Semisatch – shutterstock.com

Die meisten Anwender nutzen die Google-Suchmaschine, um im Internet zu recherchieren. Weltweit bringt es Google auf einen Suchmaschinen-Marktanteil von knapp 80 Prozent (Stand März 2025). Die restlichen 20 Prozent teilen sich auf die Konkurrenten auf. Dazu gehören neben Bing, Yahoo und Yandex (jeweils um die zwei Prozent) auch kleinere Suchmaschinen, die oft aber auch sinnvoll sind: Google zeigt einerseits nicht alle Ergebnisse an, andererseits kann das Surfverhalten hier deutlich leichter nachverfolgt werden. Mit Alternativen lassen sich teilweise verschiedene Ergebnisse zu Suchanfragen finden. Außerdem können Alternativen oft besseren Datenschutz gewährleisten. Dazu kommen spezielle Suchmaschinen, die keine Benutzerdaten speichern, oder mehrere andere Suchmaschinen nutzen.

Bing

Microsoft Bing ist der größte Konkurrent von Google, hat allerdings deutlich weniger Marktanteil. Microsoft bindet Bing vor allem in Windows ein. Bing ist generell so aufgebaut wie Google und hat seine Vorteile – vor allem bei der Suche nach Videos und Bildern. Hier lohnt es sich, parallel zu Google auf Bing zu setzen.

Bing ist die Microsoft-Antwort auf Google.
Foto: Bing

DuckDuckGo

Bei DuckDuckGo handelt es sich wie bei Google um eine amerikanische Suchmaschine, die allerdings sehr hohen Wert auf Datenschutz legt. Auch hier werden andere Suchmaschinen eingebunden, um passende Ergebnisse zu finden. DuckDuckGo ist in vielen Browsern als Suchmaschine hinterlegt, und kann als Standardsuche verwendet werden.

DuckDuckGo und andere Suchmaschinen sind auch in Browsern hinterlegt.
Foto: Thomas Joos

Weitere Google-Alternativen – Yahoo, Lycos und Co.

Für eine gründliche Recherche im Internet sollten Sie immer mehrere Suchmaschinen einsetzen, da Sie unterschiedliche Ergebnisse erhalten. Anbei einige interessante Suchmaschinen:

Yahoo.de – Internet-Urgestein, vor allem im Bereich Finanzen stark

Lycos.de – eine weitere deutschsprachige Suchmaschine

Fastbot.de – sehr schnelle und einfache Suchmaschine mit Anonymisierungs-Option

Fireball.com – deutschsprachige, anonyme Suchmaschine

Seekport.com– schnelle und einfache Suchmaschine

Metager – Metasuchmaschinen nutzen

Eine andere Art Suchmaschinen sind ” Metasuchmaschinen”. Normale Suchmaschinen wie Google können angesichts der Milliarden Internetseiten nicht das gesamte Internet durchsuchen. Viele Spezialisten sagen, dass selbst Google nur maximal 20 Prozent des ganzen Internets durchsucht. Wahrscheinlich sind es nicht einmal 5 Prozent. Wenn Sie möglichst viele Informationen aus dem Internet zu einem bestimmten Thema finden wollen, können Metasuchmaschinen eine enorme Hilfe sein. Diese Suchmaschinen verwenden keinen eigenen Algorithmus, um das Internet zu durchsuchen, sondern geben die Suchbegriffe an eine gewisse Anzahl weiterer Suchmaschinen weiter.

MetaGer gehört zu den beliebtesten deutschen Metasuchmaschinen.
Foto: MetaGer

Die Metasuchmaschine entfernt gefundene doppelte Suchergebnisse und sortiert die Ergebnisse der einzelnen Suchmaschinen in einem eigenen Ranking. Die Suchergebnisse werden genauso angeordnet wie bei normalen Suchmaschinen. Allerdings dauert die Suche in Metasuchmaschinen teilweise etwas länger, da die Seite auf das Ergebnis sämtlicher Suchmaschinen warten muss.

Die beliebteste deutsche Metasuchmaschine – Metager – wird von der Universität Hannover betrieben. Sie ist nicht nur die beliebteste deutsche Metasuchmaschine, sondern auch die älteste und ausgereifteste. Die Entwickler von MetaGer verbessern die Suchmaschine ständig weiter. Sie können mit MetaGer in Forschungsberichten suchen. Auf den Seiten der Entwickler können Sie darüber hinaus viel über die Entwicklung von Suchmaschinen erfahren. Vor allem wissenschaftlich interessierte Internetbenutzer können mit MetaGer viele interessante Informationen finden. Außer MetaGer gibt es noch andere deutschsprachige Metasuchmaschinen. Zum Beispiel:

Etools.ch oder

Websuche.de

Ecosia

Die Suchmaschine Ecosia ist ökologisch insipiriert. Die deutsche Suchmaschine spendet einen Großteil ihrer Einnahme an Naturschutzorganisationen. Im Fokus steht seit einiger Zeit das Pflanzen von Bäumen in Burkina Faso. Ecosia arbeitet bei den Sucherergebnissen vor allem mit Bing zusammen.

Ecosia spendet einen Teil der Umsätze an Naturschutzprojekte.
Foto: Ecosia

Qwant

Qwant liefert ebenfalls anonyme Suchfunktionen und gleichzeitig eine Integration in soziale Netzwerke. Die Suchergebnisse werden nach verschiedenen Kategorien aufgeschlüsselt. Suchergebnisse lassen sich in sozialen Netzwerken teilen, zum Beispiel über Twitter und Facebook.

Startpage

Startpage nutzt Google als Algorithmus, anonymisiert die Anfragen aber. Das Unternehmen hat seinen Sitz in Holland. Die Entwickler nutzen kein “Targeted Advertising”. Es werden also keine Nutzerdaten ausgewertet. Die Suchmaschine finanziert sich zwar ebenfalls über Werbung, diese ist aber nicht personalisiert. Neben Startpage bot das Unternehmen bis 2016 auch die Metasuchmaschine Ixquick an. Diese ist mittlerweile eingestellt beziehungsweise in Startpage integriert.

Wolfram Alpha

Die Suchmaschine Wolfram Alpha basiert auf Mathematikca. Im Gegensatz zu herkömmlichen Suchmaschinen, nutzt Wolfram Alpha einen semantischen Ansatz. Bei den Ergebnissen handelt es sich um synthetische Antworten auf Fragen. Geben Sie zum Beispiel “earth” ein, erhalten Sie keine Suchergebnisse zu Internetseiten mit diesem Begriff, sondern Informationen zur Erde, wie zum Beispiel die Entfernung zur Sonne, den Umfang, das Gewicht, und vieles mehr. Wolfram Alpha liefert also Ergebnisse zu bestimmten Fragen, die Anwender haben, keine Liste an Webseiten, auf denen bestimmte Begriffe auftreten.

Wolfram Alpha ist eine intelligente Suchmaschine, die Fragen von Anwendern beantworten kann.
Foto: Thomas Joos

Kinder-Suchmaschinen

Für Kinder gibt es spezielle Suchmaschinen, wie zum Beispiel Blinde-kuh.de. Auf dieser Seite wird speziell auf die Bedürfnisse von Kindern eingegangen. Die Suchmaschine wird von der Regierung gefördert und ist seriös und jugendsicher. Eltern finden auf diesen Seiten Tipps, welche Internetseiten es speziell für Kinder gibt, sowie Buchtipps. Weitere Internetseiten für Kinder:

Kindersache.de

Internet-abc.de

FragFinn.de

Helles-Koepfchen.de

(hal/fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Suchmaschinen: Die besten Google-Alternativen​ Weiterlesen »

10 Java-basierte GenAI-Tools​

Allgemein

KI geht auch mit Java-basierten Tools.The KonG / Shutterstock Entwickler, die KI-Projekte angehen, denken dabei nicht unbedingt zuerst an Java – vielmehr ist Python für Projekte dieser Art oft die erste Wahl. Aber auch Java hat eine Daseinsberechtigung, wenn es um künstliche Intelligenz und Machine Learning geht. Schließlich wissen viele Developer die technischen Benefits und das weitläufige Ökosystem der Sprache zu schätzen. Diese Vorteile haben sich auch unter Python-Connaisseuren herumgesprochen: Einige nutzen Jython, um in den Genuss der Speed-Vorteile der Java Virtual Machine (JVM) zu kommen. Der traditionelle, langsame, aber stete Fokus von Java auf Stabilität und Performance schafft viele gute Möglichkeiten, um sich mit KI und ML befassen, ohne dazu die Sicherheit des gut typisierten Java-Kokons verlassen zu müssen. Das belegen unter anderem die folgenden zehn KI-Entwicklungs-Tools auf Java-Basis. 1. Spring AI Im Laufe der Jahre hat sich das Java-Framework Spring als Grundlage etabliert, um alles von Webanwendungen bis hin zu Microservices zu erstellen. Spring AI zielt darauf ab, jegliche Art von KI möglichst einfach in diese Umgebungen zu integrieren. Dazu stellt das Framework eine Reihe von Abstraktionen zur Verfügung, die diesen Prozess organisieren und definieren. Entwickler, die mit großen KI-Anbietern wie Anthropic oder OpenAI arbeiten, können die Abstraktionen von Spring AI dazu verwenden, Chat- oder Moderations-Modelle zu integrieren. Dabei werden alle relevanten Anbieter unterstützt – nicht nur kommerzielle, sondern auch diverse aus dem Open-Source-Bereich. Entwickler, die Daten lokal in einer Vektordatenbank speichern möchten, können sich direkt mit einer der etwa ein Dutzend Optionen (etwa Milvus oder Pinecone) verbinden. Spring AI übernimmt dabei das „Daten-Marshalling“ der Embeddings. So können Developer mit Java-Objekten arbeiten, während die Datenbank reine Vektoren speichert. Darüber hinaus verfügt Spring AI außerdem über Funktionen für verschiedene Aufgaben, die sich in der Anwendungsentwicklung zum Standard entwickeln: So können Chat-Unterhaltungen automatisch für eine spätere Wiederherstellung gespeichert werden. Und eine Evaluierungsfunktion unterstützt die Meta-Evaluierung von Modellen, um Halluzinationen zu reduzieren oder sie zumindest zu kennzeichnen. 2. LangChain4j Diverse Anwendungen „streben danach“, Vektordatenbanken und Large Language Models (LLMs) in einem Portal zu integrieren. Dazu reicht ein LLM oft nicht aus: Ein KI-Modell erzeugt einen Text, ein LLM zur Bildgenerierung veranschaulicht ihn – während am Anfang und am Ende der Pipelines eine Moderations-KI überwacht, dass niemand beleidigt wird. Die Java-First-Version des populärem JavaScript- und Python-Frameworks LangChain – LangChain4j – liefert den Code, der als Bindeglied all die verschiedenen Parts vereint, die Entwickler integrieren müssen. Dazu werden im Wesentlichen Dutzende verschiedener Modelle und Data Stores mit einigen wenigen standardmäßigen, aber leistungsstarken Abstraktionen gebündelt. 3. Deeplearning4J Java-Entwickler, die KI-Klassifizierungsprojekte in Angriff nehmen wollen, können dazu auf das Ökosystem rund um Eclipse Deeplearning4J (DL4J) zurückgreifen, das eine Vielzahl von ML-Algorithmen unterstützt. Dazu werden lediglich die Rohdaten eingespeist – am Ende steht ein vollständig abgestimmtes Modell, das bereit ist, Entscheidungen zu treffen. Das Herzstück des Systems bildet die C++-Bibliothek libnd4j. Sie gewährleistet, dass die ML-Kernprimitive schnell ausgeführt werden. Die Datenflüsse werden über Apache Spark definiert. Während das Gesamt-Framework durch Java vereinheitlicht wird, können viele der beweglichen Teile von Deeplearning4J in einer anderen Sprache geschrieben werden. Die Pipeline ist so konzipiert, dass sie für Experimente – etwa mit Kotlin oder Scala – offen ist, die direkt mit der JVM arbeiten können. Python-Algorithmen lassen sich direkt in Python4j ausführen. Es handelt sich um ein quelloffenes Projekt, dessen Dokumentation viele gute Beispiele enthält, die die Performanz seiner Komponenten belegen. 4. Apache Spark MLib Für groß angelegte Datenanalysen verlassen sich Data Scientists schon seit Längerem mit Vorliebe auf Apache Spark. Mit MLib wird das Projekt um eine zusätzliche Ebene erweitert, die für Machine-Learning-Algorithmen optimiert ist. Daten lassen sich dabei an jedem Ort im Hadoop-Stil speichern, die Algorithmen können in jeder relevanten Sprache codiert werden – inklusive Java, Scala oder JVM-orientierten Sprachen. Besonders attraktiv machen MLib dabei seine vorgefertigten Routinen für viele klassische ML- und Analytics-Algorithmen – etwa Entscheidungsbäume, Clustering oder Alternating Least Squares. Größere Berechnungen wie etwa eine Singular Value Decomposition von ausufernden Matrizen lassen sich beschleunigen, indem sie auf mehrere Maschinen verteilt werden. In vielen Fällen muss also wirklich wenig Code implementiert werden – den Rest erledigt Spark mit einer Pipeline, die auf iterative Prozesse ausgelegt ist. 5. Testcontainers Weite Teile des LLM-Ökosystems laufen in Docker-Containern. Mit der Open-Source-Bibliothek Testcontainers steht Entwicklern ein Tool zur Verfügung, um all diese Teile zu managen. Die quelloffene Bibliothek bietet einen besonders einfachen Weg, um LLMs in den Stack zu integrieren. Auch mit Blick auf Datenbank, Service Bus, Message Broker und andere gängige Komponenten, bietet Testcontainers diverse vordefinierte Module. 6. GraalPy Bei GraalPy handelt es sich um eine integrierbare Version von Python3, die so optimiert ist, dass Python-Code einfacher in der JVM ausgeführt werden kann. Das ermöglicht Java-Programmierern, sämtliche Python-Bibliotheken und -Tools nutzen. Dabei ist GraalPy Bestandteil der größeren GraalVM-Projektkollektion, die dafür entwickelt wurde, Stacks in virtuellen Maschinen bereitzustellen und zu warten. 7. Apache OpenNLP Sollen KI-Modelle von Text lernen, erfordert das umfassendes Preprocessing. Schließlich müssen die relevanten Texte von überflüssigen Typesetting-Kommandos befreit und in kleine Teile zerlegt werden, damit die Algorithmen die Bedeutung aus Mustern extrahieren können. An dieser Stelle kommt das Toolkit Apache OpenNLP ins Spiel, das mit diversen grundlegenden Algorithmen eine solide Machine-Learning-Grundlage schaffen kann. Die enthaltenen Werkzeuge sind für diverse Aufgaben geeignet, von der einfachen Segmentierung und Tokenisierung bis hin zu komplexeren Analysen. Extras wie Spracherkennung oder die Extraktion benannter Entitäten können bei Bedarf eingesetzt werden. In den JAR-Dateien von OpenNLP sind Modelle für mehr als 32 Sprachen enthalten – alternativ können Sie auch eigene Modelle trainieren. Das OpenNLP-Toolset ist gut in das Java-Ökosystem integriert: Projekte wie UIMA oder Solr nutzen es bereits, um die Muster in natürlichsprachlichen Texten zu entschlüsseln. Der Einstieg in OpenNLP fällt durch die Integration mit Maven und Gradle zudem besonders leicht. 8. Neo4j Wenn Ihre Anwendung einen RAG-Data-Store erfordert, kann die Graph-Datenbank Neo4j diesen Workload stemmen. Die Datenbank unterstützt bereits verschiedene Graph-Applikationen, etwa Betrugserkennung oder Social-Media-Management. Dank seiner soliden Java-Grundlage lassen sich sowohl RAG-Anwendungen als auch Graph-Datenbanken mit Java-Stacks in einem einzigen, einheitlichen Datenspeicher integrieren – dem sogenannten GraphRAG. 9. Stanford CoreNLP Eine weitere Sammlung von Routinen für natürliche Sprache stellt die Stanford NLP Group mit dem Toolset CoreNLP zur Verfügung. Es erledigt alles von der Segmentierung bis hin zur Normalisierung von Zahlen oder Daten. Entwickler schätzen CoreNLP vor allem wegen seiner höheren Genauigkeit und der vorgefertigten Optionen – etwa Modelle für Stimmungsanalysen oder um Koreferenzen zu erkennen. Mit den erweiterten Funktionen der Bibliothek lassen sich auch kompliziertere Parsing-Algorithmen und -Strategien einfacher implementieren. CoreNLP lässt sich leicht in Gradle oder Maven integrieren – Modelle für neun Sprachen sind sofort einsatzbereit. 10. Jllama Manchmal macht es Sinn, KI-Modelle in einer JVM auszuführen, die man direkt kontrollieren und überwachen kann. LLMs lokal auszuführen, kann diverse Benefits verwirklichen, beispielsweise geringere Hardware-Kosten oder ein höheres Datenschutzniveau. Jllama nutzt diverse populäre Open-Source-Modelle zu Inferenzzwecken. Der Code von Jllama nutzt einige der neuesten Java-Funktionen wie die Vector API und SIMD-fähige Erweiterungen. Workloads lassen sich darüber hinaus auf die zur Verfügung stehenden Ressourcen in einem Cluster verteilen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Java-basierte GenAI-Tools​ KI geht auch mit Java-basierten Tools.The KonG / Shutterstock

Entwickler, die KI-Projekte angehen, denken dabei nicht unbedingt zuerst an Java – vielmehr ist Python für Projekte dieser Art oft die erste Wahl. Aber auch Java hat eine Daseinsberechtigung, wenn es um künstliche Intelligenz und Machine Learning geht. Schließlich wissen viele Developer die technischen Benefits und das weitläufige Ökosystem der Sprache zu schätzen. Diese Vorteile haben sich auch unter Python-Connaisseuren herumgesprochen: Einige nutzen Jython, um in den Genuss der Speed-Vorteile der Java Virtual Machine (JVM) zu kommen.

Der traditionelle, langsame, aber stete Fokus von Java auf Stabilität und Performance schafft viele gute Möglichkeiten, um sich mit KI und ML befassen, ohne dazu die Sicherheit des gut typisierten Java-Kokons verlassen zu müssen. Das belegen unter anderem die folgenden zehn KI-Entwicklungs-Tools auf Java-Basis.

1. Spring AI

Im Laufe der Jahre hat sich das Java-Framework Spring als Grundlage etabliert, um alles von Webanwendungen bis hin zu Microservices zu erstellen. Spring AI zielt darauf ab, jegliche Art von KI möglichst einfach in diese Umgebungen zu integrieren. Dazu stellt das Framework eine Reihe von Abstraktionen zur Verfügung, die diesen Prozess organisieren und definieren.

Entwickler, die mit großen KI-Anbietern wie Anthropic oder OpenAI arbeiten, können die Abstraktionen von Spring AI dazu verwenden, Chat- oder Moderations-Modelle zu integrieren. Dabei werden alle relevanten Anbieter unterstützt – nicht nur kommerzielle, sondern auch diverse aus dem Open-Source-Bereich.

Entwickler, die Daten lokal in einer Vektordatenbank speichern möchten, können sich direkt mit einer der etwa ein Dutzend Optionen (etwa Milvus oder Pinecone) verbinden. Spring AI übernimmt dabei das „Daten-Marshalling“ der Embeddings. So können Developer mit Java-Objekten arbeiten, während die Datenbank reine Vektoren speichert.

Darüber hinaus verfügt Spring AI außerdem über Funktionen für verschiedene Aufgaben, die sich in der Anwendungsentwicklung zum Standard entwickeln: So können Chat-Unterhaltungen automatisch für eine spätere Wiederherstellung gespeichert werden. Und eine Evaluierungsfunktion unterstützt die Meta-Evaluierung von Modellen, um Halluzinationen zu reduzieren oder sie zumindest zu kennzeichnen.

2. LangChain4j

Diverse Anwendungen „streben danach“, Vektordatenbanken und Large Language Models (LLMs) in einem Portal zu integrieren. Dazu reicht ein LLM oft nicht aus: Ein KI-Modell erzeugt einen Text, ein LLM zur Bildgenerierung veranschaulicht ihn – während am Anfang und am Ende der Pipelines eine Moderations-KI überwacht, dass niemand beleidigt wird.

Die Java-First-Version des populärem JavaScript- und Python-Frameworks LangChain – LangChain4j – liefert den Code, der als Bindeglied all die verschiedenen Parts vereint, die Entwickler integrieren müssen. Dazu werden im Wesentlichen Dutzende verschiedener Modelle und Data Stores mit einigen wenigen standardmäßigen, aber leistungsstarken Abstraktionen gebündelt.

3. Deeplearning4J

Java-Entwickler, die KI-Klassifizierungsprojekte in Angriff nehmen wollen, können dazu auf das Ökosystem rund um Eclipse Deeplearning4J (DL4J) zurückgreifen, das eine Vielzahl von ML-Algorithmen unterstützt. Dazu werden lediglich die Rohdaten eingespeist – am Ende steht ein vollständig abgestimmtes Modell, das bereit ist, Entscheidungen zu treffen. Das Herzstück des Systems bildet die C++-Bibliothek libnd4j. Sie gewährleistet, dass die ML-Kernprimitive schnell ausgeführt werden. Die Datenflüsse werden über Apache Spark definiert.

Während das Gesamt-Framework durch Java vereinheitlicht wird, können viele der beweglichen Teile von Deeplearning4J in einer anderen Sprache geschrieben werden. Die Pipeline ist so konzipiert, dass sie für Experimente – etwa mit Kotlin oder Scala – offen ist, die direkt mit der JVM arbeiten können. Python-Algorithmen lassen sich direkt in Python4j ausführen. Es handelt sich um ein quelloffenes Projekt, dessen Dokumentation viele gute Beispiele enthält, die die Performanz seiner Komponenten belegen.

4. Apache Spark MLib

Für groß angelegte Datenanalysen verlassen sich Data Scientists schon seit Längerem mit Vorliebe auf Apache Spark. Mit MLib wird das Projekt um eine zusätzliche Ebene erweitert, die für Machine-Learning-Algorithmen optimiert ist. Daten lassen sich dabei an jedem Ort im Hadoop-Stil speichern, die Algorithmen können in jeder relevanten Sprache codiert werden – inklusive Java, Scala oder JVM-orientierten Sprachen.

Besonders attraktiv machen MLib dabei seine vorgefertigten Routinen für viele klassische ML- und Analytics-Algorithmen – etwa Entscheidungsbäume, Clustering oder Alternating Least Squares. Größere Berechnungen wie etwa eine Singular Value Decomposition von ausufernden Matrizen lassen sich beschleunigen, indem sie auf mehrere Maschinen verteilt werden.

In vielen Fällen muss also wirklich wenig Code implementiert werden – den Rest erledigt Spark mit einer Pipeline, die auf iterative Prozesse ausgelegt ist.

5. Testcontainers

Weite Teile des LLM-Ökosystems laufen in Docker-Containern. Mit der Open-Source-Bibliothek Testcontainers steht Entwicklern ein Tool zur Verfügung, um all diese Teile zu managen.

Die quelloffene Bibliothek bietet einen besonders einfachen Weg, um LLMs in den Stack zu integrieren. Auch mit Blick auf Datenbank, Service Bus, Message Broker und andere gängige Komponenten, bietet Testcontainers diverse vordefinierte Module.

6. GraalPy

Bei GraalPy handelt es sich um eine integrierbare Version von Python3, die so optimiert ist, dass Python-Code einfacher in der JVM ausgeführt werden kann. Das ermöglicht Java-Programmierern, sämtliche Python-Bibliotheken und -Tools nutzen.

Dabei ist GraalPy Bestandteil der größeren GraalVM-Projektkollektion, die dafür entwickelt wurde, Stacks in virtuellen Maschinen bereitzustellen und zu warten.

7. Apache OpenNLP

Sollen KI-Modelle von Text lernen, erfordert das umfassendes Preprocessing. Schließlich müssen die relevanten Texte von überflüssigen Typesetting-Kommandos befreit und in kleine Teile zerlegt werden, damit die Algorithmen die Bedeutung aus Mustern extrahieren können. An dieser Stelle kommt das Toolkit Apache OpenNLP ins Spiel, das mit diversen grundlegenden Algorithmen eine solide Machine-Learning-Grundlage schaffen kann.

Die enthaltenen Werkzeuge sind für diverse Aufgaben geeignet, von der einfachen Segmentierung und Tokenisierung bis hin zu komplexeren Analysen. Extras wie Spracherkennung oder die Extraktion benannter Entitäten können bei Bedarf eingesetzt werden. In den JAR-Dateien von OpenNLP sind Modelle für mehr als 32 Sprachen enthalten – alternativ können Sie auch eigene Modelle trainieren.

Das OpenNLP-Toolset ist gut in das Java-Ökosystem integriert: Projekte wie UIMA oder Solr nutzen es bereits, um die Muster in natürlichsprachlichen Texten zu entschlüsseln. Der Einstieg in OpenNLP fällt durch die Integration mit Maven und Gradle zudem besonders leicht.

8. Neo4j

Wenn Ihre Anwendung einen RAG-Data-Store erfordert, kann die Graph-Datenbank Neo4j diesen Workload stemmen. Die Datenbank unterstützt bereits verschiedene Graph-Applikationen, etwa Betrugserkennung oder Social-Media-Management.

Dank seiner soliden Java-Grundlage lassen sich sowohl RAG-Anwendungen als auch Graph-Datenbanken mit Java-Stacks in einem einzigen, einheitlichen Datenspeicher integrieren – dem sogenannten GraphRAG.

9. Stanford CoreNLP

Eine weitere Sammlung von Routinen für natürliche Sprache stellt die Stanford NLP Group mit dem Toolset CoreNLP zur Verfügung. Es erledigt alles von der Segmentierung bis hin zur Normalisierung von Zahlen oder Daten.

Entwickler schätzen CoreNLP vor allem wegen seiner höheren Genauigkeit und der vorgefertigten Optionen – etwa Modelle für Stimmungsanalysen oder um Koreferenzen zu erkennen. Mit den erweiterten Funktionen der Bibliothek lassen sich auch kompliziertere Parsing-Algorithmen und -Strategien einfacher implementieren.

CoreNLP lässt sich leicht in Gradle oder Maven integrieren – Modelle für neun Sprachen sind sofort einsatzbereit.

10. Jllama

Manchmal macht es Sinn, KI-Modelle in einer JVM auszuführen, die man direkt kontrollieren und überwachen kann. LLMs lokal auszuführen, kann diverse Benefits verwirklichen, beispielsweise geringere Hardware-Kosten oder ein höheres Datenschutzniveau.

Jllama nutzt diverse populäre Open-Source-Modelle zu Inferenzzwecken. Der Code von Jllama nutzt einige der neuesten Java-Funktionen wie die Vector API und SIMD-fähige Erweiterungen. Workloads lassen sich darüber hinaus auf die zur Verfügung stehenden Ressourcen in einem Cluster verteilen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Java-basierte GenAI-Tools​ Weiterlesen »

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​

Allgemein

Bei der Auswahl neuer Mitarbeiter sollte nicht nur auf die Fachkompetenz geachtet werden Als Personaler sollten Sie ausreichend Zeit in die Personalauswahl investieren Wichtig bei der Auswahl des neuen Mitarbeiters ist auch eine sorgfältige Nachbereitung Wenn sich der neue Inhaber einer Schlüsselposition als Flop erweist, entstehen den Unternehmen hohe Kosten; dann waren alle Ausgaben für die Personalsuche und -auswahl Fehlinvestitionen. Noch schwerer wiegen jedoch die Folgekosten. Denn bleibt eine Schlüsselposition längere Zeit verwaist, dann werden meist auch Entscheidungen zu spät getroffen und umgesetzt. Deshalb hier einige Tipps, wie sich Flops bei der Personalauswahl vermeiden lassen.Bei der Personalauswahl kann das Risiko von Fehlbesetzungen mit der Beachtung einiger Tipps minimiert werden. Foto: Piotr Marcinski – shutterstock.comTipp 1: Nicht nur auf die Fachkompetenz achtenOft wird bei der Auswahl neuer Mitarbeiter fast ausschließlich auf deren fachliche Qualifikation geachtet. Denn diese lässt sich anhand der (Arbeits-)Zeugnisse und der Herausforderungen, die der Kandidat bisher bewältigte, relativ leicht bewerten. Anders ist dies bei Faktoren wie:Findet der Bewerber einen Draht zu den Kunden, Mitarbeitern oder Lieferanten des Unternehmens?Hat er ein “Gespür” für die Notwendigkeiten in der Organisation?Dies zu ermitteln, erfordert Zeit und Energie. Doch die Mühe lohnt sich, denkt man an die Kosten einer Fehlbesetzung.Investieren Sie als Personalverantwortlicher ausreichend Zeit in die Personalauswahl! Dieser Prozess beginnt beim Formulieren der Anforderungen an den “Neuen”. Sagen Sie zum Beispiel nicht: “Ist doch klar, was ein Vertriebsleiter können muss.” Überlegen Sie vielmehr: Was muss der Vertriebsleiter in unserem Betrieb konkret leisten? Denn der Vertriebsleiter eines Konzerns benötigt teils andere Kompetenzen als sein Kollege bei einem Mittelständler.Tipp 2: Ein detailliertes Anforderungsprofil erstellenErmitteln Sie im Vorfeld genau, welche Anforderungen der “Neue” erfüllen muss – zum Beispiel, indem Sie den bisherigen Stelleninhaber befragen. Fragen Sie sich auch: Wodurch unterscheidet sich der ideale Stelleninhaber vom Kandidaten, den Sie keinesfalls einstellen möchten? Delegiert der Wunschkandidat zum Beispiel viele Aufgaben, während der andere das meiste selbst erledigt? Hat die “Traumbesetzung” Spaß am Kundenkontakt, während sich ihr Pendant vor Kundengesprächen drückt? So können Sie die sozialen, kommunikativen und persönlichen Eigenschaften ermitteln, die der “Neue” braucht. Berücksichtigen Sie beim Formulieren des Anforderungsprofils auch die künftigen Anforderungen. Denn Ihr Unternehmen möchte sich ja entwickeln.Tipp 3: Einen Gesprächsleitfaden erstellenLeiten Sie aus dem Anforderungsprofil einen Interviewleitfaden ab – für alle Auswahlgespräche. Ein solches Strukturieren und weitgehendes Standardisieren der Gespräche stellt sicher, dass Sie am Schluss die Bewerberprofile gut vergleichen können, weil alle Bewerber dieselben Kernfragen beantwortet haben. Außerdem tappen Sie seltener in die Falle, dass ein rhetorisch fitter Bewerber das Gespräch führt und Sie danach feststellen: “Verflucht, das habe ich nicht gefragt.”Tipp 4: Den Bewerbern Aufgaben gebenStellen Sie den Bewerbern zudem Aufgaben, die typisch für Ihr Unternehmen oder die vakante Position sind. Zum Beispiel: “Stellen Sie sich vor, nächste Woche ist eine wichtige Messe, Ihr Exponat ist aber noch nicht fertig. Was würden Sie tun?” Durch solche Fragen erfahren Sie, wie die Bewerber solche Probleme lösen würden. Stellen Sie den Bewerbern zudem aktuelle Aufgaben, vor denen das Unternehmen steht. Zum Beispiel: “Wir möchten ein neues CRM-System einführen. Wie würden Sie das angehen?” So wird meist schnell klar, ob der Bewerber der Richtige ist.Tipp 5: Die Gesprächsführung trainierenUntrainierte Führungskräfte erzählen in Personalauswahlgesprächen oft mehr über sich und ihr Unternehmen, als dass sie fragen. Außerdem stellen sie den Bewerbern viele Fragen, die diese mit “ja” oder “nein” beantworten können, so dass sie selbst wenig erfahren. Deshalb sollten ungeübte Interviewer die Gesprächsführung trainieren.Tipp 6: Das Gespräch nicht alleine führenZiehen Sie zu den Gesprächen mindestens einen Kollegen hinzu. Denn dann kann die Person, die gerade nicht das Gespräch führt,auf die nonverbalen Aussagen des Bewerbers achten, die oft aussagekräftiger als die verbalen sind, undStichworte notieren.Sonst weiß nach dem fünften Interview niemand mehr, was der erste Bewerber sagte.Tipp 7: Die Gespräche nachbereitenWichtig ist auch eine sorgfältige Nachbereitung. Ergänzen Sie nach jedem Gespräch Ihre Notizen. Und stellen Sie nach Beendigung der Auswahlgespräche die Ergebnisse so zusammen, dass Sie die Bewerberprofile gut mit dem Anforderungsprofil vergleichen können. Erstellen Sie vor Ihrer Auswahlentscheidung ein Ranking der besten Bewerber. Dann haben Sie Alternativen parat, wenn Ihr Wunschkandidat absagt.Tipp 8: Auf Verstand und Bauchgefühl vertrauenSprechen Sie beim Erstellen des Rankings mit Ihren Kollegen auch darüber, warum Sie beim Bewerber A, obwohl er formal alle Kriterien erfüllt, ein “eher schlechtes Gefühl” haben; außerdem beim Bewerber B den Eindruck, er könne der bessere Mitarbeiter sein, obwohl er einzelne Anforderungen nicht ganz erfüllt. Denn in den Auswahlgesprächen versucht sich jeder Bewerber möglichst positiv zu verkaufen. Das heißt, er gibt Ihnen “geschönte” Antworten.Hören Sie deshalb auch auf Ihren Bauch, wenn er Ihnen sagt: “Dieser Bewerber ist es trotz aller Vorzüge nicht” – jedoch nie ohne sich zuvor zu fragen: Warum sträuben sich mir bei ihm die Nackenhaare? Sonst ist die Gefahr groß, dass Sie rein nach Sympathie entscheiden – was zu den meisten Fehlbesetzungen führt. 

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​ Bei der Auswahl neuer Mitarbeiter sollte nicht nur auf die Fachkompetenz geachtet werden

Als Personaler sollten Sie ausreichend Zeit in die Personalauswahl investieren

Wichtig bei der Auswahl des neuen Mitarbeiters ist auch eine sorgfältige Nachbereitung

Wenn sich der neue Inhaber einer Schlüsselposition als Flop erweist, entstehen den Unternehmen hohe Kosten; dann waren alle Ausgaben für die Personalsuche und -auswahl Fehlinvestitionen. Noch schwerer wiegen jedoch die Folgekosten. Denn bleibt eine Schlüsselposition längere Zeit verwaist, dann werden meist auch Entscheidungen zu spät getroffen und umgesetzt. Deshalb hier einige Tipps, wie sich Flops bei der Personalauswahl vermeiden lassen.Bei der Personalauswahl kann das Risiko von Fehlbesetzungen mit der Beachtung einiger Tipps minimiert werden.
Foto: Piotr Marcinski – shutterstock.comTipp 1: Nicht nur auf die Fachkompetenz achtenOft wird bei der Auswahl neuer Mitarbeiter fast ausschließlich auf deren fachliche Qualifikation geachtet. Denn diese lässt sich anhand der (Arbeits-)Zeugnisse und der Herausforderungen, die der Kandidat bisher bewältigte, relativ leicht bewerten. Anders ist dies bei Faktoren wie:Findet der Bewerber einen Draht zu den Kunden, Mitarbeitern oder Lieferanten des Unternehmens?Hat er ein “Gespür” für die Notwendigkeiten in der Organisation?Dies zu ermitteln, erfordert Zeit und Energie. Doch die Mühe lohnt sich, denkt man an die Kosten einer Fehlbesetzung.Investieren Sie als Personalverantwortlicher ausreichend Zeit in die Personalauswahl! Dieser Prozess beginnt beim Formulieren der Anforderungen an den “Neuen”. Sagen Sie zum Beispiel nicht: “Ist doch klar, was ein Vertriebsleiter können muss.” Überlegen Sie vielmehr: Was muss der Vertriebsleiter in unserem Betrieb konkret leisten? Denn der Vertriebsleiter eines Konzerns benötigt teils andere Kompetenzen als sein Kollege bei einem Mittelständler.Tipp 2: Ein detailliertes Anforderungsprofil erstellenErmitteln Sie im Vorfeld genau, welche Anforderungen der “Neue” erfüllen muss – zum Beispiel, indem Sie den bisherigen Stelleninhaber befragen. Fragen Sie sich auch: Wodurch unterscheidet sich der ideale Stelleninhaber vom Kandidaten, den Sie keinesfalls einstellen möchten? Delegiert der Wunschkandidat zum Beispiel viele Aufgaben, während der andere das meiste selbst erledigt? Hat die “Traumbesetzung” Spaß am Kundenkontakt, während sich ihr Pendant vor Kundengesprächen drückt? So können Sie die sozialen, kommunikativen und persönlichen Eigenschaften ermitteln, die der “Neue” braucht. Berücksichtigen Sie beim Formulieren des Anforderungsprofils auch die künftigen Anforderungen. Denn Ihr Unternehmen möchte sich ja entwickeln.Tipp 3: Einen Gesprächsleitfaden erstellenLeiten Sie aus dem Anforderungsprofil einen Interviewleitfaden ab – für alle Auswahlgespräche. Ein solches Strukturieren und weitgehendes Standardisieren der Gespräche stellt sicher, dass Sie am Schluss die Bewerberprofile gut vergleichen können, weil alle Bewerber dieselben Kernfragen beantwortet haben. Außerdem tappen Sie seltener in die Falle, dass ein rhetorisch fitter Bewerber das Gespräch führt und Sie danach feststellen: “Verflucht, das habe ich nicht gefragt.”Tipp 4: Den Bewerbern Aufgaben gebenStellen Sie den Bewerbern zudem Aufgaben, die typisch für Ihr Unternehmen oder die vakante Position sind. Zum Beispiel: “Stellen Sie sich vor, nächste Woche ist eine wichtige Messe, Ihr Exponat ist aber noch nicht fertig. Was würden Sie tun?” Durch solche Fragen erfahren Sie, wie die Bewerber solche Probleme lösen würden. Stellen Sie den Bewerbern zudem aktuelle Aufgaben, vor denen das Unternehmen steht. Zum Beispiel: “Wir möchten ein neues CRM-System einführen. Wie würden Sie das angehen?” So wird meist schnell klar, ob der Bewerber der Richtige ist.Tipp 5: Die Gesprächsführung trainierenUntrainierte Führungskräfte erzählen in Personalauswahlgesprächen oft mehr über sich und ihr Unternehmen, als dass sie fragen. Außerdem stellen sie den Bewerbern viele Fragen, die diese mit “ja” oder “nein” beantworten können, so dass sie selbst wenig erfahren. Deshalb sollten ungeübte Interviewer die Gesprächsführung trainieren.Tipp 6: Das Gespräch nicht alleine führenZiehen Sie zu den Gesprächen mindestens einen Kollegen hinzu. Denn dann kann die Person, die gerade nicht das Gespräch führt,auf die nonverbalen Aussagen des Bewerbers achten, die oft aussagekräftiger als die verbalen sind, undStichworte notieren.Sonst weiß nach dem fünften Interview niemand mehr, was der erste Bewerber sagte.Tipp 7: Die Gespräche nachbereitenWichtig ist auch eine sorgfältige Nachbereitung. Ergänzen Sie nach jedem Gespräch Ihre Notizen. Und stellen Sie nach Beendigung der Auswahlgespräche die Ergebnisse so zusammen, dass Sie die Bewerberprofile gut mit dem Anforderungsprofil vergleichen können. Erstellen Sie vor Ihrer Auswahlentscheidung ein Ranking der besten Bewerber. Dann haben Sie Alternativen parat, wenn Ihr Wunschkandidat absagt.Tipp 8: Auf Verstand und Bauchgefühl vertrauenSprechen Sie beim Erstellen des Rankings mit Ihren Kollegen auch darüber, warum Sie beim Bewerber A, obwohl er formal alle Kriterien erfüllt, ein “eher schlechtes Gefühl” haben; außerdem beim Bewerber B den Eindruck, er könne der bessere Mitarbeiter sein, obwohl er einzelne Anforderungen nicht ganz erfüllt. Denn in den Auswahlgesprächen versucht sich jeder Bewerber möglichst positiv zu verkaufen. Das heißt, er gibt Ihnen “geschönte” Antworten.Hören Sie deshalb auch auf Ihren Bauch, wenn er Ihnen sagt: “Dieser Bewerber ist es trotz aller Vorzüge nicht” – jedoch nie ohne sich zuvor zu fragen: Warum sträuben sich mir bei ihm die Nackenhaare? Sonst ist die Gefahr groß, dass Sie rein nach Sympathie entscheiden – was zu den meisten Fehlbesetzungen führt.

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​ Weiterlesen »

Mit KI-Agenten aus der Service-Wüste?​

Allgemein

Der Kundenservice gehört zu den Bereichen, in denen sich Unternehmen die meisten Vorteile vom Einsatz von (generativer) künstlicher Intelligenz versprechen. Doch auch die von langen Warteschleifen und oft frustrierender Kommunikation geplagten Verbraucher schöpfen Hoffnung. Sie könnten mit Hilfe von KI zu einem persönlicheren und individuell zugeschnittenen Kundenservice gelangen.   Kunden wollen schnell und persönlich betreut werden  Zu diesem Ergebnis kommt der aktuelle Consumer Voice Report von ServiceNow und Opinium, für den 2.000 Verbraucher in Deutschland befragt wurden. Wie die Studie ergab, haben die Kunden die Nase voll von schlechten Service-Erlebnissen:   Sechzig Prozent der Befragten möchten nicht länger als maximal zehn Minuten in einer Warteschleife verbringen.   Fast ebenso viele (59 Prozent) betonen, dass eine einfache und unkomplizierte Lösung für sie oberste Priorität hat. Gleichzeitig bekundeten 56 Prozent, dass ihnen mehr Freundlichkeit und Empathie im Kundenservice sehr wichtig sei.  Wie die Studienbetreiber ausführen, sind KI-Agenten die Lösung, um diese derzeit noch häufig konträren Kundenwünsche zu realisieren. So könnten automatisierte Systeme Anfragen in Echtzeit vorqualifizieren, Routineaufgaben effizient erledigen und Kundenanliegen intelligent priorisieren. Dadurch würden wertvolle Ressourcen im Kundenservice entlastet, was wiederum zu schnelleren Reaktionszeiten führe.   „Technologie ist eine treibende Kraft im Kundenservice – sie ermöglicht schnelle, zuverlässige und effiziente Lösungen”, erklärt Robert Rosellen, VP Sales and Country Manager Germany bei ServiceNow. „Doch wahre Exzellenz entsteht erst durch die intelligente Verbindung von künstlicher Intelligenz und menschlicher Expertise, basierend auf fundierten Dateneinblicken.“  Misstrauen gegenüber KI-Chatbots  Dies deckt sich mit dem Ergebnis der Studie, wonach die Verbraucher aktuell am liebsten mit einem Menschen aus dem Kundenservice telefonieren, um zu einer Lösung zu gelangen. Erst danach kommt mit großem Abstand ein KI-Chatbot, gefolgt von den Optionen Sprachassistent, Social Media und Self Service.   Gleichzeitig gibt es laut Umfrage eine ganze Reihe von Aktivitäten, bei denen sich viele Verbraucher nie einem KI-Chatbot anvertrauen würden. Etwa, um:  eine verdächtige Transaktion anzufechten (40 Prozent);  ein Bankkonto nach dem Tod eines geliebten Menschen zu schließen (39 Prozent);  medizinische Informationen weiterzugeben (34 Prozent); einen verlorenen oder gestohlenen Reisepass ersetzen zulassen (34 Prozent);  Dienstleistungen zu kündigen oder Konten zu schließen (31 Prozent).  Die Studie identifizierte bei den Befragten zahlreiche Gründe für die – derzeitige – Abneigung gegenüber KI-Chatbots im Kundenservice. Demnach wirkten diese unpersönlich oder desinteressiert (17 Prozent), hätten Probleme mit komplexen Aufgaben (zwölf Prozent) oder machten Fehler (elf Prozent). Jeder zehnte Umfrageteilnehmer beklagte außerdem, dass er den Antworten der KI nicht traue und/oder sich emotional nicht verbunden fühle. KI-Agenten werden einfühlsam  Generell sind derzeit noch 58 Prozent der Befragten der Auffassung, dass KI-gestützte Lösungen nicht in der Lage seien, emotionale Signale zu erkennen zu können. Gleichzeitig rechnen aber 71 Prozent damit, dass KI in Zukunft besser auf ihre Emotionen und Tonlage reagieren kann.  Aus Sicht der Studienbetreiber wäre diese Eigenschaft ein entscheidender Schritt hin zu einem persönlicheren und individuell zugeschnittenen Kundenservice. Denn mit den Fortschritten in generativer KI entstünden neue Möglichkeiten, Inhalte dynamisch zu erstellen sowie emotionale Anliegen zu erkennen und intelligent einzuordnen. Als Resultat könnten menschliche Berater gezielter und empathischer agieren, da sie sich auf die wirklich relevanten, oft komplexeren Fälle konzentrieren. Das Ergebnis: Ein Kundenservice, der gleichzeitig effizienter und menschlicher wird.  „Die Serviceerfahrungen deutscher Verbraucher müssen nicht so bleiben, wie sie sind. KI-basierte Lösungen beweisen schon heute, dass schneller, effizienter und empathischer Kundenservice möglich ist,“ erklärt Michael Wallner, Head of Generative AI GTM EMEA Central bei ServiceNow. „Die Zukunft liegt in der Verbindung von KI, Daten und intelligenten Workflows mit menschlicher, emotionaler Intelligenz.“  

Mit KI-Agenten aus der Service-Wüste?​ Der Kundenservice gehört zu den Bereichen, in denen sich Unternehmen die meisten Vorteile vom Einsatz von (generativer) künstlicher Intelligenz versprechen. Doch auch die von langen Warteschleifen und oft frustrierender Kommunikation geplagten Verbraucher schöpfen Hoffnung. Sie könnten mit Hilfe von KI zu einem persönlicheren und individuell zugeschnittenen Kundenservice gelangen.  

Kunden wollen schnell und persönlich betreut werden 

Zu diesem Ergebnis kommt der aktuelle Consumer Voice Report von ServiceNow und Opinium, für den 2.000 Verbraucher in Deutschland befragt wurden. Wie die Studie ergab, haben die Kunden die Nase voll von schlechten Service-Erlebnissen:  

Sechzig Prozent der Befragten möchten nicht länger als maximal zehn Minuten in einer Warteschleife verbringen.  

Fast ebenso viele (59 Prozent) betonen, dass eine einfache und unkomplizierte Lösung für sie oberste Priorität hat.

Gleichzeitig bekundeten 56 Prozent, dass ihnen mehr Freundlichkeit und Empathie im Kundenservice sehr wichtig sei. 

Wie die Studienbetreiber ausführen, sind KI-Agenten die Lösung, um diese derzeit noch häufig konträren Kundenwünsche zu realisieren. So könnten automatisierte Systeme Anfragen in Echtzeit vorqualifizieren, Routineaufgaben effizient erledigen und Kundenanliegen intelligent priorisieren. Dadurch würden wertvolle Ressourcen im Kundenservice entlastet, was wiederum zu schnelleren Reaktionszeiten führe.  

„Technologie ist eine treibende Kraft im Kundenservice – sie ermöglicht schnelle, zuverlässige und effiziente Lösungen”, erklärt Robert Rosellen, VP Sales and Country Manager Germany bei ServiceNow. „Doch wahre Exzellenz entsteht erst durch die intelligente Verbindung von künstlicher Intelligenz und menschlicher Expertise, basierend auf fundierten Dateneinblicken.“ 

Misstrauen gegenüber KI-Chatbots 

Dies deckt sich mit dem Ergebnis der Studie, wonach die Verbraucher aktuell am liebsten mit einem Menschen aus dem Kundenservice telefonieren, um zu einer Lösung zu gelangen. Erst danach kommt mit großem Abstand ein KI-Chatbot, gefolgt von den Optionen Sprachassistent, Social Media und Self Service.  

Gleichzeitig gibt es laut Umfrage eine ganze Reihe von Aktivitäten, bei denen sich viele Verbraucher nie einem KI-Chatbot anvertrauen würden. Etwa, um: 

eine verdächtige Transaktion anzufechten (40 Prozent); 

ein Bankkonto nach dem Tod eines geliebten Menschen zu schließen (39 Prozent); 

medizinische Informationen weiterzugeben (34 Prozent);

einen verlorenen oder gestohlenen Reisepass ersetzen zulassen (34 Prozent); 

Dienstleistungen zu kündigen oder Konten zu schließen (31 Prozent). 

Die Studie identifizierte bei den Befragten zahlreiche Gründe für die – derzeitige – Abneigung gegenüber KI-Chatbots im Kundenservice. Demnach wirkten diese unpersönlich oder desinteressiert (17 Prozent), hätten Probleme mit komplexen Aufgaben (zwölf Prozent) oder machten Fehler (elf Prozent). Jeder zehnte Umfrageteilnehmer beklagte außerdem, dass er den Antworten der KI nicht traue und/oder sich emotional nicht verbunden fühle.

KI-Agenten werden einfühlsam 

Generell sind derzeit noch 58 Prozent der Befragten der Auffassung, dass KI-gestützte Lösungen nicht in der Lage seien, emotionale Signale zu erkennen zu können. Gleichzeitig rechnen aber 71 Prozent damit, dass KI in Zukunft besser auf ihre Emotionen und Tonlage reagieren kann. 

Aus Sicht der Studienbetreiber wäre diese Eigenschaft ein entscheidender Schritt hin zu einem persönlicheren und individuell zugeschnittenen Kundenservice. Denn mit den Fortschritten in generativer KI entstünden neue Möglichkeiten, Inhalte dynamisch zu erstellen sowie emotionale Anliegen zu erkennen und intelligent einzuordnen. Als Resultat könnten menschliche Berater gezielter und empathischer agieren, da sie sich auf die wirklich relevanten, oft komplexeren Fälle konzentrieren. Das Ergebnis: Ein Kundenservice, der gleichzeitig effizienter und menschlicher wird. 

„Die Serviceerfahrungen deutscher Verbraucher müssen nicht so bleiben, wie sie sind. KI-basierte Lösungen beweisen schon heute, dass schneller, effizienter und empathischer Kundenservice möglich ist,“ erklärt Michael Wallner, Head of Generative AI GTM EMEA Central bei ServiceNow. „Die Zukunft liegt in der Verbindung von KI, Daten und intelligenten Workflows mit menschlicher, emotionaler Intelligenz.“ 

Mit KI-Agenten aus der Service-Wüste?​ Weiterlesen »

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​

Allgemein

Thomas Rau Auf einen Blick Pro wiegt unter 1 Kilogramm sehr lange Akkulaufzeit sehr guter OLED-Bildschirm Kontra mäßige Rechenleistung unter Last laute Lüfter mäßige Tastatur Fazit Das Asus Zenbook A 14 ist der optimale Laptop für unterwegs, denn es ist leicht und ausdauernd. Das gilt aber nur, wenn bei Ihrer Arbeit die Länge der Akkulaufzeit entscheidend ist und weniger, wie produktiv Sie den Laptop nutzen. Denn mit hoher Rechenleistung punktet das Leichtgewicht nicht.Für Internet-Recherche, Video-Wiedergabe und normale Office-Aufgaben genügt der Snapdragon X im Zenbook vollauf. Wenn es aufwändiger wird, sind Notebooks mit Snapdragon X Elite oder Intels Lunar Lake die bessere Lösung. Zudem ist der Preis des Zenbook ambitioniert: Es gibt viele günstigere Copilot+PCs oder ähnlich teure, die besser ausgestattet sind. Aber eben keinen leichteren.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops. Copilot+PCs versprechen optimale Leistung für KI. Dieses Versprechen können sie aber erst in der Zukunft einlösen, denn noch fehlt es an interessanten lokalen KI-Anwendungen. Schon heute profitieren Sie aber von diesen Notebooks, wenn Sie einen Mobilrechner mit langer Akkulaufzeit suchen. Das gilt besonders für Copilot-Plus-PCs wie das Zenbook A 14 mit Windows-ARM und einem Snapdragon-Prozessor. Asus geht aber noch einen Schritt weiter: Der 14-Zoll-Laptop ist federleicht und wiegt weniger als ein Kilogramm. Haben wir hier also den optimalen Rechner für unterwegs vor uns? Beim Gehäuse kommen keine Zweifel auf: Asus verwendet dafür sein neues Lieblings-Material Ceraluminium, das so stabil wie Aluminium sein soll, dank der leicht aufgerauten, keramikähnlichen Oberfläche aber angenehmer beim Anfassen ist. Auf dem Deckel sind Fingerabdrücke und Griffspuren tatsächlich auch nach längerem Gebrauch nicht zu sehen – auch weil Asus klugerweise einen unauffälligen Grauton (Iceland Grey) und ein mattes Finish wählt. Auch beim festen Zupacken knarzt und knirscht nichts am Zenbook: Für die Arbeit unterwegs und die Reisestrapazen in Rucksack oder Koffer scheint das Gehäuse gut gerüstet. Für das Gehäuse verwendet Asus das Material Ceraluminium.Thomas Rau Akkulaufzeit Arbeit und Reisen können dabei auch problemlos länger dauern. Denn das Ausdauerversprechen des ARM-Windows kann das Zenbook vollumfänglich bestätigen: Im WLAN-Test schafft es über 18 Stunden in der Windows-Standardeinstellung „Ausbalanciert“. Beim Akkutest mit Officeanwendungen kommt es auf über 13 Stunden, wenn Sie den besonders sparsamen „Flüstermodus“ aktivieren, sogar auf fast 16 Stunden. Diese Ergebnisse sind übrigens kein Widerspruch zu den Marketingbehauptungen von Asus: Der Hersteller spricht von 32 Stunden Laufzeit – allerdings beim Abspielen von Videos, was für einen aktuellen Notebook-Prozessor zu den leichtesten Aufgaben gehört. Denn damit ist vor allem die spezialisierte und daher sehr effiziente Dekodier-Hardware der integrierten GPU beschäftigt, die CPU-Last bleibt niedrig. Das Laden und Darstellen von Webseiten und die unterschiedlichen Arbeitsschritte einer Office-Software fordern den Prozessor dagegen deutlich mehr. Ganz vorne im Testfeld liegt das Zenbook A 14 auch mit seinem Gewicht: Es wiegt nur 972 Gramm und ist damit 300 bis 400 Gramm leichter als andere Business-Notebooks mit 14-Zoll-Display, die in den meisten Fällen außerdem deutlich teurer sind. Das Netzteil mit Typ-C-Kabel liefert 65 Watt und lädt den Akku in einer Stunde auf 83 Prozent auf. Anschlüsse auf der linken Seite: HDMI, zweimal Typ-C mit USB 4 sowie ein Audioport.Thomas Rau Rechenleistung Eine lange Akkulaufzeit ist für ein ultramobiles Notebook wünschenswert – und hier liefert das Zenbook. Viel wichtiger für einen Business-Laptop ist aber die Frage, wie viel der Anwender in dieser Akkulaufzeit erledigen kann. Bei der Performance erweist sich das Zenbook allerdings als Leistungs-Leichtgewicht. Asus setzt nämlich den schwächsten Snapdragon-Prozessor der aktuellen Generation ein: Der X1-26-100 hat nur acht Rechenkerne, während die Modelle des X Elite zwölf und die meisten Varianten des X Plus zehn besitzen. Gegenüber den Plus-Varianten X1P-46-100 und X1P-42-100, die ebenfalls acht Kerne haben, kommt beim X1-26 der Nachteil einer geringeren Taktrate. Im CPU-Test Cinebench R24 liegt der Snapdragon-Prozessor rund 30 Prozent hinter Laptops, in denen seine 12-Kern-Brüder sitzen. Gegen aktuelle Intel-Prozessoren wie dem Core Ultra 7 258V kann er sich dagegen durchsetzen – die haben zwar auch acht Kerne, aber nur vier davon sind leistungsstärkere P-Cores. Im Single-Core-Test kann er aber nicht mit der Intel-Konkurrenz mithalten – hier ist er rund 20 Prozent langsamer. Etwa 10 Prozent beträgt der Rückstand zum Snapdragon X Elite. Business-Anwender stecken daher mit dem Zenbook in einem Leistungsdilemma: Von der verhältnismäßig gute Mehrkern-Performance profitieren vor allem Multimedia-Anwendungen. Doch für aufwändige Foto- und Videobearbeitung ist die absolute Rechengeschwindigkeit des Snapdragon X zu niedrig, zumal seine integrierte Grafik besonders schwach ist. Bei Office-Anwendungen leidet das Zenbook dagegen unter seiner geringen Einzelkern-Leistung. Das verdeutlichen System-Benchmarks wie der PC Mark 10 Applications Benchmark und der Crossmark. Beim PC Mark 10, der zum Test Microsoft Office nutzt, liegt das Zenbook bei Word deutlich hinter Lunar-Lake-Notebooks, bei Excel – das zum Beispiel bei sehr umfangreichen Tabellen mehrere Kerne einsetzt – knapp hinter der Konkurrenz mit Intel. Beim Crossmark entspricht seine Office-Leistung in etwa einem rund drei Jahre alten Core-Prozessor, die Ergebnisse im Multimedia-Test ungefähr einer zwei Jahre alten Intel-CPU. Das kann sich künftig aber ändern, wenn Anwendungen stärker von KI profitieren: Denn auch der schwache Snapdragon X nutzt die gleiche NPU wie Modelle der X-Elite-Serie. Im KI-Test Procyon AI Computer Vision erzielt er mit 1732 Punkten ein gutes Ergebnis. Rechts sitzt dagegen nur ein Typ-A-Port mit USB 3.2 Gen 2.Thomas Rau Betriebsgeräusch Wer erwartet, dass das Zenbook A 14 aufgrund des gemächlichen Prozessors besonders leise arbeitet, liegt falsch: Die beiden Lüfter sind unter Last eher etwas lauter als die meisten Snapdragon- und Lunar-Lake-Laptops. Nur wenn tatsächlich wenig Leistung gefragt ist, zum Beispiel bei einfachen Office-Aufgaben, bleibt das Zenbook ruhig. Auf den von Asus angebotenen Modus „Volle Geschwindigkeit“ sollten Sie beim konzentrierten Arbeiten verzichten: Zwar steigert er die Leistung des Zenbook – im Cinebench R24 zum Beispiel läuft es dadurch rund 25 Prozent schneller -, aber die Lüfter lärmen dann in einer nervtötenden Lautstärke. Immerhin erwärmt sich das Gehäuse auch bei längeren Lastphasen kaum – Sie können das Notebook also beim Arbeiten unterwegs auch unbesorgt auf den Oberschenkeln platzieren. Ein Blick ins Gehäuse offenbart eine interessante Konstruktion des Kühlsystems: Normalerweise sind bei einem Notebook alle Lüfter mit einer Heatpipe verbunden, um die Wärmeabfuhr von Komponenten wie Prozessor und RAM zu verbessen. Beim Zenbook gilt das nur für einen Lüfter, der andere arbeitet wie ein Gehäuselüfter, der auf die Heatpipe bläst. Nur einer der beiden Lüfter ist direkt mit der Heatpipe verbunden.Thomas Rau Bildschirm Der OLED-Bildschirm im Zenbook wartet mit wenig beindruckenden technischen Daten auf: Das 16:10-Display hat eine Bildwiederholrate von 60 Hz und eine niedrige Auflösung von 1920 x 1200. Für die meisten Office-Arbeiter ist das aber völlig ausreichend – höchstens, wer mit umfangreichen Excel-Tabellen zu tun hat, wünscht sich eine höhere Auflösung, um mehr auf dem Bildschirm zu sehen. Beim Test der Bildqualität gibt es aber keine Einschränkungen: Das Panel von Samsung zeigt eine hervorragende Farbwiedergabe und Farbgenauigkeit, einen extrem hohen Kontrast und eine sehr gleichmäßig ausgeleuchtete Bildfläche. Das hat auch Vorteile für den Office-Einsatz: Sie können zum Beispiel im Kundengespräch Videos und Fotos in hoher Qualität präsentieren und bei der An- und Abreise einen Film genießen. Der hohe Kontrast macht ebenso wie die homogene Ausleuchtung das Arbeiten mit Word und Excel angenehmer. Die Helligkeit liegt bei knapp 400 cd/qm2 und ist damit für die meisten Umgebungen geeignet. Sie müssen aber darauf achten, dass Licht nicht direkt auf die spiegelnde Bildschirmoberfläche fällt – das stört die Lesbarkeit, weil das Display die Reflexionen nicht überstrahlen kann. Praktisch: Sie können dem Zenbook die Steuerung der Helligkeit überlassen, denn es besitzt einen Umgebungslichtsensor. Ausstattung Viele Anschlüsse hat das Zenbook nicht: Das ist typisch für kompakte, ultramobile Notebooks. Immerhin ist Asus nicht so radikal wie zum Beispiel Dell, wo es bei der XPS-Serie nur noch zwei Typ-C-Ports gibt. Das Zenbook hat darüber hinaus noch einen USB-Typ-A- und einen HDMI-Anschluss. Ein wenig spart Asus auch am WLAN: Statt Wi-Fi 7 gibt es nur Wi-Fi 6E. Die Kamera erlaubt Video-Meetings in 1080p-Auflösung, unterstützt die biometrische Anmeldung per Windows Hello und hat einen Näherungssensor: So können Sie einstellen, dass automatisch der Sperrbildschirm erscheint, wenn Sie sich vom Notebook entfernen oder sich die Helligkeit reduziert, wenn Sie nicht aufs Display schauen. Tastatur Anspruchsvolle Viel- und Dauerschreiber stellt die Tastatur nicht zufrieden: Das liegt zum einen am Layout mit einzeiliger Enter-Taste. Zum anderen daran, dass sie beim schnellen Tippen nicht besonders leise ist, einen verhältnismäßigen niedrigen Tastenhub besitzt und die Druckrückmeldung der Tasten von der Mitte an den Tastaturrand deutlich nachlässt, sodass sich beim Drücken der äußeren Tasten ein schwammiges Tippgefühl einstellt. Das Touchpad überzeugt hingegen mit einem klaren Druckpunkt, ein Mausklick zieht aber ein lautes Geräusch nach sich. Es ist groß und schnell genug für Mehr-Finger-Gesten, die Oberfläche hätten wir uns aber ein bisschen griffiger gewünscht. Testergebnisse und technische Daten Asus Zenbook A 14 (UX3407Q-Q220W): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen86 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen58 Punkte (von 100)Leistung 3D Mark50 Punkte (von 100)Crossmark1287 PunktePC Mark 10 Applications Benchmark Office11854 PunkteProcyon Office Productivity Test4985 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)547 / 95 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1732 Punkte3D Mark: Night Raid / Steel Nomad16551 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast398 / 94% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 95 / 100Farbabweichung (Delta-E)0,84Display entspiegelt / Touchscreennein / neinAkkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test18:13 / 13:16Leistungsaufnahme Akkubetrieb3,73 WattBetriebsgeräusch unter Last42 dB(A)Temperatur Oberseite / Unterseite36 / 40 Grad Asus Zenbook A 14 (UX3407Q-Q220W): Ausstattung ProzessorQualcomm Snapdragon X1-26-100TaktrateStandard-Takt: 2,96Kerne / Threads8 / 8RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteAdreno 726LaufwerkNVMe-SSD Micron 2500 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-6E (Qualcomm Fastconnect 6900) / 5.4BetriebssystemWindows 11 Home 24H2Display: Diagonale / Auflösung / Format14 Zoll / 1920 x 1200 / 16:10Punktdichte / Wiederholrate162 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil972 / 192 GrammAkku: Kapazität70 WhAnschlüsse rechts1x Typ-A USB 3.2 Gen 2Anschlüsse links2x Typ-C USB4, 1x HDMI, 1x AudioAnschlüsse hinten–Weitere AusstattungFront-Kamera (1080p) mit Windows Hello; Netzteil (65 Watt, Typ-C-Anschluss) (PC-Welt) 

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​ Thomas Rau

Auf einen Blick

Pro

wiegt unter 1 Kilogramm

sehr lange Akkulaufzeit

sehr guter OLED-Bildschirm

Kontra

mäßige Rechenleistung

unter Last laute Lüfter

mäßige Tastatur

Fazit

Das Asus Zenbook A 14 ist der optimale Laptop für unterwegs, denn es ist leicht und ausdauernd. Das gilt aber nur, wenn bei Ihrer Arbeit die Länge der Akkulaufzeit entscheidend ist und weniger, wie produktiv Sie den Laptop nutzen. Denn mit hoher Rechenleistung punktet das Leichtgewicht nicht.Für Internet-Recherche, Video-Wiedergabe und normale Office-Aufgaben genügt der Snapdragon X im Zenbook vollauf. Wenn es aufwändiger wird, sind Notebooks mit Snapdragon X Elite oder Intels Lunar Lake die bessere Lösung. Zudem ist der Preis des Zenbook ambitioniert: Es gibt viele günstigere Copilot+PCs oder ähnlich teure, die besser ausgestattet sind. Aber eben keinen leichteren.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops.

Copilot+PCs versprechen optimale Leistung für KI. Dieses Versprechen können sie aber erst in der Zukunft einlösen, denn noch fehlt es an interessanten lokalen KI-Anwendungen. Schon heute profitieren Sie aber von diesen Notebooks, wenn Sie einen Mobilrechner mit langer Akkulaufzeit suchen.

Das gilt besonders für Copilot-Plus-PCs wie das Zenbook A 14 mit Windows-ARM und einem Snapdragon-Prozessor. Asus geht aber noch einen Schritt weiter: Der 14-Zoll-Laptop ist federleicht und wiegt weniger als ein Kilogramm. Haben wir hier also den optimalen Rechner für unterwegs vor uns?

Beim Gehäuse kommen keine Zweifel auf: Asus verwendet dafür sein neues Lieblings-Material Ceraluminium, das so stabil wie Aluminium sein soll, dank der leicht aufgerauten, keramikähnlichen Oberfläche aber angenehmer beim Anfassen ist.

Auf dem Deckel sind Fingerabdrücke und Griffspuren tatsächlich auch nach längerem Gebrauch nicht zu sehen – auch weil Asus klugerweise einen unauffälligen Grauton (Iceland Grey) und ein mattes Finish wählt. Auch beim festen Zupacken knarzt und knirscht nichts am Zenbook: Für die Arbeit unterwegs und die Reisestrapazen in Rucksack oder Koffer scheint das Gehäuse gut gerüstet.

Für das Gehäuse verwendet Asus das Material Ceraluminium.Thomas Rau

Akkulaufzeit

Arbeit und Reisen können dabei auch problemlos länger dauern. Denn das Ausdauerversprechen des ARM-Windows kann das Zenbook vollumfänglich bestätigen: Im WLAN-Test schafft es über 18 Stunden in der Windows-Standardeinstellung „Ausbalanciert“. Beim Akkutest mit Officeanwendungen kommt es auf über 13 Stunden, wenn Sie den besonders sparsamen „Flüstermodus“ aktivieren, sogar auf fast 16 Stunden.

Diese Ergebnisse sind übrigens kein Widerspruch zu den Marketingbehauptungen von Asus: Der Hersteller spricht von 32 Stunden Laufzeit – allerdings beim Abspielen von Videos, was für einen aktuellen Notebook-Prozessor zu den leichtesten Aufgaben gehört.

Denn damit ist vor allem die spezialisierte und daher sehr effiziente Dekodier-Hardware der integrierten GPU beschäftigt, die CPU-Last bleibt niedrig. Das Laden und Darstellen von Webseiten und die unterschiedlichen Arbeitsschritte einer Office-Software fordern den Prozessor dagegen deutlich mehr.

Ganz vorne im Testfeld liegt das Zenbook A 14 auch mit seinem Gewicht: Es wiegt nur 972 Gramm und ist damit 300 bis 400 Gramm leichter als andere Business-Notebooks mit 14-Zoll-Display, die in den meisten Fällen außerdem deutlich teurer sind.

Das Netzteil mit Typ-C-Kabel liefert 65 Watt und lädt den Akku in einer Stunde auf 83 Prozent auf.

Anschlüsse auf der linken Seite: HDMI, zweimal Typ-C mit USB 4 sowie ein Audioport.Thomas Rau

Rechenleistung

Eine lange Akkulaufzeit ist für ein ultramobiles Notebook wünschenswert – und hier liefert das Zenbook. Viel wichtiger für einen Business-Laptop ist aber die Frage, wie viel der Anwender in dieser Akkulaufzeit erledigen kann.

Bei der Performance erweist sich das Zenbook allerdings als Leistungs-Leichtgewicht. Asus setzt nämlich den schwächsten Snapdragon-Prozessor der aktuellen Generation ein: Der X1-26-100 hat nur acht Rechenkerne, während die Modelle des X Elite zwölf und die meisten Varianten des X Plus zehn besitzen. Gegenüber den Plus-Varianten X1P-46-100 und X1P-42-100, die ebenfalls acht Kerne haben, kommt beim X1-26 der Nachteil einer geringeren Taktrate.

Im CPU-Test Cinebench R24 liegt der Snapdragon-Prozessor rund 30 Prozent hinter Laptops, in denen seine 12-Kern-Brüder sitzen. Gegen aktuelle Intel-Prozessoren wie dem Core Ultra 7 258V kann er sich dagegen durchsetzen – die haben zwar auch acht Kerne, aber nur vier davon sind leistungsstärkere P-Cores.

Im Single-Core-Test kann er aber nicht mit der Intel-Konkurrenz mithalten – hier ist er rund 20 Prozent langsamer. Etwa 10 Prozent beträgt der Rückstand zum Snapdragon X Elite.

Business-Anwender stecken daher mit dem Zenbook in einem Leistungsdilemma: Von der verhältnismäßig gute Mehrkern-Performance profitieren vor allem Multimedia-Anwendungen. Doch für aufwändige Foto- und Videobearbeitung ist die absolute Rechengeschwindigkeit des Snapdragon X zu niedrig, zumal seine integrierte Grafik besonders schwach ist. Bei Office-Anwendungen leidet das Zenbook dagegen unter seiner geringen Einzelkern-Leistung.

Das verdeutlichen System-Benchmarks wie der PC Mark 10 Applications Benchmark und der Crossmark. Beim PC Mark 10, der zum Test Microsoft Office nutzt, liegt das Zenbook bei Word deutlich hinter Lunar-Lake-Notebooks, bei Excel – das zum Beispiel bei sehr umfangreichen Tabellen mehrere Kerne einsetzt – knapp hinter der Konkurrenz mit Intel.

Beim Crossmark entspricht seine Office-Leistung in etwa einem rund drei Jahre alten Core-Prozessor, die Ergebnisse im Multimedia-Test ungefähr einer zwei Jahre alten Intel-CPU.

Das kann sich künftig aber ändern, wenn Anwendungen stärker von KI profitieren: Denn auch der schwache Snapdragon X nutzt die gleiche NPU wie Modelle der X-Elite-Serie. Im KI-Test Procyon AI Computer Vision erzielt er mit 1732 Punkten ein gutes Ergebnis.

Rechts sitzt dagegen nur ein Typ-A-Port mit USB 3.2 Gen 2.Thomas Rau

Betriebsgeräusch

Wer erwartet, dass das Zenbook A 14 aufgrund des gemächlichen Prozessors besonders leise arbeitet, liegt falsch: Die beiden Lüfter sind unter Last eher etwas lauter als die meisten Snapdragon- und Lunar-Lake-Laptops. Nur wenn tatsächlich wenig Leistung gefragt ist, zum Beispiel bei einfachen Office-Aufgaben, bleibt das Zenbook ruhig.

Auf den von Asus angebotenen Modus „Volle Geschwindigkeit“ sollten Sie beim konzentrierten Arbeiten verzichten: Zwar steigert er die Leistung des Zenbook – im Cinebench R24 zum Beispiel läuft es dadurch rund 25 Prozent schneller -, aber die Lüfter lärmen dann in einer nervtötenden Lautstärke.

Immerhin erwärmt sich das Gehäuse auch bei längeren Lastphasen kaum – Sie können das Notebook also beim Arbeiten unterwegs auch unbesorgt auf den Oberschenkeln platzieren.

Ein Blick ins Gehäuse offenbart eine interessante Konstruktion des Kühlsystems: Normalerweise sind bei einem Notebook alle Lüfter mit einer Heatpipe verbunden, um die Wärmeabfuhr von Komponenten wie Prozessor und RAM zu verbessen. Beim Zenbook gilt das nur für einen Lüfter, der andere arbeitet wie ein Gehäuselüfter, der auf die Heatpipe bläst.

Nur einer der beiden Lüfter ist direkt mit der Heatpipe verbunden.Thomas Rau

Bildschirm

Der OLED-Bildschirm im Zenbook wartet mit wenig beindruckenden technischen Daten auf: Das 16:10-Display hat eine Bildwiederholrate von 60 Hz und eine niedrige Auflösung von 1920 x 1200. Für die meisten Office-Arbeiter ist das aber völlig ausreichend – höchstens, wer mit umfangreichen Excel-Tabellen zu tun hat, wünscht sich eine höhere Auflösung, um mehr auf dem Bildschirm zu sehen.

Beim Test der Bildqualität gibt es aber keine Einschränkungen: Das Panel von Samsung zeigt eine hervorragende Farbwiedergabe und Farbgenauigkeit, einen extrem hohen Kontrast und eine sehr gleichmäßig ausgeleuchtete Bildfläche. Das hat auch Vorteile für den Office-Einsatz: Sie können zum Beispiel im Kundengespräch Videos und Fotos in hoher Qualität präsentieren und bei der An- und Abreise einen Film genießen. Der hohe Kontrast macht ebenso wie die homogene Ausleuchtung das Arbeiten mit Word und Excel angenehmer.

Die Helligkeit liegt bei knapp 400 cd/qm2 und ist damit für die meisten Umgebungen geeignet. Sie müssen aber darauf achten, dass Licht nicht direkt auf die spiegelnde Bildschirmoberfläche fällt – das stört die Lesbarkeit, weil das Display die Reflexionen nicht überstrahlen kann. Praktisch: Sie können dem Zenbook die Steuerung der Helligkeit überlassen, denn es besitzt einen Umgebungslichtsensor.

Ausstattung

Viele Anschlüsse hat das Zenbook nicht: Das ist typisch für kompakte, ultramobile Notebooks. Immerhin ist Asus nicht so radikal wie zum Beispiel Dell, wo es bei der XPS-Serie nur noch zwei Typ-C-Ports gibt. Das Zenbook hat darüber hinaus noch einen USB-Typ-A- und einen HDMI-Anschluss.

Ein wenig spart Asus auch am WLAN: Statt Wi-Fi 7 gibt es nur Wi-Fi 6E. Die Kamera erlaubt Video-Meetings in 1080p-Auflösung, unterstützt die biometrische Anmeldung per Windows Hello und hat einen Näherungssensor: So können Sie einstellen, dass automatisch der Sperrbildschirm erscheint, wenn Sie sich vom Notebook entfernen oder sich die Helligkeit reduziert, wenn Sie nicht aufs Display schauen.

Tastatur

Anspruchsvolle Viel- und Dauerschreiber stellt die Tastatur nicht zufrieden: Das liegt zum einen am Layout mit einzeiliger Enter-Taste. Zum anderen daran, dass sie beim schnellen Tippen nicht besonders leise ist, einen verhältnismäßigen niedrigen Tastenhub besitzt und die Druckrückmeldung der Tasten von der Mitte an den Tastaturrand deutlich nachlässt, sodass sich beim Drücken der äußeren Tasten ein schwammiges Tippgefühl einstellt.

Das Touchpad überzeugt hingegen mit einem klaren Druckpunkt, ein Mausklick zieht aber ein lautes Geräusch nach sich. Es ist groß und schnell genug für Mehr-Finger-Gesten, die Oberfläche hätten wir uns aber ein bisschen griffiger gewünscht.

Testergebnisse und technische Daten

Asus Zenbook A 14 (UX3407Q-Q220W): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen86 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen58 Punkte (von 100)Leistung 3D Mark50 Punkte (von 100)Crossmark1287 PunktePC Mark 10 Applications Benchmark Office11854 PunkteProcyon Office Productivity Test4985 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)547 / 95 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1732 Punkte3D Mark: Night Raid / Steel Nomad16551 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast398 / 94% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 95 / 100Farbabweichung (Delta-E)0,84Display entspiegelt / Touchscreennein / neinAkkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test18:13 / 13:16Leistungsaufnahme Akkubetrieb3,73 WattBetriebsgeräusch unter Last42 dB(A)Temperatur Oberseite / Unterseite36 / 40 Grad

Asus Zenbook A 14 (UX3407Q-Q220W): Ausstattung ProzessorQualcomm Snapdragon X1-26-100TaktrateStandard-Takt: 2,96Kerne / Threads8 / 8RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteAdreno 726LaufwerkNVMe-SSD Micron 2500 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-6E (Qualcomm Fastconnect 6900) / 5.4BetriebssystemWindows 11 Home 24H2Display: Diagonale / Auflösung / Format14 Zoll / 1920 x 1200 / 16:10Punktdichte / Wiederholrate162 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil972 / 192 GrammAkku: Kapazität70 WhAnschlüsse rechts1x Typ-A USB 3.2 Gen 2Anschlüsse links2x Typ-C USB4, 1x HDMI, 1x AudioAnschlüsse hinten–Weitere AusstattungFront-Kamera (1080p) mit Windows Hello; Netzteil (65 Watt, Typ-C-Anschluss)

(PC-Welt)

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​ Weiterlesen »

Datenbanken erstellen: 7 fatale SQL-Fehler​

Allgemein

Wenn die Datenbankabfrage mal wieder länger dauert… Foto: Pressmaster | shutterstock.com Datenbankentwickler haben es nicht leicht, ganz egal, ob sie SQL Server, Oracle, DB2, MySQL, PostgreSQL oder SQLite verwenden. Immerhin sind die Herausforderungen ähnlich. Insbesondere schlecht geschriebene Abfragen können eigentlich vorteilhafte Datenbankfunktionen zunichtemachen und dazu führen, dass Systemressourcen ohne Not verschwendet werden. Im Folgenden lesen Sie, welche SQL-, beziehungsweise Datenbank-Verfehlungen Sie vermeiden sollten, damit Ihnen das erspart bleibt. 1. Blind abfragen In der Regel ist eine SQL Query darauf ausgelegt, die Daten abzurufen, die für einen bestimmten Task nötig sind. Wenn Sie eine Abfrage wiederverwenden, die für die meisten Ihrer Use Cases geeignet ist, mag das zunächst von außen betrachtet ganz gut funktionieren. Es kann jedoch sein, dass “unter der Haube” zu viele Daten abgefragt werden, was zu Lasten von Performance und Ressourcen geht – sich aber erst dann bemerkbar macht, wenn skaliert werden soll. Empfehlung: Prüfen Sie Queries, die wiederverwendet werden sollen, und passen Sie diese an den jeweiligen Anwendungsfall an. 2. Views verschachteln Views bieten eine standardisierte Möglichkeit, Daten zu betrachten und ersparen den Benutzern, sich mit komplexen Queries beschäftigen zu müssen. Wenn Views allerdings dazu genutzt werden, um andere Views abzufragen (“Nesting views”), wird es problematisch. Views zu verschachteln, zieht gleich mehrere Nachteile nach sich: Es werden mehr Daten abgefragt als nötig. Es verschleiert den Arbeitsaufwand, der nötig ist, um einen bestimmten Datensatz abzufragen. Es erschwert dem Optimizer, die resultierenden Queries zu optimieren. Empfehlung: Sehen Sie davon ab, Views zu verschachteln. Es empfiehlt sich, bestehende Verschachtelungen umzuschreiben, um nur die jeweils benötigten Daten abzufragen. 3. All-in-One-Transaktionen Angenommen, Sie wollen Daten aus zehn Tabellen löschen. In dieser Situation könnten Sie der Versuchung erliegen, sämtliche Löschvorgänge in einer einzigen Transaktion durchzuführen. Lassen Sie es. Empfehlung: Behandeln Sie stattdessen die Operationen für jede Tabelle separat. Wenn Sie Löschvorgänge über Tabellen hinweg atomar ausführen müssen, können Sie diese in viele kleinere Transaktionen aufsplitten. Wenn Sie beispielsweise 10.000 Zeilen in 20 Tabellen löschen müssen, können Sie die ersten tausend Zeilen in einer Transaktion für alle 20 Tabellen löschen, dann die nächsten tausend in einer weiteren Transaktion – und so weiter. Das ist ein guter Anwendungsfall für einen Task-Queue-Mechanismus in Ihrer Geschäftslogik, mit dem sich solche Vorgänge managen lassen. 4. Volatil clustern Global Unique Identifiers (GUIDs) sind Zufallszahlen und dienen dazu, Objekten eine eindeutige Kennung zuzuweisen. Diverse Datenbanken unterstützen dieses Schema als nativen Spaltentyp. GUIDs sollten allerdings nicht verwendet werden, um die Zeilen, in denen sie enthalten sind, zu clustern. Da es sich um Zufallszahlen handelt, führt das dazu, dass die Tabelle durch das Clustering stark fragmentiert wird. Das kann wiederum dazu führen, dass Tabellenoperationen um mehrere Größenordnungen langsamer laufen. Empfehlung: Clustern Sie nicht auf Spalten mit hohem Randomness-Anteil. Beschränken Sie sich auf Datums- oder ID-Spalten – das funktioniert am besten. 5. Zeilen ineffizient zählen Um zu bestimmen, ob bestimmte Daten innerhalb einer Tabelle existieren, sind Befehle wie SELECT COUNT(ID) FROM table1 oft ineffizient. Einige Datenbanken sind zwar in der Lage, SELECT COUNT()-Operationen intelligent zu optimieren, aber eben nicht alle. Der bessere Ansatz (wenn Ihr SQL-Dialekt das unterstützt): IF EXISTS (SELECT 1 from table1 LIMIT 1) BEGIN … END Empfehlung: Wenn es Ihnen um die Anzahl der Zeilen geht, können Sie auch eine entsprechende Statistiken aus der Systemtabelle abrufen. Einige Datenbankanbieter ermöglichen auch spezielle Queries: In MySQL können Sie mit SHOW TABLE STATUS beispielsweise Statistiken über alle Tabellen einholen – einschließlich der Zeilenzahl. 6. Trigger falsch nutzen Trigger sind praktisch, weisen aber eine wesentliche Einschränkung auf: Sie müssen in derselben Transaktion wie die ursprüngliche Operation ausgeführt werden. Wenn Sie einen Trigger erstellen, um eine Tabelle zu ändern, während eine andere Tabelle geändert wird, werden beide gesperrt – zumindest, bis der Trigger beendet ist. Empfehlung: Wenn Sie einen Trigger verwenden müssen, stellen Sie sicher, dass er nicht mehr Ressourcen sperrt, als vertretbar ist. Ein gespeicherter Prozess könnte an dieser Stelle die bessere Lösung sein – er kann Trigger-ähnliche Operationen über mehrere Transaktionen hinweg unterbrechen. 7. Negativ abfragen SELECT * FROM Users WHERE Users.Status 2 – eine Query wie diese ist problematisch. Ein Index für die Spalte “Users.Status” ist zwar nützlich, allerdings führen solche negativen Suchabfragen für gewöhnlich zu einem Tabellenscan. Empfehlung: Die bessere Lösung besteht darin, Ihre Abfragen so zu gestalten, die Indizes effizient nutzen. Zum Beispiel: SELECT * FROM Users WHERE User.ID NOT IN (Select Users.ID FROM USERS WHERE Users.Status=2). Auf diese Weise können Sie die Indizes für die ID- und Status-Spalten nutzen, um nicht benötigte Daten herauszufiltern – ohne Tabellen zu scannen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Datenbanken erstellen: 7 fatale SQL-Fehler​ Wenn die Datenbankabfrage mal wieder länger dauert…
Foto: Pressmaster | shutterstock.com

Datenbankentwickler haben es nicht leicht, ganz egal, ob sie SQL Server, Oracle, DB2, MySQL, PostgreSQL oder SQLite verwenden. Immerhin sind die Herausforderungen ähnlich. Insbesondere schlecht geschriebene Abfragen können eigentlich vorteilhafte Datenbankfunktionen zunichtemachen und dazu führen, dass Systemressourcen ohne Not verschwendet werden.

Im Folgenden lesen Sie, welche SQL-, beziehungsweise Datenbank-Verfehlungen Sie vermeiden sollten, damit Ihnen das erspart bleibt.

1. Blind abfragen

In der Regel ist eine SQL Query darauf ausgelegt, die Daten abzurufen, die für einen bestimmten Task nötig sind. Wenn Sie eine Abfrage wiederverwenden, die für die meisten Ihrer Use Cases geeignet ist, mag das zunächst von außen betrachtet ganz gut funktionieren. Es kann jedoch sein, dass “unter der Haube” zu viele Daten abgefragt werden, was zu Lasten von Performance und Ressourcen geht – sich aber erst dann bemerkbar macht, wenn skaliert werden soll.

Empfehlung: Prüfen Sie Queries, die wiederverwendet werden sollen, und passen Sie diese an den jeweiligen Anwendungsfall an.

2. Views verschachteln

Views bieten eine standardisierte Möglichkeit, Daten zu betrachten und ersparen den Benutzern, sich mit komplexen Queries beschäftigen zu müssen. Wenn Views allerdings dazu genutzt werden, um andere Views abzufragen (“Nesting views”), wird es problematisch. Views zu verschachteln, zieht gleich mehrere Nachteile nach sich:

Es werden mehr Daten abgefragt als nötig.

Es verschleiert den Arbeitsaufwand, der nötig ist, um einen bestimmten Datensatz abzufragen.

Es erschwert dem Optimizer, die resultierenden Queries zu optimieren.

Empfehlung: Sehen Sie davon ab, Views zu verschachteln. Es empfiehlt sich, bestehende Verschachtelungen umzuschreiben, um nur die jeweils benötigten Daten abzufragen.

3. All-in-One-Transaktionen

Angenommen, Sie wollen Daten aus zehn Tabellen löschen. In dieser Situation könnten Sie der Versuchung erliegen, sämtliche Löschvorgänge in einer einzigen Transaktion durchzuführen. Lassen Sie es.

Empfehlung: Behandeln Sie stattdessen die Operationen für jede Tabelle separat. Wenn Sie Löschvorgänge über Tabellen hinweg atomar ausführen müssen, können Sie diese in viele kleinere Transaktionen aufsplitten. Wenn Sie beispielsweise 10.000 Zeilen in 20 Tabellen löschen müssen, können Sie die ersten tausend Zeilen in einer Transaktion für alle 20 Tabellen löschen, dann die nächsten tausend in einer weiteren Transaktion – und so weiter. Das ist ein guter Anwendungsfall für einen Task-Queue-Mechanismus in Ihrer Geschäftslogik, mit dem sich solche Vorgänge managen lassen.

4. Volatil clustern

Global Unique Identifiers (GUIDs) sind Zufallszahlen und dienen dazu, Objekten eine eindeutige Kennung zuzuweisen. Diverse Datenbanken unterstützen dieses Schema als nativen Spaltentyp. GUIDs sollten allerdings nicht verwendet werden, um die Zeilen, in denen sie enthalten sind, zu clustern. Da es sich um Zufallszahlen handelt, führt das dazu, dass die Tabelle durch das Clustering stark fragmentiert wird. Das kann wiederum dazu führen, dass Tabellenoperationen um mehrere Größenordnungen langsamer laufen.

Empfehlung: Clustern Sie nicht auf Spalten mit hohem Randomness-Anteil. Beschränken Sie sich auf Datums- oder ID-Spalten – das funktioniert am besten.

5. Zeilen ineffizient zählen

Um zu bestimmen, ob bestimmte Daten innerhalb einer Tabelle existieren, sind Befehle wie SELECT COUNT(ID) FROM table1 oft ineffizient. Einige Datenbanken sind zwar in der Lage, SELECT COUNT()-Operationen intelligent zu optimieren, aber eben nicht alle. Der bessere Ansatz (wenn Ihr SQL-Dialekt das unterstützt):

IF EXISTS (SELECT 1 from table1 LIMIT 1) BEGIN … END

Empfehlung: Wenn es Ihnen um die Anzahl der Zeilen geht, können Sie auch eine entsprechende Statistiken aus der Systemtabelle abrufen. Einige Datenbankanbieter ermöglichen auch spezielle Queries: In MySQL können Sie mit SHOW TABLE STATUS beispielsweise Statistiken über alle Tabellen einholen – einschließlich der Zeilenzahl.

6. Trigger falsch nutzen

Trigger sind praktisch, weisen aber eine wesentliche Einschränkung auf: Sie müssen in derselben Transaktion wie die ursprüngliche Operation ausgeführt werden. Wenn Sie einen Trigger erstellen, um eine Tabelle zu ändern, während eine andere Tabelle geändert wird, werden beide gesperrt – zumindest, bis der Trigger beendet ist.

Empfehlung: Wenn Sie einen Trigger verwenden müssen, stellen Sie sicher, dass er nicht mehr Ressourcen sperrt, als vertretbar ist. Ein gespeicherter Prozess könnte an dieser Stelle die bessere Lösung sein – er kann Trigger-ähnliche Operationen über mehrere Transaktionen hinweg unterbrechen.

7. Negativ abfragen

SELECT * FROM Users WHERE Users.Status 2 – eine Query wie diese ist problematisch. Ein Index für die Spalte “Users.Status” ist zwar nützlich, allerdings führen solche negativen Suchabfragen für gewöhnlich zu einem Tabellenscan.

Empfehlung: Die bessere Lösung besteht darin, Ihre Abfragen so zu gestalten, die Indizes effizient nutzen. Zum Beispiel: SELECT * FROM Users WHERE User.ID NOT IN (Select Users.ID FROM USERS WHERE Users.Status=2). Auf diese Weise können Sie die Indizes für die ID- und Status-Spalten nutzen, um nicht benötigte Daten herauszufiltern – ohne Tabellen zu scannen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Datenbanken erstellen: 7 fatale SQL-Fehler​ Weiterlesen »

Nach oben scrollen
×