Computerhaus Quickborn

Allgemein

Intel streicht tausende Arbeitsplätze​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bei Intel wird sich einiges ändern müssen, um den Chip-Konzern wieder in die Erfolgsspur zu setzen.Tada Images – shutterstock.com Intel plant angeblich, 20 Prozent seiner Belegschaft zu entlassen. Das berichteten der Finanznachrichtendienst Bloomberg unter Berufung auf Personen, die angeblich mit den Plänen vertraut seien, und die Nachrichtenagentur Reuters. Es gehe vor allem darum, den eigenen Betrieb effizienter zu machen und interne Bürokratie abzubauen, hieß es. Der Stellenabbau sei Teil einer breiter angelegten Strategie, eine wieder stärker auf Entwicklung und technische Ingenieurskunst getrimmte Firmenkultur zu etablieren.  Dahinter steckt der neue Intel-CEO Lip-Bu Tan, der den strauchelnden Halbleiterriesen wieder zurück in die Erfolgsspur bringen soll. Tan hatte den Chefposten bei Intel erst am 18. März dieses Jahres übernommen. Bis dato hatten nach dem Rausschmiss von Pat Gelsinger im Dezember 2024 David Zinser und Michelle Johnston Holthaus als Interim CEOs die Geschäfte geführt.  Intel-CEO Tan kündigt harte Entscheidungen an Bereits in den zurückliegenden Wochen war wiederholt darüber spekuliert worden, Tan könnte den Chiphersteller von Grund auf restrukturieren. In einem Memo an die Belegschaft kurz nach seiner Amtsübernahme hatte der neue starke Mann bei Intel davon gesprochen, dass dafür harte Entscheidungen nötig sein könnten. Wie diese Maßnahmen aussehen könnten, blieb jedoch erst einmal im Dunklen. Tan hatte allerdings zuletzt begonnen, die mittlere Führungsmannschaft bei Intel auszudünnen. Die Verantwortlichen für die wichtigen Chipprodukte berichten nun offenbar direkt an Tan.  Intel unter Tan: Was den Chiphersteller erwartet Tan kennt die Interna bei Intel. Der Manager saß bis August 2024 im Vorstand des Halbleiterproduzenten. Angeblich hatte er den Posten wegen anderer Verpflichtungen aufgegeben. Unter der Hand wurde kolportiert, Tan sei unzufrieden gewesen mit der Behäbigkeit des Intel-Boards, Veränderungen im Unternehmen anzuschieben.  Der neue Intel-Chef Lip-Bu Tan will offenbar viele tausend weitere Stellen beim Halbleiterriesen streichen.Intel Der Stellenkahlschlag wäre nicht der erste in der jüngeren Intel-Geschichte. Mitte August 2024 hatte der Chipproduzent angekündigt 15 Prozent seiner Arbeitsplätze zu streichen. Vor allem die schlechte Bilanz für das zweite Quartal des Geschäftsjahres 2024 hatte die Investoren enttäuscht und das Management zu diesem drastischen Schritt gezwungen. Ende 2024 beschäftigte Intel noch 108.900 Menschen. Wenige Monate zuvor waren es noch 124.100 Mitarbeiterinnen und Mitarbeiter. Kosten zu hoch – Margen zu niedrig „Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte der damals noch amtierende Intel-CEO Gelsinger gegenüber der Nachrichtenagentur Reuters. Gelsinger sprach von einer enttäuschenden finanziellen Performance und stimmte seine Belegschaft auf harte Zeiten ein. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern, schrieb der Intel-Chef in einem offenen Brief an seine Mitarbeiterinnen und Mitarbeiter. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig.“  Lesen Sie hier alle Hintergründe zur Krise bei Intel: Intel-Chef Pat Gelsinger muss gehen Intel streicht tausende Stellen Intel träumt vom goldenen Halbleiter-Zeitalter Intel sucht Anschluss im RZ und bei KI Willkommen im Siliconomy-Zeitalter: KI soll Intels Geschäfte ankurbeln Für das Geschäftsjahr 2024 meldete Intel Einnahmen in Höhe von 53,1 Milliarden Dollar, rund zwei Prozent weniger als im Vorjahr. Unter dem Strich stand ein Verlust von 18,8 Milliarden Dollar. Zahlen für das erste Quartal 2025 will Intel am 24. April vorlegen. Dann rechnen Experten auch mit weiteren Details zum Umbau des Halbleiterkonzerns.  

Intel streicht tausende Arbeitsplätze​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Bei Intel wird sich einiges ändern müssen, um den Chip-Konzern wieder in die Erfolgsspur zu setzen.Tada Images – shutterstock.com

Intel plant angeblich, 20 Prozent seiner Belegschaft zu entlassen. Das berichteten der Finanznachrichtendienst Bloomberg unter Berufung auf Personen, die angeblich mit den Plänen vertraut seien, und die Nachrichtenagentur Reuters. Es gehe vor allem darum, den eigenen Betrieb effizienter zu machen und interne Bürokratie abzubauen, hieß es. Der Stellenabbau sei Teil einer breiter angelegten Strategie, eine wieder stärker auf Entwicklung und technische Ingenieurskunst getrimmte Firmenkultur zu etablieren. 

Dahinter steckt der neue Intel-CEO Lip-Bu Tan, der den strauchelnden Halbleiterriesen wieder zurück in die Erfolgsspur bringen soll. Tan hatte den Chefposten bei Intel erst am 18. März dieses Jahres übernommen. Bis dato hatten nach dem Rausschmiss von Pat Gelsinger im Dezember 2024 David Zinser und Michelle Johnston Holthaus als Interim CEOs die Geschäfte geführt. 

Intel-CEO Tan kündigt harte Entscheidungen an

Bereits in den zurückliegenden Wochen war wiederholt darüber spekuliert worden, Tan könnte den Chiphersteller von Grund auf restrukturieren. In einem Memo an die Belegschaft kurz nach seiner Amtsübernahme hatte der neue starke Mann bei Intel davon gesprochen, dass dafür harte Entscheidungen nötig sein könnten. Wie diese Maßnahmen aussehen könnten, blieb jedoch erst einmal im Dunklen. Tan hatte allerdings zuletzt begonnen, die mittlere Führungsmannschaft bei Intel auszudünnen. Die Verantwortlichen für die wichtigen Chipprodukte berichten nun offenbar direkt an Tan. 

Intel unter Tan: Was den Chiphersteller erwartet

Tan kennt die Interna bei Intel. Der Manager saß bis August 2024 im Vorstand des Halbleiterproduzenten. Angeblich hatte er den Posten wegen anderer Verpflichtungen aufgegeben. Unter der Hand wurde kolportiert, Tan sei unzufrieden gewesen mit der Behäbigkeit des Intel-Boards, Veränderungen im Unternehmen anzuschieben. 

Der neue Intel-Chef Lip-Bu Tan will offenbar viele tausend weitere Stellen beim Halbleiterriesen streichen.Intel

Der Stellenkahlschlag wäre nicht der erste in der jüngeren Intel-Geschichte. Mitte August 2024 hatte der Chipproduzent angekündigt 15 Prozent seiner Arbeitsplätze zu streichen. Vor allem die schlechte Bilanz für das zweite Quartal des Geschäftsjahres 2024 hatte die Investoren enttäuscht und das Management zu diesem drastischen Schritt gezwungen. Ende 2024 beschäftigte Intel noch 108.900 Menschen. Wenige Monate zuvor waren es noch 124.100 Mitarbeiterinnen und Mitarbeiter.

Kosten zu hoch – Margen zu niedrig

„Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte der damals noch amtierende Intel-CEO Gelsinger gegenüber der Nachrichtenagentur Reuters. Gelsinger sprach von einer enttäuschenden finanziellen Performance und stimmte seine Belegschaft auf harte Zeiten ein. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern, schrieb der Intel-Chef in einem offenen Brief an seine Mitarbeiterinnen und Mitarbeiter. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig.“ 

Lesen Sie hier alle Hintergründe zur Krise bei Intel:

Intel-Chef Pat Gelsinger muss gehen

Intel streicht tausende Stellen

Intel träumt vom goldenen Halbleiter-Zeitalter

Intel sucht Anschluss im RZ und bei KI

Willkommen im Siliconomy-Zeitalter: KI soll Intels Geschäfte ankurbeln

Für das Geschäftsjahr 2024 meldete Intel Einnahmen in Höhe von 53,1 Milliarden Dollar, rund zwei Prozent weniger als im Vorjahr. Unter dem Strich stand ein Verlust von 18,8 Milliarden Dollar. Zahlen für das erste Quartal 2025 will Intel am 24. April vorlegen. Dann rechnen Experten auch mit weiteren Details zum Umbau des Halbleiterkonzerns. 

Intel streicht tausende Arbeitsplätze​ Weiterlesen »

SAP trotzt der Wirtschaftsflaute​

Allgemein

width=”2497″ height=”1404″ sizes=”(max-width: 2497px) 100vw, 2497px”>SAP kann mit dem Start ins Geschäftsjahr 2025 zufrieden sein.360b – shutterstock.com SAP ist gut ins Geschäftsjahr 2025 gestartet. Der deutsche Softwarekonzern meldete für das erste Quartal einen Umsatz von gut neun Milliarden Euro, zwölf Prozent mehr als im Vorjahresquartal. Die Cloud-Erlöse legten um 27 Prozent auf fast fünf Milliarden Euro zu. Beim bereinigten operativen Betriebsergebnis erzielte SAP 2,45 Milliarden Euro, ein Plus von 60 Prozent gegenüber dem ersten Quartal 2024 und deutlich mehr als von Analysten erwartet. Unter dem Strich blieb ein Gewinn von knapp 1,8 Milliarden Euro, nachdem der Softwarehersteller aufgrund von Sondereffekten im Vorjahresquartal ein Minus von 824 Millionen Euro verbuchen musste. Hier lesen Sie alles zur neuen SAP-Strategie: SAP baut neue Business Suite in der Cloud Die Verantwortlichen in Walldorf zeigten sich zufrieden mit den Zahlen. „Das erste Quartal verdeutlicht erneut, dass unsere Erfolgsformel aufgeht“, kommentierte der Vorstandsvorsitzende Christian Klein die Quartalsbilanz. Mit einem Anteil der besser planbaren Umsätze von 86 Prozent habe sich das Geschäftsmodell der SAP trotz unsicherer Zeiten nach wie vor widerstandsfähig präsentiert. Unbeständiges Umfeld – SAP will wachsam bleiben Finanzchef Dominik Asam sprach von einem „soliden Start in das Jahr in einem äußerst unbeständigen Umfeld“. Die Ergebnisse seien ein Beleg für SAPs Kostendisziplin und die gezielte Umsetzung der eigenen Strategie. Der Finanzvorstand mahnte jedoch zur Vorsicht: „Auch wenn uns diese dynamische Entwicklung bestärkt, behalten wir immer auch das breite Umfeld im Blick und bleiben für den weiteren Verlauf des Jahres wachsam.“ width=”7661″ height=”4309″ sizes=”(max-width: 7661px) 100vw, 7661px”>Es war ein solider Start in einem äußerst unbeständigen Umfeld. SAPs Finanzchef Dominik Asam ist daher zufrieden mit den Zahlen für das erste Quartal 2025.SAP SE / Ingo Cordes SAP zufolge sei das Restrukturierungsprogramm, das der Konzern im Januar 2024 angekündigt hatte und rund 10.000 Stellen im Unternehmen betraf, mittlerweile planmäßig abgeschlossen. Die Gesamtkosten für das Programm bezifferten die Verantwortlichen auf 3,2 Milliarden Euro, wovon der größte Teil (2,8 Milliarden Euro) bereits im Geschäftsjahr 2024 und im ersten Quartal des laufenden Jahres verbucht wurde. Im Verlauf des Jahres 2025 würden weitere Zahlungen in Höhe von rund 0,4 Milliarden Euro erwartet. SAP zufolge sind derzeit 108.187 Menschen bei dem Softwarehersteller beschäftigt – vor einem Jahr waren es 108.133.  So sehen SAP-Kunden die neue Strategie ihres Softwarelieferanten SAP bekräftigte seine Prognosen für das laufende Geschäftsjahr, „auch wenn das derzeitige Umfeld von hoher Dynamik und Unsicherheit geprägt und die weitere Entwicklung daher schwer einzuschätzen ist“. Der Konzern rechnet für 2025 mit Cloud-Erlösen von 21,6 bis 21,9 Milliarden Euro (2024: 17,1 Milliarden Euro). Das währungsbereinigte Betriebsergebnis soll zwischen 10,3 und 10,6 Milliarden Euro betragen (2024: 8,15 Milliarden Euro). USA sind SAPs wichtigster Einzelmarkt Allerdings dürfte die erratische Finanzpolitik des neuen US-Präsidenten Donald Trump, die vor allem den Dollar schwächt, auch Folgen für SAP haben. Der Konzern rechnet angesichts der Wechselkursschwankungen mit einem um zwei Prozentpunkte geringeren Wachstum bei den Cloud-Erlösen. Beim Betriebsergebnis sei mit einem um einen Prozentpunkt geringeren Wachstum zu rechnen, hieß es.  Die USA sind der wichtigste Einzelmarkt für SAP. Zwischen Januar und Märze 2025 verbuchte der Konzern einen Umsatz von fast drei Milliarden Euro in den Vereinigten Staaten. Zum Vergleich: Für Deutschland meldet SAP im ersten Quartal des Jahres einen Umsatz von knapp 1,4 Milliarden Euro, für die gesamte Region EMEA gut vier Milliarden Euro.  

SAP trotzt der Wirtschaftsflaute​ width=”2497″ height=”1404″ sizes=”(max-width: 2497px) 100vw, 2497px”>SAP kann mit dem Start ins Geschäftsjahr 2025 zufrieden sein.360b – shutterstock.com

SAP ist gut ins Geschäftsjahr 2025 gestartet. Der deutsche Softwarekonzern meldete für das erste Quartal einen Umsatz von gut neun Milliarden Euro, zwölf Prozent mehr als im Vorjahresquartal. Die Cloud-Erlöse legten um 27 Prozent auf fast fünf Milliarden Euro zu. Beim bereinigten operativen Betriebsergebnis erzielte SAP 2,45 Milliarden Euro, ein Plus von 60 Prozent gegenüber dem ersten Quartal 2024 und deutlich mehr als von Analysten erwartet. Unter dem Strich blieb ein Gewinn von knapp 1,8 Milliarden Euro, nachdem der Softwarehersteller aufgrund von Sondereffekten im Vorjahresquartal ein Minus von 824 Millionen Euro verbuchen musste.

Hier lesen Sie alles zur neuen SAP-Strategie: SAP baut neue Business Suite in der Cloud

Die Verantwortlichen in Walldorf zeigten sich zufrieden mit den Zahlen. „Das erste Quartal verdeutlicht erneut, dass unsere Erfolgsformel aufgeht“, kommentierte der Vorstandsvorsitzende Christian Klein die Quartalsbilanz. Mit einem Anteil der besser planbaren Umsätze von 86 Prozent habe sich das Geschäftsmodell der SAP trotz unsicherer Zeiten nach wie vor widerstandsfähig präsentiert.

Unbeständiges Umfeld – SAP will wachsam bleiben

Finanzchef Dominik Asam sprach von einem „soliden Start in das Jahr in einem äußerst unbeständigen Umfeld“. Die Ergebnisse seien ein Beleg für SAPs Kostendisziplin und die gezielte Umsetzung der eigenen Strategie. Der Finanzvorstand mahnte jedoch zur Vorsicht: „Auch wenn uns diese dynamische Entwicklung bestärkt, behalten wir immer auch das breite Umfeld im Blick und bleiben für den weiteren Verlauf des Jahres wachsam.“

width=”7661″ height=”4309″ sizes=”(max-width: 7661px) 100vw, 7661px”>Es war ein solider Start in einem äußerst unbeständigen Umfeld. SAPs Finanzchef Dominik Asam ist daher zufrieden mit den Zahlen für das erste Quartal 2025.SAP SE / Ingo Cordes

SAP zufolge sei das Restrukturierungsprogramm, das der Konzern im Januar 2024 angekündigt hatte und rund 10.000 Stellen im Unternehmen betraf, mittlerweile planmäßig abgeschlossen. Die Gesamtkosten für das Programm bezifferten die Verantwortlichen auf 3,2 Milliarden Euro, wovon der größte Teil (2,8 Milliarden Euro) bereits im Geschäftsjahr 2024 und im ersten Quartal des laufenden Jahres verbucht wurde. Im Verlauf des Jahres 2025 würden weitere Zahlungen in Höhe von rund 0,4 Milliarden Euro erwartet. SAP zufolge sind derzeit 108.187 Menschen bei dem Softwarehersteller beschäftigt – vor einem Jahr waren es 108.133. 

So sehen SAP-Kunden die neue Strategie ihres Softwarelieferanten

SAP bekräftigte seine Prognosen für das laufende Geschäftsjahr, „auch wenn das derzeitige Umfeld von hoher Dynamik und Unsicherheit geprägt und die weitere Entwicklung daher schwer einzuschätzen ist“. Der Konzern rechnet für 2025 mit Cloud-Erlösen von 21,6 bis 21,9 Milliarden Euro (2024: 17,1 Milliarden Euro). Das währungsbereinigte Betriebsergebnis soll zwischen 10,3 und 10,6 Milliarden Euro betragen (2024: 8,15 Milliarden Euro).

USA sind SAPs wichtigster Einzelmarkt

Allerdings dürfte die erratische Finanzpolitik des neuen US-Präsidenten Donald Trump, die vor allem den Dollar schwächt, auch Folgen für SAP haben. Der Konzern rechnet angesichts der Wechselkursschwankungen mit einem um zwei Prozentpunkte geringeren Wachstum bei den Cloud-Erlösen. Beim Betriebsergebnis sei mit einem um einen Prozentpunkt geringeren Wachstum zu rechnen, hieß es. 

Die USA sind der wichtigste Einzelmarkt für SAP. Zwischen Januar und Märze 2025 verbuchte der Konzern einen Umsatz von fast drei Milliarden Euro in den Vereinigten Staaten. Zum Vergleich: Für Deutschland meldet SAP im ersten Quartal des Jahres einen Umsatz von knapp 1,4 Milliarden Euro, für die gesamte Region EMEA gut vier Milliarden Euro. 

SAP trotzt der Wirtschaftsflaute​ Weiterlesen »

Security- und Datenschutz-Experten überschätzen sich bei KI​

Allgemein

Trotz hoher Sicherheitsansprüche geben viele Experten sensible Daten in GenAI-Anwendungen ein. Raushan_films – shutterstock.com 41 Prozent der Experten für Datenschutz und Sicherheit in Deutschland glauben, sich gut mit Künstlicher Intelligenz (KI) auskennen. 53 Prozent kennen sich nach eigener Einschätzung sogar sehr gut hiermit aus. Sicherheitsbewusstsein vs. Praxis Trotz dieses angeblich hohen Sicherheitsbewusstseins trägt jedoch mehr als die Hälfte der Teilnehmenden der 2025 Data Privacy Benchmark Study von Cisco Informationen über interne Prozesse (54 Prozent), Daten oder Namen von Mitarbeitenden (52 Prozent) sowie nicht öffentliche Angaben über das Unternehmen (51 Prozent) in GenAI-Anwendungen ein. Schulung dringend notwendig Über ein Drittel gibt hier sogar Kundennamen oder -daten ein, ein Problem, dass auch Christian Korff, Mitglied der Geschäftsleitung von Cisco Deutschland und Leiter der Bundesfachkommission Künstliche Intelligenz und Wertschöpfung 4.0 im Wirtschaftsrat der CDU, erkennt: „Dass man fast alles in GenAI-Tools eingeben kann, bedeutet noch lange nicht, dass man es auch sollte. Daher müssen Unternehmen in Deutschland dringend den richtigen Umgang mit den neuen Technologien schulen und kontrollieren. Sonst drohen Compliance-Probleme, Rufschädigung und Kundenverlust.“ Grundlage der Studie ist eine anonyme Umfrage aus dem Herbst 2024 unter mehr als 2.600 Datenschutz- und Sicherheitsexperten in 12 Ländern, davon 200 aus Deutschland. Wissenslücke bei Datenschutzregelungen Zugleich gaben nur 48 Prozent der Befragten aus Deutschland an, die geltenden Regelungen und Gesetze gut zu kennen. Trotz dieser Wissenslücke bewerten 94 Prozent die Vorteile von Datenschutzinvestitionen höher als die Kosten. Die größten Vorteile sehen sie in Agilität und Innovation (77 Prozent) sowie Vertrauen und beschleunigtem Vertrieb (je 76 Prozent).  85 Prozent glauben zudem, dass strenge Datenschutzgesetze das Vertrauen in KI-Anwendungen fördern. 91 Prozent der Teilnehmenden sehen darin sogar eine Kaufvoraussetzung für Kunden. Lokal versus global Geht es um die Sicherheit solcher sensiblen Daten, da sind sich 92 Prozent der Unternehmen einig, halten sie es für sicherer, wenn diese im eigenen Land oder in der EU gespeichert werden. Gleichzeitig meinen jedoch 85 Prozent, dass globale Anbieter besseren Datenschutz bieten als die lokale Konkurrenz. 84 Prozent sehen zudem im freien, vertrauenswürdigen Datenfluss eine Chance für mehr Wirtschaftswachstum. Diese Perspektiven schließen sich aus Sicht der Studienmacher nicht aus, erfordern aber technische Lösungen wie KI-Workloads in lokalen Rechenzentren.  AI-Governance stärkt Compliance und Qualität Für die deutschen Datenschutz- und Sicherheitsexperten spielt KI, insbesondere GenAI, eine zentrale Rolle: 86 Prozent sehen darin einen hohen oder sehr hohen Mehrwert und 98 Prozent erwarten steigende Investitionen in den KI-bezogenen Datenschutz. Gleichzeitig sehen sie Risiken wie falsche Ergebnisse (66 Prozent), Gefährdung geistigen Eigentums (62 Prozent), Arbeitsplatzverlust (57 Prozent) und sogar Bedrohungen für die Menschheit (56 Prozent). Jeweils 34 Prozent der Befragten gaben an, dass für sie ein vorausschauendes KI-Governance-Programm hilfreich für die Vorbereitung auf Compliance und Produktqualität sei. Genau ein Drittel sieht auch Vorteile für die Unternehmenskultur und weitere 31 Prozent für die Unternehmenswerte. 

Security- und Datenschutz-Experten überschätzen sich bei KI​ Trotz hoher Sicherheitsansprüche geben viele Experten sensible Daten in GenAI-Anwendungen ein.
Raushan_films – shutterstock.com

41 Prozent der Experten für Datenschutz und Sicherheit in Deutschland glauben, sich gut mit Künstlicher Intelligenz (KI) auskennen. 53 Prozent kennen sich nach eigener Einschätzung sogar sehr gut hiermit aus.

Sicherheitsbewusstsein vs. Praxis

Trotz dieses angeblich hohen Sicherheitsbewusstseins trägt jedoch mehr als die Hälfte der Teilnehmenden der 2025 Data Privacy Benchmark Study von Cisco Informationen über

interne Prozesse (54 Prozent),

Daten oder Namen von Mitarbeitenden (52 Prozent) sowie

nicht öffentliche Angaben über das Unternehmen (51 Prozent)

in GenAI-Anwendungen ein.

Schulung dringend notwendig

Über ein Drittel gibt hier sogar Kundennamen oder -daten ein, ein Problem, dass auch Christian Korff, Mitglied der Geschäftsleitung von Cisco Deutschland und Leiter der Bundesfachkommission Künstliche Intelligenz und Wertschöpfung 4.0 im Wirtschaftsrat der CDU, erkennt:

„Dass man fast alles in GenAI-Tools eingeben kann, bedeutet noch lange nicht, dass man es auch sollte. Daher müssen Unternehmen in Deutschland dringend den richtigen Umgang mit den neuen Technologien schulen und kontrollieren. Sonst drohen Compliance-Probleme, Rufschädigung und Kundenverlust.“

Grundlage der Studie ist eine anonyme Umfrage aus dem Herbst 2024 unter mehr als 2.600 Datenschutz- und Sicherheitsexperten in 12 Ländern, davon 200 aus Deutschland.

Wissenslücke bei Datenschutzregelungen

Zugleich gaben nur 48 Prozent der Befragten aus Deutschland an, die geltenden Regelungen und Gesetze gut zu kennen. Trotz dieser Wissenslücke bewerten 94 Prozent die Vorteile von Datenschutzinvestitionen höher als die Kosten. Die größten Vorteile sehen sie in

Agilität und Innovation (77 Prozent) sowie

Vertrauen und beschleunigtem Vertrieb (je 76 Prozent). 

85 Prozent glauben zudem, dass strenge Datenschutzgesetze das Vertrauen in KI-Anwendungen fördern. 91 Prozent der Teilnehmenden sehen darin sogar eine Kaufvoraussetzung für Kunden.

Lokal versus global

Geht es um die Sicherheit solcher sensiblen Daten, da sind sich 92 Prozent der Unternehmen einig, halten sie es für sicherer, wenn diese im eigenen Land oder in der EU gespeichert werden. Gleichzeitig meinen jedoch 85 Prozent, dass globale Anbieter besseren Datenschutz bieten als die lokale Konkurrenz. 84 Prozent sehen zudem im freien, vertrauenswürdigen Datenfluss eine Chance für mehr Wirtschaftswachstum.

Diese Perspektiven schließen sich aus Sicht der Studienmacher nicht aus, erfordern aber technische Lösungen wie KI-Workloads in lokalen Rechenzentren. 

AI-Governance stärkt Compliance und Qualität

Für die deutschen Datenschutz- und Sicherheitsexperten spielt KI, insbesondere GenAI, eine zentrale Rolle: 86 Prozent sehen darin einen hohen oder sehr hohen Mehrwert und 98 Prozent erwarten steigende Investitionen in den KI-bezogenen Datenschutz.

Gleichzeitig sehen sie Risiken wie

falsche Ergebnisse (66 Prozent),

Gefährdung geistigen Eigentums (62 Prozent),

Arbeitsplatzverlust (57 Prozent) und

sogar Bedrohungen für die Menschheit (56 Prozent).

Jeweils 34 Prozent der Befragten gaben an, dass für sie ein vorausschauendes KI-Governance-Programm hilfreich für die Vorbereitung auf Compliance und Produktqualität sei. Genau ein Drittel sieht auch Vorteile für die Unternehmenskultur und weitere 31 Prozent für die Unternehmenswerte.

Security- und Datenschutz-Experten überschätzen sich bei KI​ Weiterlesen »

So geht modernes Recruiting heute​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?quality=50&strip=all 4444w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  3rdtimeluckystudio – Shutterstock 2159636061 Fachkräfte fehlen überall – besonders in der IT-Branche. Der Branchenverband Bitkom warnt seit Jahren vor einem zunehmenden Fachkräftemangel in IT-Berufen. Neue Technologien wie KI und Automatisierung dürften den Engpass weiter verschärfen. Unternehmen, die mit der rasanten Entwicklung Schritt halten wollen, sind mehr denn je auf qualifizierte Mitarbeiterinnen und Mitarbeiter angewiesen.  Schon heute zeigt sich: Das klassische post and pray – also Stellenanzeigen schalten und abwarten – funktioniert schon lange nicht mehr. Statt passiv zu hoffen, müssen Unternehmen aktiv um Talente werben und sie für sich begeistern. Die Konsequenz? Unternehmen, die weiterhin auf traditionelle – oder schlicht veraltete – Rekrutierungsmethoden setzen, geraten ins Hintertreffen. Denn:  1. Unternehmen konkurrieren um wenige Fachkräfte: Die meisten High Potentials, vor allem im IT-Bereich, sind längst bei Unternehmen unter Vertrag und daher gar nicht erst auf Jobsuche. Wenn ein solches Talent dann auf dem Markt ist, sind mehrere Arbeitgeber im Wettbewerb um diese Person.  2.  Langwierige und undurchsichtige Prozesse schrecken ab: Unternehmen, die nicht in moderne Recruiting-Prozesse investiert haben, sind für die meisten IT-Talente unattraktiv. Überspitzt formuliert: Warum sollte ein gesuchter IT-Spezialist eine Woche auf eine standardisierte Nachricht in einem Bewerbungsprozess warten, wenn er oder sie bei einem anderen Unternehmen jederzeit einen persönlichen Ansprechpartner hat – der übrigens kein Mensch sein muss, aber dazu später mehr.  3. Stellenausschreibung und Anforderungsprofil passen nicht zusammen: Wer glaubt, dass die Diskrepanzen zwischen der veröffentlichten Stellenanzeige (bzw. dem Kurzprofil, nach dem Recruiter aktiv suchen) und den tatsächlichen Anforderungen, die in der jeweiligen Abteilung an den neuen Mitarbeiter gestellt werden, längst überwunden sind, der irrt gewaltig. In vielen Unternehmen ist es heute noch so, dass die Personalabteilung die Stellenausschreibung verfasst – und die Personalabteilung selbst weiß vielleicht gar nicht so genau, welche Fähigkeiten von dem Mitarbeiter wirklich verlangt werden.     Neue Wege gehen: IT-Talente finden und binden Wer die besten Talente finden will, muss sich heute etwas einfallen lassen und innovative Ansätze im Recruiting ausprobieren. Das beginnt bei der Wahl der Plattformen und der Art der Ansprache. Aber auch einige „traditionelle“ Ansätze können vielversprechend sein:   Nischenplattformen nutzen: Klassische Jobbörsen reichen längst nicht mehr aus. Vielversprechender sind spezialisierte Plattformen wie GitHub, Kaggle oder Stack Overflow, auf denen sich viele Entwickler aktiv austauschen.  Kontakte früh knüpfen: Unternehmen sollten bereits an Hochschulen oder Coding-Schools präsent sein. Durch Partnerschaften mit Bildungseinrichtungen können frühzeitig Beziehungen zu zukünftigen Fachkräften aufgebaut werden.  Veranstaltungen nutzen: Hackathons oder Tech-Meetups bieten die Möglichkeit, in ungezwungener Atmosphäre mit IT-Talenten ins Gespräch zu kommen und frühzeitig Kontakte zu knüpfen.  Fakt ist aber auch: Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert den Bewerbungsprozess. Durch Machine Learning und Big-Data-Analysen lassen sich Bewerbungen schnell und präzise auswerten – selbst bei einer großen Anzahl an Bewerbern.  Datenschutz und Fairness sicherstellen  Digitale Tools und KI verändern den Bewerbungsprozess – doch damit steigt auch die Verantwortung der Unternehmen. Bevor KI-Systeme zum Einsatz kommen, müssen alle datenschutzrechtlichen Vorgaben – allen voran die Datenschutz-Grundverordnung (DSGVO) – erfüllt sein.  Dabei gilt: Transparenz ist Trumpf. Bewerber sollten wissen, wie ihre Daten verarbeitet werden und welche Rolle KI bei Entscheidungen spielt. Ein offener Umgang damit schafft Vertrauen und minimiert das Risiko von Diskriminierung.    Video-Bewerbungen und digitale Interviews Parallel zu KI-gestützten Analysen gewinnen weitere neue Bewerbungsformate an Bedeutung. Video-Bewerbungen und asynchrone Interviews machen den Prozess schneller, flexibler und effizienter. Während früher die Terminfindung für Gespräche Wochen dauerte, können asynchrone Interviews jederzeit bearbeitet werden – ein Pluspunkt für beide Seiten.  Gerade in der IT- und Digitalbranche, wo Talente mehrere Optionen haben, sind unkomplizierte und innovative Verfahren ein echter Wettbewerbsvorteil. Wer den Bewerbungsprozess transparent, schnell und reibungslos gestaltet, hat die Nase vorn.  Diese neue Art der Rekrutierung bietet Vorteile für beide Seiten. Zum Beispiel diese:  1. Schnelle Ersteinschätzung durch Video-Bewerbungen: Anstatt aufwändige Anschreiben zu verfassen, präsentieren sich Bewerber innerhalb weniger Minuten per Video. Dies ermöglicht eine schnelle und authentische Einschätzung der Person – bereits vor einem persönlichen Gespräch.  2. Asynchrone Interviews bieten maximale Flexibilität: Zeitliche Abstimmungsprobleme gehören der Vergangenheit an. Bewerber können vordefinierte Fragen per Video beantworten – wann es für sie passt. Das erleichtert den Prozess.  3. Bessere Vorauswahl durch persönliche Eindrücke: Schriftliche Bewerbungen geben oft nur bedingt Aufschluss über Soft Skills oder kommunikative Fähigkeiten. Videointerviews bieten die Möglichkeit, diese wichtigen Aspekte frühzeitig zu berücksichtigen.   Wie der Bewerbungsprozess über den Erfolg entscheidet  Entscheidend dabei, neue Talente zu gewinnen, ist nicht nur, wer einstellt, sondern vor allem, wie der Bewerbungsprozess abläuft. Ein transparenter und effizienter Recruiting-Prozess ist dabei längst nicht mehr nur in der IT-Branche wichtig – er macht in nahezu jeder Branche den Unterschied.  Ein besonders wichtiger Faktor: Geschwindigkeit. Studien zeigen immer wieder: Je länger Bewerber auf eine Rückmeldung warten, desto wahrscheinlicher ist es, dass ihr Interesse nachlässt. Als akzeptable Reaktionszeit gelten zwei Wochen. Danach steigt das Risiko, dass vielversprechende Kandidaten abspringen oder bei der Konkurrenz unterschreiben.    KI-Bots als Beschleuniger Hier können KI-Bots einen entscheidenden Unterschied machen. Unternehmen setzen zunehmend auf intelligente Chatbots, um Bewerber durch den Prozess zu begleiten. Diese Bots beantworten Fragen in Echtzeit und informieren über den Status der Bewerbung.  Der Vorteil: Schnellere Reaktionszeiten und durchgängige Erreichbarkeit – zwei Faktoren, die besonders bei IT-Fachkräften, die sich nicht selten zwischen mehreren Angeboten entscheiden müssen, den Ausschlag geben können. Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  KI-Bots können nicht nur standardisierte Aufgaben wie Terminvereinbarungen übernehmen oder häufig gestellte Fragen beantworten, sondern auch Bewerber vorqualifizieren leisten. So bleibt dem HR-Team mehr Zeit für strategische Entscheidungen und die persönliche Ansprache vielversprechender Kandidaten.  Zusammengefasst: Was macht einen erfolgreichen Bewerbungsprozess aus? Im War for Talents zählt jeder Schritt – denn das Bewerbungsverfahren ist oft der erste Eindruck, den ein Unternehmen bei potenziellen Mitarbeitenden hinterlässt. Wer hier überzeugt, gewinnt nicht nur die besten Talente, sondern stärkt auch seine Arbeitgebermarke.  Erfolgreiche Unternehmen setzen auf klare Abläufe, schnelle Entscheidungen und eine wertschätzende Kommunikation. Ein transparenter und effizienter Prozess zeigt Professionalität und signalisiert Bewerbern, dass sie und ihre Zeit geschätzt werden.  Folgende Erfolgsfaktoren helfen, Talente langfristig zu binden:  1. Klare Prozessstruktur: Definieren Sie von Anfang an die einzelnen Schritte des Auswahlverfahrens und kommunizieren Sie diese offen mit den Bewerbern. Ein transparenter Prozess schafft Vertrauen und gibt den Kandidaten die Möglichkeit, sich gezielt auf die einzelnen Phasen vorzubereiten.  2. Zeitliche Effizienz: Minimieren Sie die Dauer zwischen den verschiedenen Prozessschritten. Eine zügige Bearbeitung zeigt nicht nur Professionalität, sondern signalisiert auch Wertschätzung gegenüber den Bewerbern.  3. Standardisierte Bewertungskriterien: Einheitliche und klar definierte Kriterien stellen sicher, dass alle Kandidaten objektiv und fair beurteilt werden. Dies reduziert nicht nur den Einfluss subjektiver Wahrnehmungen, sondern erleichtert auch vergleichbare Entscheidungen.  4. Personalisierte Kommunikation: Vermeiden Sie unpersönliche Standardabsagen. Individuelle und wertschätzende Rückmeldungen hinterlassen einen positiven Eindruck – auch dann, wenn es nicht zu einer Einstellung kommt. Ein Bewerbungsprozess endet nicht mit einer Zusage oder Absage: Auch abgelehnte Kandidaten können zu späteren Zeitpunkten wieder interessant werden oder das Unternehmen weiterempfehlen.  

So geht modernes Recruiting heute​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?quality=50&strip=all 4444w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Recruitment-shutterstock_2159636061.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich.  3rdtimeluckystudio – Shutterstock 2159636061

Fachkräfte fehlen überall – besonders in der IT-Branche. Der Branchenverband Bitkom warnt seit Jahren vor einem zunehmenden Fachkräftemangel in IT-Berufen. Neue Technologien wie KI und Automatisierung dürften den Engpass weiter verschärfen. Unternehmen, die mit der rasanten Entwicklung Schritt halten wollen, sind mehr denn je auf qualifizierte Mitarbeiterinnen und Mitarbeiter angewiesen. 

Schon heute zeigt sich: Das klassische post and pray – also Stellenanzeigen schalten und abwarten – funktioniert schon lange nicht mehr. Statt passiv zu hoffen, müssen Unternehmen aktiv um Talente werben und sie für sich begeistern. Die Konsequenz? Unternehmen, die weiterhin auf traditionelle – oder schlicht veraltete – Rekrutierungsmethoden setzen, geraten ins Hintertreffen. Denn: 

1. Unternehmen konkurrieren um wenige Fachkräfte: Die meisten High Potentials, vor allem im IT-Bereich, sind längst bei Unternehmen unter Vertrag und daher gar nicht erst auf Jobsuche. Wenn ein solches Talent dann auf dem Markt ist, sind mehrere Arbeitgeber im Wettbewerb um diese Person. 

2.  Langwierige und undurchsichtige Prozesse schrecken ab: Unternehmen, die nicht in moderne Recruiting-Prozesse investiert haben, sind für die meisten IT-Talente unattraktiv. Überspitzt formuliert: Warum sollte ein gesuchter IT-Spezialist eine Woche auf eine standardisierte Nachricht in einem Bewerbungsprozess warten, wenn er oder sie bei einem anderen Unternehmen jederzeit einen persönlichen Ansprechpartner hat – der übrigens kein Mensch sein muss, aber dazu später mehr. 

3. Stellenausschreibung und Anforderungsprofil passen nicht zusammen: Wer glaubt, dass die Diskrepanzen zwischen der veröffentlichten Stellenanzeige (bzw. dem Kurzprofil, nach dem Recruiter aktiv suchen) und den tatsächlichen Anforderungen, die in der jeweiligen Abteilung an den neuen Mitarbeiter gestellt werden, längst überwunden sind, der irrt gewaltig. In vielen Unternehmen ist es heute noch so, dass die Personalabteilung die Stellenausschreibung verfasst – und die Personalabteilung selbst weiß vielleicht gar nicht so genau, welche Fähigkeiten von dem Mitarbeiter wirklich verlangt werden.  

 

Neue Wege gehen: IT-Talente finden und binden

Wer die besten Talente finden will, muss sich heute etwas einfallen lassen und innovative Ansätze im Recruiting ausprobieren. Das beginnt bei der Wahl der Plattformen und der Art der Ansprache. Aber auch einige „traditionelle“ Ansätze können vielversprechend sein:  

Nischenplattformen nutzen: Klassische Jobbörsen reichen längst nicht mehr aus. Vielversprechender sind spezialisierte Plattformen wie GitHub, Kaggle oder Stack Overflow, auf denen sich viele Entwickler aktiv austauschen. 

Kontakte früh knüpfen: Unternehmen sollten bereits an Hochschulen oder Coding-Schools präsent sein. Durch Partnerschaften mit Bildungseinrichtungen können frühzeitig Beziehungen zu zukünftigen Fachkräften aufgebaut werden. 

Veranstaltungen nutzen: Hackathons oder Tech-Meetups bieten die Möglichkeit, in ungezwungener Atmosphäre mit IT-Talenten ins Gespräch zu kommen und frühzeitig Kontakte zu knüpfen. 

Fakt ist aber auch: Der Einsatz von Künstlicher Intelligenz (KI) revolutioniert den Bewerbungsprozess. Durch Machine Learning und Big-Data-Analysen lassen sich Bewerbungen schnell und präzise auswerten – selbst bei einer großen Anzahl an Bewerbern. 

Datenschutz und Fairness sicherstellen 

Digitale Tools und KI verändern den Bewerbungsprozess – doch damit steigt auch die Verantwortung der Unternehmen. Bevor KI-Systeme zum Einsatz kommen, müssen alle datenschutzrechtlichen Vorgaben – allen voran die Datenschutz-Grundverordnung (DSGVO) – erfüllt sein. 

Dabei gilt: Transparenz ist Trumpf. Bewerber sollten wissen, wie ihre Daten verarbeitet werden und welche Rolle KI bei Entscheidungen spielt. Ein offener Umgang damit schafft Vertrauen und minimiert das Risiko von Diskriminierung. 

 

Video-Bewerbungen und digitale Interviews

Parallel zu KI-gestützten Analysen gewinnen weitere neue Bewerbungsformate an Bedeutung. Video-Bewerbungen und asynchrone Interviews machen den Prozess schneller, flexibler und effizienter. Während früher die Terminfindung für Gespräche Wochen dauerte, können asynchrone Interviews jederzeit bearbeitet werden – ein Pluspunkt für beide Seiten. 

Gerade in der IT- und Digitalbranche, wo Talente mehrere Optionen haben, sind unkomplizierte und innovative Verfahren ein echter Wettbewerbsvorteil. Wer den Bewerbungsprozess transparent, schnell und reibungslos gestaltet, hat die Nase vorn. 

Diese neue Art der Rekrutierung bietet Vorteile für beide Seiten. Zum Beispiel diese: 

1. Schnelle Ersteinschätzung durch Video-Bewerbungen: Anstatt aufwändige Anschreiben zu verfassen, präsentieren sich Bewerber innerhalb weniger Minuten per Video. Dies ermöglicht eine schnelle und authentische Einschätzung der Person – bereits vor einem persönlichen Gespräch. 

2. Asynchrone Interviews bieten maximale Flexibilität: Zeitliche Abstimmungsprobleme gehören der Vergangenheit an. Bewerber können vordefinierte Fragen per Video beantworten – wann es für sie passt. Das erleichtert den Prozess. 

3. Bessere Vorauswahl durch persönliche Eindrücke: Schriftliche Bewerbungen geben oft nur bedingt Aufschluss über Soft Skills oder kommunikative Fähigkeiten. Videointerviews bieten die Möglichkeit, diese wichtigen Aspekte frühzeitig zu berücksichtigen. 

 Wie der Bewerbungsprozess über den Erfolg entscheidet 

Entscheidend dabei, neue Talente zu gewinnen, ist nicht nur, wer einstellt, sondern vor allem, wie der Bewerbungsprozess abläuft. Ein transparenter und effizienter Recruiting-Prozess ist dabei längst nicht mehr nur in der IT-Branche wichtig – er macht in nahezu jeder Branche den Unterschied. 

Ein besonders wichtiger Faktor: Geschwindigkeit. Studien zeigen immer wieder: Je länger Bewerber auf eine Rückmeldung warten, desto wahrscheinlicher ist es, dass ihr Interesse nachlässt. Als akzeptable Reaktionszeit gelten zwei Wochen. Danach steigt das Risiko, dass vielversprechende Kandidaten abspringen oder bei der Konkurrenz unterschreiben. 

 

KI-Bots als Beschleuniger

Hier können KI-Bots einen entscheidenden Unterschied machen. Unternehmen setzen zunehmend auf intelligente Chatbots, um Bewerber durch den Prozess zu begleiten. Diese Bots beantworten Fragen in Echtzeit und informieren über den Status der Bewerbung. 

Der Vorteil: Schnellere Reaktionszeiten und durchgängige Erreichbarkeit – zwei Faktoren, die besonders bei IT-Fachkräften, die sich nicht selten zwischen mehreren Angeboten entscheiden müssen, den Ausschlag geben können. Moderne KI-gestützte Kommunikationssysteme sorgen dafür, dass Bewerber nicht lange auf Feedback warten müssen und steigern so die Candidate Experience erheblich. 

KI-Bots können nicht nur standardisierte Aufgaben wie Terminvereinbarungen übernehmen oder häufig gestellte Fragen beantworten, sondern auch Bewerber vorqualifizieren leisten. So bleibt dem HR-Team mehr Zeit für strategische Entscheidungen und die persönliche Ansprache vielversprechender Kandidaten. 

Zusammengefasst: Was macht einen erfolgreichen Bewerbungsprozess aus? Im War for Talents zählt jeder Schritt – denn das Bewerbungsverfahren ist oft der erste Eindruck, den ein Unternehmen bei potenziellen Mitarbeitenden hinterlässt. Wer hier überzeugt, gewinnt nicht nur die besten Talente, sondern stärkt auch seine Arbeitgebermarke. 

Erfolgreiche Unternehmen setzen auf klare Abläufe, schnelle Entscheidungen und eine wertschätzende Kommunikation. Ein transparenter und effizienter Prozess zeigt Professionalität und signalisiert Bewerbern, dass sie und ihre Zeit geschätzt werden. 

Folgende Erfolgsfaktoren helfen, Talente langfristig zu binden: 

1. Klare Prozessstruktur: Definieren Sie von Anfang an die einzelnen Schritte des Auswahlverfahrens und kommunizieren Sie diese offen mit den Bewerbern. Ein transparenter Prozess schafft Vertrauen und gibt den Kandidaten die Möglichkeit, sich gezielt auf die einzelnen Phasen vorzubereiten. 

2. Zeitliche Effizienz: Minimieren Sie die Dauer zwischen den verschiedenen Prozessschritten. Eine zügige Bearbeitung zeigt nicht nur Professionalität, sondern signalisiert auch Wertschätzung gegenüber den Bewerbern. 

3. Standardisierte Bewertungskriterien: Einheitliche und klar definierte Kriterien stellen sicher, dass alle Kandidaten objektiv und fair beurteilt werden. Dies reduziert nicht nur den Einfluss subjektiver Wahrnehmungen, sondern erleichtert auch vergleichbare Entscheidungen. 

4. Personalisierte Kommunikation: Vermeiden Sie unpersönliche Standardabsagen. Individuelle und wertschätzende Rückmeldungen hinterlassen einen positiven Eindruck – auch dann, wenn es nicht zu einer Einstellung kommt. Ein Bewerbungsprozess endet nicht mit einer Zusage oder Absage: Auch abgelehnte Kandidaten können zu späteren Zeitpunkten wieder interessant werden oder das Unternehmen weiterempfehlen. 

So geht modernes Recruiting heute​ Weiterlesen »

Drohnen sind die Cybercrime-Zukunft​

Allgemein

loading=”lazy” width=”400px”>Bleiben Drohnen unter Ihrem Security-Radar? Agon Nimani – shutterstock.com Wie sich Drohnen auf kreative Weise für Angriff und Verteidigung in Kriegsszenarien einsetzen lassen, kann man seit dem russischen Überfall auf die Ukraine quasi live mitverfolgen. Die ukrainischen Streitkräfte haben ein riesiges Arsenal an militärischen Drohnen aufgebaut, das nicht nur für Präzisionsschläge, Aufklärungs- sowie Kamikaze-Missionen zum Einsatz kommen – sondern auch für Offensiv- und Defensivaktionen im Bereich Cybersicherheit.   Von diesem Beispiel lassen sich längst Cyberkriminelle auf der ganzen Welt inspirieren, um Drohnen künftig verstärkt für maliziöse Zwecke einzusetzen. Deswegen sollten sich auch alle IT- und insbesondere Security-Profis eingehend mit dem Thema Drohnen beschäftigen – beziehungsweise mit den Möglichkeiten, diese für maliziöse Zwecke zu missbrauchen. Malware an Bord… Vor kurzem machte auf Reddit ein Video die Runde, das beschreibt, welche Taktiken das ukrainische Militär mit Blick auf seine Drohnen einsetzt. Demnach werden die Fluggeräte inzwischen gezielt mit Malware ausgestattet, um die Hardware der russischen Angreifer zu sabotieren, falls sie eine der ukrainischen Drohnen in die Finger bekommen. Dazu sollen die Fluggeräte etwa USB-Anschlüsse ausbrennen, eine Neuprogrammierung blockieren oder die Systeme der Russen mit einem Virus infizieren, um beispielweise deren Standorte aufzudecken. Auch remote ausnutzbare Schwachstellen sind offenbar teilweise bereits in ukrainische Drohnen integriert. Diese Bemühungen erschweren es dem russischen Militär erheblich, erbeutete Drohnen umzufunktionieren und wiederzuverwenden – beispielsweise, um Informationen zu sammeln. Zwar gab es in der Ukraine schon vor dem russischen Überfall eine starke Cybersecurity-Branche und jede Menge Expertise. Diese wird nun aber von globalem Knowhow ergänzt. So unterstützt unter anderem der britische Sicherheitsspezialist Periphery die Ukraine mit Technologie. Das Security-Unternehmen ist auf militärische Threat-Management-Systeme für IoT-Geräte spezialisiert und bietet KI-gestützte Embedded-Lösungen an, um kritische Infrastrukturen zu überwachen und abzusichern. Diese kommen nun auch zum Einsatz, um die ukrainische Drohnenflotte vor Hackerangriffen und sonstigen Störungen zu schützen.      Das markiert einen Paradigmenwechsel, denn während in den Anfangstagen des Krieges wurden noch einfache Consumer-Geräte in den Kampfeinsatz geschickt, um Videoaufnahmen anzufertigen oder auch Granaten abzuwerfen. Inzwischen werden die unbemannten Fluggeräte jedoch zunehmend mit offensiven wie defensiven Cyber-Fähigkeiten ausgestattet. … nicht nur im Krieg Dass solche Taktiken längst nicht mehr nur im Ukraine-Krieg (und anderen Kampfeinsätzen) angewandt werden, beweist eine wahre Begebenheit eindrücklich, über die Security-Forscher Greg Linares bereits im Oktober 2022 auf dem Kurznachrichtendienst X informierte. Demnach wurde ein US-Finanzdienstleister im Sommer 2022 zum Ziel einer neuen Art von Cyberangriff mit Beteiligung von Drohnen. Ans Licht gekommen war der Vorfall, nachdem das Security-Team des Unternehmens ungewöhnliche Aktivitäten auf seiner internen Atlassian-Confluence-Seite feststellte, die scheinbar aus dem Unternehmensnetzwerk stammten. Allerdings wurde die identische MAC-Adresse parallel von einem Remote-Mitarbeiter verwendet.   Der Versuch, das unerwünschte Signal aufzuspüren führte die Sicherheitsspezialisten auf das Dach des Firmengebäudes, wo sie zwei modifizierte Drohnen von DJI (globaler Marktführer im Bereich Drohnen) entdeckten: Eine Drohne vom Typ DJI Phantom war mit einem Wi-Fi Pineapple Device ausgestattet. Dieses Tool ist eigentlich für Penetrationstests gedacht, wurde in diesem Szenario aber dazu missbraucht, das legitime Unternehmensnetzwerk zu „spoofen“. Das ermöglichte es den Angreifern, die Anmeldedaten der Benutzer, beziehungsweise Mitarbeiter abzufangen, die sich unwissentlich mit dem gefälschten Netzwerk verbunden haben. Im Laufe der Untersuchungen stellte sich heraus, dass die Phantom-Drohne wohl zur Aufklärung eingesetzt wurde und unbemerkt die Anmeldedaten und den WLAN-Zugang eines Mitarbeiters erfasst hatte. Diese Login-Daten wurden anschließend auf der zweiten Drohne (Modell Matrice) hartkodiert – womit diese dazu eingesetzt werden konnte, um auf die interne Confluence-Seite des Unternehmens (und andere dort vorgehaltene Ressourcen) zuzugreifen. Letztlich wurde dieser Angriffsversuch zwar vereitelt, die Angreifer konnten jedoch nie ermittelt werden. Dieser Angriff war an sich nicht besonders raffiniert oder exotisch. Die Drohnen jedoch mit zusätzlicher Hard- und Software auszustatten, hat den Cyberkriminellen ermöglicht, physische Sicherheitsmaßnahmen einfach zu umgehen und parallel anonym zu bleiben.  Luftbasierte Angriffsszenarien Dieses Beispiel verdeutlicht, dass Drohnen längst zum Arsenal von Cyberkriminellen gehören. Die müssen dabei nicht auf militärische Spezialmodelle zurückgreifen – die normalen UAVs aus dem Consumer-Bereich reichen völlig aus, ihrer technologischen Entwicklung beziehungsweise Reife sei Dank. DJIs Mini 4 Pro beispielsweise kostet bei Amazon um die 900 Euro. Dafür bekommen Cyberkriminelle ein Fluggerät, das über eine Reichweite von 19 Kilometern steuerbar ist, 4K-Videos mit 100 Bildern pro Sekunde aufnimmt und auch automatisch bestimmten Objekten – etwa einem Auto – folgen kann. In Kombination mit weiteren Devices ließen sich etliche Angriffsszenarien spinnen. Zum Beispiel:   Netzwerk-Sniffing und -Spoofing: Drohnen lassen sich mit kleinen, modifizierbaren Computern wie einem Raspberry Pi kombinieren, um Informationen über WLAN-Netzwerke (inklusive MAC-Adressen und SSIDs) auszuspähen. Die Drohne kann dann ein bekanntes WLAN-Netzwerk imitieren und sensible Informationen wie Anmeldedaten abfangen. Denial-of-Service-Angriffe: Drohnen können auch mit Geräten kombiniert werden, die die Kommunikation zwischen einem Benutzer und einem WLAN-Zugangspunkt stören oder zu unterbrechen. Heimliche Überwachung: Mit hochwertigen Kameras ausgestattete Drohnen können dazu eingesetzt werden, Firmenareale auszuspähen und Informationen über Sicherheitsprotokolle zu sammeln. Das unterstützt Angreifer dabei, physische und virtuelle Angriffe zu planen, indem potenzielle Einstiegspunkte oder Schwachstellen identifiziert werden. Um gezielt sensible Geräte wie Server zu lokalisieren, können die Fluggeräte auch mit Wärmebildkameras ausgestattet werden. Data Interception: Drohnen lassen sich so modifizieren, dass sie verschiedene drahtlose Kommunikationsmittel, einschließlich WLAN-, Bluetooth- und RFID-Signale, abfangen und Daten stehlen können. Eine Drohne könnte beispielsweise auf Bluetooth-verbundene Tastaturen abzielen, um Tastenanschläge aufzuzeichnen und so möglicherweise Benutzernamen und Passwörter abzugreifen. Schädliche Hardware aus der Luft: Drohnen könnten auch kleinere Geräte wie Raspberry Pis oder WiFi-Pineapple-Devices in der Nähe eines Zielortes abwerfen, um Netzwerke aus nächster Nähe zu infiltrieren. Diese Geräte lassen sich im Anschluss für verschiedene Cyberangriffe nutzen. Schädliche Software aus der Luft: Zugegebenermaßen ist dieses Szenario für den Unternehmensalltag weniger relevant als für die Kriegsgebiete in der Ukraine. Dennoch ist auch diese Taktik ein möglicher Weg für Cyberkriminelle, Malware auszuliefern. Physische Angriffe auf Cyberinfrastruktur: Drohnen könnten außerdem eingesetzt werden, um Infrastrukturen anzugreifen, die die Cybersecurity stützen – etwa die Kühlsysteme auf den Dächern von Rechenzentren. Das könnte Störungen, Datenverlust oder Systemausfälle zur Folge haben. Unternehmen und Organisationen sind deshalb gut damit beraten, sich auf künftige Cyberbedrohungsszenarien aus der Luft vorzubereiten und ihr Sicherheitssystem – speziell mit Blick auf physische Security – auf den Prüfstand zu stellen. Zu diesem Zweck hat beispielsweise das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein umfassendes (englischsprachiges) Arbeitspapier (PDF) veröffentlicht – inklusive Angriffsszenarien und empfohlenen Abhilfemaßnahmen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Drohnen sind die Cybercrime-Zukunft​ loading=”lazy” width=”400px”>Bleiben Drohnen unter Ihrem Security-Radar? Agon Nimani – shutterstock.com

Wie sich Drohnen auf kreative Weise für Angriff und Verteidigung in Kriegsszenarien einsetzen lassen, kann man seit dem russischen Überfall auf die Ukraine quasi live mitverfolgen. Die ukrainischen Streitkräfte haben ein riesiges Arsenal an militärischen Drohnen aufgebaut, das nicht nur für Präzisionsschläge, Aufklärungs- sowie Kamikaze-Missionen zum Einsatz kommen – sondern auch für Offensiv- und Defensivaktionen im Bereich Cybersicherheit.  

Von diesem Beispiel lassen sich längst Cyberkriminelle auf der ganzen Welt inspirieren, um Drohnen künftig verstärkt für maliziöse Zwecke einzusetzen. Deswegen sollten sich auch alle IT- und insbesondere Security-Profis eingehend mit dem Thema Drohnen beschäftigen – beziehungsweise mit den Möglichkeiten, diese für maliziöse Zwecke zu missbrauchen.

Malware an Bord…

Vor kurzem machte auf Reddit ein Video die Runde, das beschreibt, welche Taktiken das ukrainische Militär mit Blick auf seine Drohnen einsetzt. Demnach werden die Fluggeräte inzwischen gezielt mit Malware ausgestattet, um die Hardware der russischen Angreifer zu sabotieren, falls sie eine der ukrainischen Drohnen in die Finger bekommen. Dazu sollen die Fluggeräte etwa USB-Anschlüsse ausbrennen, eine Neuprogrammierung blockieren oder die Systeme der Russen mit einem Virus infizieren, um beispielweise deren Standorte aufzudecken. Auch remote ausnutzbare Schwachstellen sind offenbar teilweise bereits in ukrainische Drohnen integriert. Diese Bemühungen erschweren es dem russischen Militär erheblich, erbeutete Drohnen umzufunktionieren und wiederzuverwenden – beispielsweise, um Informationen zu sammeln.

Zwar gab es in der Ukraine schon vor dem russischen Überfall eine starke Cybersecurity-Branche und jede Menge Expertise. Diese wird nun aber von globalem Knowhow ergänzt. So unterstützt unter anderem der britische Sicherheitsspezialist Periphery die Ukraine mit Technologie. Das Security-Unternehmen ist auf militärische Threat-Management-Systeme für IoT-Geräte spezialisiert und bietet KI-gestützte Embedded-Lösungen an, um kritische Infrastrukturen zu überwachen und abzusichern. Diese kommen nun auch zum Einsatz, um die ukrainische Drohnenflotte vor Hackerangriffen und sonstigen Störungen zu schützen.     

Das markiert einen Paradigmenwechsel, denn während in den Anfangstagen des Krieges wurden noch einfache Consumer-Geräte in den Kampfeinsatz geschickt, um Videoaufnahmen anzufertigen oder auch Granaten abzuwerfen. Inzwischen werden die unbemannten Fluggeräte jedoch zunehmend mit offensiven wie defensiven Cyber-Fähigkeiten ausgestattet.

… nicht nur im Krieg

Dass solche Taktiken längst nicht mehr nur im Ukraine-Krieg (und anderen Kampfeinsätzen) angewandt werden, beweist eine wahre Begebenheit eindrücklich, über die Security-Forscher Greg Linares bereits im Oktober 2022 auf dem Kurznachrichtendienst X informierte.

Demnach wurde ein US-Finanzdienstleister im Sommer 2022 zum Ziel einer neuen Art von Cyberangriff mit Beteiligung von Drohnen. Ans Licht gekommen war der Vorfall, nachdem das Security-Team des Unternehmens ungewöhnliche Aktivitäten auf seiner internen Atlassian-Confluence-Seite feststellte, die scheinbar aus dem Unternehmensnetzwerk stammten. Allerdings wurde die identische MAC-Adresse parallel von einem Remote-Mitarbeiter verwendet.  

Der Versuch, das unerwünschte Signal aufzuspüren führte die Sicherheitsspezialisten auf das Dach des Firmengebäudes, wo sie zwei modifizierte Drohnen von DJI (globaler Marktführer im Bereich Drohnen) entdeckten: Eine Drohne vom Typ DJI Phantom war mit einem Wi-Fi Pineapple Device ausgestattet. Dieses Tool ist eigentlich für Penetrationstests gedacht, wurde in diesem Szenario aber dazu missbraucht, das legitime Unternehmensnetzwerk zu „spoofen“.

Das ermöglichte es den Angreifern, die Anmeldedaten der Benutzer, beziehungsweise Mitarbeiter abzufangen, die sich unwissentlich mit dem gefälschten Netzwerk verbunden haben. Im Laufe der Untersuchungen stellte sich heraus, dass die Phantom-Drohne wohl zur Aufklärung eingesetzt wurde und unbemerkt die Anmeldedaten und den WLAN-Zugang eines Mitarbeiters erfasst hatte. Diese Login-Daten wurden anschließend auf der zweiten Drohne (Modell Matrice) hartkodiert – womit diese dazu eingesetzt werden konnte, um auf die interne Confluence-Seite des Unternehmens (und andere dort vorgehaltene Ressourcen) zuzugreifen. Letztlich wurde dieser Angriffsversuch zwar vereitelt, die Angreifer konnten jedoch nie ermittelt werden. Dieser Angriff war an sich nicht besonders raffiniert oder exotisch. Die Drohnen jedoch mit zusätzlicher Hard- und Software auszustatten, hat den Cyberkriminellen ermöglicht, physische Sicherheitsmaßnahmen einfach zu umgehen und parallel anonym zu bleiben. 

Luftbasierte Angriffsszenarien

Dieses Beispiel verdeutlicht, dass Drohnen längst zum Arsenal von Cyberkriminellen gehören. Die müssen dabei nicht auf militärische Spezialmodelle zurückgreifen – die normalen UAVs aus dem Consumer-Bereich reichen völlig aus, ihrer technologischen Entwicklung beziehungsweise Reife sei Dank.

DJIs Mini 4 Pro beispielsweise kostet bei Amazon um die 900 Euro. Dafür bekommen Cyberkriminelle ein Fluggerät, das über eine Reichweite von 19 Kilometern steuerbar ist, 4K-Videos mit 100 Bildern pro Sekunde aufnimmt und auch automatisch bestimmten Objekten – etwa einem Auto – folgen kann. In Kombination mit weiteren Devices ließen sich etliche Angriffsszenarien spinnen. Zum Beispiel:  

Netzwerk-Sniffing und -Spoofing: Drohnen lassen sich mit kleinen, modifizierbaren Computern wie einem Raspberry Pi kombinieren, um Informationen über WLAN-Netzwerke (inklusive MAC-Adressen und SSIDs) auszuspähen. Die Drohne kann dann ein bekanntes WLAN-Netzwerk imitieren und sensible Informationen wie Anmeldedaten abfangen.

Denial-of-Service-Angriffe: Drohnen können auch mit Geräten kombiniert werden, die die Kommunikation zwischen einem Benutzer und einem WLAN-Zugangspunkt stören oder zu unterbrechen.

Heimliche Überwachung: Mit hochwertigen Kameras ausgestattete Drohnen können dazu eingesetzt werden, Firmenareale auszuspähen und Informationen über Sicherheitsprotokolle zu sammeln. Das unterstützt Angreifer dabei, physische und virtuelle Angriffe zu planen, indem potenzielle Einstiegspunkte oder Schwachstellen identifiziert werden. Um gezielt sensible Geräte wie Server zu lokalisieren, können die Fluggeräte auch mit Wärmebildkameras ausgestattet werden.

Data Interception: Drohnen lassen sich so modifizieren, dass sie verschiedene drahtlose Kommunikationsmittel, einschließlich WLAN-, Bluetooth- und RFID-Signale, abfangen und Daten stehlen können. Eine Drohne könnte beispielsweise auf Bluetooth-verbundene Tastaturen abzielen, um Tastenanschläge aufzuzeichnen und so möglicherweise Benutzernamen und Passwörter abzugreifen.

Schädliche Hardware aus der Luft: Drohnen könnten auch kleinere Geräte wie Raspberry Pis oder WiFi-Pineapple-Devices in der Nähe eines Zielortes abwerfen, um Netzwerke aus nächster Nähe zu infiltrieren. Diese Geräte lassen sich im Anschluss für verschiedene Cyberangriffe nutzen.

Schädliche Software aus der Luft: Zugegebenermaßen ist dieses Szenario für den Unternehmensalltag weniger relevant als für die Kriegsgebiete in der Ukraine. Dennoch ist auch diese Taktik ein möglicher Weg für Cyberkriminelle, Malware auszuliefern.

Physische Angriffe auf Cyberinfrastruktur: Drohnen könnten außerdem eingesetzt werden, um Infrastrukturen anzugreifen, die die Cybersecurity stützen – etwa die Kühlsysteme auf den Dächern von Rechenzentren. Das könnte Störungen, Datenverlust oder Systemausfälle zur Folge haben.

Unternehmen und Organisationen sind deshalb gut damit beraten, sich auf künftige Cyberbedrohungsszenarien aus der Luft vorzubereiten und ihr Sicherheitssystem – speziell mit Blick auf physische Security – auf den Prüfstand zu stellen. Zu diesem Zweck hat beispielsweise das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein umfassendes (englischsprachiges) Arbeitspapier (PDF) veröffentlicht – inklusive Angriffsszenarien und empfohlenen Abhilfemaßnahmen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Drohnen sind die Cybercrime-Zukunft​ Weiterlesen »

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​

Allgemein

Geht es um Nachhaltigkeit, sind die Ziele in vielen Unternehmen ehrgeizig. Lesen Sie, mit welchen Softwarelösungen sie zu erreichen sind. Foto: kmingwwww – shutterstock.com Organisationen stehen zunehmend unter dem Druck zahlreicher Stakeholder, Nachhaltigkeitspraktiken in ihre Geschäftsstrategien zu integrieren. Geht es darum, die oft ehrgeizigen Ziele im Bereich Enterprise, Social und Governance (ESG) auch zu erreichen, kann Nachhaltigkeitsmanagement-Software die entscheidende Rolle spielen. Entsprechend sind Lösungen in diesem Bereich zunehmend gefragt, wie Amy Cravens, Research Manager bei den Marktforschern von IDC, bestätigt: “ESG ist für viele Unternehmen noch neu. Sie müssen erst noch verstehen, was sie genau tun müssen und wie sie das angehen sollen. Software in Verbindung mit Serviceangeboten kann Unternehmen dabei unterstützen, ihr ESG-Reporting zu bewältigen.” Im Folgenden lesen Sie, was Software für das Nachhaltigkeitsmanagement leisten sollte, welche Fallstricke Sie vermeiden sollten und welche Lösungen sich in diesem noch jungen Bereich empfehlen. Was ESG-Software leisten sollte Sustainability-Management-Softwarelösungen sollten allgemein gesprochen folgende Funktionen mitbringen: Umwelt-Compliance: Diese Funktion überwacht die “Environmental Performance” eines Unternehmens, indem sie die entsprechenden Erfordernisse trackt, managt und die Ergebnisse in Reportings gießt. Soziale Compliance: Hilft Unternehmen zu verstehen, wie mit verschiedene Personengruppen (Kunden, Mitarbeiter, Lieferanten, etc.) umzugehen ist und wie sich geschäftliche Entscheidungen gesellschaftlich auswirken. Governance Compliance: Unterstützt Firmen dabei, die Wirksamkeit ihrer Governance-Richtlinien zu bewerten und Compliance zu gewährleisten. Energiemanagement: Datenanalyse-Tools können den Energieverbrauch überwachen und Bereiche beziehungsweise Muster und Trends identifizieren, die Raum für Optimierungen aufweisen. Emissions-Monitoring: Diese Funktion hilft Unternehmen dabei, Umweltvorschriften einzuhalten und Möglichkeiten zu identifizieren, Emissionen zu reduzieren. Reporting und Analytics: Daten aus einer Vielzahl von Quellen, zum Beispiel Wasser- oder Stromzähler und Abfallmanagementsysteme aber auch zu sozialen Faktoren, sollten in einer zentralen Datenbank zusammenlaufen. Das ermöglicht, Analysen zu fahren und in diesem Zuge Trends, Muster sowie Unregelmäßigkeiten aufzudecken. Alerts: Tools für das Nachhaltigkeitsmanagement sollten Unternehmen erlauben, die Initiative zu ergreifen und potenzielle Umweltprobleme aktiv zu erkennen und anzugehen. Dazu werden Grenzwerte für Umweltfaktoren definiert, die von der Software überwacht werden. Bei Überschreitung dieser Werte wird eine Alarmmeldung ausgegeben. Inspektionsmanagement: Unternehmen können Nachhaltigkeitsmanagement-Tools auch nutzen, um entsprechende Inspektionen für ihre Anlagen, Geräte und Einrichtungen zu organisieren und zu managen. KPI-Monitoring: Auch bestimmte ökologische und soziale Ziele lassen sich in Sustainability-Management-Lösungen als Leistungsindikatoren festlegen und tracken. Die Fortschritte des Unternehmens lassen sich anhand entsprechender Reportings nachvollziehen. 4 Sustainability-Management-Fallstricke Im Folgenden werfen wir einen Blick auf die vier häufigsten Fallstricke von Nachhaltigkeitsmanagement-Tools, die Unternehmen vermeiden sollten. 1. Tools, die nicht skalierbar sind “Wir raten Endanwendern regelmäßig, auf Skalierbarkeit zu achten”, berichtet Gartner-Analyst Aapo Markkanen. “Diese Tools können sehr überzeugend erscheinen, wenn sie als Proof of Concept oder in einem Pilotprojekt eingesetzt werden. Eine solche Lösung allerdings auf globaler Ebene zu skalieren, um alle Unternehmensprozesse abzudecken, ist eine Herausforderung.” 2. ESG-Software steckt in den Kinderschuhen “Die meisten Nachhaltigkeitsmanagement-Tools sind erst seit etwa zwei Jahren auf dem Markt”, unterstreicht IDC-Analystin Craven. Sie fügt hinzu: “Da sich viele Funktionen noch in der Entwicklung befinden, ist es aktuell wirklich schwierig zu sagen, welche Lösung die beste sein wird, wenn es um Langlebigkeit und die besten Funktionen geht.” In der Konsequenz rät die Analystin Unternehmen, auf etablierte Anbieter mit Marktpräsenz zu setzen, die eine solide Finanzierung sowie einen guten Kunden- und Partnerstamm vorweisen können: “Identifizieren Sie Anbieter, die sich seit langem der Nachhaltigkeit verschreiben – etwa IBM oder SAP. Diese sind oft besonders engagiert.” 3. Falsche Prioritäten ESG-Tools bieten eine Vielzahl von Funktionen – die Unternehmen auf der Grundlage ihrer Branche und ihrer aktuellen Situation evaluieren sollten, wie Abhijit Sunil, Senior Analyst bei Forrester, empfiehlt: “Einige Unternehmen verfügen beispielsweise über sehr fortschrittliche interne Sustainability-Teams und haben bereits Prozesse eingeführt, während andere noch gar nicht begonnen haben.” Genauso wichtig sei es darüber hinaus, die Erfolgsbilanz des Anbieters für die jeweilige Branche zu ermitteln: “Wenn Sie in der Automobilindustrie tätig sind, sollten Sie herausfinden, ob das betreffende Tool in dieser Branche gute Benchmarks aufweisen kann.” 4. Kein Weitblick Weil sich Vorschriften, Regularien und Rahmenbedingungen kontinuierlich verändern, ist es für Unternehmen essenziell, Nachhaltigkeitsmanagement-Tools zu wählen, die entsprechende Flexibilität ermöglichen. 6 Lösungen fürs Nachhaltigkeitsmanagement Auf dem Markt gibt es zahlreiche Plattformen und Lösungen für das Nachhaltigkeitsmanagement. Um Ihnen die Recherche zu erleichtern, haben wir die folgenden sechs Produkte und Plattformen auf der Grundlage unserer Gespräche mit Analysten und unabhängigen Studien ausgewählt. IBM Envizi ESG Suite Die ESG-Suite von Big Blue wird als Software-as-a-Service (SaaS)-Kollektion angeboten, bestehend aus neun modularen Daten- und Analyseprodukten. Die Nachhaltigkeitsmanagement-Lösung unterstützt Anwender dabei, ESG-Daten zu Energieverbrauch und Emissionen zu erfassen, zu tracken und zu reporten. Dazu konsolidiert die Lösung mehr als 500 ESG-Datenquellen in einem System, um den Anwendern zu erleichtern, die Informationen zu erfassen, zu managen und auszuwerten. Die ESG-Suite ist mit IBMs Application Resource Management, Facility Management und Enterprise Asset Management Tools integrierbar und eignet sich in erster Linie für IBM-Kunden und Unternehmen mit ausgereiften Sustainability-Programmen. Microsoft Cloud for Sustainability Mit automatisierten Datenverbindungen und “actionable” Insights möchte Microsoft Unternehmen dabei unterstützen, die Umweltauswirkungen ihrer betreiblichen Systeme und Prozesse in Echtzeit zu erfassen, zu reporten und effektiv zu reduzieren. Dazu kombiniert die Lösung zahlreiche ESG-Funktionalitäten aus dem gesamten Cloud-Portfolio der Redmonder sowie ihren Partnern. Mit Hilfe der Microsoft Cloud for Sustainability API können Anwender beispielsweise ermitteln, welche Emissionswerte die Nutzung von Microsoft-365-Services (Outlook, SharePoint, Teams, Excel und so weiter) im Rechenzentrum verursacht. Persefoni Laut Hersteller handelt es sich bei dieser Lösung um eine “Klimamanagement-Plattform”. Diese wartet mit einer einheitlichen “Emissionsbuchhaltung” auf und ermöglicht Unternehmen, ihre CO2-freie Zukunft zu planen. Die Plattform ist insbesondere auf eine simple Bedienung ausgelegt und ermöglicht den Anwendern, ihre Emissionen über sämtliche Geschäftsbereiche und -prozesse hinweg zu tracken und zu messen. Mit dem “Net Zero Navigator” des Anbieters können Unternehmen eigene, auf ihre jeweiligen Bedürfnisse zugeschnittene Dekarbonisierungsstrategien entwickeln. Die Nachhaltigkeitsmanagement-Lösung von Persefoni eignet sich am ehesten für große, multinational agierende Unternehmen, Asset Manager und Finanzinstitutionen, die eine automatisierte Treibhausgasbilanzierung und Finanzberichterstattung benötigen. Salesforce Net Zero Cloud Die Sustainability-Management-Lösung von Salesforce fußt auf der Lightning-Plattform des Anbieters und ermöglicht Anwendern, ihren Environmental Impact zu managen und zu tracken. Zum Lösungspaket gehören zahlreiche Tools und Ressourcen, um Energieverbrauch, Emissionswerte und Abfallproduktion zu messen beziehungsweise zu reduzieren. Die Salesforce-Lösung integriert Daten aus verschiedenen Quellen, automatisiert Workflows und bietet Reportings inklusive wichtiger Nachhaltigkeitskennzahlen. Sie eignet sich am besten für Unternehmen, die auf absehbare Zeit auf Zero Emission umstellen möchten. SAP Cloud for Sustainable Enterprises Auch SAP unterstützt Unternehmen dabei, ihren CO2-Verbrauch zu managen, Abfälle zu reduzieren und ihrer sozialen Verantwortung gerecht zu werden. Dazu bieten die Walldorfer eine Sammlung cloudbasierter Software, inklusive ESG- und Nachhaltigkeits-Reporting-Tools. Das soll den Anwendern ermöglichen, ihre Finanz-, Sozial- und Umweltdaten miteinander zu verknüpfen, um bessere Geschäftsentscheidungen treffen zu können. Der SAP Sustainability Control Tower soll Unternehmen darüber hinaus dabei unterstützen, noch nicht erreichte Nachhaltigkeitsziele zu identifizieren, zu analysieren und entsprechende Maßnahmen zu ergreifen, um das zu ändern. Mit SAP Sustainability Footprint Management können die Anwender zudem ihren CO2-Fußabdruck auf Produkt- und Unternehmensebene evaluieren. Wolters Kluwer Enablon ESG Die Lösung von Wolters Kluwer enthält Tools für Nachhaltigkeits- und ESG-Reportings sowie Anwendungen, mit denen Unternehmen Treibhausgasemissionen, Nachhaltigkeitsleistungen und Stakeholder-Beziehungen managen können. Der Anbieter verspricht seinen Kunden, ihre ESG-Daten aus unternehmensweiten Quellen zu zentralisieren und zu validieren, was den Zeitaufwand für die Datenerfassung reduzieren und die Berichterstattung vereinfachen soll. Diese Nachhaltigkeitsmanagement-Lösung eignet sich in besonderem Maße für Anwender aus den Bereichen Biowissenschaften, Energiewirtschaft, Fertigung und anderen Sektoren, die Umwelt- und Gesundheitsdaten benötigen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​ Geht es um Nachhaltigkeit, sind die Ziele in vielen Unternehmen ehrgeizig. Lesen Sie, mit welchen Softwarelösungen sie zu erreichen sind.
Foto: kmingwwww – shutterstock.com

Organisationen stehen zunehmend unter dem Druck zahlreicher Stakeholder, Nachhaltigkeitspraktiken in ihre Geschäftsstrategien zu integrieren. Geht es darum, die oft ehrgeizigen Ziele im Bereich Enterprise, Social und Governance (ESG) auch zu erreichen, kann Nachhaltigkeitsmanagement-Software die entscheidende Rolle spielen. Entsprechend sind Lösungen in diesem Bereich zunehmend gefragt, wie Amy Cravens, Research Manager bei den Marktforschern von IDC, bestätigt: “ESG ist für viele Unternehmen noch neu. Sie müssen erst noch verstehen, was sie genau tun müssen und wie sie das angehen sollen. Software in Verbindung mit Serviceangeboten kann Unternehmen dabei unterstützen, ihr ESG-Reporting zu bewältigen.”

Im Folgenden lesen Sie, was Software für das Nachhaltigkeitsmanagement leisten sollte, welche Fallstricke Sie vermeiden sollten und welche Lösungen sich in diesem noch jungen Bereich empfehlen.

Was ESG-Software leisten sollte

Sustainability-Management-Softwarelösungen sollten allgemein gesprochen folgende Funktionen mitbringen:

Umwelt-Compliance: Diese Funktion überwacht die “Environmental Performance” eines Unternehmens, indem sie die entsprechenden Erfordernisse trackt, managt und die Ergebnisse in Reportings gießt.

Soziale Compliance: Hilft Unternehmen zu verstehen, wie mit verschiedene Personengruppen (Kunden, Mitarbeiter, Lieferanten, etc.) umzugehen ist und wie sich geschäftliche Entscheidungen gesellschaftlich auswirken.

Governance Compliance: Unterstützt Firmen dabei, die Wirksamkeit ihrer Governance-Richtlinien zu bewerten und Compliance zu gewährleisten.

Energiemanagement: Datenanalyse-Tools können den Energieverbrauch überwachen und Bereiche beziehungsweise Muster und Trends identifizieren, die Raum für Optimierungen aufweisen.

Emissions-Monitoring: Diese Funktion hilft Unternehmen dabei, Umweltvorschriften einzuhalten und Möglichkeiten zu identifizieren, Emissionen zu reduzieren.

Reporting und Analytics: Daten aus einer Vielzahl von Quellen, zum Beispiel Wasser- oder Stromzähler und Abfallmanagementsysteme aber auch zu sozialen Faktoren, sollten in einer zentralen Datenbank zusammenlaufen. Das ermöglicht, Analysen zu fahren und in diesem Zuge Trends, Muster sowie Unregelmäßigkeiten aufzudecken.

Alerts: Tools für das Nachhaltigkeitsmanagement sollten Unternehmen erlauben, die Initiative zu ergreifen und potenzielle Umweltprobleme aktiv zu erkennen und anzugehen. Dazu werden Grenzwerte für Umweltfaktoren definiert, die von der Software überwacht werden. Bei Überschreitung dieser Werte wird eine Alarmmeldung ausgegeben.

Inspektionsmanagement: Unternehmen können Nachhaltigkeitsmanagement-Tools auch nutzen, um entsprechende Inspektionen für ihre Anlagen, Geräte und Einrichtungen zu organisieren und zu managen.

KPI-Monitoring: Auch bestimmte ökologische und soziale Ziele lassen sich in Sustainability-Management-Lösungen als Leistungsindikatoren festlegen und tracken. Die Fortschritte des Unternehmens lassen sich anhand entsprechender Reportings nachvollziehen.

4 Sustainability-Management-Fallstricke

Im Folgenden werfen wir einen Blick auf die vier häufigsten Fallstricke von Nachhaltigkeitsmanagement-Tools, die Unternehmen vermeiden sollten.

1. Tools, die nicht skalierbar sind

“Wir raten Endanwendern regelmäßig, auf Skalierbarkeit zu achten”, berichtet Gartner-Analyst Aapo Markkanen. “Diese Tools können sehr überzeugend erscheinen, wenn sie als Proof of Concept oder in einem Pilotprojekt eingesetzt werden. Eine solche Lösung allerdings auf globaler Ebene zu skalieren, um alle Unternehmensprozesse abzudecken, ist eine Herausforderung.”

2. ESG-Software steckt in den Kinderschuhen

“Die meisten Nachhaltigkeitsmanagement-Tools sind erst seit etwa zwei Jahren auf dem Markt”, unterstreicht IDC-Analystin Craven. Sie fügt hinzu: “Da sich viele Funktionen noch in der Entwicklung befinden, ist es aktuell wirklich schwierig zu sagen, welche Lösung die beste sein wird, wenn es um Langlebigkeit und die besten Funktionen geht.”

In der Konsequenz rät die Analystin Unternehmen, auf etablierte Anbieter mit Marktpräsenz zu setzen, die eine solide Finanzierung sowie einen guten Kunden- und Partnerstamm vorweisen können: “Identifizieren Sie Anbieter, die sich seit langem der Nachhaltigkeit verschreiben – etwa IBM oder SAP. Diese sind oft besonders engagiert.”

3. Falsche Prioritäten

ESG-Tools bieten eine Vielzahl von Funktionen – die Unternehmen auf der Grundlage ihrer Branche und ihrer aktuellen Situation evaluieren sollten, wie Abhijit Sunil, Senior Analyst bei Forrester, empfiehlt: “Einige Unternehmen verfügen beispielsweise über sehr fortschrittliche interne Sustainability-Teams und haben bereits Prozesse eingeführt, während andere noch gar nicht begonnen haben.”

Genauso wichtig sei es darüber hinaus, die Erfolgsbilanz des Anbieters für die jeweilige Branche zu ermitteln: “Wenn Sie in der Automobilindustrie tätig sind, sollten Sie herausfinden, ob das betreffende Tool in dieser Branche gute Benchmarks aufweisen kann.”

4. Kein Weitblick

Weil sich Vorschriften, Regularien und Rahmenbedingungen kontinuierlich verändern, ist es für Unternehmen essenziell, Nachhaltigkeitsmanagement-Tools zu wählen, die entsprechende Flexibilität ermöglichen.

6 Lösungen fürs Nachhaltigkeitsmanagement

Auf dem Markt gibt es zahlreiche Plattformen und Lösungen für das Nachhaltigkeitsmanagement. Um Ihnen die Recherche zu erleichtern, haben wir die folgenden sechs Produkte und Plattformen auf der Grundlage unserer Gespräche mit Analysten und unabhängigen Studien ausgewählt.

IBM Envizi ESG Suite

Die ESG-Suite von Big Blue wird als Software-as-a-Service (SaaS)-Kollektion angeboten, bestehend aus neun modularen Daten- und Analyseprodukten. Die Nachhaltigkeitsmanagement-Lösung unterstützt Anwender dabei, ESG-Daten zu Energieverbrauch und Emissionen zu erfassen, zu tracken und zu reporten.

Dazu konsolidiert die Lösung mehr als 500 ESG-Datenquellen in einem System, um den Anwendern zu erleichtern, die Informationen zu erfassen, zu managen und auszuwerten. Die ESG-Suite ist mit IBMs Application Resource Management, Facility Management und Enterprise Asset Management Tools integrierbar und eignet sich in erster Linie für IBM-Kunden und Unternehmen mit ausgereiften Sustainability-Programmen.

Microsoft Cloud for Sustainability

Mit automatisierten Datenverbindungen und “actionable” Insights möchte Microsoft Unternehmen dabei unterstützen, die Umweltauswirkungen ihrer betreiblichen Systeme und Prozesse in Echtzeit zu erfassen, zu reporten und effektiv zu reduzieren. Dazu kombiniert die Lösung zahlreiche ESG-Funktionalitäten aus dem gesamten Cloud-Portfolio der Redmonder sowie ihren Partnern.

Mit Hilfe der Microsoft Cloud for Sustainability API können Anwender beispielsweise ermitteln, welche Emissionswerte die Nutzung von Microsoft-365-Services (Outlook, SharePoint, Teams, Excel und so weiter) im Rechenzentrum verursacht.

Persefoni

Laut Hersteller handelt es sich bei dieser Lösung um eine “Klimamanagement-Plattform”. Diese wartet mit einer einheitlichen “Emissionsbuchhaltung” auf und ermöglicht Unternehmen, ihre CO2-freie Zukunft zu planen. Die Plattform ist insbesondere auf eine simple Bedienung ausgelegt und ermöglicht den Anwendern, ihre Emissionen über sämtliche Geschäftsbereiche und -prozesse hinweg zu tracken und zu messen. Mit dem “Net Zero Navigator” des Anbieters können Unternehmen eigene, auf ihre jeweiligen Bedürfnisse zugeschnittene Dekarbonisierungsstrategien entwickeln.

Die Nachhaltigkeitsmanagement-Lösung von Persefoni eignet sich am ehesten für große, multinational agierende Unternehmen, Asset Manager und Finanzinstitutionen, die eine automatisierte Treibhausgasbilanzierung und Finanzberichterstattung benötigen.

Salesforce Net Zero Cloud

Die Sustainability-Management-Lösung von Salesforce fußt auf der Lightning-Plattform des Anbieters und ermöglicht Anwendern, ihren Environmental Impact zu managen und zu tracken. Zum Lösungspaket gehören zahlreiche Tools und Ressourcen, um Energieverbrauch, Emissionswerte und Abfallproduktion zu messen beziehungsweise zu reduzieren.

Die Salesforce-Lösung integriert Daten aus verschiedenen Quellen, automatisiert Workflows und bietet Reportings inklusive wichtiger Nachhaltigkeitskennzahlen. Sie eignet sich am besten für Unternehmen, die auf absehbare Zeit auf Zero Emission umstellen möchten.

SAP Cloud for Sustainable Enterprises

Auch SAP unterstützt Unternehmen dabei, ihren CO2-Verbrauch zu managen, Abfälle zu reduzieren und ihrer sozialen Verantwortung gerecht zu werden. Dazu bieten die Walldorfer eine Sammlung cloudbasierter Software, inklusive ESG- und Nachhaltigkeits-Reporting-Tools. Das soll den Anwendern ermöglichen, ihre Finanz-, Sozial- und Umweltdaten miteinander zu verknüpfen, um bessere Geschäftsentscheidungen treffen zu können.

Der SAP Sustainability Control Tower soll Unternehmen darüber hinaus dabei unterstützen, noch nicht erreichte Nachhaltigkeitsziele zu identifizieren, zu analysieren und entsprechende Maßnahmen zu ergreifen, um das zu ändern. Mit SAP Sustainability Footprint Management können die Anwender zudem ihren CO2-Fußabdruck auf Produkt- und Unternehmensebene evaluieren.

Wolters Kluwer Enablon ESG

Die Lösung von Wolters Kluwer enthält Tools für Nachhaltigkeits- und ESG-Reportings sowie Anwendungen, mit denen Unternehmen Treibhausgasemissionen, Nachhaltigkeitsleistungen und Stakeholder-Beziehungen managen können. Der Anbieter verspricht seinen Kunden, ihre ESG-Daten aus unternehmensweiten Quellen zu zentralisieren und zu validieren, was den Zeitaufwand für die Datenerfassung reduzieren und die Berichterstattung vereinfachen soll.

Diese Nachhaltigkeitsmanagement-Lösung eignet sich in besonderem Maße für Anwender aus den Bereichen Biowissenschaften, Energiewirtschaft, Fertigung und anderen Sektoren, die Umwelt- und Gesundheitsdaten benötigen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nachhaltigkeitsmanagement: 6 Tools, um ESG-Ziele zu erreichen​ Weiterlesen »

Bewerber betrügen zunehmend mit KI​

Allgemein

Wenn die KI nicht-existente Skills vortäuscht, wird’s teuer – im Regelfall für die einstellenden Unternehmen.FAMILY STOCK | shutterstock.com Generative AI (GenAI) wird nicht nur von kriminellen Hackern missbraucht. Auch Jobsuchende mit unlauteren Absichten machen sich Tools wie ChatGPT zunehmend zu Nutze – etwa, um Teile ihres Lebenslaufs oder Anschreibens zu fälschen oder gleich ihre komplette Identität. Alternative Skill-Fakten Das beobachtet zumindest Joel Wolfe, President des im US-Bundesstaat Kalifornien ansässigen Outsourcing-Spezialisten HiredSupport. Das Unternehmen betreut weltweit mehr als 100 Kunden aus verschiedenen Branchen – etwa dem E-Commerce-, Healthcare- und Finanzdienstleistungssektor. Dass Bewerber mit KI betrügen, ist dem Manager zufolge zwar mit Blick auf alle Funktionen und Positionen verbreitet – besonders ausgeprägt sei diese Masche aber, wenn es um Tech- und speziell Entwickler-Jobs gehe. „Im Regelfall ist das ganz deutlich an der Satzstruktur sowie dem übermäßigen Gebrauch von Buzzwords abzulesen“, erklärt Wolfe. Das kann auch Cliff Jurkiewicz, Vice President of Global Strategy beim HR-Softwareanbieter Phenom, bestätigen: „Wir beobachten schon seit einiger Zeit einen Anstieg der Betrugsfälle bei Bewerbungen und Vorstellungsgesprächen. In jüngster Zeit häufen sich diese Fälle jedoch enorm“. Laut dem Manager greifen Bewerber inzwischen auch für Video-Interviews auf KI-Tools zurück – entweder, um mit deren Hilfe die gestellten Fragen beantworten zu können oder um heimlich jemanden ins Vorstellungsgespräch zu schleusen, der tatsächlich qualifiziert ist. „Das spielt sich weltweit und branchenübergreifend ab“, konstatiert Jurkiewicz. „Unsere Kunden berichten davon, dass inzwischen zehn bis 30 Prozent aller Vorstellungsgespräche in gewissem Umfang von Betrug betroffen sind – ganz besonders betroffen sind davon Jobs in Bereichen wie dem Engineering.“ Die Beobachtungen der Experten decken sich mit aktuellen Studienerkenntnissen. In einer Umfrage des Bewerbungsdienstleisters Resume Builder geben etwa 45 Prozent der Befragten zu, ihre Kompetenzen im Rahmen eines Einstellungsprozesses mit KI übertrieben ausgeschmückt zu haben. Im Allgemeinen haben Arbeitgeber jedoch kein Problem damit, dass Bewerber KI-Tools einsetzen, um ihren Lebenslauf zu schreiben. Zumindest, solange dieser die Qualifikationen und Erfahrungen des jeweiligen Bewerbers korrekt wiedergibt. So kommt der Onlinestellenmarkt ZipRecruiter in seinem „2024 Employer Report“ zum Ergebnis, dass 67 Prozent der befragten Arbeitgeber offen sind für KI-gestützte Lebensläufe und Anschreiben. Fake-Bewerber, die mit KI ganze Lebensläufe oder Identitäten fälschen, entwickeln sich für Unternehmen jedoch zunehmend zu einer Bedrohung – nicht nur in finanzieller Hinsicht. So könnten die falschen Bewerber ihre neue Stelle zum Beispiel auch dazu nutzen, Daten zu stehlen oder Mal-, respektive Ransomware in Unternehmensnetzwerke einzuschleusen – Stichwort Nordkorea. Angesichts des wachsenden Trends mit KI bei Bewerbungen zu betrügen, gehen die Analysten von Gartner inzwischen davon aus, dass bis 2028 jeder vierte Bewerber weltweit ein Fake sein könnte. „Ich gehe davon aus, dass die Mehrheit der Bewerber ihre Bewerbungen mittlerweile mit KI ergänzt“, meint Emi Chiba, HR-Chefanalystin bei Gartner. Sie fügt hinzu: “In meinen Gesprächen mit Unternehmen wird mir oft davon berichtet, dass Bewerber KI in Vorstellungsgesprächen oder Assessments einsetzen – zum Beispiel, indem KI-generierte Antworten vorgetragen werden oder als Vorlage für die eigenen Antworten dienen.” Diese Erfahrung musste auch Phenom-Manager Jurkiewicz machen: “Wir haben jemanden in Texas eingestellt, der dann heimlich einen Teil seiner Arbeit ins Ausland ausgelagert hat – für einen Bruchteil seines Gehalts“. Diese Betrugsmasche habe der Fake-Mitarbeiter parallel bei vier Arbeitgebern abgezogen und so ein Jahresgehalt zwischen 300.000 und 500.000 Dollar eingestrichen – „fast ohne selbst einen Handstrich zu tun“, so Jurkiewicz. Um dieser Art von Betrug einen Riegel vorzuschieben, appelliert der Manager für bessere technologische Lösungen – zum Beispiel auf Basis von generativer KI. Die Folgen des KI-Betrugstrends Die wachsende Flut der mit Hilfe von KI gefälschten Bewerbungen (und Bewerber) könnte langfristig dazu führen, dass die Chancen realer Job-Aspiranten geschmälert werden. Schließlich sind Qualifikationen in vielen Fällen (job)entscheidend. Zwar werden Bewerber mit Fake-Qualifikationen früher oder später entdeckt. Aber bis es soweit ist, haben sie erst einmal leichtes Spiel, wie Jurkiewicz unterstreicht: „Für diese Fake-Bewerber ist es ein reines Zahlenspiel: Sie reichen Hunderte von Bewerbungen ein, in der Hoffnung, dass ein paar durchrutschen. Wenn ihnen das gelingt, reichen bereits kleine Erfolge, um das System in großem Stil auszunutzen. Nach drei, vier oder sechs Monaten verlassen die falschen Mitarbeiter das Unternehmen dann mit ihrem ‚verdienten‘ Lohn und suchen sich ein neues Arbeitgeber-Opfer.“ Die finanziellen Auswirkungen für Unternehmen, die auf diese Masche hereinfallen, können beträchtlich sein. So kommt das US-Arbeitsministerium in einer Berechnung zum Ergebnis, dass die Fehlbesetzung einer Stelle bis zu 30 Prozent des dafür veranschlagten Jahresgehalts kosten kann. HR-Spezialisten gehen hingegen davon aus, dass ein einzelner Fake-Mitarbeiter Kosten zwischen 240.000 und 850.000 Dollar verursacht. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Bewerber betrügen zunehmend mit KI​ Wenn die KI nicht-existente Skills vortäuscht, wird’s teuer – im Regelfall für die einstellenden Unternehmen.FAMILY STOCK | shutterstock.com

Generative AI (GenAI) wird nicht nur von kriminellen Hackern missbraucht. Auch Jobsuchende mit unlauteren Absichten machen sich Tools wie ChatGPT zunehmend zu Nutze – etwa, um Teile ihres Lebenslaufs oder Anschreibens zu fälschen oder gleich ihre komplette Identität.

Alternative Skill-Fakten

Das beobachtet zumindest Joel Wolfe, President des im US-Bundesstaat Kalifornien ansässigen Outsourcing-Spezialisten HiredSupport. Das Unternehmen betreut weltweit mehr als 100 Kunden aus verschiedenen Branchen – etwa dem E-Commerce-, Healthcare- und Finanzdienstleistungssektor. Dass Bewerber mit KI betrügen, ist dem Manager zufolge zwar mit Blick auf alle Funktionen und Positionen verbreitet – besonders ausgeprägt sei diese Masche aber, wenn es um Tech- und speziell Entwickler-Jobs gehe. „Im Regelfall ist das ganz deutlich an der Satzstruktur sowie dem übermäßigen Gebrauch von Buzzwords abzulesen“, erklärt Wolfe.

Das kann auch Cliff Jurkiewicz, Vice President of Global Strategy beim HR-Softwareanbieter Phenom, bestätigen: „Wir beobachten schon seit einiger Zeit einen Anstieg der Betrugsfälle bei Bewerbungen und Vorstellungsgesprächen. In jüngster Zeit häufen sich diese Fälle jedoch enorm“. Laut dem Manager greifen Bewerber inzwischen auch für Video-Interviews auf KI-Tools zurück – entweder, um mit deren Hilfe die gestellten Fragen beantworten zu können oder um heimlich jemanden ins Vorstellungsgespräch zu schleusen, der tatsächlich qualifiziert ist. „Das spielt sich weltweit und branchenübergreifend ab“, konstatiert Jurkiewicz. „Unsere Kunden berichten davon, dass inzwischen zehn bis 30 Prozent aller Vorstellungsgespräche in gewissem Umfang von Betrug betroffen sind – ganz besonders betroffen sind davon Jobs in Bereichen wie dem Engineering.“

Die Beobachtungen der Experten decken sich mit aktuellen Studienerkenntnissen. In einer Umfrage des Bewerbungsdienstleisters Resume Builder geben etwa 45 Prozent der Befragten zu, ihre Kompetenzen im Rahmen eines Einstellungsprozesses mit KI übertrieben ausgeschmückt zu haben. Im Allgemeinen haben Arbeitgeber jedoch kein Problem damit, dass Bewerber KI-Tools einsetzen, um ihren Lebenslauf zu schreiben. Zumindest, solange dieser die Qualifikationen und Erfahrungen des jeweiligen Bewerbers korrekt wiedergibt. So kommt der Onlinestellenmarkt ZipRecruiter in seinem „2024 Employer Report“ zum Ergebnis, dass 67 Prozent der befragten Arbeitgeber offen sind für KI-gestützte Lebensläufe und Anschreiben.

Fake-Bewerber, die mit KI ganze Lebensläufe oder Identitäten fälschen, entwickeln sich für Unternehmen jedoch zunehmend zu einer Bedrohung – nicht nur in finanzieller Hinsicht. So könnten die falschen Bewerber ihre neue Stelle zum Beispiel auch dazu nutzen, Daten zu stehlen oder Mal-, respektive Ransomware in Unternehmensnetzwerke einzuschleusen – Stichwort Nordkorea.

Angesichts des wachsenden Trends mit KI bei Bewerbungen zu betrügen, gehen die Analysten von Gartner inzwischen davon aus, dass bis 2028 jeder vierte Bewerber weltweit ein Fake sein könnte. „Ich gehe davon aus, dass die Mehrheit der Bewerber ihre Bewerbungen mittlerweile mit KI ergänzt“, meint Emi Chiba, HR-Chefanalystin bei Gartner. Sie fügt hinzu: “In meinen Gesprächen mit Unternehmen wird mir oft davon berichtet, dass Bewerber KI in Vorstellungsgesprächen oder Assessments einsetzen – zum Beispiel, indem KI-generierte Antworten vorgetragen werden oder als Vorlage für die eigenen Antworten dienen.”

Diese Erfahrung musste auch Phenom-Manager Jurkiewicz machen: “Wir haben jemanden in Texas eingestellt, der dann heimlich einen Teil seiner Arbeit ins Ausland ausgelagert hat – für einen Bruchteil seines Gehalts“. Diese Betrugsmasche habe der Fake-Mitarbeiter parallel bei vier Arbeitgebern abgezogen und so ein Jahresgehalt zwischen 300.000 und 500.000 Dollar eingestrichen – „fast ohne selbst einen Handstrich zu tun“, so Jurkiewicz. Um dieser Art von Betrug einen Riegel vorzuschieben, appelliert der Manager für bessere technologische Lösungen – zum Beispiel auf Basis von generativer KI.

Die Folgen des KI-Betrugstrends

Die wachsende Flut der mit Hilfe von KI gefälschten Bewerbungen (und Bewerber) könnte langfristig dazu führen, dass die Chancen realer Job-Aspiranten geschmälert werden. Schließlich sind Qualifikationen in vielen Fällen (job)entscheidend. Zwar werden Bewerber mit Fake-Qualifikationen früher oder später entdeckt. Aber bis es soweit ist, haben sie erst einmal leichtes Spiel, wie Jurkiewicz unterstreicht: „Für diese Fake-Bewerber ist es ein reines Zahlenspiel: Sie reichen Hunderte von Bewerbungen ein, in der Hoffnung, dass ein paar durchrutschen. Wenn ihnen das gelingt, reichen bereits kleine Erfolge, um das System in großem Stil auszunutzen. Nach drei, vier oder sechs Monaten verlassen die falschen Mitarbeiter das Unternehmen dann mit ihrem ‚verdienten‘ Lohn und suchen sich ein neues Arbeitgeber-Opfer.“

Die finanziellen Auswirkungen für Unternehmen, die auf diese Masche hereinfallen, können beträchtlich sein. So kommt das US-Arbeitsministerium in einer Berechnung zum Ergebnis, dass die Fehlbesetzung einer Stelle bis zu 30 Prozent des dafür veranschlagten Jahresgehalts kosten kann. HR-Spezialisten gehen hingegen davon aus, dass ein einzelner Fake-Mitarbeiter Kosten zwischen 240.000 und 850.000 Dollar verursacht. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Bewerber betrügen zunehmend mit KI​ Weiterlesen »

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?quality=50&strip=all 2761w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lenovo schlägt bei der Nutzung von KI auf seinen PCs einen eigenen Weg ein. JHVEPhoto / Shutterstock Während PC-Anbieter weiterhin zahlreiche Varianten von KI-PCs auf den Markt bringen, haben sich Microsoft Copilot und Copilot+ PCs bislang als wenig relevant für Unternehmen erwiesen. Der Grund: Es fehlen schlicht überzeugende Use Cases, die die Anschaffung rechtfertigen. Lenovo möchte das nun mit seinem eigenen KI-Assistenten AI Now ändern.  Kleines Modell, große Wirkung   Lenovo AI Now ist ein kleines Sprachmodell (Small Language Model – SLM), das auf Llama 3.0 von Meta basiert und sich auf eine begrenzte Anzahl von Aufgaben fokussiert, etwa Dokumente zu organisieren und Devices zu managen. Die Verarbeitung erfolgt lokal auf dem Gerät, so dass sich Anwender keine Sorgen um die Weitergabe ihrer Daten an Dritte machen müssen. Außerdem können Aufgaben wie das Zusammenfassen von Dokumenten sogar im Flugzeug ohne Internetverbindung erledigt werden.  Die Inspiration für AI Now kommt aus der eher bescheidenen Erfolgsgeschichte von Copilot als PC-Assistent. „Als Microsoft Copilot im Juni letzten Jahres eingeführt hat, waren die Versprechungen groß – und anschließend mussten sie einen Rückzieher machen“, erklärt Tom Butler, Executive Director of Commercial Portfolio and Product Management bei Lenovo. „Ich glaube, es wird noch einige Zeit dauern, bis wir eine breite Einführung sehen werden, insbesondere für Funktionen wie Recall, die Microsoft gezeigt und dann wieder zurückgezogen hat.“  „Für AI Now haben wir ein sehr fokussiertes lokales Modell verwendet. Wir wollen nicht in die Cloud. Wir demonstrieren eigentlich nur zwei Dinge. Das eine ist der Wissensassistent, der Ihre persönliche Wissensdatenbank nutzt; Sie legen bestimmte Dateien und Dokumente in dieser Wissensdatenbank ab. Dann können Sie Abfragen, Vergleiche und Zusammenfassungen durchführen und nur diese Dokumente bearbeiten“, so Butler.  „Der andere Aspekt ist ein PC-Assistent, der auf Sprachbefehle reagieren kann, etwa, um die PC-Einstellungen zu ändern, beispielsweise mit dem Befehl ‘Dark Mode einschalten‘.“  Herausforderungen mit Copilot+ PCs  Datenschutzprobleme im Zusammenhang mit Microsoft Recall, das als einer der wichtigsten Anwendungsfälle für Microsoft Copilot+ PCs beworben wurde, hätten die Positionierung von Microsoft beeinträchtigt, erklärt Udit Singh, Vice President der Everest Group.  „Insofern ist der Business Case für Microsoft Copilot+ derzeit schwach. Allerdings ist das für Microsoft nicht ungewöhnlich. Das Unternehmen beginnt oft mit einem vagen Business Caseund baut das Angebot dann schrittweise aus.“  Auch andere Experten tun sich schwer damit, einen triftigen Grund für Unternehmen zu erkennen, in KI-PCs zu investieren. „Zum jetzigen Zeitpunkt bieten KI-PCs keinen ausreichenden Mehrwert, um große Investitionen zu rechtfertigen“, führt Eric Helmer, CTO bei Rimini Street, an. Das gelte insbesondere für Unternehmen, die bereits über KI-Fähigkeiten in Cloud- oder Rechenzentrumsumgebungen verfügten. Viele KI-Workloads könnten schon heute effektiv verwaltet werden, ohne dass auf jedem Mitarbeitergerät eine dedizierte Neural Processing Unit (NPU) erforderlich sei, so Helmer.  Da viele Unternehmen bei den IT-Ausgaben ohnehin bereits zurückhaltend agierten, hätten Initiativen, die einen sofortigen und messbaren ROI bieten, weiterhin Priorität. Heute in KI-PCs zu investieren, könnte bedeuten, einen Aufpreis für Funktionen zu zahlen, die bald durch Standard-Hardware- und Software-Fortschritte verfügbar sein könnten, betont Helmer. „Anstatt auf von Anbietern vorangetriebene Zyklen zu reagieren, sollten CIOs prüfen, ob KI-PCs mit ihren umfassenderen IT-Modernisierungsstrategien übereinstimmen und ob die Investition angesichts der spezifischen Anforderungen ihres Unternehmens sinnvoll ist.“  Himani Reddy, PC-Research-Manager bei Canalys, sieht PC-Anbieter wie Lenovo mit der Entwicklung von On-Device-AI-Lösungen auf dem richtigen Weg. „Dieser Ansatz adressiert das wichtigste Anliegen von Unternehmen: den Datenschutz“, argumentiert Reddy. „Derzeit gibt es auf dem Markt nur begrenzte Optionen, und Verbraucher müssen sich entweder für die verfügbaren Lösungen entscheiden oder auf zukünftige Entwicklungen warten.“   Wenn Anbieter keine eigene KI für PCs entwickeln, wie beispielsweise Lenovo mit „AI Now“ und HP mit „AI Companion“, seien Copilot+ PCs trotz Datenschutzbedenken die erste Wahl, räumt sie ein. Obwohl Copilot mit Datenschutzbedenken behaftet sei, bleibe es eine sicherere Option als öffentlich verfügbare generative KI-Modelle, bei deren Einführung Unternehmen möglicherweise zögerten.  Umstieg auf agentenbasierte KI  Lenovo will sich allerdings nicht nur mit einem lokalen KI-Assistenten zufriedengeben, sondern daraus eine Plattform entwickeln, über die Unternehmen künftig zwischen verschiedenen LLMs (Large Language Models) und Agentic-AI-Angeboten von Anbietern wie OpenAI, Meta oder DeepSeek wählen können.   „Bei unserer Vision als Unternehmen haben wir zwei Leitsätze. Der erste lautet: Smartere KI für alle – und das zu jedem Preisniveau“, so Butler. Das andere Ziel von Lenovo ist es laut Butler, den PC zum digitalen Zwilling des Benutzers zu machen. „Wenn jedes dieser Geräte unsere individuelle Stimme, unseren digitalen Zwilling repräsentiert, und ich AI Now sagen kann: ‚Plane meinen Flug in die USA‘, und das System erledigt das einfach – dann ist das eine enorme Zeitersparnis“, so der Lenovo-Manager.  Um diesen digitalen Zwilling zu erschaffen, will Lenovo auf Agentic AI setzen. Mit dieser Technologie soll AI Now von einem bloßen persönlichen Assistenten zu einem digitalen Zwilling werden, der das Maximum aus der Hardware herausholt.  Um weitere LLMs und AI Agents zu integrieren und diese Vision Wirklichkeit werden zu lassen, arbeitet Lenovo mit mehreren Softwareanbietern zusammen. (mb) 

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?quality=50&strip=all 2761w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1108966937.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lenovo schlägt bei der Nutzung von KI auf seinen PCs einen eigenen Weg ein. JHVEPhoto / Shutterstock

Während PC-Anbieter weiterhin zahlreiche Varianten von KI-PCs auf den Markt bringen, haben sich Microsoft Copilot und Copilot+ PCs bislang als wenig relevant für Unternehmen erwiesen. Der Grund: Es fehlen schlicht überzeugende Use Cases, die die Anschaffung rechtfertigen. Lenovo möchte das nun mit seinem eigenen KI-Assistenten AI Now ändern. 

Kleines Modell, große Wirkung  

Lenovo AI Now ist ein kleines Sprachmodell (Small Language Model – SLM), das auf Llama 3.0 von Meta basiert und sich auf eine begrenzte Anzahl von Aufgaben fokussiert, etwa Dokumente zu organisieren und Devices zu managen. Die Verarbeitung erfolgt lokal auf dem Gerät, so dass sich Anwender keine Sorgen um die Weitergabe ihrer Daten an Dritte machen müssen. Außerdem können Aufgaben wie das Zusammenfassen von Dokumenten sogar im Flugzeug ohne Internetverbindung erledigt werden. 

Die Inspiration für AI Now kommt aus der eher bescheidenen Erfolgsgeschichte von Copilot als PC-Assistent. „Als Microsoft Copilot im Juni letzten Jahres eingeführt hat, waren die Versprechungen groß – und anschließend mussten sie einen Rückzieher machen“, erklärt Tom Butler, Executive Director of Commercial Portfolio and Product Management bei Lenovo. „Ich glaube, es wird noch einige Zeit dauern, bis wir eine breite Einführung sehen werden, insbesondere für Funktionen wie Recall, die Microsoft gezeigt und dann wieder zurückgezogen hat.“ 

„Für AI Now haben wir ein sehr fokussiertes lokales Modell verwendet. Wir wollen nicht in die Cloud. Wir demonstrieren eigentlich nur zwei Dinge. Das eine ist der Wissensassistent, der Ihre persönliche Wissensdatenbank nutzt; Sie legen bestimmte Dateien und Dokumente in dieser Wissensdatenbank ab. Dann können Sie Abfragen, Vergleiche und Zusammenfassungen durchführen und nur diese Dokumente bearbeiten“, so Butler. 

„Der andere Aspekt ist ein PC-Assistent, der auf Sprachbefehle reagieren kann, etwa, um die PC-Einstellungen zu ändern, beispielsweise mit dem Befehl ‘Dark Mode einschalten‘.“ 

Herausforderungen mit Copilot+ PCs 

Datenschutzprobleme im Zusammenhang mit Microsoft Recall, das als einer der wichtigsten Anwendungsfälle für Microsoft Copilot+ PCs beworben wurde, hätten die Positionierung von Microsoft beeinträchtigt, erklärt Udit Singh, Vice President der Everest Group. 

„Insofern ist der Business Case für Microsoft Copilot+ derzeit schwach. Allerdings ist das für Microsoft nicht ungewöhnlich. Das Unternehmen beginnt oft mit einem vagen Business Caseund baut das Angebot dann schrittweise aus.“ 

Auch andere Experten tun sich schwer damit, einen triftigen Grund für Unternehmen zu erkennen, in KI-PCs zu investieren. „Zum jetzigen Zeitpunkt bieten KI-PCs keinen ausreichenden Mehrwert, um große Investitionen zu rechtfertigen“, führt Eric Helmer, CTO bei Rimini Street, an. Das gelte insbesondere für Unternehmen, die bereits über KI-Fähigkeiten in Cloud- oder Rechenzentrumsumgebungen verfügten. Viele KI-Workloads könnten schon heute effektiv verwaltet werden, ohne dass auf jedem Mitarbeitergerät eine dedizierte Neural Processing Unit (NPU) erforderlich sei, so Helmer. 

Da viele Unternehmen bei den IT-Ausgaben ohnehin bereits zurückhaltend agierten, hätten Initiativen, die einen sofortigen und messbaren ROI bieten, weiterhin Priorität. Heute in KI-PCs zu investieren, könnte bedeuten, einen Aufpreis für Funktionen zu zahlen, die bald durch Standard-Hardware- und Software-Fortschritte verfügbar sein könnten, betont Helmer. „Anstatt auf von Anbietern vorangetriebene Zyklen zu reagieren, sollten CIOs prüfen, ob KI-PCs mit ihren umfassenderen IT-Modernisierungsstrategien übereinstimmen und ob die Investition angesichts der spezifischen Anforderungen ihres Unternehmens sinnvoll ist.“ 

Himani Reddy, PC-Research-Manager bei Canalys, sieht PC-Anbieter wie Lenovo mit der Entwicklung von On-Device-AI-Lösungen auf dem richtigen Weg. „Dieser Ansatz adressiert das wichtigste Anliegen von Unternehmen: den Datenschutz“, argumentiert Reddy. „Derzeit gibt es auf dem Markt nur begrenzte Optionen, und Verbraucher müssen sich entweder für die verfügbaren Lösungen entscheiden oder auf zukünftige Entwicklungen warten.“  

Wenn Anbieter keine eigene KI für PCs entwickeln, wie beispielsweise Lenovo mit „AI Now“ und HP mit „AI Companion“, seien Copilot+ PCs trotz Datenschutzbedenken die erste Wahl, räumt sie ein. Obwohl Copilot mit Datenschutzbedenken behaftet sei, bleibe es eine sicherere Option als öffentlich verfügbare generative KI-Modelle, bei deren Einführung Unternehmen möglicherweise zögerten. 

Umstieg auf agentenbasierte KI 

Lenovo will sich allerdings nicht nur mit einem lokalen KI-Assistenten zufriedengeben, sondern daraus eine Plattform entwickeln, über die Unternehmen künftig zwischen verschiedenen LLMs (Large Language Models) und Agentic-AI-Angeboten von Anbietern wie OpenAI, Meta oder DeepSeek wählen können.  

„Bei unserer Vision als Unternehmen haben wir zwei Leitsätze. Der erste lautet: Smartere KI für alle – und das zu jedem Preisniveau“, so Butler. Das andere Ziel von Lenovo ist es laut Butler, den PC zum digitalen Zwilling des Benutzers zu machen. „Wenn jedes dieser Geräte unsere individuelle Stimme, unseren digitalen Zwilling repräsentiert, und ich AI Now sagen kann: ‚Plane meinen Flug in die USA‘, und das System erledigt das einfach – dann ist das eine enorme Zeitersparnis“, so der Lenovo-Manager. 

Um diesen digitalen Zwilling zu erschaffen, will Lenovo auf Agentic AI setzen. Mit dieser Technologie soll AI Now von einem bloßen persönlichen Assistenten zu einem digitalen Zwilling werden, der das Maximum aus der Hardware herausholt. 

Um weitere LLMs und AI Agents zu integrieren und diese Vision Wirklichkeit werden zu lassen, arbeitet Lenovo mit mehreren Softwareanbietern zusammen. (mb)

Wie Lenovo versucht, KI-PCs für CIOs relevant zu machen​ Weiterlesen »

Suchmaschinen: Die besten Google-Alternativen​

Allgemein

Suchmaschinen im Überblick: Die besten Alternativen zu Google. Foto: Semisatch – shutterstock.com Die meisten Anwender nutzen die Google-Suchmaschine, um im Internet zu recherchieren. Weltweit bringt es Google auf einen Suchmaschinen-Marktanteil von knapp 80 Prozent (Stand März 2025). Die restlichen 20 Prozent teilen sich auf die Konkurrenten auf. Dazu gehören neben Bing, Yahoo und Yandex (jeweils um die zwei Prozent) auch kleinere Suchmaschinen, die oft aber auch sinnvoll sind: Google zeigt einerseits nicht alle Ergebnisse an, andererseits kann das Surfverhalten hier deutlich leichter nachverfolgt werden. Mit Alternativen lassen sich teilweise verschiedene Ergebnisse zu Suchanfragen finden. Außerdem können Alternativen oft besseren Datenschutz gewährleisten. Dazu kommen spezielle Suchmaschinen, die keine Benutzerdaten speichern, oder mehrere andere Suchmaschinen nutzen. Bing Microsoft Bing ist der größte Konkurrent von Google, hat allerdings deutlich weniger Marktanteil. Microsoft bindet Bing vor allem in Windows ein. Bing ist generell so aufgebaut wie Google und hat seine Vorteile – vor allem bei der Suche nach Videos und Bildern. Hier lohnt es sich, parallel zu Google auf Bing zu setzen. Bing ist die Microsoft-Antwort auf Google. Foto: Bing DuckDuckGo Bei DuckDuckGo handelt es sich wie bei Google um eine amerikanische Suchmaschine, die allerdings sehr hohen Wert auf Datenschutz legt. Auch hier werden andere Suchmaschinen eingebunden, um passende Ergebnisse zu finden. DuckDuckGo ist in vielen Browsern als Suchmaschine hinterlegt, und kann als Standardsuche verwendet werden. DuckDuckGo und andere Suchmaschinen sind auch in Browsern hinterlegt. Foto: Thomas Joos Weitere Google-Alternativen – Yahoo, Lycos und Co. Für eine gründliche Recherche im Internet sollten Sie immer mehrere Suchmaschinen einsetzen, da Sie unterschiedliche Ergebnisse erhalten. Anbei einige interessante Suchmaschinen: Yahoo.de – Internet-Urgestein, vor allem im Bereich Finanzen stark Lycos.de – eine weitere deutschsprachige Suchmaschine Fastbot.de – sehr schnelle und einfache Suchmaschine mit Anonymisierungs-Option Fireball.com – deutschsprachige, anonyme Suchmaschine Seekport.com– schnelle und einfache Suchmaschine Metager – Metasuchmaschinen nutzen Eine andere Art Suchmaschinen sind ” Metasuchmaschinen”. Normale Suchmaschinen wie Google können angesichts der Milliarden Internetseiten nicht das gesamte Internet durchsuchen. Viele Spezialisten sagen, dass selbst Google nur maximal 20 Prozent des ganzen Internets durchsucht. Wahrscheinlich sind es nicht einmal 5 Prozent. Wenn Sie möglichst viele Informationen aus dem Internet zu einem bestimmten Thema finden wollen, können Metasuchmaschinen eine enorme Hilfe sein. Diese Suchmaschinen verwenden keinen eigenen Algorithmus, um das Internet zu durchsuchen, sondern geben die Suchbegriffe an eine gewisse Anzahl weiterer Suchmaschinen weiter. MetaGer gehört zu den beliebtesten deutschen Metasuchmaschinen. Foto: MetaGer Die Metasuchmaschine entfernt gefundene doppelte Suchergebnisse und sortiert die Ergebnisse der einzelnen Suchmaschinen in einem eigenen Ranking. Die Suchergebnisse werden genauso angeordnet wie bei normalen Suchmaschinen. Allerdings dauert die Suche in Metasuchmaschinen teilweise etwas länger, da die Seite auf das Ergebnis sämtlicher Suchmaschinen warten muss. Die beliebteste deutsche Metasuchmaschine – Metager – wird von der Universität Hannover betrieben. Sie ist nicht nur die beliebteste deutsche Metasuchmaschine, sondern auch die älteste und ausgereifteste. Die Entwickler von MetaGer verbessern die Suchmaschine ständig weiter. Sie können mit MetaGer in Forschungsberichten suchen. Auf den Seiten der Entwickler können Sie darüber hinaus viel über die Entwicklung von Suchmaschinen erfahren. Vor allem wissenschaftlich interessierte Internetbenutzer können mit MetaGer viele interessante Informationen finden. Außer MetaGer gibt es noch andere deutschsprachige Metasuchmaschinen. Zum Beispiel: Etools.ch oder Websuche.de Ecosia Die Suchmaschine Ecosia ist ökologisch insipiriert. Die deutsche Suchmaschine spendet einen Großteil ihrer Einnahme an Naturschutzorganisationen. Im Fokus steht seit einiger Zeit das Pflanzen von Bäumen in Burkina Faso. Ecosia arbeitet bei den Sucherergebnissen vor allem mit Bing zusammen. Ecosia spendet einen Teil der Umsätze an Naturschutzprojekte. Foto: Ecosia Qwant Qwant liefert ebenfalls anonyme Suchfunktionen und gleichzeitig eine Integration in soziale Netzwerke. Die Suchergebnisse werden nach verschiedenen Kategorien aufgeschlüsselt. Suchergebnisse lassen sich in sozialen Netzwerken teilen, zum Beispiel über Twitter und Facebook. Startpage Startpage nutzt Google als Algorithmus, anonymisiert die Anfragen aber. Das Unternehmen hat seinen Sitz in Holland. Die Entwickler nutzen kein “Targeted Advertising”. Es werden also keine Nutzerdaten ausgewertet. Die Suchmaschine finanziert sich zwar ebenfalls über Werbung, diese ist aber nicht personalisiert. Neben Startpage bot das Unternehmen bis 2016 auch die Metasuchmaschine Ixquick an. Diese ist mittlerweile eingestellt beziehungsweise in Startpage integriert. Wolfram Alpha Die Suchmaschine Wolfram Alpha basiert auf Mathematikca. Im Gegensatz zu herkömmlichen Suchmaschinen, nutzt Wolfram Alpha einen semantischen Ansatz. Bei den Ergebnissen handelt es sich um synthetische Antworten auf Fragen. Geben Sie zum Beispiel “earth” ein, erhalten Sie keine Suchergebnisse zu Internetseiten mit diesem Begriff, sondern Informationen zur Erde, wie zum Beispiel die Entfernung zur Sonne, den Umfang, das Gewicht, und vieles mehr. Wolfram Alpha liefert also Ergebnisse zu bestimmten Fragen, die Anwender haben, keine Liste an Webseiten, auf denen bestimmte Begriffe auftreten. Wolfram Alpha ist eine intelligente Suchmaschine, die Fragen von Anwendern beantworten kann. Foto: Thomas Joos Kinder-Suchmaschinen Für Kinder gibt es spezielle Suchmaschinen, wie zum Beispiel Blinde-kuh.de. Auf dieser Seite wird speziell auf die Bedürfnisse von Kindern eingegangen. Die Suchmaschine wird von der Regierung gefördert und ist seriös und jugendsicher. Eltern finden auf diesen Seiten Tipps, welche Internetseiten es speziell für Kinder gibt, sowie Buchtipps. Weitere Internetseiten für Kinder: Kindersache.de Internet-abc.de FragFinn.de Helles-Koepfchen.de (hal/fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Suchmaschinen: Die besten Google-Alternativen​ Suchmaschinen im Überblick: Die besten Alternativen zu Google.
Foto: Semisatch – shutterstock.com

Die meisten Anwender nutzen die Google-Suchmaschine, um im Internet zu recherchieren. Weltweit bringt es Google auf einen Suchmaschinen-Marktanteil von knapp 80 Prozent (Stand März 2025). Die restlichen 20 Prozent teilen sich auf die Konkurrenten auf. Dazu gehören neben Bing, Yahoo und Yandex (jeweils um die zwei Prozent) auch kleinere Suchmaschinen, die oft aber auch sinnvoll sind: Google zeigt einerseits nicht alle Ergebnisse an, andererseits kann das Surfverhalten hier deutlich leichter nachverfolgt werden. Mit Alternativen lassen sich teilweise verschiedene Ergebnisse zu Suchanfragen finden. Außerdem können Alternativen oft besseren Datenschutz gewährleisten. Dazu kommen spezielle Suchmaschinen, die keine Benutzerdaten speichern, oder mehrere andere Suchmaschinen nutzen.

Bing

Microsoft Bing ist der größte Konkurrent von Google, hat allerdings deutlich weniger Marktanteil. Microsoft bindet Bing vor allem in Windows ein. Bing ist generell so aufgebaut wie Google und hat seine Vorteile – vor allem bei der Suche nach Videos und Bildern. Hier lohnt es sich, parallel zu Google auf Bing zu setzen.

Bing ist die Microsoft-Antwort auf Google.
Foto: Bing

DuckDuckGo

Bei DuckDuckGo handelt es sich wie bei Google um eine amerikanische Suchmaschine, die allerdings sehr hohen Wert auf Datenschutz legt. Auch hier werden andere Suchmaschinen eingebunden, um passende Ergebnisse zu finden. DuckDuckGo ist in vielen Browsern als Suchmaschine hinterlegt, und kann als Standardsuche verwendet werden.

DuckDuckGo und andere Suchmaschinen sind auch in Browsern hinterlegt.
Foto: Thomas Joos

Weitere Google-Alternativen – Yahoo, Lycos und Co.

Für eine gründliche Recherche im Internet sollten Sie immer mehrere Suchmaschinen einsetzen, da Sie unterschiedliche Ergebnisse erhalten. Anbei einige interessante Suchmaschinen:

Yahoo.de – Internet-Urgestein, vor allem im Bereich Finanzen stark

Lycos.de – eine weitere deutschsprachige Suchmaschine

Fastbot.de – sehr schnelle und einfache Suchmaschine mit Anonymisierungs-Option

Fireball.com – deutschsprachige, anonyme Suchmaschine

Seekport.com– schnelle und einfache Suchmaschine

Metager – Metasuchmaschinen nutzen

Eine andere Art Suchmaschinen sind ” Metasuchmaschinen”. Normale Suchmaschinen wie Google können angesichts der Milliarden Internetseiten nicht das gesamte Internet durchsuchen. Viele Spezialisten sagen, dass selbst Google nur maximal 20 Prozent des ganzen Internets durchsucht. Wahrscheinlich sind es nicht einmal 5 Prozent. Wenn Sie möglichst viele Informationen aus dem Internet zu einem bestimmten Thema finden wollen, können Metasuchmaschinen eine enorme Hilfe sein. Diese Suchmaschinen verwenden keinen eigenen Algorithmus, um das Internet zu durchsuchen, sondern geben die Suchbegriffe an eine gewisse Anzahl weiterer Suchmaschinen weiter.

MetaGer gehört zu den beliebtesten deutschen Metasuchmaschinen.
Foto: MetaGer

Die Metasuchmaschine entfernt gefundene doppelte Suchergebnisse und sortiert die Ergebnisse der einzelnen Suchmaschinen in einem eigenen Ranking. Die Suchergebnisse werden genauso angeordnet wie bei normalen Suchmaschinen. Allerdings dauert die Suche in Metasuchmaschinen teilweise etwas länger, da die Seite auf das Ergebnis sämtlicher Suchmaschinen warten muss.

Die beliebteste deutsche Metasuchmaschine – Metager – wird von der Universität Hannover betrieben. Sie ist nicht nur die beliebteste deutsche Metasuchmaschine, sondern auch die älteste und ausgereifteste. Die Entwickler von MetaGer verbessern die Suchmaschine ständig weiter. Sie können mit MetaGer in Forschungsberichten suchen. Auf den Seiten der Entwickler können Sie darüber hinaus viel über die Entwicklung von Suchmaschinen erfahren. Vor allem wissenschaftlich interessierte Internetbenutzer können mit MetaGer viele interessante Informationen finden. Außer MetaGer gibt es noch andere deutschsprachige Metasuchmaschinen. Zum Beispiel:

Etools.ch oder

Websuche.de

Ecosia

Die Suchmaschine Ecosia ist ökologisch insipiriert. Die deutsche Suchmaschine spendet einen Großteil ihrer Einnahme an Naturschutzorganisationen. Im Fokus steht seit einiger Zeit das Pflanzen von Bäumen in Burkina Faso. Ecosia arbeitet bei den Sucherergebnissen vor allem mit Bing zusammen.

Ecosia spendet einen Teil der Umsätze an Naturschutzprojekte.
Foto: Ecosia

Qwant

Qwant liefert ebenfalls anonyme Suchfunktionen und gleichzeitig eine Integration in soziale Netzwerke. Die Suchergebnisse werden nach verschiedenen Kategorien aufgeschlüsselt. Suchergebnisse lassen sich in sozialen Netzwerken teilen, zum Beispiel über Twitter und Facebook.

Startpage

Startpage nutzt Google als Algorithmus, anonymisiert die Anfragen aber. Das Unternehmen hat seinen Sitz in Holland. Die Entwickler nutzen kein “Targeted Advertising”. Es werden also keine Nutzerdaten ausgewertet. Die Suchmaschine finanziert sich zwar ebenfalls über Werbung, diese ist aber nicht personalisiert. Neben Startpage bot das Unternehmen bis 2016 auch die Metasuchmaschine Ixquick an. Diese ist mittlerweile eingestellt beziehungsweise in Startpage integriert.

Wolfram Alpha

Die Suchmaschine Wolfram Alpha basiert auf Mathematikca. Im Gegensatz zu herkömmlichen Suchmaschinen, nutzt Wolfram Alpha einen semantischen Ansatz. Bei den Ergebnissen handelt es sich um synthetische Antworten auf Fragen. Geben Sie zum Beispiel “earth” ein, erhalten Sie keine Suchergebnisse zu Internetseiten mit diesem Begriff, sondern Informationen zur Erde, wie zum Beispiel die Entfernung zur Sonne, den Umfang, das Gewicht, und vieles mehr. Wolfram Alpha liefert also Ergebnisse zu bestimmten Fragen, die Anwender haben, keine Liste an Webseiten, auf denen bestimmte Begriffe auftreten.

Wolfram Alpha ist eine intelligente Suchmaschine, die Fragen von Anwendern beantworten kann.
Foto: Thomas Joos

Kinder-Suchmaschinen

Für Kinder gibt es spezielle Suchmaschinen, wie zum Beispiel Blinde-kuh.de. Auf dieser Seite wird speziell auf die Bedürfnisse von Kindern eingegangen. Die Suchmaschine wird von der Regierung gefördert und ist seriös und jugendsicher. Eltern finden auf diesen Seiten Tipps, welche Internetseiten es speziell für Kinder gibt, sowie Buchtipps. Weitere Internetseiten für Kinder:

Kindersache.de

Internet-abc.de

FragFinn.de

Helles-Koepfchen.de

(hal/fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Suchmaschinen: Die besten Google-Alternativen​ Weiterlesen »

10 Java-basierte GenAI-Tools​

Allgemein

KI geht auch mit Java-basierten Tools.The KonG / Shutterstock Entwickler, die KI-Projekte angehen, denken dabei nicht unbedingt zuerst an Java – vielmehr ist Python für Projekte dieser Art oft die erste Wahl. Aber auch Java hat eine Daseinsberechtigung, wenn es um künstliche Intelligenz und Machine Learning geht. Schließlich wissen viele Developer die technischen Benefits und das weitläufige Ökosystem der Sprache zu schätzen. Diese Vorteile haben sich auch unter Python-Connaisseuren herumgesprochen: Einige nutzen Jython, um in den Genuss der Speed-Vorteile der Java Virtual Machine (JVM) zu kommen. Der traditionelle, langsame, aber stete Fokus von Java auf Stabilität und Performance schafft viele gute Möglichkeiten, um sich mit KI und ML befassen, ohne dazu die Sicherheit des gut typisierten Java-Kokons verlassen zu müssen. Das belegen unter anderem die folgenden zehn KI-Entwicklungs-Tools auf Java-Basis. 1. Spring AI Im Laufe der Jahre hat sich das Java-Framework Spring als Grundlage etabliert, um alles von Webanwendungen bis hin zu Microservices zu erstellen. Spring AI zielt darauf ab, jegliche Art von KI möglichst einfach in diese Umgebungen zu integrieren. Dazu stellt das Framework eine Reihe von Abstraktionen zur Verfügung, die diesen Prozess organisieren und definieren. Entwickler, die mit großen KI-Anbietern wie Anthropic oder OpenAI arbeiten, können die Abstraktionen von Spring AI dazu verwenden, Chat- oder Moderations-Modelle zu integrieren. Dabei werden alle relevanten Anbieter unterstützt – nicht nur kommerzielle, sondern auch diverse aus dem Open-Source-Bereich. Entwickler, die Daten lokal in einer Vektordatenbank speichern möchten, können sich direkt mit einer der etwa ein Dutzend Optionen (etwa Milvus oder Pinecone) verbinden. Spring AI übernimmt dabei das „Daten-Marshalling“ der Embeddings. So können Developer mit Java-Objekten arbeiten, während die Datenbank reine Vektoren speichert. Darüber hinaus verfügt Spring AI außerdem über Funktionen für verschiedene Aufgaben, die sich in der Anwendungsentwicklung zum Standard entwickeln: So können Chat-Unterhaltungen automatisch für eine spätere Wiederherstellung gespeichert werden. Und eine Evaluierungsfunktion unterstützt die Meta-Evaluierung von Modellen, um Halluzinationen zu reduzieren oder sie zumindest zu kennzeichnen. 2. LangChain4j Diverse Anwendungen „streben danach“, Vektordatenbanken und Large Language Models (LLMs) in einem Portal zu integrieren. Dazu reicht ein LLM oft nicht aus: Ein KI-Modell erzeugt einen Text, ein LLM zur Bildgenerierung veranschaulicht ihn – während am Anfang und am Ende der Pipelines eine Moderations-KI überwacht, dass niemand beleidigt wird. Die Java-First-Version des populärem JavaScript- und Python-Frameworks LangChain – LangChain4j – liefert den Code, der als Bindeglied all die verschiedenen Parts vereint, die Entwickler integrieren müssen. Dazu werden im Wesentlichen Dutzende verschiedener Modelle und Data Stores mit einigen wenigen standardmäßigen, aber leistungsstarken Abstraktionen gebündelt. 3. Deeplearning4J Java-Entwickler, die KI-Klassifizierungsprojekte in Angriff nehmen wollen, können dazu auf das Ökosystem rund um Eclipse Deeplearning4J (DL4J) zurückgreifen, das eine Vielzahl von ML-Algorithmen unterstützt. Dazu werden lediglich die Rohdaten eingespeist – am Ende steht ein vollständig abgestimmtes Modell, das bereit ist, Entscheidungen zu treffen. Das Herzstück des Systems bildet die C++-Bibliothek libnd4j. Sie gewährleistet, dass die ML-Kernprimitive schnell ausgeführt werden. Die Datenflüsse werden über Apache Spark definiert. Während das Gesamt-Framework durch Java vereinheitlicht wird, können viele der beweglichen Teile von Deeplearning4J in einer anderen Sprache geschrieben werden. Die Pipeline ist so konzipiert, dass sie für Experimente – etwa mit Kotlin oder Scala – offen ist, die direkt mit der JVM arbeiten können. Python-Algorithmen lassen sich direkt in Python4j ausführen. Es handelt sich um ein quelloffenes Projekt, dessen Dokumentation viele gute Beispiele enthält, die die Performanz seiner Komponenten belegen. 4. Apache Spark MLib Für groß angelegte Datenanalysen verlassen sich Data Scientists schon seit Längerem mit Vorliebe auf Apache Spark. Mit MLib wird das Projekt um eine zusätzliche Ebene erweitert, die für Machine-Learning-Algorithmen optimiert ist. Daten lassen sich dabei an jedem Ort im Hadoop-Stil speichern, die Algorithmen können in jeder relevanten Sprache codiert werden – inklusive Java, Scala oder JVM-orientierten Sprachen. Besonders attraktiv machen MLib dabei seine vorgefertigten Routinen für viele klassische ML- und Analytics-Algorithmen – etwa Entscheidungsbäume, Clustering oder Alternating Least Squares. Größere Berechnungen wie etwa eine Singular Value Decomposition von ausufernden Matrizen lassen sich beschleunigen, indem sie auf mehrere Maschinen verteilt werden. In vielen Fällen muss also wirklich wenig Code implementiert werden – den Rest erledigt Spark mit einer Pipeline, die auf iterative Prozesse ausgelegt ist. 5. Testcontainers Weite Teile des LLM-Ökosystems laufen in Docker-Containern. Mit der Open-Source-Bibliothek Testcontainers steht Entwicklern ein Tool zur Verfügung, um all diese Teile zu managen. Die quelloffene Bibliothek bietet einen besonders einfachen Weg, um LLMs in den Stack zu integrieren. Auch mit Blick auf Datenbank, Service Bus, Message Broker und andere gängige Komponenten, bietet Testcontainers diverse vordefinierte Module. 6. GraalPy Bei GraalPy handelt es sich um eine integrierbare Version von Python3, die so optimiert ist, dass Python-Code einfacher in der JVM ausgeführt werden kann. Das ermöglicht Java-Programmierern, sämtliche Python-Bibliotheken und -Tools nutzen. Dabei ist GraalPy Bestandteil der größeren GraalVM-Projektkollektion, die dafür entwickelt wurde, Stacks in virtuellen Maschinen bereitzustellen und zu warten. 7. Apache OpenNLP Sollen KI-Modelle von Text lernen, erfordert das umfassendes Preprocessing. Schließlich müssen die relevanten Texte von überflüssigen Typesetting-Kommandos befreit und in kleine Teile zerlegt werden, damit die Algorithmen die Bedeutung aus Mustern extrahieren können. An dieser Stelle kommt das Toolkit Apache OpenNLP ins Spiel, das mit diversen grundlegenden Algorithmen eine solide Machine-Learning-Grundlage schaffen kann. Die enthaltenen Werkzeuge sind für diverse Aufgaben geeignet, von der einfachen Segmentierung und Tokenisierung bis hin zu komplexeren Analysen. Extras wie Spracherkennung oder die Extraktion benannter Entitäten können bei Bedarf eingesetzt werden. In den JAR-Dateien von OpenNLP sind Modelle für mehr als 32 Sprachen enthalten – alternativ können Sie auch eigene Modelle trainieren. Das OpenNLP-Toolset ist gut in das Java-Ökosystem integriert: Projekte wie UIMA oder Solr nutzen es bereits, um die Muster in natürlichsprachlichen Texten zu entschlüsseln. Der Einstieg in OpenNLP fällt durch die Integration mit Maven und Gradle zudem besonders leicht. 8. Neo4j Wenn Ihre Anwendung einen RAG-Data-Store erfordert, kann die Graph-Datenbank Neo4j diesen Workload stemmen. Die Datenbank unterstützt bereits verschiedene Graph-Applikationen, etwa Betrugserkennung oder Social-Media-Management. Dank seiner soliden Java-Grundlage lassen sich sowohl RAG-Anwendungen als auch Graph-Datenbanken mit Java-Stacks in einem einzigen, einheitlichen Datenspeicher integrieren – dem sogenannten GraphRAG. 9. Stanford CoreNLP Eine weitere Sammlung von Routinen für natürliche Sprache stellt die Stanford NLP Group mit dem Toolset CoreNLP zur Verfügung. Es erledigt alles von der Segmentierung bis hin zur Normalisierung von Zahlen oder Daten. Entwickler schätzen CoreNLP vor allem wegen seiner höheren Genauigkeit und der vorgefertigten Optionen – etwa Modelle für Stimmungsanalysen oder um Koreferenzen zu erkennen. Mit den erweiterten Funktionen der Bibliothek lassen sich auch kompliziertere Parsing-Algorithmen und -Strategien einfacher implementieren. CoreNLP lässt sich leicht in Gradle oder Maven integrieren – Modelle für neun Sprachen sind sofort einsatzbereit. 10. Jllama Manchmal macht es Sinn, KI-Modelle in einer JVM auszuführen, die man direkt kontrollieren und überwachen kann. LLMs lokal auszuführen, kann diverse Benefits verwirklichen, beispielsweise geringere Hardware-Kosten oder ein höheres Datenschutzniveau. Jllama nutzt diverse populäre Open-Source-Modelle zu Inferenzzwecken. Der Code von Jllama nutzt einige der neuesten Java-Funktionen wie die Vector API und SIMD-fähige Erweiterungen. Workloads lassen sich darüber hinaus auf die zur Verfügung stehenden Ressourcen in einem Cluster verteilen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Java-basierte GenAI-Tools​ KI geht auch mit Java-basierten Tools.The KonG / Shutterstock

Entwickler, die KI-Projekte angehen, denken dabei nicht unbedingt zuerst an Java – vielmehr ist Python für Projekte dieser Art oft die erste Wahl. Aber auch Java hat eine Daseinsberechtigung, wenn es um künstliche Intelligenz und Machine Learning geht. Schließlich wissen viele Developer die technischen Benefits und das weitläufige Ökosystem der Sprache zu schätzen. Diese Vorteile haben sich auch unter Python-Connaisseuren herumgesprochen: Einige nutzen Jython, um in den Genuss der Speed-Vorteile der Java Virtual Machine (JVM) zu kommen.

Der traditionelle, langsame, aber stete Fokus von Java auf Stabilität und Performance schafft viele gute Möglichkeiten, um sich mit KI und ML befassen, ohne dazu die Sicherheit des gut typisierten Java-Kokons verlassen zu müssen. Das belegen unter anderem die folgenden zehn KI-Entwicklungs-Tools auf Java-Basis.

1. Spring AI

Im Laufe der Jahre hat sich das Java-Framework Spring als Grundlage etabliert, um alles von Webanwendungen bis hin zu Microservices zu erstellen. Spring AI zielt darauf ab, jegliche Art von KI möglichst einfach in diese Umgebungen zu integrieren. Dazu stellt das Framework eine Reihe von Abstraktionen zur Verfügung, die diesen Prozess organisieren und definieren.

Entwickler, die mit großen KI-Anbietern wie Anthropic oder OpenAI arbeiten, können die Abstraktionen von Spring AI dazu verwenden, Chat- oder Moderations-Modelle zu integrieren. Dabei werden alle relevanten Anbieter unterstützt – nicht nur kommerzielle, sondern auch diverse aus dem Open-Source-Bereich.

Entwickler, die Daten lokal in einer Vektordatenbank speichern möchten, können sich direkt mit einer der etwa ein Dutzend Optionen (etwa Milvus oder Pinecone) verbinden. Spring AI übernimmt dabei das „Daten-Marshalling“ der Embeddings. So können Developer mit Java-Objekten arbeiten, während die Datenbank reine Vektoren speichert.

Darüber hinaus verfügt Spring AI außerdem über Funktionen für verschiedene Aufgaben, die sich in der Anwendungsentwicklung zum Standard entwickeln: So können Chat-Unterhaltungen automatisch für eine spätere Wiederherstellung gespeichert werden. Und eine Evaluierungsfunktion unterstützt die Meta-Evaluierung von Modellen, um Halluzinationen zu reduzieren oder sie zumindest zu kennzeichnen.

2. LangChain4j

Diverse Anwendungen „streben danach“, Vektordatenbanken und Large Language Models (LLMs) in einem Portal zu integrieren. Dazu reicht ein LLM oft nicht aus: Ein KI-Modell erzeugt einen Text, ein LLM zur Bildgenerierung veranschaulicht ihn – während am Anfang und am Ende der Pipelines eine Moderations-KI überwacht, dass niemand beleidigt wird.

Die Java-First-Version des populärem JavaScript- und Python-Frameworks LangChain – LangChain4j – liefert den Code, der als Bindeglied all die verschiedenen Parts vereint, die Entwickler integrieren müssen. Dazu werden im Wesentlichen Dutzende verschiedener Modelle und Data Stores mit einigen wenigen standardmäßigen, aber leistungsstarken Abstraktionen gebündelt.

3. Deeplearning4J

Java-Entwickler, die KI-Klassifizierungsprojekte in Angriff nehmen wollen, können dazu auf das Ökosystem rund um Eclipse Deeplearning4J (DL4J) zurückgreifen, das eine Vielzahl von ML-Algorithmen unterstützt. Dazu werden lediglich die Rohdaten eingespeist – am Ende steht ein vollständig abgestimmtes Modell, das bereit ist, Entscheidungen zu treffen. Das Herzstück des Systems bildet die C++-Bibliothek libnd4j. Sie gewährleistet, dass die ML-Kernprimitive schnell ausgeführt werden. Die Datenflüsse werden über Apache Spark definiert.

Während das Gesamt-Framework durch Java vereinheitlicht wird, können viele der beweglichen Teile von Deeplearning4J in einer anderen Sprache geschrieben werden. Die Pipeline ist so konzipiert, dass sie für Experimente – etwa mit Kotlin oder Scala – offen ist, die direkt mit der JVM arbeiten können. Python-Algorithmen lassen sich direkt in Python4j ausführen. Es handelt sich um ein quelloffenes Projekt, dessen Dokumentation viele gute Beispiele enthält, die die Performanz seiner Komponenten belegen.

4. Apache Spark MLib

Für groß angelegte Datenanalysen verlassen sich Data Scientists schon seit Längerem mit Vorliebe auf Apache Spark. Mit MLib wird das Projekt um eine zusätzliche Ebene erweitert, die für Machine-Learning-Algorithmen optimiert ist. Daten lassen sich dabei an jedem Ort im Hadoop-Stil speichern, die Algorithmen können in jeder relevanten Sprache codiert werden – inklusive Java, Scala oder JVM-orientierten Sprachen.

Besonders attraktiv machen MLib dabei seine vorgefertigten Routinen für viele klassische ML- und Analytics-Algorithmen – etwa Entscheidungsbäume, Clustering oder Alternating Least Squares. Größere Berechnungen wie etwa eine Singular Value Decomposition von ausufernden Matrizen lassen sich beschleunigen, indem sie auf mehrere Maschinen verteilt werden.

In vielen Fällen muss also wirklich wenig Code implementiert werden – den Rest erledigt Spark mit einer Pipeline, die auf iterative Prozesse ausgelegt ist.

5. Testcontainers

Weite Teile des LLM-Ökosystems laufen in Docker-Containern. Mit der Open-Source-Bibliothek Testcontainers steht Entwicklern ein Tool zur Verfügung, um all diese Teile zu managen.

Die quelloffene Bibliothek bietet einen besonders einfachen Weg, um LLMs in den Stack zu integrieren. Auch mit Blick auf Datenbank, Service Bus, Message Broker und andere gängige Komponenten, bietet Testcontainers diverse vordefinierte Module.

6. GraalPy

Bei GraalPy handelt es sich um eine integrierbare Version von Python3, die so optimiert ist, dass Python-Code einfacher in der JVM ausgeführt werden kann. Das ermöglicht Java-Programmierern, sämtliche Python-Bibliotheken und -Tools nutzen.

Dabei ist GraalPy Bestandteil der größeren GraalVM-Projektkollektion, die dafür entwickelt wurde, Stacks in virtuellen Maschinen bereitzustellen und zu warten.

7. Apache OpenNLP

Sollen KI-Modelle von Text lernen, erfordert das umfassendes Preprocessing. Schließlich müssen die relevanten Texte von überflüssigen Typesetting-Kommandos befreit und in kleine Teile zerlegt werden, damit die Algorithmen die Bedeutung aus Mustern extrahieren können. An dieser Stelle kommt das Toolkit Apache OpenNLP ins Spiel, das mit diversen grundlegenden Algorithmen eine solide Machine-Learning-Grundlage schaffen kann.

Die enthaltenen Werkzeuge sind für diverse Aufgaben geeignet, von der einfachen Segmentierung und Tokenisierung bis hin zu komplexeren Analysen. Extras wie Spracherkennung oder die Extraktion benannter Entitäten können bei Bedarf eingesetzt werden. In den JAR-Dateien von OpenNLP sind Modelle für mehr als 32 Sprachen enthalten – alternativ können Sie auch eigene Modelle trainieren.

Das OpenNLP-Toolset ist gut in das Java-Ökosystem integriert: Projekte wie UIMA oder Solr nutzen es bereits, um die Muster in natürlichsprachlichen Texten zu entschlüsseln. Der Einstieg in OpenNLP fällt durch die Integration mit Maven und Gradle zudem besonders leicht.

8. Neo4j

Wenn Ihre Anwendung einen RAG-Data-Store erfordert, kann die Graph-Datenbank Neo4j diesen Workload stemmen. Die Datenbank unterstützt bereits verschiedene Graph-Applikationen, etwa Betrugserkennung oder Social-Media-Management.

Dank seiner soliden Java-Grundlage lassen sich sowohl RAG-Anwendungen als auch Graph-Datenbanken mit Java-Stacks in einem einzigen, einheitlichen Datenspeicher integrieren – dem sogenannten GraphRAG.

9. Stanford CoreNLP

Eine weitere Sammlung von Routinen für natürliche Sprache stellt die Stanford NLP Group mit dem Toolset CoreNLP zur Verfügung. Es erledigt alles von der Segmentierung bis hin zur Normalisierung von Zahlen oder Daten.

Entwickler schätzen CoreNLP vor allem wegen seiner höheren Genauigkeit und der vorgefertigten Optionen – etwa Modelle für Stimmungsanalysen oder um Koreferenzen zu erkennen. Mit den erweiterten Funktionen der Bibliothek lassen sich auch kompliziertere Parsing-Algorithmen und -Strategien einfacher implementieren.

CoreNLP lässt sich leicht in Gradle oder Maven integrieren – Modelle für neun Sprachen sind sofort einsatzbereit.

10. Jllama

Manchmal macht es Sinn, KI-Modelle in einer JVM auszuführen, die man direkt kontrollieren und überwachen kann. LLMs lokal auszuführen, kann diverse Benefits verwirklichen, beispielsweise geringere Hardware-Kosten oder ein höheres Datenschutzniveau.

Jllama nutzt diverse populäre Open-Source-Modelle zu Inferenzzwecken. Der Code von Jllama nutzt einige der neuesten Java-Funktionen wie die Vector API und SIMD-fähige Erweiterungen. Workloads lassen sich darüber hinaus auf die zur Verfügung stehenden Ressourcen in einem Cluster verteilen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Java-basierte GenAI-Tools​ Weiterlesen »

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​

Allgemein

Bei der Auswahl neuer Mitarbeiter sollte nicht nur auf die Fachkompetenz geachtet werden Als Personaler sollten Sie ausreichend Zeit in die Personalauswahl investieren Wichtig bei der Auswahl des neuen Mitarbeiters ist auch eine sorgfältige Nachbereitung Wenn sich der neue Inhaber einer Schlüsselposition als Flop erweist, entstehen den Unternehmen hohe Kosten; dann waren alle Ausgaben für die Personalsuche und -auswahl Fehlinvestitionen. Noch schwerer wiegen jedoch die Folgekosten. Denn bleibt eine Schlüsselposition längere Zeit verwaist, dann werden meist auch Entscheidungen zu spät getroffen und umgesetzt. Deshalb hier einige Tipps, wie sich Flops bei der Personalauswahl vermeiden lassen.Bei der Personalauswahl kann das Risiko von Fehlbesetzungen mit der Beachtung einiger Tipps minimiert werden. Foto: Piotr Marcinski – shutterstock.comTipp 1: Nicht nur auf die Fachkompetenz achtenOft wird bei der Auswahl neuer Mitarbeiter fast ausschließlich auf deren fachliche Qualifikation geachtet. Denn diese lässt sich anhand der (Arbeits-)Zeugnisse und der Herausforderungen, die der Kandidat bisher bewältigte, relativ leicht bewerten. Anders ist dies bei Faktoren wie:Findet der Bewerber einen Draht zu den Kunden, Mitarbeitern oder Lieferanten des Unternehmens?Hat er ein “Gespür” für die Notwendigkeiten in der Organisation?Dies zu ermitteln, erfordert Zeit und Energie. Doch die Mühe lohnt sich, denkt man an die Kosten einer Fehlbesetzung.Investieren Sie als Personalverantwortlicher ausreichend Zeit in die Personalauswahl! Dieser Prozess beginnt beim Formulieren der Anforderungen an den “Neuen”. Sagen Sie zum Beispiel nicht: “Ist doch klar, was ein Vertriebsleiter können muss.” Überlegen Sie vielmehr: Was muss der Vertriebsleiter in unserem Betrieb konkret leisten? Denn der Vertriebsleiter eines Konzerns benötigt teils andere Kompetenzen als sein Kollege bei einem Mittelständler.Tipp 2: Ein detailliertes Anforderungsprofil erstellenErmitteln Sie im Vorfeld genau, welche Anforderungen der “Neue” erfüllen muss – zum Beispiel, indem Sie den bisherigen Stelleninhaber befragen. Fragen Sie sich auch: Wodurch unterscheidet sich der ideale Stelleninhaber vom Kandidaten, den Sie keinesfalls einstellen möchten? Delegiert der Wunschkandidat zum Beispiel viele Aufgaben, während der andere das meiste selbst erledigt? Hat die “Traumbesetzung” Spaß am Kundenkontakt, während sich ihr Pendant vor Kundengesprächen drückt? So können Sie die sozialen, kommunikativen und persönlichen Eigenschaften ermitteln, die der “Neue” braucht. Berücksichtigen Sie beim Formulieren des Anforderungsprofils auch die künftigen Anforderungen. Denn Ihr Unternehmen möchte sich ja entwickeln.Tipp 3: Einen Gesprächsleitfaden erstellenLeiten Sie aus dem Anforderungsprofil einen Interviewleitfaden ab – für alle Auswahlgespräche. Ein solches Strukturieren und weitgehendes Standardisieren der Gespräche stellt sicher, dass Sie am Schluss die Bewerberprofile gut vergleichen können, weil alle Bewerber dieselben Kernfragen beantwortet haben. Außerdem tappen Sie seltener in die Falle, dass ein rhetorisch fitter Bewerber das Gespräch führt und Sie danach feststellen: “Verflucht, das habe ich nicht gefragt.”Tipp 4: Den Bewerbern Aufgaben gebenStellen Sie den Bewerbern zudem Aufgaben, die typisch für Ihr Unternehmen oder die vakante Position sind. Zum Beispiel: “Stellen Sie sich vor, nächste Woche ist eine wichtige Messe, Ihr Exponat ist aber noch nicht fertig. Was würden Sie tun?” Durch solche Fragen erfahren Sie, wie die Bewerber solche Probleme lösen würden. Stellen Sie den Bewerbern zudem aktuelle Aufgaben, vor denen das Unternehmen steht. Zum Beispiel: “Wir möchten ein neues CRM-System einführen. Wie würden Sie das angehen?” So wird meist schnell klar, ob der Bewerber der Richtige ist.Tipp 5: Die Gesprächsführung trainierenUntrainierte Führungskräfte erzählen in Personalauswahlgesprächen oft mehr über sich und ihr Unternehmen, als dass sie fragen. Außerdem stellen sie den Bewerbern viele Fragen, die diese mit “ja” oder “nein” beantworten können, so dass sie selbst wenig erfahren. Deshalb sollten ungeübte Interviewer die Gesprächsführung trainieren.Tipp 6: Das Gespräch nicht alleine führenZiehen Sie zu den Gesprächen mindestens einen Kollegen hinzu. Denn dann kann die Person, die gerade nicht das Gespräch führt,auf die nonverbalen Aussagen des Bewerbers achten, die oft aussagekräftiger als die verbalen sind, undStichworte notieren.Sonst weiß nach dem fünften Interview niemand mehr, was der erste Bewerber sagte.Tipp 7: Die Gespräche nachbereitenWichtig ist auch eine sorgfältige Nachbereitung. Ergänzen Sie nach jedem Gespräch Ihre Notizen. Und stellen Sie nach Beendigung der Auswahlgespräche die Ergebnisse so zusammen, dass Sie die Bewerberprofile gut mit dem Anforderungsprofil vergleichen können. Erstellen Sie vor Ihrer Auswahlentscheidung ein Ranking der besten Bewerber. Dann haben Sie Alternativen parat, wenn Ihr Wunschkandidat absagt.Tipp 8: Auf Verstand und Bauchgefühl vertrauenSprechen Sie beim Erstellen des Rankings mit Ihren Kollegen auch darüber, warum Sie beim Bewerber A, obwohl er formal alle Kriterien erfüllt, ein “eher schlechtes Gefühl” haben; außerdem beim Bewerber B den Eindruck, er könne der bessere Mitarbeiter sein, obwohl er einzelne Anforderungen nicht ganz erfüllt. Denn in den Auswahlgesprächen versucht sich jeder Bewerber möglichst positiv zu verkaufen. Das heißt, er gibt Ihnen “geschönte” Antworten.Hören Sie deshalb auch auf Ihren Bauch, wenn er Ihnen sagt: “Dieser Bewerber ist es trotz aller Vorzüge nicht” – jedoch nie ohne sich zuvor zu fragen: Warum sträuben sich mir bei ihm die Nackenhaare? Sonst ist die Gefahr groß, dass Sie rein nach Sympathie entscheiden – was zu den meisten Fehlbesetzungen führt. 

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​ Bei der Auswahl neuer Mitarbeiter sollte nicht nur auf die Fachkompetenz geachtet werden

Als Personaler sollten Sie ausreichend Zeit in die Personalauswahl investieren

Wichtig bei der Auswahl des neuen Mitarbeiters ist auch eine sorgfältige Nachbereitung

Wenn sich der neue Inhaber einer Schlüsselposition als Flop erweist, entstehen den Unternehmen hohe Kosten; dann waren alle Ausgaben für die Personalsuche und -auswahl Fehlinvestitionen. Noch schwerer wiegen jedoch die Folgekosten. Denn bleibt eine Schlüsselposition längere Zeit verwaist, dann werden meist auch Entscheidungen zu spät getroffen und umgesetzt. Deshalb hier einige Tipps, wie sich Flops bei der Personalauswahl vermeiden lassen.Bei der Personalauswahl kann das Risiko von Fehlbesetzungen mit der Beachtung einiger Tipps minimiert werden.
Foto: Piotr Marcinski – shutterstock.comTipp 1: Nicht nur auf die Fachkompetenz achtenOft wird bei der Auswahl neuer Mitarbeiter fast ausschließlich auf deren fachliche Qualifikation geachtet. Denn diese lässt sich anhand der (Arbeits-)Zeugnisse und der Herausforderungen, die der Kandidat bisher bewältigte, relativ leicht bewerten. Anders ist dies bei Faktoren wie:Findet der Bewerber einen Draht zu den Kunden, Mitarbeitern oder Lieferanten des Unternehmens?Hat er ein “Gespür” für die Notwendigkeiten in der Organisation?Dies zu ermitteln, erfordert Zeit und Energie. Doch die Mühe lohnt sich, denkt man an die Kosten einer Fehlbesetzung.Investieren Sie als Personalverantwortlicher ausreichend Zeit in die Personalauswahl! Dieser Prozess beginnt beim Formulieren der Anforderungen an den “Neuen”. Sagen Sie zum Beispiel nicht: “Ist doch klar, was ein Vertriebsleiter können muss.” Überlegen Sie vielmehr: Was muss der Vertriebsleiter in unserem Betrieb konkret leisten? Denn der Vertriebsleiter eines Konzerns benötigt teils andere Kompetenzen als sein Kollege bei einem Mittelständler.Tipp 2: Ein detailliertes Anforderungsprofil erstellenErmitteln Sie im Vorfeld genau, welche Anforderungen der “Neue” erfüllen muss – zum Beispiel, indem Sie den bisherigen Stelleninhaber befragen. Fragen Sie sich auch: Wodurch unterscheidet sich der ideale Stelleninhaber vom Kandidaten, den Sie keinesfalls einstellen möchten? Delegiert der Wunschkandidat zum Beispiel viele Aufgaben, während der andere das meiste selbst erledigt? Hat die “Traumbesetzung” Spaß am Kundenkontakt, während sich ihr Pendant vor Kundengesprächen drückt? So können Sie die sozialen, kommunikativen und persönlichen Eigenschaften ermitteln, die der “Neue” braucht. Berücksichtigen Sie beim Formulieren des Anforderungsprofils auch die künftigen Anforderungen. Denn Ihr Unternehmen möchte sich ja entwickeln.Tipp 3: Einen Gesprächsleitfaden erstellenLeiten Sie aus dem Anforderungsprofil einen Interviewleitfaden ab – für alle Auswahlgespräche. Ein solches Strukturieren und weitgehendes Standardisieren der Gespräche stellt sicher, dass Sie am Schluss die Bewerberprofile gut vergleichen können, weil alle Bewerber dieselben Kernfragen beantwortet haben. Außerdem tappen Sie seltener in die Falle, dass ein rhetorisch fitter Bewerber das Gespräch führt und Sie danach feststellen: “Verflucht, das habe ich nicht gefragt.”Tipp 4: Den Bewerbern Aufgaben gebenStellen Sie den Bewerbern zudem Aufgaben, die typisch für Ihr Unternehmen oder die vakante Position sind. Zum Beispiel: “Stellen Sie sich vor, nächste Woche ist eine wichtige Messe, Ihr Exponat ist aber noch nicht fertig. Was würden Sie tun?” Durch solche Fragen erfahren Sie, wie die Bewerber solche Probleme lösen würden. Stellen Sie den Bewerbern zudem aktuelle Aufgaben, vor denen das Unternehmen steht. Zum Beispiel: “Wir möchten ein neues CRM-System einführen. Wie würden Sie das angehen?” So wird meist schnell klar, ob der Bewerber der Richtige ist.Tipp 5: Die Gesprächsführung trainierenUntrainierte Führungskräfte erzählen in Personalauswahlgesprächen oft mehr über sich und ihr Unternehmen, als dass sie fragen. Außerdem stellen sie den Bewerbern viele Fragen, die diese mit “ja” oder “nein” beantworten können, so dass sie selbst wenig erfahren. Deshalb sollten ungeübte Interviewer die Gesprächsführung trainieren.Tipp 6: Das Gespräch nicht alleine führenZiehen Sie zu den Gesprächen mindestens einen Kollegen hinzu. Denn dann kann die Person, die gerade nicht das Gespräch führt,auf die nonverbalen Aussagen des Bewerbers achten, die oft aussagekräftiger als die verbalen sind, undStichworte notieren.Sonst weiß nach dem fünften Interview niemand mehr, was der erste Bewerber sagte.Tipp 7: Die Gespräche nachbereitenWichtig ist auch eine sorgfältige Nachbereitung. Ergänzen Sie nach jedem Gespräch Ihre Notizen. Und stellen Sie nach Beendigung der Auswahlgespräche die Ergebnisse so zusammen, dass Sie die Bewerberprofile gut mit dem Anforderungsprofil vergleichen können. Erstellen Sie vor Ihrer Auswahlentscheidung ein Ranking der besten Bewerber. Dann haben Sie Alternativen parat, wenn Ihr Wunschkandidat absagt.Tipp 8: Auf Verstand und Bauchgefühl vertrauenSprechen Sie beim Erstellen des Rankings mit Ihren Kollegen auch darüber, warum Sie beim Bewerber A, obwohl er formal alle Kriterien erfüllt, ein “eher schlechtes Gefühl” haben; außerdem beim Bewerber B den Eindruck, er könne der bessere Mitarbeiter sein, obwohl er einzelne Anforderungen nicht ganz erfüllt. Denn in den Auswahlgesprächen versucht sich jeder Bewerber möglichst positiv zu verkaufen. Das heißt, er gibt Ihnen “geschönte” Antworten.Hören Sie deshalb auch auf Ihren Bauch, wenn er Ihnen sagt: “Dieser Bewerber ist es trotz aller Vorzüge nicht” – jedoch nie ohne sich zuvor zu fragen: Warum sträuben sich mir bei ihm die Nackenhaare? Sonst ist die Gefahr groß, dass Sie rein nach Sympathie entscheiden – was zu den meisten Fehlbesetzungen führt.

Damit es der Richtige wird: So lassen sich Flops bei der Personalauswahl vermeiden​ Weiterlesen »

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​

Allgemein

Thomas Rau Auf einen Blick Pro wiegt unter 1 Kilogramm sehr lange Akkulaufzeit sehr guter OLED-Bildschirm Kontra mäßige Rechenleistung unter Last laute Lüfter mäßige Tastatur Fazit Das Asus Zenbook A 14 ist der optimale Laptop für unterwegs, denn es ist leicht und ausdauernd. Das gilt aber nur, wenn bei Ihrer Arbeit die Länge der Akkulaufzeit entscheidend ist und weniger, wie produktiv Sie den Laptop nutzen. Denn mit hoher Rechenleistung punktet das Leichtgewicht nicht.Für Internet-Recherche, Video-Wiedergabe und normale Office-Aufgaben genügt der Snapdragon X im Zenbook vollauf. Wenn es aufwändiger wird, sind Notebooks mit Snapdragon X Elite oder Intels Lunar Lake die bessere Lösung. Zudem ist der Preis des Zenbook ambitioniert: Es gibt viele günstigere Copilot+PCs oder ähnlich teure, die besser ausgestattet sind. Aber eben keinen leichteren.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops. Copilot+PCs versprechen optimale Leistung für KI. Dieses Versprechen können sie aber erst in der Zukunft einlösen, denn noch fehlt es an interessanten lokalen KI-Anwendungen. Schon heute profitieren Sie aber von diesen Notebooks, wenn Sie einen Mobilrechner mit langer Akkulaufzeit suchen. Das gilt besonders für Copilot-Plus-PCs wie das Zenbook A 14 mit Windows-ARM und einem Snapdragon-Prozessor. Asus geht aber noch einen Schritt weiter: Der 14-Zoll-Laptop ist federleicht und wiegt weniger als ein Kilogramm. Haben wir hier also den optimalen Rechner für unterwegs vor uns? Beim Gehäuse kommen keine Zweifel auf: Asus verwendet dafür sein neues Lieblings-Material Ceraluminium, das so stabil wie Aluminium sein soll, dank der leicht aufgerauten, keramikähnlichen Oberfläche aber angenehmer beim Anfassen ist. Auf dem Deckel sind Fingerabdrücke und Griffspuren tatsächlich auch nach längerem Gebrauch nicht zu sehen – auch weil Asus klugerweise einen unauffälligen Grauton (Iceland Grey) und ein mattes Finish wählt. Auch beim festen Zupacken knarzt und knirscht nichts am Zenbook: Für die Arbeit unterwegs und die Reisestrapazen in Rucksack oder Koffer scheint das Gehäuse gut gerüstet. Für das Gehäuse verwendet Asus das Material Ceraluminium.Thomas Rau Akkulaufzeit Arbeit und Reisen können dabei auch problemlos länger dauern. Denn das Ausdauerversprechen des ARM-Windows kann das Zenbook vollumfänglich bestätigen: Im WLAN-Test schafft es über 18 Stunden in der Windows-Standardeinstellung „Ausbalanciert“. Beim Akkutest mit Officeanwendungen kommt es auf über 13 Stunden, wenn Sie den besonders sparsamen „Flüstermodus“ aktivieren, sogar auf fast 16 Stunden. Diese Ergebnisse sind übrigens kein Widerspruch zu den Marketingbehauptungen von Asus: Der Hersteller spricht von 32 Stunden Laufzeit – allerdings beim Abspielen von Videos, was für einen aktuellen Notebook-Prozessor zu den leichtesten Aufgaben gehört. Denn damit ist vor allem die spezialisierte und daher sehr effiziente Dekodier-Hardware der integrierten GPU beschäftigt, die CPU-Last bleibt niedrig. Das Laden und Darstellen von Webseiten und die unterschiedlichen Arbeitsschritte einer Office-Software fordern den Prozessor dagegen deutlich mehr. Ganz vorne im Testfeld liegt das Zenbook A 14 auch mit seinem Gewicht: Es wiegt nur 972 Gramm und ist damit 300 bis 400 Gramm leichter als andere Business-Notebooks mit 14-Zoll-Display, die in den meisten Fällen außerdem deutlich teurer sind. Das Netzteil mit Typ-C-Kabel liefert 65 Watt und lädt den Akku in einer Stunde auf 83 Prozent auf. Anschlüsse auf der linken Seite: HDMI, zweimal Typ-C mit USB 4 sowie ein Audioport.Thomas Rau Rechenleistung Eine lange Akkulaufzeit ist für ein ultramobiles Notebook wünschenswert – und hier liefert das Zenbook. Viel wichtiger für einen Business-Laptop ist aber die Frage, wie viel der Anwender in dieser Akkulaufzeit erledigen kann. Bei der Performance erweist sich das Zenbook allerdings als Leistungs-Leichtgewicht. Asus setzt nämlich den schwächsten Snapdragon-Prozessor der aktuellen Generation ein: Der X1-26-100 hat nur acht Rechenkerne, während die Modelle des X Elite zwölf und die meisten Varianten des X Plus zehn besitzen. Gegenüber den Plus-Varianten X1P-46-100 und X1P-42-100, die ebenfalls acht Kerne haben, kommt beim X1-26 der Nachteil einer geringeren Taktrate. Im CPU-Test Cinebench R24 liegt der Snapdragon-Prozessor rund 30 Prozent hinter Laptops, in denen seine 12-Kern-Brüder sitzen. Gegen aktuelle Intel-Prozessoren wie dem Core Ultra 7 258V kann er sich dagegen durchsetzen – die haben zwar auch acht Kerne, aber nur vier davon sind leistungsstärkere P-Cores. Im Single-Core-Test kann er aber nicht mit der Intel-Konkurrenz mithalten – hier ist er rund 20 Prozent langsamer. Etwa 10 Prozent beträgt der Rückstand zum Snapdragon X Elite. Business-Anwender stecken daher mit dem Zenbook in einem Leistungsdilemma: Von der verhältnismäßig gute Mehrkern-Performance profitieren vor allem Multimedia-Anwendungen. Doch für aufwändige Foto- und Videobearbeitung ist die absolute Rechengeschwindigkeit des Snapdragon X zu niedrig, zumal seine integrierte Grafik besonders schwach ist. Bei Office-Anwendungen leidet das Zenbook dagegen unter seiner geringen Einzelkern-Leistung. Das verdeutlichen System-Benchmarks wie der PC Mark 10 Applications Benchmark und der Crossmark. Beim PC Mark 10, der zum Test Microsoft Office nutzt, liegt das Zenbook bei Word deutlich hinter Lunar-Lake-Notebooks, bei Excel – das zum Beispiel bei sehr umfangreichen Tabellen mehrere Kerne einsetzt – knapp hinter der Konkurrenz mit Intel. Beim Crossmark entspricht seine Office-Leistung in etwa einem rund drei Jahre alten Core-Prozessor, die Ergebnisse im Multimedia-Test ungefähr einer zwei Jahre alten Intel-CPU. Das kann sich künftig aber ändern, wenn Anwendungen stärker von KI profitieren: Denn auch der schwache Snapdragon X nutzt die gleiche NPU wie Modelle der X-Elite-Serie. Im KI-Test Procyon AI Computer Vision erzielt er mit 1732 Punkten ein gutes Ergebnis. Rechts sitzt dagegen nur ein Typ-A-Port mit USB 3.2 Gen 2.Thomas Rau Betriebsgeräusch Wer erwartet, dass das Zenbook A 14 aufgrund des gemächlichen Prozessors besonders leise arbeitet, liegt falsch: Die beiden Lüfter sind unter Last eher etwas lauter als die meisten Snapdragon- und Lunar-Lake-Laptops. Nur wenn tatsächlich wenig Leistung gefragt ist, zum Beispiel bei einfachen Office-Aufgaben, bleibt das Zenbook ruhig. Auf den von Asus angebotenen Modus „Volle Geschwindigkeit“ sollten Sie beim konzentrierten Arbeiten verzichten: Zwar steigert er die Leistung des Zenbook – im Cinebench R24 zum Beispiel läuft es dadurch rund 25 Prozent schneller -, aber die Lüfter lärmen dann in einer nervtötenden Lautstärke. Immerhin erwärmt sich das Gehäuse auch bei längeren Lastphasen kaum – Sie können das Notebook also beim Arbeiten unterwegs auch unbesorgt auf den Oberschenkeln platzieren. Ein Blick ins Gehäuse offenbart eine interessante Konstruktion des Kühlsystems: Normalerweise sind bei einem Notebook alle Lüfter mit einer Heatpipe verbunden, um die Wärmeabfuhr von Komponenten wie Prozessor und RAM zu verbessen. Beim Zenbook gilt das nur für einen Lüfter, der andere arbeitet wie ein Gehäuselüfter, der auf die Heatpipe bläst. Nur einer der beiden Lüfter ist direkt mit der Heatpipe verbunden.Thomas Rau Bildschirm Der OLED-Bildschirm im Zenbook wartet mit wenig beindruckenden technischen Daten auf: Das 16:10-Display hat eine Bildwiederholrate von 60 Hz und eine niedrige Auflösung von 1920 x 1200. Für die meisten Office-Arbeiter ist das aber völlig ausreichend – höchstens, wer mit umfangreichen Excel-Tabellen zu tun hat, wünscht sich eine höhere Auflösung, um mehr auf dem Bildschirm zu sehen. Beim Test der Bildqualität gibt es aber keine Einschränkungen: Das Panel von Samsung zeigt eine hervorragende Farbwiedergabe und Farbgenauigkeit, einen extrem hohen Kontrast und eine sehr gleichmäßig ausgeleuchtete Bildfläche. Das hat auch Vorteile für den Office-Einsatz: Sie können zum Beispiel im Kundengespräch Videos und Fotos in hoher Qualität präsentieren und bei der An- und Abreise einen Film genießen. Der hohe Kontrast macht ebenso wie die homogene Ausleuchtung das Arbeiten mit Word und Excel angenehmer. Die Helligkeit liegt bei knapp 400 cd/qm2 und ist damit für die meisten Umgebungen geeignet. Sie müssen aber darauf achten, dass Licht nicht direkt auf die spiegelnde Bildschirmoberfläche fällt – das stört die Lesbarkeit, weil das Display die Reflexionen nicht überstrahlen kann. Praktisch: Sie können dem Zenbook die Steuerung der Helligkeit überlassen, denn es besitzt einen Umgebungslichtsensor. Ausstattung Viele Anschlüsse hat das Zenbook nicht: Das ist typisch für kompakte, ultramobile Notebooks. Immerhin ist Asus nicht so radikal wie zum Beispiel Dell, wo es bei der XPS-Serie nur noch zwei Typ-C-Ports gibt. Das Zenbook hat darüber hinaus noch einen USB-Typ-A- und einen HDMI-Anschluss. Ein wenig spart Asus auch am WLAN: Statt Wi-Fi 7 gibt es nur Wi-Fi 6E. Die Kamera erlaubt Video-Meetings in 1080p-Auflösung, unterstützt die biometrische Anmeldung per Windows Hello und hat einen Näherungssensor: So können Sie einstellen, dass automatisch der Sperrbildschirm erscheint, wenn Sie sich vom Notebook entfernen oder sich die Helligkeit reduziert, wenn Sie nicht aufs Display schauen. Tastatur Anspruchsvolle Viel- und Dauerschreiber stellt die Tastatur nicht zufrieden: Das liegt zum einen am Layout mit einzeiliger Enter-Taste. Zum anderen daran, dass sie beim schnellen Tippen nicht besonders leise ist, einen verhältnismäßigen niedrigen Tastenhub besitzt und die Druckrückmeldung der Tasten von der Mitte an den Tastaturrand deutlich nachlässt, sodass sich beim Drücken der äußeren Tasten ein schwammiges Tippgefühl einstellt. Das Touchpad überzeugt hingegen mit einem klaren Druckpunkt, ein Mausklick zieht aber ein lautes Geräusch nach sich. Es ist groß und schnell genug für Mehr-Finger-Gesten, die Oberfläche hätten wir uns aber ein bisschen griffiger gewünscht. Testergebnisse und technische Daten Asus Zenbook A 14 (UX3407Q-Q220W): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen86 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen58 Punkte (von 100)Leistung 3D Mark50 Punkte (von 100)Crossmark1287 PunktePC Mark 10 Applications Benchmark Office11854 PunkteProcyon Office Productivity Test4985 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)547 / 95 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1732 Punkte3D Mark: Night Raid / Steel Nomad16551 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast398 / 94% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 95 / 100Farbabweichung (Delta-E)0,84Display entspiegelt / Touchscreennein / neinAkkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test18:13 / 13:16Leistungsaufnahme Akkubetrieb3,73 WattBetriebsgeräusch unter Last42 dB(A)Temperatur Oberseite / Unterseite36 / 40 Grad Asus Zenbook A 14 (UX3407Q-Q220W): Ausstattung ProzessorQualcomm Snapdragon X1-26-100TaktrateStandard-Takt: 2,96Kerne / Threads8 / 8RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteAdreno 726LaufwerkNVMe-SSD Micron 2500 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-6E (Qualcomm Fastconnect 6900) / 5.4BetriebssystemWindows 11 Home 24H2Display: Diagonale / Auflösung / Format14 Zoll / 1920 x 1200 / 16:10Punktdichte / Wiederholrate162 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil972 / 192 GrammAkku: Kapazität70 WhAnschlüsse rechts1x Typ-A USB 3.2 Gen 2Anschlüsse links2x Typ-C USB4, 1x HDMI, 1x AudioAnschlüsse hinten–Weitere AusstattungFront-Kamera (1080p) mit Windows Hello; Netzteil (65 Watt, Typ-C-Anschluss) (PC-Welt) 

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​ Thomas Rau

Auf einen Blick

Pro

wiegt unter 1 Kilogramm

sehr lange Akkulaufzeit

sehr guter OLED-Bildschirm

Kontra

mäßige Rechenleistung

unter Last laute Lüfter

mäßige Tastatur

Fazit

Das Asus Zenbook A 14 ist der optimale Laptop für unterwegs, denn es ist leicht und ausdauernd. Das gilt aber nur, wenn bei Ihrer Arbeit die Länge der Akkulaufzeit entscheidend ist und weniger, wie produktiv Sie den Laptop nutzen. Denn mit hoher Rechenleistung punktet das Leichtgewicht nicht.Für Internet-Recherche, Video-Wiedergabe und normale Office-Aufgaben genügt der Snapdragon X im Zenbook vollauf. Wenn es aufwändiger wird, sind Notebooks mit Snapdragon X Elite oder Intels Lunar Lake die bessere Lösung. Zudem ist der Preis des Zenbook ambitioniert: Es gibt viele günstigere Copilot+PCs oder ähnlich teure, die besser ausgestattet sind. Aber eben keinen leichteren.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops.

Copilot+PCs versprechen optimale Leistung für KI. Dieses Versprechen können sie aber erst in der Zukunft einlösen, denn noch fehlt es an interessanten lokalen KI-Anwendungen. Schon heute profitieren Sie aber von diesen Notebooks, wenn Sie einen Mobilrechner mit langer Akkulaufzeit suchen.

Das gilt besonders für Copilot-Plus-PCs wie das Zenbook A 14 mit Windows-ARM und einem Snapdragon-Prozessor. Asus geht aber noch einen Schritt weiter: Der 14-Zoll-Laptop ist federleicht und wiegt weniger als ein Kilogramm. Haben wir hier also den optimalen Rechner für unterwegs vor uns?

Beim Gehäuse kommen keine Zweifel auf: Asus verwendet dafür sein neues Lieblings-Material Ceraluminium, das so stabil wie Aluminium sein soll, dank der leicht aufgerauten, keramikähnlichen Oberfläche aber angenehmer beim Anfassen ist.

Auf dem Deckel sind Fingerabdrücke und Griffspuren tatsächlich auch nach längerem Gebrauch nicht zu sehen – auch weil Asus klugerweise einen unauffälligen Grauton (Iceland Grey) und ein mattes Finish wählt. Auch beim festen Zupacken knarzt und knirscht nichts am Zenbook: Für die Arbeit unterwegs und die Reisestrapazen in Rucksack oder Koffer scheint das Gehäuse gut gerüstet.

Für das Gehäuse verwendet Asus das Material Ceraluminium.Thomas Rau

Akkulaufzeit

Arbeit und Reisen können dabei auch problemlos länger dauern. Denn das Ausdauerversprechen des ARM-Windows kann das Zenbook vollumfänglich bestätigen: Im WLAN-Test schafft es über 18 Stunden in der Windows-Standardeinstellung „Ausbalanciert“. Beim Akkutest mit Officeanwendungen kommt es auf über 13 Stunden, wenn Sie den besonders sparsamen „Flüstermodus“ aktivieren, sogar auf fast 16 Stunden.

Diese Ergebnisse sind übrigens kein Widerspruch zu den Marketingbehauptungen von Asus: Der Hersteller spricht von 32 Stunden Laufzeit – allerdings beim Abspielen von Videos, was für einen aktuellen Notebook-Prozessor zu den leichtesten Aufgaben gehört.

Denn damit ist vor allem die spezialisierte und daher sehr effiziente Dekodier-Hardware der integrierten GPU beschäftigt, die CPU-Last bleibt niedrig. Das Laden und Darstellen von Webseiten und die unterschiedlichen Arbeitsschritte einer Office-Software fordern den Prozessor dagegen deutlich mehr.

Ganz vorne im Testfeld liegt das Zenbook A 14 auch mit seinem Gewicht: Es wiegt nur 972 Gramm und ist damit 300 bis 400 Gramm leichter als andere Business-Notebooks mit 14-Zoll-Display, die in den meisten Fällen außerdem deutlich teurer sind.

Das Netzteil mit Typ-C-Kabel liefert 65 Watt und lädt den Akku in einer Stunde auf 83 Prozent auf.

Anschlüsse auf der linken Seite: HDMI, zweimal Typ-C mit USB 4 sowie ein Audioport.Thomas Rau

Rechenleistung

Eine lange Akkulaufzeit ist für ein ultramobiles Notebook wünschenswert – und hier liefert das Zenbook. Viel wichtiger für einen Business-Laptop ist aber die Frage, wie viel der Anwender in dieser Akkulaufzeit erledigen kann.

Bei der Performance erweist sich das Zenbook allerdings als Leistungs-Leichtgewicht. Asus setzt nämlich den schwächsten Snapdragon-Prozessor der aktuellen Generation ein: Der X1-26-100 hat nur acht Rechenkerne, während die Modelle des X Elite zwölf und die meisten Varianten des X Plus zehn besitzen. Gegenüber den Plus-Varianten X1P-46-100 und X1P-42-100, die ebenfalls acht Kerne haben, kommt beim X1-26 der Nachteil einer geringeren Taktrate.

Im CPU-Test Cinebench R24 liegt der Snapdragon-Prozessor rund 30 Prozent hinter Laptops, in denen seine 12-Kern-Brüder sitzen. Gegen aktuelle Intel-Prozessoren wie dem Core Ultra 7 258V kann er sich dagegen durchsetzen – die haben zwar auch acht Kerne, aber nur vier davon sind leistungsstärkere P-Cores.

Im Single-Core-Test kann er aber nicht mit der Intel-Konkurrenz mithalten – hier ist er rund 20 Prozent langsamer. Etwa 10 Prozent beträgt der Rückstand zum Snapdragon X Elite.

Business-Anwender stecken daher mit dem Zenbook in einem Leistungsdilemma: Von der verhältnismäßig gute Mehrkern-Performance profitieren vor allem Multimedia-Anwendungen. Doch für aufwändige Foto- und Videobearbeitung ist die absolute Rechengeschwindigkeit des Snapdragon X zu niedrig, zumal seine integrierte Grafik besonders schwach ist. Bei Office-Anwendungen leidet das Zenbook dagegen unter seiner geringen Einzelkern-Leistung.

Das verdeutlichen System-Benchmarks wie der PC Mark 10 Applications Benchmark und der Crossmark. Beim PC Mark 10, der zum Test Microsoft Office nutzt, liegt das Zenbook bei Word deutlich hinter Lunar-Lake-Notebooks, bei Excel – das zum Beispiel bei sehr umfangreichen Tabellen mehrere Kerne einsetzt – knapp hinter der Konkurrenz mit Intel.

Beim Crossmark entspricht seine Office-Leistung in etwa einem rund drei Jahre alten Core-Prozessor, die Ergebnisse im Multimedia-Test ungefähr einer zwei Jahre alten Intel-CPU.

Das kann sich künftig aber ändern, wenn Anwendungen stärker von KI profitieren: Denn auch der schwache Snapdragon X nutzt die gleiche NPU wie Modelle der X-Elite-Serie. Im KI-Test Procyon AI Computer Vision erzielt er mit 1732 Punkten ein gutes Ergebnis.

Rechts sitzt dagegen nur ein Typ-A-Port mit USB 3.2 Gen 2.Thomas Rau

Betriebsgeräusch

Wer erwartet, dass das Zenbook A 14 aufgrund des gemächlichen Prozessors besonders leise arbeitet, liegt falsch: Die beiden Lüfter sind unter Last eher etwas lauter als die meisten Snapdragon- und Lunar-Lake-Laptops. Nur wenn tatsächlich wenig Leistung gefragt ist, zum Beispiel bei einfachen Office-Aufgaben, bleibt das Zenbook ruhig.

Auf den von Asus angebotenen Modus „Volle Geschwindigkeit“ sollten Sie beim konzentrierten Arbeiten verzichten: Zwar steigert er die Leistung des Zenbook – im Cinebench R24 zum Beispiel läuft es dadurch rund 25 Prozent schneller -, aber die Lüfter lärmen dann in einer nervtötenden Lautstärke.

Immerhin erwärmt sich das Gehäuse auch bei längeren Lastphasen kaum – Sie können das Notebook also beim Arbeiten unterwegs auch unbesorgt auf den Oberschenkeln platzieren.

Ein Blick ins Gehäuse offenbart eine interessante Konstruktion des Kühlsystems: Normalerweise sind bei einem Notebook alle Lüfter mit einer Heatpipe verbunden, um die Wärmeabfuhr von Komponenten wie Prozessor und RAM zu verbessen. Beim Zenbook gilt das nur für einen Lüfter, der andere arbeitet wie ein Gehäuselüfter, der auf die Heatpipe bläst.

Nur einer der beiden Lüfter ist direkt mit der Heatpipe verbunden.Thomas Rau

Bildschirm

Der OLED-Bildschirm im Zenbook wartet mit wenig beindruckenden technischen Daten auf: Das 16:10-Display hat eine Bildwiederholrate von 60 Hz und eine niedrige Auflösung von 1920 x 1200. Für die meisten Office-Arbeiter ist das aber völlig ausreichend – höchstens, wer mit umfangreichen Excel-Tabellen zu tun hat, wünscht sich eine höhere Auflösung, um mehr auf dem Bildschirm zu sehen.

Beim Test der Bildqualität gibt es aber keine Einschränkungen: Das Panel von Samsung zeigt eine hervorragende Farbwiedergabe und Farbgenauigkeit, einen extrem hohen Kontrast und eine sehr gleichmäßig ausgeleuchtete Bildfläche. Das hat auch Vorteile für den Office-Einsatz: Sie können zum Beispiel im Kundengespräch Videos und Fotos in hoher Qualität präsentieren und bei der An- und Abreise einen Film genießen. Der hohe Kontrast macht ebenso wie die homogene Ausleuchtung das Arbeiten mit Word und Excel angenehmer.

Die Helligkeit liegt bei knapp 400 cd/qm2 und ist damit für die meisten Umgebungen geeignet. Sie müssen aber darauf achten, dass Licht nicht direkt auf die spiegelnde Bildschirmoberfläche fällt – das stört die Lesbarkeit, weil das Display die Reflexionen nicht überstrahlen kann. Praktisch: Sie können dem Zenbook die Steuerung der Helligkeit überlassen, denn es besitzt einen Umgebungslichtsensor.

Ausstattung

Viele Anschlüsse hat das Zenbook nicht: Das ist typisch für kompakte, ultramobile Notebooks. Immerhin ist Asus nicht so radikal wie zum Beispiel Dell, wo es bei der XPS-Serie nur noch zwei Typ-C-Ports gibt. Das Zenbook hat darüber hinaus noch einen USB-Typ-A- und einen HDMI-Anschluss.

Ein wenig spart Asus auch am WLAN: Statt Wi-Fi 7 gibt es nur Wi-Fi 6E. Die Kamera erlaubt Video-Meetings in 1080p-Auflösung, unterstützt die biometrische Anmeldung per Windows Hello und hat einen Näherungssensor: So können Sie einstellen, dass automatisch der Sperrbildschirm erscheint, wenn Sie sich vom Notebook entfernen oder sich die Helligkeit reduziert, wenn Sie nicht aufs Display schauen.

Tastatur

Anspruchsvolle Viel- und Dauerschreiber stellt die Tastatur nicht zufrieden: Das liegt zum einen am Layout mit einzeiliger Enter-Taste. Zum anderen daran, dass sie beim schnellen Tippen nicht besonders leise ist, einen verhältnismäßigen niedrigen Tastenhub besitzt und die Druckrückmeldung der Tasten von der Mitte an den Tastaturrand deutlich nachlässt, sodass sich beim Drücken der äußeren Tasten ein schwammiges Tippgefühl einstellt.

Das Touchpad überzeugt hingegen mit einem klaren Druckpunkt, ein Mausklick zieht aber ein lautes Geräusch nach sich. Es ist groß und schnell genug für Mehr-Finger-Gesten, die Oberfläche hätten wir uns aber ein bisschen griffiger gewünscht.

Testergebnisse und technische Daten

Asus Zenbook A 14 (UX3407Q-Q220W): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen86 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen58 Punkte (von 100)Leistung 3D Mark50 Punkte (von 100)Crossmark1287 PunktePC Mark 10 Applications Benchmark Office11854 PunkteProcyon Office Productivity Test4985 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)547 / 95 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1732 Punkte3D Mark: Night Raid / Steel Nomad16551 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast398 / 94% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 95 / 100Farbabweichung (Delta-E)0,84Display entspiegelt / Touchscreennein / neinAkkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test18:13 / 13:16Leistungsaufnahme Akkubetrieb3,73 WattBetriebsgeräusch unter Last42 dB(A)Temperatur Oberseite / Unterseite36 / 40 Grad

Asus Zenbook A 14 (UX3407Q-Q220W): Ausstattung ProzessorQualcomm Snapdragon X1-26-100TaktrateStandard-Takt: 2,96Kerne / Threads8 / 8RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteAdreno 726LaufwerkNVMe-SSD Micron 2500 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-6E (Qualcomm Fastconnect 6900) / 5.4BetriebssystemWindows 11 Home 24H2Display: Diagonale / Auflösung / Format14 Zoll / 1920 x 1200 / 16:10Punktdichte / Wiederholrate162 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil972 / 192 GrammAkku: Kapazität70 WhAnschlüsse rechts1x Typ-A USB 3.2 Gen 2Anschlüsse links2x Typ-C USB4, 1x HDMI, 1x AudioAnschlüsse hinten–Weitere AusstattungFront-Kamera (1080p) mit Windows Hello; Netzteil (65 Watt, Typ-C-Anschluss)

(PC-Welt)

Asus Zenbook A 14 im Test: Extrem leichter und ausdauernder Copilot-Plus-PC​ Weiterlesen »

Mit KI-Agenten aus der Service-Wüste?​

Allgemein

Der Kundenservice gehört zu den Bereichen, in denen sich Unternehmen die meisten Vorteile vom Einsatz von (generativer) künstlicher Intelligenz versprechen. Doch auch die von langen Warteschleifen und oft frustrierender Kommunikation geplagten Verbraucher schöpfen Hoffnung. Sie könnten mit Hilfe von KI zu einem persönlicheren und individuell zugeschnittenen Kundenservice gelangen.   Kunden wollen schnell und persönlich betreut werden  Zu diesem Ergebnis kommt der aktuelle Consumer Voice Report von ServiceNow und Opinium, für den 2.000 Verbraucher in Deutschland befragt wurden. Wie die Studie ergab, haben die Kunden die Nase voll von schlechten Service-Erlebnissen:   Sechzig Prozent der Befragten möchten nicht länger als maximal zehn Minuten in einer Warteschleife verbringen.   Fast ebenso viele (59 Prozent) betonen, dass eine einfache und unkomplizierte Lösung für sie oberste Priorität hat. Gleichzeitig bekundeten 56 Prozent, dass ihnen mehr Freundlichkeit und Empathie im Kundenservice sehr wichtig sei.  Wie die Studienbetreiber ausführen, sind KI-Agenten die Lösung, um diese derzeit noch häufig konträren Kundenwünsche zu realisieren. So könnten automatisierte Systeme Anfragen in Echtzeit vorqualifizieren, Routineaufgaben effizient erledigen und Kundenanliegen intelligent priorisieren. Dadurch würden wertvolle Ressourcen im Kundenservice entlastet, was wiederum zu schnelleren Reaktionszeiten führe.   „Technologie ist eine treibende Kraft im Kundenservice – sie ermöglicht schnelle, zuverlässige und effiziente Lösungen”, erklärt Robert Rosellen, VP Sales and Country Manager Germany bei ServiceNow. „Doch wahre Exzellenz entsteht erst durch die intelligente Verbindung von künstlicher Intelligenz und menschlicher Expertise, basierend auf fundierten Dateneinblicken.“  Misstrauen gegenüber KI-Chatbots  Dies deckt sich mit dem Ergebnis der Studie, wonach die Verbraucher aktuell am liebsten mit einem Menschen aus dem Kundenservice telefonieren, um zu einer Lösung zu gelangen. Erst danach kommt mit großem Abstand ein KI-Chatbot, gefolgt von den Optionen Sprachassistent, Social Media und Self Service.   Gleichzeitig gibt es laut Umfrage eine ganze Reihe von Aktivitäten, bei denen sich viele Verbraucher nie einem KI-Chatbot anvertrauen würden. Etwa, um:  eine verdächtige Transaktion anzufechten (40 Prozent);  ein Bankkonto nach dem Tod eines geliebten Menschen zu schließen (39 Prozent);  medizinische Informationen weiterzugeben (34 Prozent); einen verlorenen oder gestohlenen Reisepass ersetzen zulassen (34 Prozent);  Dienstleistungen zu kündigen oder Konten zu schließen (31 Prozent).  Die Studie identifizierte bei den Befragten zahlreiche Gründe für die – derzeitige – Abneigung gegenüber KI-Chatbots im Kundenservice. Demnach wirkten diese unpersönlich oder desinteressiert (17 Prozent), hätten Probleme mit komplexen Aufgaben (zwölf Prozent) oder machten Fehler (elf Prozent). Jeder zehnte Umfrageteilnehmer beklagte außerdem, dass er den Antworten der KI nicht traue und/oder sich emotional nicht verbunden fühle. KI-Agenten werden einfühlsam  Generell sind derzeit noch 58 Prozent der Befragten der Auffassung, dass KI-gestützte Lösungen nicht in der Lage seien, emotionale Signale zu erkennen zu können. Gleichzeitig rechnen aber 71 Prozent damit, dass KI in Zukunft besser auf ihre Emotionen und Tonlage reagieren kann.  Aus Sicht der Studienbetreiber wäre diese Eigenschaft ein entscheidender Schritt hin zu einem persönlicheren und individuell zugeschnittenen Kundenservice. Denn mit den Fortschritten in generativer KI entstünden neue Möglichkeiten, Inhalte dynamisch zu erstellen sowie emotionale Anliegen zu erkennen und intelligent einzuordnen. Als Resultat könnten menschliche Berater gezielter und empathischer agieren, da sie sich auf die wirklich relevanten, oft komplexeren Fälle konzentrieren. Das Ergebnis: Ein Kundenservice, der gleichzeitig effizienter und menschlicher wird.  „Die Serviceerfahrungen deutscher Verbraucher müssen nicht so bleiben, wie sie sind. KI-basierte Lösungen beweisen schon heute, dass schneller, effizienter und empathischer Kundenservice möglich ist,“ erklärt Michael Wallner, Head of Generative AI GTM EMEA Central bei ServiceNow. „Die Zukunft liegt in der Verbindung von KI, Daten und intelligenten Workflows mit menschlicher, emotionaler Intelligenz.“  

Mit KI-Agenten aus der Service-Wüste?​ Der Kundenservice gehört zu den Bereichen, in denen sich Unternehmen die meisten Vorteile vom Einsatz von (generativer) künstlicher Intelligenz versprechen. Doch auch die von langen Warteschleifen und oft frustrierender Kommunikation geplagten Verbraucher schöpfen Hoffnung. Sie könnten mit Hilfe von KI zu einem persönlicheren und individuell zugeschnittenen Kundenservice gelangen.  

Kunden wollen schnell und persönlich betreut werden 

Zu diesem Ergebnis kommt der aktuelle Consumer Voice Report von ServiceNow und Opinium, für den 2.000 Verbraucher in Deutschland befragt wurden. Wie die Studie ergab, haben die Kunden die Nase voll von schlechten Service-Erlebnissen:  

Sechzig Prozent der Befragten möchten nicht länger als maximal zehn Minuten in einer Warteschleife verbringen.  

Fast ebenso viele (59 Prozent) betonen, dass eine einfache und unkomplizierte Lösung für sie oberste Priorität hat.

Gleichzeitig bekundeten 56 Prozent, dass ihnen mehr Freundlichkeit und Empathie im Kundenservice sehr wichtig sei. 

Wie die Studienbetreiber ausführen, sind KI-Agenten die Lösung, um diese derzeit noch häufig konträren Kundenwünsche zu realisieren. So könnten automatisierte Systeme Anfragen in Echtzeit vorqualifizieren, Routineaufgaben effizient erledigen und Kundenanliegen intelligent priorisieren. Dadurch würden wertvolle Ressourcen im Kundenservice entlastet, was wiederum zu schnelleren Reaktionszeiten führe.  

„Technologie ist eine treibende Kraft im Kundenservice – sie ermöglicht schnelle, zuverlässige und effiziente Lösungen”, erklärt Robert Rosellen, VP Sales and Country Manager Germany bei ServiceNow. „Doch wahre Exzellenz entsteht erst durch die intelligente Verbindung von künstlicher Intelligenz und menschlicher Expertise, basierend auf fundierten Dateneinblicken.“ 

Misstrauen gegenüber KI-Chatbots 

Dies deckt sich mit dem Ergebnis der Studie, wonach die Verbraucher aktuell am liebsten mit einem Menschen aus dem Kundenservice telefonieren, um zu einer Lösung zu gelangen. Erst danach kommt mit großem Abstand ein KI-Chatbot, gefolgt von den Optionen Sprachassistent, Social Media und Self Service.  

Gleichzeitig gibt es laut Umfrage eine ganze Reihe von Aktivitäten, bei denen sich viele Verbraucher nie einem KI-Chatbot anvertrauen würden. Etwa, um: 

eine verdächtige Transaktion anzufechten (40 Prozent); 

ein Bankkonto nach dem Tod eines geliebten Menschen zu schließen (39 Prozent); 

medizinische Informationen weiterzugeben (34 Prozent);

einen verlorenen oder gestohlenen Reisepass ersetzen zulassen (34 Prozent); 

Dienstleistungen zu kündigen oder Konten zu schließen (31 Prozent). 

Die Studie identifizierte bei den Befragten zahlreiche Gründe für die – derzeitige – Abneigung gegenüber KI-Chatbots im Kundenservice. Demnach wirkten diese unpersönlich oder desinteressiert (17 Prozent), hätten Probleme mit komplexen Aufgaben (zwölf Prozent) oder machten Fehler (elf Prozent). Jeder zehnte Umfrageteilnehmer beklagte außerdem, dass er den Antworten der KI nicht traue und/oder sich emotional nicht verbunden fühle.

KI-Agenten werden einfühlsam 

Generell sind derzeit noch 58 Prozent der Befragten der Auffassung, dass KI-gestützte Lösungen nicht in der Lage seien, emotionale Signale zu erkennen zu können. Gleichzeitig rechnen aber 71 Prozent damit, dass KI in Zukunft besser auf ihre Emotionen und Tonlage reagieren kann. 

Aus Sicht der Studienbetreiber wäre diese Eigenschaft ein entscheidender Schritt hin zu einem persönlicheren und individuell zugeschnittenen Kundenservice. Denn mit den Fortschritten in generativer KI entstünden neue Möglichkeiten, Inhalte dynamisch zu erstellen sowie emotionale Anliegen zu erkennen und intelligent einzuordnen. Als Resultat könnten menschliche Berater gezielter und empathischer agieren, da sie sich auf die wirklich relevanten, oft komplexeren Fälle konzentrieren. Das Ergebnis: Ein Kundenservice, der gleichzeitig effizienter und menschlicher wird. 

„Die Serviceerfahrungen deutscher Verbraucher müssen nicht so bleiben, wie sie sind. KI-basierte Lösungen beweisen schon heute, dass schneller, effizienter und empathischer Kundenservice möglich ist,“ erklärt Michael Wallner, Head of Generative AI GTM EMEA Central bei ServiceNow. „Die Zukunft liegt in der Verbindung von KI, Daten und intelligenten Workflows mit menschlicher, emotionaler Intelligenz.“ 

Mit KI-Agenten aus der Service-Wüste?​ Weiterlesen »

Datenbanken erstellen: 7 fatale SQL-Fehler​

Allgemein

Wenn die Datenbankabfrage mal wieder länger dauert… Foto: Pressmaster | shutterstock.com Datenbankentwickler haben es nicht leicht, ganz egal, ob sie SQL Server, Oracle, DB2, MySQL, PostgreSQL oder SQLite verwenden. Immerhin sind die Herausforderungen ähnlich. Insbesondere schlecht geschriebene Abfragen können eigentlich vorteilhafte Datenbankfunktionen zunichtemachen und dazu führen, dass Systemressourcen ohne Not verschwendet werden. Im Folgenden lesen Sie, welche SQL-, beziehungsweise Datenbank-Verfehlungen Sie vermeiden sollten, damit Ihnen das erspart bleibt. 1. Blind abfragen In der Regel ist eine SQL Query darauf ausgelegt, die Daten abzurufen, die für einen bestimmten Task nötig sind. Wenn Sie eine Abfrage wiederverwenden, die für die meisten Ihrer Use Cases geeignet ist, mag das zunächst von außen betrachtet ganz gut funktionieren. Es kann jedoch sein, dass “unter der Haube” zu viele Daten abgefragt werden, was zu Lasten von Performance und Ressourcen geht – sich aber erst dann bemerkbar macht, wenn skaliert werden soll. Empfehlung: Prüfen Sie Queries, die wiederverwendet werden sollen, und passen Sie diese an den jeweiligen Anwendungsfall an. 2. Views verschachteln Views bieten eine standardisierte Möglichkeit, Daten zu betrachten und ersparen den Benutzern, sich mit komplexen Queries beschäftigen zu müssen. Wenn Views allerdings dazu genutzt werden, um andere Views abzufragen (“Nesting views”), wird es problematisch. Views zu verschachteln, zieht gleich mehrere Nachteile nach sich: Es werden mehr Daten abgefragt als nötig. Es verschleiert den Arbeitsaufwand, der nötig ist, um einen bestimmten Datensatz abzufragen. Es erschwert dem Optimizer, die resultierenden Queries zu optimieren. Empfehlung: Sehen Sie davon ab, Views zu verschachteln. Es empfiehlt sich, bestehende Verschachtelungen umzuschreiben, um nur die jeweils benötigten Daten abzufragen. 3. All-in-One-Transaktionen Angenommen, Sie wollen Daten aus zehn Tabellen löschen. In dieser Situation könnten Sie der Versuchung erliegen, sämtliche Löschvorgänge in einer einzigen Transaktion durchzuführen. Lassen Sie es. Empfehlung: Behandeln Sie stattdessen die Operationen für jede Tabelle separat. Wenn Sie Löschvorgänge über Tabellen hinweg atomar ausführen müssen, können Sie diese in viele kleinere Transaktionen aufsplitten. Wenn Sie beispielsweise 10.000 Zeilen in 20 Tabellen löschen müssen, können Sie die ersten tausend Zeilen in einer Transaktion für alle 20 Tabellen löschen, dann die nächsten tausend in einer weiteren Transaktion – und so weiter. Das ist ein guter Anwendungsfall für einen Task-Queue-Mechanismus in Ihrer Geschäftslogik, mit dem sich solche Vorgänge managen lassen. 4. Volatil clustern Global Unique Identifiers (GUIDs) sind Zufallszahlen und dienen dazu, Objekten eine eindeutige Kennung zuzuweisen. Diverse Datenbanken unterstützen dieses Schema als nativen Spaltentyp. GUIDs sollten allerdings nicht verwendet werden, um die Zeilen, in denen sie enthalten sind, zu clustern. Da es sich um Zufallszahlen handelt, führt das dazu, dass die Tabelle durch das Clustering stark fragmentiert wird. Das kann wiederum dazu führen, dass Tabellenoperationen um mehrere Größenordnungen langsamer laufen. Empfehlung: Clustern Sie nicht auf Spalten mit hohem Randomness-Anteil. Beschränken Sie sich auf Datums- oder ID-Spalten – das funktioniert am besten. 5. Zeilen ineffizient zählen Um zu bestimmen, ob bestimmte Daten innerhalb einer Tabelle existieren, sind Befehle wie SELECT COUNT(ID) FROM table1 oft ineffizient. Einige Datenbanken sind zwar in der Lage, SELECT COUNT()-Operationen intelligent zu optimieren, aber eben nicht alle. Der bessere Ansatz (wenn Ihr SQL-Dialekt das unterstützt): IF EXISTS (SELECT 1 from table1 LIMIT 1) BEGIN … END Empfehlung: Wenn es Ihnen um die Anzahl der Zeilen geht, können Sie auch eine entsprechende Statistiken aus der Systemtabelle abrufen. Einige Datenbankanbieter ermöglichen auch spezielle Queries: In MySQL können Sie mit SHOW TABLE STATUS beispielsweise Statistiken über alle Tabellen einholen – einschließlich der Zeilenzahl. 6. Trigger falsch nutzen Trigger sind praktisch, weisen aber eine wesentliche Einschränkung auf: Sie müssen in derselben Transaktion wie die ursprüngliche Operation ausgeführt werden. Wenn Sie einen Trigger erstellen, um eine Tabelle zu ändern, während eine andere Tabelle geändert wird, werden beide gesperrt – zumindest, bis der Trigger beendet ist. Empfehlung: Wenn Sie einen Trigger verwenden müssen, stellen Sie sicher, dass er nicht mehr Ressourcen sperrt, als vertretbar ist. Ein gespeicherter Prozess könnte an dieser Stelle die bessere Lösung sein – er kann Trigger-ähnliche Operationen über mehrere Transaktionen hinweg unterbrechen. 7. Negativ abfragen SELECT * FROM Users WHERE Users.Status 2 – eine Query wie diese ist problematisch. Ein Index für die Spalte “Users.Status” ist zwar nützlich, allerdings führen solche negativen Suchabfragen für gewöhnlich zu einem Tabellenscan. Empfehlung: Die bessere Lösung besteht darin, Ihre Abfragen so zu gestalten, die Indizes effizient nutzen. Zum Beispiel: SELECT * FROM Users WHERE User.ID NOT IN (Select Users.ID FROM USERS WHERE Users.Status=2). Auf diese Weise können Sie die Indizes für die ID- und Status-Spalten nutzen, um nicht benötigte Daten herauszufiltern – ohne Tabellen zu scannen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Datenbanken erstellen: 7 fatale SQL-Fehler​ Wenn die Datenbankabfrage mal wieder länger dauert…
Foto: Pressmaster | shutterstock.com

Datenbankentwickler haben es nicht leicht, ganz egal, ob sie SQL Server, Oracle, DB2, MySQL, PostgreSQL oder SQLite verwenden. Immerhin sind die Herausforderungen ähnlich. Insbesondere schlecht geschriebene Abfragen können eigentlich vorteilhafte Datenbankfunktionen zunichtemachen und dazu führen, dass Systemressourcen ohne Not verschwendet werden.

Im Folgenden lesen Sie, welche SQL-, beziehungsweise Datenbank-Verfehlungen Sie vermeiden sollten, damit Ihnen das erspart bleibt.

1. Blind abfragen

In der Regel ist eine SQL Query darauf ausgelegt, die Daten abzurufen, die für einen bestimmten Task nötig sind. Wenn Sie eine Abfrage wiederverwenden, die für die meisten Ihrer Use Cases geeignet ist, mag das zunächst von außen betrachtet ganz gut funktionieren. Es kann jedoch sein, dass “unter der Haube” zu viele Daten abgefragt werden, was zu Lasten von Performance und Ressourcen geht – sich aber erst dann bemerkbar macht, wenn skaliert werden soll.

Empfehlung: Prüfen Sie Queries, die wiederverwendet werden sollen, und passen Sie diese an den jeweiligen Anwendungsfall an.

2. Views verschachteln

Views bieten eine standardisierte Möglichkeit, Daten zu betrachten und ersparen den Benutzern, sich mit komplexen Queries beschäftigen zu müssen. Wenn Views allerdings dazu genutzt werden, um andere Views abzufragen (“Nesting views”), wird es problematisch. Views zu verschachteln, zieht gleich mehrere Nachteile nach sich:

Es werden mehr Daten abgefragt als nötig.

Es verschleiert den Arbeitsaufwand, der nötig ist, um einen bestimmten Datensatz abzufragen.

Es erschwert dem Optimizer, die resultierenden Queries zu optimieren.

Empfehlung: Sehen Sie davon ab, Views zu verschachteln. Es empfiehlt sich, bestehende Verschachtelungen umzuschreiben, um nur die jeweils benötigten Daten abzufragen.

3. All-in-One-Transaktionen

Angenommen, Sie wollen Daten aus zehn Tabellen löschen. In dieser Situation könnten Sie der Versuchung erliegen, sämtliche Löschvorgänge in einer einzigen Transaktion durchzuführen. Lassen Sie es.

Empfehlung: Behandeln Sie stattdessen die Operationen für jede Tabelle separat. Wenn Sie Löschvorgänge über Tabellen hinweg atomar ausführen müssen, können Sie diese in viele kleinere Transaktionen aufsplitten. Wenn Sie beispielsweise 10.000 Zeilen in 20 Tabellen löschen müssen, können Sie die ersten tausend Zeilen in einer Transaktion für alle 20 Tabellen löschen, dann die nächsten tausend in einer weiteren Transaktion – und so weiter. Das ist ein guter Anwendungsfall für einen Task-Queue-Mechanismus in Ihrer Geschäftslogik, mit dem sich solche Vorgänge managen lassen.

4. Volatil clustern

Global Unique Identifiers (GUIDs) sind Zufallszahlen und dienen dazu, Objekten eine eindeutige Kennung zuzuweisen. Diverse Datenbanken unterstützen dieses Schema als nativen Spaltentyp. GUIDs sollten allerdings nicht verwendet werden, um die Zeilen, in denen sie enthalten sind, zu clustern. Da es sich um Zufallszahlen handelt, führt das dazu, dass die Tabelle durch das Clustering stark fragmentiert wird. Das kann wiederum dazu führen, dass Tabellenoperationen um mehrere Größenordnungen langsamer laufen.

Empfehlung: Clustern Sie nicht auf Spalten mit hohem Randomness-Anteil. Beschränken Sie sich auf Datums- oder ID-Spalten – das funktioniert am besten.

5. Zeilen ineffizient zählen

Um zu bestimmen, ob bestimmte Daten innerhalb einer Tabelle existieren, sind Befehle wie SELECT COUNT(ID) FROM table1 oft ineffizient. Einige Datenbanken sind zwar in der Lage, SELECT COUNT()-Operationen intelligent zu optimieren, aber eben nicht alle. Der bessere Ansatz (wenn Ihr SQL-Dialekt das unterstützt):

IF EXISTS (SELECT 1 from table1 LIMIT 1) BEGIN … END

Empfehlung: Wenn es Ihnen um die Anzahl der Zeilen geht, können Sie auch eine entsprechende Statistiken aus der Systemtabelle abrufen. Einige Datenbankanbieter ermöglichen auch spezielle Queries: In MySQL können Sie mit SHOW TABLE STATUS beispielsweise Statistiken über alle Tabellen einholen – einschließlich der Zeilenzahl.

6. Trigger falsch nutzen

Trigger sind praktisch, weisen aber eine wesentliche Einschränkung auf: Sie müssen in derselben Transaktion wie die ursprüngliche Operation ausgeführt werden. Wenn Sie einen Trigger erstellen, um eine Tabelle zu ändern, während eine andere Tabelle geändert wird, werden beide gesperrt – zumindest, bis der Trigger beendet ist.

Empfehlung: Wenn Sie einen Trigger verwenden müssen, stellen Sie sicher, dass er nicht mehr Ressourcen sperrt, als vertretbar ist. Ein gespeicherter Prozess könnte an dieser Stelle die bessere Lösung sein – er kann Trigger-ähnliche Operationen über mehrere Transaktionen hinweg unterbrechen.

7. Negativ abfragen

SELECT * FROM Users WHERE Users.Status 2 – eine Query wie diese ist problematisch. Ein Index für die Spalte “Users.Status” ist zwar nützlich, allerdings führen solche negativen Suchabfragen für gewöhnlich zu einem Tabellenscan.

Empfehlung: Die bessere Lösung besteht darin, Ihre Abfragen so zu gestalten, die Indizes effizient nutzen. Zum Beispiel: SELECT * FROM Users WHERE User.ID NOT IN (Select Users.ID FROM USERS WHERE Users.Status=2). Auf diese Weise können Sie die Indizes für die ID- und Status-Spalten nutzen, um nicht benötigte Daten herauszufiltern – ohne Tabellen zu scannen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Datenbanken erstellen: 7 fatale SQL-Fehler​ Weiterlesen »

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​

Allgemein

Melnikov Dmitriy / Shutterstock.com Die wohl größte Hürde bei der Installation von Windows 11 sind die strikten Hardwareanforderungen des Betriebssystems. Microsoft hat die Mindestsystemanforderungen zuletzt weiter erhöht. Viele der derzeit verwendeten Desktop-PCs und Notebooks erfüllen die Systemvoraussetzungen von Windows 11 nicht, insbesondere in Hinblick auf den erforderlichen TPM-2.0- Chip (Trusted Platform Module), Secure-Boot und die Prozessoranforderungen. Als betroffener Nutzer sind Sie daher gezwungen, entweder neue Hardware zu kaufen oder weiterhin mit Windows 10 zu arbeiten. Das wiederum bringt Sicherheitsprobleme und Einschränkungen bei der Nutzung neuer Funktionen mit sich – keine gute Idee. Mit Virtualbox umgehen Sie die Hürden und installieren das aktuelle Windows 11 24H2 auch auf einem älteren PC. Spartipp: Windows 11 Pro legal für nur 70 Euro statt 259 Euro UVP kaufen UEFI, Secure Boot und TPM 2.0 Windows 11 prüft während der Installation, ob der Rechner, auf dem Sie das Betriebssystem installieren wollen, mit einer Unified Extensible Firmware Interface (UEFI) ausgestattet ist. Der BIOS-Nachfolger ist Voraussetzung für eine Reihe von Sicherheitsfunktionen, darunter Secure Boot. Secure Boot ist ein von UEFI unterstützter Sicherheitsstandard, der sicherstellt, dass der PC nur ein vertrauenswürdiges Betriebssystem startet. Diese Funktion gibt den Start von Windows nur dann frei, wenn der Bootloader nicht durch Schadsoftware wie Viren oder Ransomware verändert wurde. Ein TPM-Chip in der Version 2.0 auf der Hauptplatine des Rechners ist die Hardware-Basis für die Secure-Boot-Funktion. IDG TPM-2.0-Hürde umgehen Es gibt zwei grundsätzliche Möglichkeiten, die strengen Systemanforderungen von Windows 11 zu umgehen: Entweder man verändert die Installationsroutine in der Form, dass UEFI, Secure Boot und TPM nicht mehr überprüft werden. Wie das funktioniert, erfahren Sie im Kasten am Ende des Artikels. Oder – und diese Möglichkeit bietet Virtualbox – die relevanten Komponenten werden emuliert. Virtualbox kann Kernkomponenten, die Microsoft für die Installation und Nutzung von Windows 11 voraussetzt, originalgetreu nachbilden. Das bedeutet, dass die Virtualisierungssoftware einer virtuellen Maschine das TPM rein softwareseitig ohne eigenen TPM-Chip zur Verfügung stellt, Stichwort „virtual Trusted Platform Module“, kurz „vTPM“. Für Windows sieht es dann so aus, als ob die virtuelle Maschine mit einem echten TPM ausgestattet wäre. Auch die weiteren von Microsoft geforderten Voraussetzungen für die Installation von Windows 11 – Secure Boot und UEFI-Firmware – bietet Virtualbox als vollwertige Emulation an. Oracle, das Unternehmen hinter Virtualbox, hat die Virtualisierungssoftware so optimiert, dass TPM 2.0, Secure Boot und UEFI standardmäßig aktiviert werden, wenn Sie eine neue virtuelle Maschine erstellen, als Typ „Microsoft Windows“ und als Version „Windows 11 (64-bit)“ auswählen. Siehe auch: Windows 11 auf jeder Hardware installieren – so geht´s VM umkonfigurieren Die Umstellung von BIOS auf UEFI, Secure Boot und TPM 2.0 können Sie in Virtualbox auch nachträglich durchführen. Dies kann notwendig sein, wenn Sie eine ältere virtuelle Maschine auf Windows 11 aktualisieren möchten oder die Einstellungen beim Erstellen der VM ausgelassen haben. Stellen Sie sicher, dass die virtuelle Maschine heruntergefahren ist. Klicken Sie im Hauptfenster von Virtualbox mit der rechten Maustaste auf den Namen der VM und wählen Sie „Ändern“. Klicken Sie auf der linken Seite auf „System“. In der Ausklappliste „TPM“ stellen Sie „v2.0“ ein. Weiter unten finden sich die Optionen „EFI aktivieren (nur spezielle Gäste)“ und „Secure Boot aktivieren“. Setzen Sie ein Häkchen vor „EFI aktivieren …“. Nachdem Sie diese Option aktiviert haben, können Sie auch ein Häkchen vor „Secure Boot aktivieren“ setzen. Übernehmen Sie Ihre Änderungen mit einem Klick auf den „OK“-Button. Wichtig: Es reicht nicht aus, UEFI, Secure Boot und TPM 2.0 nur temporär für die Installation von oder das Upgrade auf Windows 11 zu aktivieren. Windows 11 überprüft die Systemvoraussetzungen von Zeit zu Zeit, zum Beispiel im Rahmen von Online-Updates. Lassen die entsprechenden Optionen daher dauerhaft aktiviert. Vorteile für vTPM „vTPM ermöglicht den Nachweis durch Messung der gesamten Startkette der VM (UEFI, Betriebssystem, System und Treiber),“ lobt Microsoft die generellen Vorteile einer TPM-Emulation, wenn auch im Zusammenhang mit der eigenen Business-Virtualisierungsplattform Azure. Positiv für Sie als Anwender: Windows 11 kann die softwarebasierte Ausführung des physischen TPM-Kryptoprozessors im laufenden Betrieb jederzeit überprüfen, ohne dass es zu Funktionseinschränkungen kommt. Anders bei der im Kasten unten beschriebenen Umgehung der Sicherheitsfunktionen durch Rufus: Hier besteht die Gefahr, dass Windows die Modifikation erkennt und Updates verweigert. TPM 2.0 mit Rufus umgehen Der Bootgenerator Rufus modifiziert die Installationsdateien von Windows 11 so, dass Sie das Betriebssystem auch auf älterer Hardware oder in einer virtuellen Maschine ohne TPM 2.0, UEFI und Secure Boot installieren können. Für Windows 11 24H2 ist mindestens Rufus 4.5 erforderlich, ein Inplace Upgrade von Windows 11 unterstützt erst Rufus ab Version 4.6. Neben Rufus benötigen Sie die ISO-Datei von Windows 11 und einen USB-Stick, auf den das Tool die modifizierten Installationsdateien des Betriebssystems schreibt. IDG Installieren Sie Rufus, und starten Sie das Programm. Schließen Sie den USB-Stick an den Rechner an. Wählen Sie oben im Ausklappfeld das Laufwerk mit Ihrem USB-Stick aus. Achtung: Eventuell auf dem Stick vorhanden Dateien werden überschrieben! Klicken Sie dann hinter „Laufwerk oder ISO-lmage (Bitte wählen Sie ein Image)“ auf den Button „Auswahl“, und wählen Sie die ISO-Datei von Windows 11 aus. Klicken Sie auf „Start“. Rufus zeigt ein Menü an, in dem Sie die Installation von Windows 11anpassen können. Standardmäßig sind „Anforderung für 4GB+ RAM, Secure Boot und TPM 2.0 entfernen“ und „Anforderung für Online Microsoft Konto entfernen“ aktiviert. Wenn Sie möchten, können Sie noch „Datenerfassung deaktivieren (Fragen zum Datenschutz überspringen)“ aktivieren, um Ihre Privatsphäre zu schützen. Bestätigen Sie mit „OK“ und „OK“. Rufus erstellt nun den USB-Stick. Um vom USB-Stick booten zu können, muss das Extension Pack in Virtualbox installiert sein. Erstellen Sie eine neue VM ohne unbeaufsichtigte Installation. Öffnen Sie vor dem ersten Start die Einstellungen der VM. Klicken Sie links auf „USB“ und rechts auf das grüne Pluszeichen. Wählen Sie Ihren Stick aus der Geräteliste aus. Speichern Sie die Änderungen mit „OK“, und starten Sie die VM. (PC-Welt) 

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​ Melnikov Dmitriy / Shutterstock.com

Die wohl größte Hürde bei der Installation von Windows 11 sind die strikten Hardwareanforderungen des Betriebssystems. Microsoft hat die Mindestsystemanforderungen zuletzt weiter erhöht.

Viele der derzeit verwendeten Desktop-PCs und Notebooks erfüllen die Systemvoraussetzungen von Windows 11 nicht, insbesondere in Hinblick auf den erforderlichen TPM-2.0- Chip (Trusted Platform Module), Secure-Boot und die Prozessoranforderungen.

Als betroffener Nutzer sind Sie daher gezwungen, entweder neue Hardware zu kaufen oder weiterhin mit Windows 10 zu arbeiten. Das wiederum bringt Sicherheitsprobleme und Einschränkungen bei der Nutzung neuer Funktionen mit sich – keine gute Idee.

Mit Virtualbox umgehen Sie die Hürden und installieren das aktuelle Windows 11 24H2 auch auf einem älteren PC.

Spartipp: Windows 11 Pro legal für nur 70 Euro statt 259 Euro UVP kaufen

UEFI, Secure Boot und TPM 2.0

Windows 11 prüft während der Installation, ob der Rechner, auf dem Sie das Betriebssystem installieren wollen, mit einer Unified Extensible Firmware Interface (UEFI) ausgestattet ist.

Der BIOS-Nachfolger ist Voraussetzung für eine Reihe von Sicherheitsfunktionen, darunter Secure Boot.

Secure Boot ist ein von UEFI unterstützter Sicherheitsstandard, der sicherstellt, dass der PC nur ein vertrauenswürdiges Betriebssystem startet. Diese Funktion gibt den Start von Windows nur dann frei, wenn der Bootloader nicht durch Schadsoftware wie Viren oder Ransomware verändert wurde.

Ein TPM-Chip in der Version 2.0 auf der Hauptplatine des Rechners ist die Hardware-Basis für die Secure-Boot-Funktion.

IDG

TPM-2.0-Hürde umgehen

Es gibt zwei grundsätzliche Möglichkeiten, die strengen Systemanforderungen von Windows 11 zu umgehen:

Entweder man verändert die Installationsroutine in der Form, dass UEFI, Secure Boot und TPM nicht mehr überprüft werden. Wie das funktioniert, erfahren Sie im Kasten am Ende des Artikels.

Oder – und diese Möglichkeit bietet Virtualbox – die relevanten Komponenten werden emuliert.

Virtualbox kann Kernkomponenten, die Microsoft für die Installation und Nutzung von Windows 11 voraussetzt, originalgetreu nachbilden. Das bedeutet, dass die Virtualisierungssoftware einer virtuellen Maschine das TPM rein softwareseitig ohne eigenen TPM-Chip zur Verfügung stellt, Stichwort „virtual Trusted Platform Module“, kurz „vTPM“.

Für Windows sieht es dann so aus, als ob die virtuelle Maschine mit einem echten TPM ausgestattet wäre. Auch die weiteren von Microsoft geforderten Voraussetzungen für die Installation von Windows 11 – Secure Boot und UEFI-Firmware – bietet Virtualbox als vollwertige Emulation an.

Oracle, das Unternehmen hinter Virtualbox, hat die Virtualisierungssoftware so optimiert, dass TPM 2.0, Secure Boot und UEFI standardmäßig aktiviert werden, wenn Sie eine neue virtuelle Maschine erstellen, als Typ „Microsoft Windows“ und als Version „Windows 11 (64-bit)“ auswählen.

Siehe auch: Windows 11 auf jeder Hardware installieren – so geht´s

VM umkonfigurieren

Die Umstellung von BIOS auf UEFI, Secure Boot und TPM 2.0 können Sie in Virtualbox auch nachträglich durchführen. Dies kann notwendig sein, wenn Sie eine ältere virtuelle Maschine auf Windows 11 aktualisieren möchten oder die Einstellungen beim Erstellen der VM ausgelassen haben.

Stellen Sie sicher, dass die virtuelle Maschine heruntergefahren ist. Klicken Sie im Hauptfenster von Virtualbox mit der rechten Maustaste auf den Namen der VM und wählen Sie „Ändern“. Klicken Sie auf der linken Seite auf „System“. In der Ausklappliste „TPM“ stellen Sie „v2.0“ ein.

Weiter unten finden sich die Optionen „EFI aktivieren (nur spezielle Gäste)“ und „Secure Boot aktivieren“. Setzen Sie ein Häkchen vor „EFI aktivieren …“. Nachdem Sie diese Option aktiviert haben, können Sie auch ein Häkchen vor „Secure Boot aktivieren“ setzen. Übernehmen Sie Ihre Änderungen mit einem Klick auf den „OK“-Button.

Wichtig: Es reicht nicht aus, UEFI, Secure Boot und TPM 2.0 nur temporär für die Installation von oder das Upgrade auf Windows 11 zu aktivieren. Windows 11 überprüft die Systemvoraussetzungen von Zeit zu Zeit, zum Beispiel im Rahmen von Online-Updates. Lassen die entsprechenden Optionen daher dauerhaft aktiviert.

Vorteile für vTPM

„vTPM ermöglicht den Nachweis durch Messung der gesamten Startkette der VM (UEFI, Betriebssystem, System und Treiber),“ lobt Microsoft die generellen Vorteile einer TPM-Emulation, wenn auch im Zusammenhang mit der eigenen Business-Virtualisierungsplattform Azure.

Positiv für Sie als Anwender: Windows 11 kann die softwarebasierte Ausführung des physischen TPM-Kryptoprozessors im laufenden Betrieb jederzeit überprüfen, ohne dass es zu Funktionseinschränkungen kommt.

Anders bei der im Kasten unten beschriebenen Umgehung der Sicherheitsfunktionen durch Rufus: Hier besteht die Gefahr, dass Windows die Modifikation erkennt und Updates verweigert.

TPM 2.0 mit Rufus umgehen

Der Bootgenerator Rufus modifiziert die Installationsdateien von Windows 11 so, dass Sie das Betriebssystem auch auf älterer Hardware oder in einer virtuellen Maschine ohne TPM 2.0, UEFI und Secure Boot installieren können.

Für Windows 11 24H2 ist mindestens Rufus 4.5 erforderlich, ein Inplace Upgrade von Windows 11 unterstützt erst Rufus ab Version 4.6.

Neben Rufus benötigen Sie die ISO-Datei von Windows 11 und einen USB-Stick, auf den das Tool die modifizierten Installationsdateien des Betriebssystems schreibt.

IDG

Installieren Sie Rufus, und starten Sie das Programm. Schließen Sie den USB-Stick an den Rechner an. Wählen Sie oben im Ausklappfeld das Laufwerk mit Ihrem USB-Stick aus.

Achtung: Eventuell auf dem Stick vorhanden Dateien werden überschrieben! Klicken Sie dann hinter „Laufwerk oder ISO-lmage (Bitte wählen Sie ein Image)“ auf den Button „Auswahl“, und wählen Sie die ISO-Datei von Windows 11 aus.

Klicken Sie auf „Start“. Rufus zeigt ein Menü an, in dem Sie die Installation von Windows 11anpassen können. Standardmäßig sind „Anforderung für 4GB+ RAM, Secure Boot und TPM 2.0 entfernen“ und „Anforderung für Online Microsoft Konto entfernen“ aktiviert.

Wenn Sie möchten, können Sie noch „Datenerfassung deaktivieren (Fragen zum Datenschutz überspringen)“ aktivieren, um Ihre Privatsphäre zu schützen. Bestätigen Sie mit „OK“ und „OK“. Rufus erstellt nun den USB-Stick.

Um vom USB-Stick booten zu können, muss das Extension Pack in Virtualbox installiert sein.

Erstellen Sie eine neue VM ohne unbeaufsichtigte Installation. Öffnen Sie vor dem ersten Start die Einstellungen der VM. Klicken Sie links auf „USB“ und rechts auf das grüne Pluszeichen. Wählen Sie Ihren Stick aus der Geräteliste aus. Speichern Sie die Änderungen mit „OK“, und starten Sie die VM.

(PC-Welt)

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​ Weiterlesen »

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​

Allgemein

Mattias Inghe Viele Menschen kleben ihre Webcam am Computer ab, um sich sicher zu fühlen. Aber das reicht noch nicht aus, um jemanden davon abzuhalten, Sie auszuspionieren. Wenn Sie Ihre Privatsphäre auf einem Laptop vollständig schützen wollen, müssen Sie mehr tun. Malware, die in der Lage ist, das Bild Ihrer Kamera aufzuzeichnen, kann ebenso leicht Ihren eingehenden Ton mitschneiden, wie der Antivirus-Hersteller Kaspersky schreibt. Doch auch dagegen können Sie etwas tun: Blockieren Sie das Mikrofon. Eine einfache Methode besteht darin, ein Headset (Kopfhörer mit eingebautem oder angeschlossenem Mikrofon) mit Stummschalttaste zu verwenden. Schließen Sie das Headset an, schalten Sie es stumm und überprüfen Sie dann in den Soundeinstellungen von Windows, ob es sich um das aktive Mikrofon handelt (Soundeinstellungen > Eingabe). Normalerweise sollte es automatisch umschalten. Sie können in den Soundeinstellungen auch testen, ob Ihr Mikrofon stummgeschaltet ist. In Windows 11 klicken Sie auf das Mikrofon und suchen dann die Option Mikrofontest. In Windows 10 können Sie den Test über den Hauptbildschirm Soundeinstellungen durchführen. Windows 11 Soundeinstellungen: Scrollen Sie im Abschnitt Eingabe (Input) zu MikrofonHCD Die effektivste Methode ist nicht viel schwieriger, Sie müssen aber jedes Mal die Einstellung rückgängig machen, wenn Sie das Mikrofon wieder verwenden möchten. Öffnen Sie unter Windows 11 die Soundeinstellungen und gehen Sie dann zu Eingabe. Klicken Sie auf das Mikrofon. Klicken Sie unter Audio auf die Schaltfläche Nicht zulassen. Windows 11 Soundeinstellungen für ein bestimmtes MikrofonHCD Unter Windows 10 gehen Sie zu den Soundeinstellungen, klicken Sie unter Eingabe unter dem Mikrofon auf Geräteeigenschaften und markieren dann das Kästchen Deaktivieren. Es verschwindet dann aus der Liste der Eingabeoptionen. Diese Option eignet sich vordergründig, wenn Sie das eingebaute Mikrofon Ihres Laptops oder sogar das Mikrofon Ihres Headsets oder Ihrer Ohrhörer selten (oder nie) verwenden. Um das Mikrofon in Windows 11 wieder zu aktivieren, gehen Sie zurück zu Soundeinstellungen > [Ihr Gerät] > Audio und klicken Sie dann auf die Schaltfläche Zulassen. Unter Windows 10 gehen Sie zu Soundeinstellungen > Eingabe und wählen dann Soundgeräte verwalten. Suchen Sie Ihr Gerät unter Eingabe > Deaktiviert. Klicken Sie es an und dann auf die Schaltfläche Aktivieren. Zusätzliche Audiogeräte: Wenn Sie mehrere Geräte mit Mikrofonen haben, können Sie die Geräte, die Sie nicht verwenden, selektiv deaktivieren. Laptop-Nutzer müssen eher befürchten, dass man sie ausspioniert. Die meisten Desktop-PCs haben keine eingebauten Mikrofone. Sicherheitshalber können Sie trotzdem in den Soundeinstellungen nachsehen, ob Sie ein aktives Mikrofon haben. Der beste Weg, Spionageaktivitäten auf Ihrem PC zu verhindern, ist die Verwendung eines Antivirus-Programms. Halten Sie die Software auf dem neuesten Stand und seien Sie vorsichtig bei Websites, die Sie besuchen, und bei Downloads, die Sie freiwillig nutzen. Kompromittierte oder bösartige Websites können zu Drive-by-Downloads führen, und alle “Linux-Distributionen”, die über Torrents verbreitet werden, können unerwünschte Extras enthalten. Einen weiteren Schutz können Sie mit der Einschränkung der Audio- und Videonutzung Ihres Laptops erreichen. Dadurch können Sie beispielsweise bei einer unternehmensweiten Zoom-Konferenz verhindern, dass versehentlich eine Nebenunterhaltung mit übertragen wird. (PC-Welt) 

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​ Mattias Inghe

Viele Menschen kleben ihre Webcam am Computer ab, um sich sicher zu fühlen. Aber das reicht noch nicht aus, um jemanden davon abzuhalten, Sie auszuspionieren. Wenn Sie Ihre Privatsphäre auf einem Laptop vollständig schützen wollen, müssen Sie mehr tun.

Malware, die in der Lage ist, das Bild Ihrer Kamera aufzuzeichnen, kann ebenso leicht Ihren eingehenden Ton mitschneiden, wie der Antivirus-Hersteller Kaspersky schreibt. Doch auch dagegen können Sie etwas tun: Blockieren Sie das Mikrofon.

Eine einfache Methode besteht darin, ein Headset (Kopfhörer mit eingebautem oder angeschlossenem Mikrofon) mit Stummschalttaste zu verwenden. Schließen Sie das Headset an, schalten Sie es stumm und überprüfen Sie dann in den Soundeinstellungen von Windows, ob es sich um das aktive Mikrofon handelt (Soundeinstellungen > Eingabe). Normalerweise sollte es automatisch umschalten.

Sie können in den Soundeinstellungen auch testen, ob Ihr Mikrofon stummgeschaltet ist. In Windows 11 klicken Sie auf das Mikrofon und suchen dann die Option Mikrofontest. In Windows 10 können Sie den Test über den Hauptbildschirm Soundeinstellungen durchführen.

Windows 11 Soundeinstellungen: Scrollen Sie im Abschnitt Eingabe (Input) zu MikrofonHCD

Die effektivste Methode ist nicht viel schwieriger, Sie müssen aber jedes Mal die Einstellung rückgängig machen, wenn Sie das Mikrofon wieder verwenden möchten. Öffnen Sie unter Windows 11 die Soundeinstellungen und gehen Sie dann zu Eingabe. Klicken Sie auf das Mikrofon. Klicken Sie unter Audio auf die Schaltfläche Nicht zulassen.

Windows 11 Soundeinstellungen für ein bestimmtes MikrofonHCD

Unter Windows 10 gehen Sie zu den Soundeinstellungen, klicken Sie unter Eingabe unter dem Mikrofon auf Geräteeigenschaften und markieren dann das Kästchen Deaktivieren. Es verschwindet dann aus der Liste der Eingabeoptionen.

Diese Option eignet sich vordergründig, wenn Sie das eingebaute Mikrofon Ihres Laptops oder sogar das Mikrofon Ihres Headsets oder Ihrer Ohrhörer selten (oder nie) verwenden.

Um das Mikrofon in Windows 11 wieder zu aktivieren, gehen Sie zurück zu Soundeinstellungen > [Ihr Gerät] > Audio und klicken Sie dann auf die Schaltfläche Zulassen. Unter Windows 10 gehen Sie zu Soundeinstellungen > Eingabe und wählen dann Soundgeräte verwalten. Suchen Sie Ihr Gerät unter Eingabe > Deaktiviert. Klicken Sie es an und dann auf die Schaltfläche Aktivieren.

Zusätzliche Audiogeräte: Wenn Sie mehrere Geräte mit Mikrofonen haben, können Sie die Geräte, die Sie nicht verwenden, selektiv deaktivieren.

Laptop-Nutzer müssen eher befürchten, dass man sie ausspioniert. Die meisten Desktop-PCs haben keine eingebauten Mikrofone. Sicherheitshalber können Sie trotzdem in den Soundeinstellungen nachsehen, ob Sie ein aktives Mikrofon haben.

Der beste Weg, Spionageaktivitäten auf Ihrem PC zu verhindern, ist die Verwendung eines Antivirus-Programms. Halten Sie die Software auf dem neuesten Stand und seien Sie vorsichtig bei Websites, die Sie besuchen, und bei Downloads, die Sie freiwillig nutzen. Kompromittierte oder bösartige Websites können zu Drive-by-Downloads führen, und alle “Linux-Distributionen”, die über Torrents verbreitet werden, können unerwünschte Extras enthalten.

Einen weiteren Schutz können Sie mit der Einschränkung der Audio- und Videonutzung Ihres Laptops erreichen. Dadurch können Sie beispielsweise bei einer unternehmensweiten Zoom-Konferenz verhindern, dass versehentlich eine Nebenunterhaltung mit übertragen wird.

(PC-Welt)

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​ Weiterlesen »

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​

Allgemein

Kollegen, die Gerüchte verbreiten und sich über andere auslassen, gab es immer und wird es immer geben. Foto: pathdoc – shutterstock.com“Seht her, was ich alles weiß, ich bin wichtig!” – wer kennt sie nicht, die Kolleginnen und Kollegen, die einen schier unerschöpflichen Wissensfundus mitbringen – auch über Dinge, die sie gar nichts angehen. Ihnen geht es nicht um Inhalte und Wahrheiten, sondern um ihren (erhofften) eigenen Bedeutungszuwachs. Meist agieren sie in einem Netzwerk von Menschen, die ähnlich ticken. Sind sie Intriganten? Nur dann, wenn sie andere Menschen denunzieren. Tatsächlich agieren diese Akteure meist nicht böswillig, sie wollen sich eher durch Tratsch und ihren vermeintlichen Wissensvorsprung wichtig machen. Und was, bitteschön, lässt sich gegen das Weitertragen von Informationen – ein im Übrigen zutiefst menschlicher Zug – einwenden? Davon lebt der berühmte Flurfunk, der zur Kultur und dem sozialen Zusammenhalt von Organisationen mehr beiträgt als schöngefärbte Leitbilder.Indiskretion ist nicht tolerabelTrotzdem sollten Führungskräfte im Umgang mit solchen Kolleginnen und Kollegen vorsichtig sein und im Kopf behalten, dass hier die Diskretion schnell auf der Strecke bleibt. Wer mit solchen – nennen wir sie Informanten – im Team zusammenarbeitet, sollte bedenken, dass Dinge nicht vertraulich behandelt, sondern weitergegeben werden, oft noch mit einer hinzugedichteten Volte. Es ist besser, diese Mitarbeiter nicht in sensible oder gar private Belange einzubeziehen, etwa in einen Streit mit anderen Kollegen.Mein Tipp: Arbeiten Sie mit solchen Leuten nur bezogen auf gemeinsamen Projekte und Aufgaben zusammen. Und hüten Sie sich davor, in Gegenwart dieser Plaudertaschen Urteile über Dritte auszusprechen oder den Sinn und Unsinn der Jahresplanung Ihrer Organisation zu diskutieren. Solche Mitarbeitende ins Vertrauen zu ziehen, ist ein No-go. Klingt banal? Nicht, wenn man bedenkt, dass es genau diese Mitarbeiter sind, die alle Tricks anwenden, um andere ins Vertrauen zu ziehen. Chef muss aktiv eingreifenSind Sie die Führungskraft, dann greifen Sie aktiv ein, wenn Informanten der Teamstruktur oder Ihrer eigenen Stellung schaden. Stellen Sie dann – idealerweise vor dem gesamten Team – Dinge klar und räumen Sie Gerüchte vom Tisch. Nur wenn Sie mit hundertprozentiger Sicherheit wissen, wer die zweifelhaften Themen verbreitet, sprechen Sie klar und direkt mit dieser Person. Zeigen Sie auf, welche Verhaltensweisen und Werte Sie von Ihren Teammitgliedern erwarten. Sicher, das wird nur bedingt Aussicht auf Erfolg haben, aber Sie erreichen, dass der Informant fortan vorsichtiger agieren muss.Ansonsten rate ich zu Gelassenheit: nicht nur, weil Menschen ohnehin recht schnell spüren, ob ihr Gegenüber integer ist oder nicht, sondern auch, weil Informanten es in aller Regel schwer haben, in der Hierarchie aufzusteigen – trotz ihres Wunsches nach maximalem Einfluss. Daher hält sich der Schaden, den diese Kollegen durch das indiskrete Streuen von Gerüchten und Informationen anrichten, meist in Grenzen. Mit klarer Kommunikation lässt sich das einfangen. Und je mehr den Mitarbeitenden klar wird, wie Tratschende vorgehen, desto weniger werden sie ihnen erzählen. Irgendwann geht den Plappermäulern dann der Saft aus. Sie haben einen Nörgler im Team? Lesen Sie hier, wie man solche Kollegen ausbremst! 

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​ Kollegen, die Gerüchte verbreiten und sich über andere auslassen, gab es immer und wird es immer geben.
Foto: pathdoc – shutterstock.com“Seht her, was ich alles weiß, ich bin wichtig!” – wer kennt sie nicht, die Kolleginnen und Kollegen, die einen schier unerschöpflichen Wissensfundus mitbringen – auch über Dinge, die sie gar nichts angehen. Ihnen geht es nicht um Inhalte und Wahrheiten, sondern um ihren (erhofften) eigenen Bedeutungszuwachs. Meist agieren sie in einem Netzwerk von Menschen, die ähnlich ticken. Sind sie Intriganten? Nur dann, wenn sie andere Menschen denunzieren. Tatsächlich agieren diese Akteure meist nicht böswillig, sie wollen sich eher durch Tratsch und ihren vermeintlichen Wissensvorsprung wichtig machen. Und was, bitteschön, lässt sich gegen das Weitertragen von Informationen – ein im Übrigen zutiefst menschlicher Zug – einwenden? Davon lebt der berühmte Flurfunk, der zur Kultur und dem sozialen Zusammenhalt von Organisationen mehr beiträgt als schöngefärbte Leitbilder.Indiskretion ist nicht tolerabelTrotzdem sollten Führungskräfte im Umgang mit solchen Kolleginnen und Kollegen vorsichtig sein und im Kopf behalten, dass hier die Diskretion schnell auf der Strecke bleibt. Wer mit solchen – nennen wir sie Informanten – im Team zusammenarbeitet, sollte bedenken, dass Dinge nicht vertraulich behandelt, sondern weitergegeben werden, oft noch mit einer hinzugedichteten Volte. Es ist besser, diese Mitarbeiter nicht in sensible oder gar private Belange einzubeziehen, etwa in einen Streit mit anderen Kollegen.Mein Tipp: Arbeiten Sie mit solchen Leuten nur bezogen auf gemeinsamen Projekte und Aufgaben zusammen. Und hüten Sie sich davor, in Gegenwart dieser Plaudertaschen Urteile über Dritte auszusprechen oder den Sinn und Unsinn der Jahresplanung Ihrer Organisation zu diskutieren. Solche Mitarbeitende ins Vertrauen zu ziehen, ist ein No-go. Klingt banal? Nicht, wenn man bedenkt, dass es genau diese Mitarbeiter sind, die alle Tricks anwenden, um andere ins Vertrauen zu ziehen. Chef muss aktiv eingreifenSind Sie die Führungskraft, dann greifen Sie aktiv ein, wenn Informanten der Teamstruktur oder Ihrer eigenen Stellung schaden. Stellen Sie dann – idealerweise vor dem gesamten Team – Dinge klar und räumen Sie Gerüchte vom Tisch. Nur wenn Sie mit hundertprozentiger Sicherheit wissen, wer die zweifelhaften Themen verbreitet, sprechen Sie klar und direkt mit dieser Person. Zeigen Sie auf, welche Verhaltensweisen und Werte Sie von Ihren Teammitgliedern erwarten. Sicher, das wird nur bedingt Aussicht auf Erfolg haben, aber Sie erreichen, dass der Informant fortan vorsichtiger agieren muss.Ansonsten rate ich zu Gelassenheit: nicht nur, weil Menschen ohnehin recht schnell spüren, ob ihr Gegenüber integer ist oder nicht, sondern auch, weil Informanten es in aller Regel schwer haben, in der Hierarchie aufzusteigen – trotz ihres Wunsches nach maximalem Einfluss. Daher hält sich der Schaden, den diese Kollegen durch das indiskrete Streuen von Gerüchten und Informationen anrichten, meist in Grenzen. Mit klarer Kommunikation lässt sich das einfangen. Und je mehr den Mitarbeitenden klar wird, wie Tratschende vorgehen, desto weniger werden sie ihnen erzählen. Irgendwann geht den Plappermäulern dann der Saft aus.

Sie haben einen Nörgler im Team? Lesen Sie hier, wie man solche Kollegen ausbremst!

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​ Weiterlesen »

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​

Allgemein

Microsoft bringt Windows 1.0 am 20. November 1985 auf den Markt. Knapp 40 Jahre später blicken wir zurück auf die Erfolgsgeschichte des Windows-Betriebssystems.Microsoft Am 20. November 1985 veröffentlicht die damals noch kleine Softwarefirma Microsoft mit Windows 1.0 die erste grafische Benutzeroberfläche für ihr Betriebssystem MS-DOS. Zunächst nur als Erweiterung des Betriebssystems programmiert, legt Windows 1.0 den Grundstein für eine beispiellose Erfolgsgeschichte. Anwendungen auf MS-DOS-Rechnern lassen sich nun endlich mit der Maus bedienen und machen die grauen Kisten somit auch für den Consumer-Markt attraktiv. Die Anfänge von Windows Um die erste grafische Oberfläche für die Benutzung von PCs entbrennt vor 30 Jahren allerdings zunächst ein Wettlauf gegen die Zeit. Personal Computer werden zu dieser Zeit in der Regel in Unternehmen eingesetzt. Bill Gates wird schnell klar, dass eine grafische Oberfläche (Graphical User Interface, GUI) notwendig sein würde, damit der Computer eines Tages auf jedem Schreibtisch seinen Platz findet. Unter Microsofts erstem Betriebssystem MS-DOS müssen Anwender schon über ein gewisses technisches Know-how verfügen, um den Rechner bedienen zu können. Grundkenntnisse in der Programmiersprache Basic sind damals von Vorteil. Die erste Version von Windows hat allerdings noch recht wenig Ähnlichkeit mit den grafischen Oberflächen, wie man sie heute kennt. Die Software ist sperrig, langsam und wird nur von wenigen Anwendungen überhaupt unterstützt. Will man ein kleines Programm wie den Taschenrechner starten, muss die dafür erforderliche Datei (calc.exe) erst in den Tiefen des Betriebssystems gesucht und anschließend über die Kommandozeile gestartet werden. Xerox, Apple und der Kampf um das GUI Die anfangs rudimentäre grafische Oberfläche ist damals revolutionär – von Microsoft stammt die Idee allerdings nicht. Bereits zwei Jahre zuvor – 1983 – bringt Apple-Gründer Steve Jobs mit der Lisa einen der ersten Computer mit grafischer Oberfläche auf den Markt. Das Gerät ist jedoch teuer und spricht schon deshalb nur einen kleinen Kreis von Computer-Enthusiasten an. Doch die Richtung ist vorgegeben, der Wettlauf beginnt. Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum Xerox PARC inspirieren. Dort wird die Idee der grafischen Benutzeroberfläche für PCs geboren. Bereits in den 1970er Jahren entsteht dort der Xerox Alto für Forschungszwecke. Nachdem 1981 der Xerox Star als erster kommerzieller Rechner floppt, gibt das Unternehmen sein Vorhaben auf. Microsoft, Apple und das Urheberrecht Durch Apple unter Zugzwang geraten, kündigt Bill Gates im November 1983 auf der Computermesse Comdex in Las Vegas sein Windows 1.0 an – lange bevor die Software überhaupt fertig ist. Als Anekdote ist überliefert, dass Gates’ Vater bei seinem Vortrag am Diaprojektor stand. Fast zwei Jahre braucht Microsoft anschließend, bis die erste Windows-Version auf den Markt kommt. In der Zwischenzeit stellt auch Apple seinen ersten PC auf die Beine: den Macintosh. Gates nimmt sich für Windows relativ unverhohlen die Oberfläche des Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum zum Vorbild. Die Anwälte der Apfel-Company kann er sich nur vom Hals halten, weil er für Apple dringend benötigte Mac-Anwendungen liefert. Als Microsoft aber Anfang 1988 mit dem nächsten größeren Versionssprung, Windows 2.03, auf den Markt stößt, reicht Apple wegen Verstoßes gegen das Urheberrecht Klage gegen seinen Rivalen ein. Den über Jahre erbittert geführten Rechtsstreit verliert Apple letztendlich im Jahr 1994 – auch deshalb, weil es sich in den 1980er Jahren selbst bei Xerox bedient hatte. Erst im Sommer 1997 normalisiert sich die Beziehung zwischen Apple und Microsoft langsam wieder, als der zu Apple zurückgekehrte Steve Jobs die Hilfe von Microsoft in Anspruch nimmt, um das in Schwierigkeiten geratene Unternehmen wieder profitabel zu machen. Nichtsdestotrotz nimmt Apple seinen “Lieblings”-Kontrahenten und dessen “Kopierleidenschaft” auch Jahre später noch aufs Korn – mit Vorliebe in Form ironischer Werbespots. Durchbruch und Millenium-Fluch Zum Start von Windows 1.0 gibt es weltweit eine Basis von “lediglich” sechs Millionen Personal Computer. Erst rund fünf Jahre später, im Jahr 1990, gelingt der Software-Schmiede aus Redmond mit Windows 3.0 ein erster Erfolg. Den endgültigen Durchbruch beschert dem Unternehmen dann weitere fünf Jahre später der Release von Windows 95. Unter Windows 95 lassen sich Peripheriegeräte wie Drucker deutlich einfacher anschließen und in Betrieb nehmen. Ohne umständliche Installation von Treibersoftware kommen die Nutzer dennoch nur selten aus. Erstmals kommt Windows 1995 auch mit einem virtuellen Papierkorb auf der Schreibtischoberfläche daher – ein Icon, das Macintosh-Nutzer der ersten Stunde zu dieser Zeit längst kennen. Auch eine Verbindung zum Internet können Nutzer mit Windows 95 erstmals herstellen: mit dem Internet Explorer. Das 1998 erschienene Windows 98 wird im Vergleich zu seinem Vorgänger nur in Details weiterentwickelt. Bei diesen Details handelt es sich konkret um die standardmäßige Einbindung des Internet Explorers in das Windows-Betriebssystem, sowie die Einführung der Schnellstartleiste und die Unterstützung der damals neuen USB-Schnittstelle. Mit der im Jahr 2000 erschienenen Windows Millenium Edition (ME) kann Microsoft bei PC-Nutzern dagegen nicht punkten. Das auf Multimedia-Support optimierte Betriebssystem soll Windows-User mit mehr Benutzerfreundlichkeit verwöhnen, in der Praxis “besticht” es vor allem mit Instabilität und mangelhafter Performance. Windows ME gilt als einer der größten OS-Flops aus Redmond. Foto: Microsoft XP-Kult und Vista-Fehlschlag Mit Windows XP erneuert Microsoft im Jahr 2001 die optische Präsentation von Windows. Und auch technisch halten viele Neuerungen Einzug. Insbesondere auf Notebooks macht Windows nun eine deutlich bessere Figur. Das weiß auch die schreibende Gilde zu schätzen: Pünktlich zum Release erhält Windows XP auch von der Presse gute Noten. Anwender schätzen insbesondere die Navigation über das Startmenü. Windows XP gibt es auch als Tablet PC Edition – aus gutem Grund: Im Jahr 2002 startet Microsoft in Kooperation mit einigen OEMs eine große Tablet-Offensive. Die Windows-Tablets können sich jedoch nur in vertikalen Märkten wie dem Gesundheitswesen etablieren. Der Support von Windows XP endet im Jahr 2014 nach 13 Jahren. Dennoch können sich viele Unternehmen, Institutionen und Privatpersonen nur schwer vom äußerst beliebten Windows-Betriebssystem trennen. Für Microsoft ist Windows XP in diesen Jahren eines der meistverkauften Produkte. Der XP-Nachfolger Windows Vista wird dagegen von vielen Experten nicht gerade als Erfolgskapitel der Windows-Geschichte angesehen. Das Windows-OS soll zunächst bereits 2003 auf den Markt kommen, fertiggestellt wird das Projekt mit dem Codenamen “Longhorn” allerdings erst Ende 2006. Mit der umfangreichen, visuellen Neugestaltung von Windows Vista will Microsoft auch ein Zeichen setzen: Apples Betriebssystem Mac OS X macht zu diesem Zeitpunkt einen deutlich frischeren, moderneren Eindruck als Windows XP. Die neue “Aero”-Oberfläche, ein neu designtes Startmenü und zeitgemäß inszenierte Icons sowie viele technische Neuerungen zeichnen Windows Vista aus. Trotzdem kommt diese Windows-Version bei vielen Kunden nicht an – Stabilität und Performance können mit den Erwartungen vieler User nicht mithalten. So landet Vista oft nur bei Endkunden, die es mit neuen Systemen erwerben. Insbesondere im Unternehmensumfeld bleibt XP das Maß der Dinge. Windows 7 und die Solidarität mit dem Start-Button Windows 7 gilt entsprechend als der eigentlich legitime Nachfolger von Windows XP. Gegenüber Vista kann Windows 7 in Sachen Stabilität, Performance und Nutzerfreundlichkeit bei den Nutzern schnell punkten. Auch kurz vor dem Erscheinen von Windows 10 verzeichnet Windows 7 immer noch die höchsten Marktanteile unter den Windows-Betriebssystemen. Mit Windows 8 ändert sich die Bedienung des Betriebssystems grundlegend: Die neue Kacheloberfläche lässt sich auf touch-fähigen Geräten zwar gut bedienen, stößt aber viele Desktop-Anwender vor den Kopf, die die Änderung der Benutzerführung oft als zu radikal empfinden. Drittanbieter-Tools die die beliebte Windows-Leiste mit Start-Button zurückbringen, haben zu diesem Zeitpunkt Hochkonjunktur. Nur ein Jahr später muss Microsoft reagieren und renoviert Windows 8 grundlegend. Das Ergebnis nennt man kurzerhand Windows 8.1. Der Startbildschirm ist unter Windows 8.1 nun flexibler konfigurierbar, auf Wunsch ist nun auch wieder die klassische Windows-Desktop-Ansicht verfügbar – inklusive Startknopf. Abseits der Diskussionen um das Für und Wider der Kachel-Oberfläche geht oft unter, dass Windows 8 – und insbesondere auch Windows 8.1 – einige spannende Neuerungen an Bord haben, wie etwa Speicherpools oder Arbeitsordner. Windows 10 und das “neue” Microsoft Mit Windows 10 veröffentlichte Microsoft Ende Juli 2015 nicht nur einfach eine neue Windows-Version. Das aktuelle Windows-OS verkörpert die neue “One-Platform”-Strategie des Redmonder IT-Konzerns, der mit Windows 10 und Windows 10 Mobile künftig eine geräteklassenübergreifende Plattform etablieren will. Windows 10 läuft also nicht nur auf PCs, sondern auch auf Tablet-PCs, Notebooks, Windows Phones, der Spielkonsole Xbox One und dem kommenden AR-Device Hololens. Weitergeführt werden soll diese Strategie von plattformübergreifenden “Universal”-Apps. Doch auch sonst ändert sich Einiges: Windows 10 wurde als erstes OS der Windows-Geschichte allen Nutzern von Windows 7, 8 und 8.1 als kostenloses Upgrade zur Verfügung gestellt und wird kontinuierlich über Software-Updates erweitert. Das heißt bei Microsoft “Windows-as-a-Service” – und sorgt dafür, dass der traditionelle Patch-Day endgültig Geschichte ist. Dass Microsoft mit Windows 10 neue Wege beschreitet, zeigte sich bereits während des Entwicklungsprozesses: Über das “Insider Program” waren beziehungsweise sind Millionen von Anwender mit ihrem Feedback in die Entwicklung des Betriebssystems involviert. Mit Windows 10 beschreitet Microsoft auch beim Thema Open Source neue Wege und öffnet sich der Community. So soll das Win 10 Anniversary Update auch mit integriertem Ubuntu Bash kommen, während Windows Server 2016 weitergehende Linux-Virtualisierungen erlaubt. Doch nicht nur Linux, auch andere Open-Source-Projekte werden künftig unterstützt: Sowohl das .NET-Framework, als auch die Entwicklungsumgebung Visual Studio stellt Microsoft für Entwickler kostenlos zur Verfügung. Windows 10 Creators Update Ende Oktober 2016 kündigt Microsoft das nächste umfassende Update für sein Betriebssystem an. Das Creators Update soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über Microsofts Hololens, zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. Windows 10 S und Creators Update, Part 2 Anfang Mai 2017 stellte Microsoft mit dem Surface Laptop nicht nur ein weiteres Gerät der Surface-Reihe vor, sondern enthüllte auch soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über. Die cloudbasierte Version von Windows 10 läuft ausschließlich mit Apps aus dem Windows Store, ist jedoch upgrade-fähig. Die abgespeckte Windows-Version ist mit dem eingestellten RT vergleichbar und richtet sich in erster Linie an Bildungseinrichtungen. Schließlich will Microsoft dieses Feld nicht alleine den , zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. überlassen. Auf der Entwicklerkonferenz Build 2017 kündigte Microsoft den Nachfolger zum Creators Update an: das Fall Creators Update. Unsere US-Kollegin Melissa Riofrio klärt Sie über die besten, neuen Features auf: Seit April 2018 verzichtete Microsoft auf besondere Nomenklatur bei Windows 10 Updates, verbessert sein Betriebssystem aber konsequent weiter und liefert dazu im Regelfall zwei große Updates pro Jahr. Die aktuelle Version (20H2) wurde im Okotober 2020 veröffentlicht. Aufmerksame Leser werden bemerkt haben, dass in diesem Text nicht auf jede Windows-Version eingegangen wird. Natürlich haben wir auch Windows NT, 2000 und wie sie alle heißen nicht vergessen – in unserer Bildergalerie bekommen Sie einen umfassenden Überblick über die wichtigsten Windows-Versionen. Windows 11 21H2 Es begann mit einer überraschenden Ankündigung von Microsoft-CEO Satya Nadella auf der Entwicklerkonferenz Build 2021: “Wir werden bald eines der bedeutendsten Updates für Windows des letzten Jahrzehnts vorstellen. Ich selbst habe es in den letzten Monaten schon ausprobiert und bin unglaublich aufgeregt, was die nächste Generation von Windows betrifft.” Damit befeuerte der Manager eine regelrechte Flut an Spekulationen rund um ein neues Windows. Am 24. Juni lösten sich dann alle bis dahin noch bestehenden Rätsel. Microsoft stellte mit Windows 11 offiziell eine neue Generation seines Betriebssystems vor und erklärte, damit eine neue Ära einläuten zu wollen. Die Idee, ein neues Windows zu bauen, entstand wohl in der Corona-Pandemie. Die vergangenen 18 Monate hätten die Art und Weise, wie Menschen den PC nutzen, komplett verändert, konstatierte Panos Panay, Chief Product Officer für den Bereich Windows und Devices bei Microsoft. Der PC habe das Leben in der Krise maßgeblich mitbestimmt. Man habe Windows 11 darauf ausgelegt, auf verschiedenen Gerätetypen zu laufen und unterschiedliche Bedienmodi zu unterstützen, hieß es von Seiten Microsofts. Beispielsweise sei der Abstand zwischen den Icons in der Taskleiste vergrößert worden, um eine Touch-Bedienung auf Tablets zu erleichtern. Auch die Erkennung von Spracheingaben sei Microsoft zufolge verbessert worden. Alle aktuell im Handel verkauften PCs und Notebooks sollen Windows-11-tauglich sein, hieß es. Wie schon beim Umstieg auf Windows 10 will Microsoft Anwendern mit der PC Health Check App ein Tool anbieten, um zu prüfen, ob ihr Rechner für das neue Windows-System geeignet ist. Microsoft hat bei Windows 11 vor allem Design und Bedienerführung vereinfacht. Mithilfe neuer Tools wie “Snap Layouts”, “Snap Groups” und “Desktops” sollen Nutzer ihren Arbeitsplatz besser organisieren können, verspricht der Softwarehersteller. So ließen sich beispielsweise mehrere separate Arbeitsoberflächen einrichten und mit Apps und Tools bestücken – etwa für die Arbeit, den Privatbereich oder die Schule. Darüber hinaus verzahnt Microsoft Windows 11 enger mit dem in der Pandemie so erfolgreichen Communication- und Collaboration-Tool Teams. Wieder zurück in Windows 11 sind die aus der Version 7 bekannten Widgets. Damit können Nutzer personalisierte Feeds mit beispielsweise Nachrichten oder Wetterinformationen einrichten. Der Redmonder Konzern bewirbt sein neues Betriebssystem darüber hinaus als besonders sicher. Die Architektur sei als Zero Trust angelegt, zudem sei das System Secure by Design. Wichtige Sicherheits-Features wie zum Beispiel Verschlüsselung seien von Haus aus aktiviert. Überarbeitet hat Microsoft auch den Windows-Appstore, der laut Panay nun übersichtlicher und auch einfacher zu nutzen sein soll. Darüber hinaus ließen sich künftig auch Android-Apps über den Amazon Appstore in Windows herunterladen. App-Entwicklern winken mit Windows 11 laut Panay mehr Freiheiten. Sie könnten beliebige App-Frameworks für ihre Entwicklungen nutzen. Apps ließen sich beispielsweise als Win32-, Progressive-Web-App (PWA) oder Universal-Windows-App (UWA) in den Store einstellen. Um mehr Entwickler auf die Windows-Plattform zu locken, hat Microsoft auch seine Abrechnungsmodalitäten angepasst: Bringt ein Entwickler seine eigene Abrechnungs-Engine mit in den Windows-Store, will der Konzern keine Gebühren verlangen. Wird die im Windows-Store von Microsoft angebotene Commerce-Service genutzt, werden 15 Prozent vom Umsatz fällig. Die erste Version von Windows 11 – 21H2 – wurde im Oktober 2021 veröffentlicht. Windows 11 22 H2 Im September 2022 erfolgte schließlich mit der Version 22H2 das erste große Update des neuen Microsoft-Betriebssystems, das zahlreiche Überarbeitungen beziehungsweise Optimierungen beinhaltete, sowohl auf Design- als auch auf Funktionsebene. Hervorzuheben ist dabei vor allem die von den Nutzern lange herbeigesehnte Möglichkeit, innerhalb des Windows Datei-Explorers Registerkarten zu öffnen. Unsere Kollegen von der PC-Welt haben das erste Windows-Update, beziehungsweise dessen Betaversion, ausgiebig getestet und erklärt. Windows 11 23H2 Ende Oktober 2023 veröffentlichte Microsoft schließlich die Version 23H2. Diese zeichnet sich in erster Linie durch die Integration generativer KI-Funktionen auf GPT-4-Basis aus – Stichwort Copilot. Das wirkt sich vielfältig auf diverse Bereiche des Windows-Ökosystems aus, wie eine Microsoft-Expertin in diesem Videobeitrag ausführlich erklärt. Windows 11 24H2 Seit Oktober 2024 ist das 2024er-Update von Windows 11 allgemein verfügbar. Mit 24H2 halten zahlreiche Neuerungen in Windows 11 Einzug – insbesondere neue KI-Features (bei Copilot+-PCs). Darüber hinaus verspricht 24H2 auch WiFi-7-Support, einen optimierten Datei-Explorer sowie verbesserte Konnektivität. In der Praxis hat sich dieses Windows-Update leider vor allem dadurch ausgezeichnet, dass es bei der Nutzerbasis für umfassende (teilweise nur manuell zu lösende) Probleme gesorgt hat. Knapp vier Jahre nach seiner Veröffentlichung ist der Erfolg von Windows 11 mit Blick auf die Nutzerakzeptanz noch ausbaufähig: Der weltweite Marktanteil des Betriebssystem liegt aktuell (Stand: Februar 2025) bei 38 Prozent. Der Vorgänger Windows 10 dominiert indes immer noch die Versionslandschaft mit 59 Prozent. (dpa/tc/mje/fm/ba) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​ Microsoft bringt Windows 1.0 am 20. November 1985 auf den Markt. Knapp 40 Jahre später blicken wir zurück auf die Erfolgsgeschichte des Windows-Betriebssystems.Microsoft

Am 20. November 1985 veröffentlicht die damals noch kleine Softwarefirma Microsoft mit Windows 1.0 die erste grafische Benutzeroberfläche für ihr Betriebssystem MS-DOS. Zunächst nur als Erweiterung des Betriebssystems programmiert, legt Windows 1.0 den Grundstein für eine beispiellose Erfolgsgeschichte. Anwendungen auf MS-DOS-Rechnern lassen sich nun endlich mit der Maus bedienen und machen die grauen Kisten somit auch für den Consumer-Markt attraktiv.

Die Anfänge von Windows

Um die erste grafische Oberfläche für die Benutzung von PCs entbrennt vor 30 Jahren allerdings zunächst ein Wettlauf gegen die Zeit. Personal Computer werden zu dieser Zeit in der Regel in Unternehmen eingesetzt. Bill Gates wird schnell klar, dass eine grafische Oberfläche (Graphical User Interface, GUI) notwendig sein würde, damit der Computer eines Tages auf jedem Schreibtisch seinen Platz findet.

Unter Microsofts erstem Betriebssystem MS-DOS müssen Anwender schon über ein gewisses technisches Know-how verfügen, um den Rechner bedienen zu können. Grundkenntnisse in der Programmiersprache Basic sind damals von Vorteil. Die erste Version von Windows hat allerdings noch recht wenig Ähnlichkeit mit den grafischen Oberflächen, wie man sie heute kennt. Die Software ist sperrig, langsam und wird nur von wenigen Anwendungen überhaupt unterstützt. Will man ein kleines Programm wie den Taschenrechner starten, muss die dafür erforderliche Datei (calc.exe) erst in den Tiefen des Betriebssystems gesucht und anschließend über die Kommandozeile gestartet werden.

Xerox, Apple und der Kampf um das GUI

Die anfangs rudimentäre grafische Oberfläche ist damals revolutionär – von Microsoft stammt die Idee allerdings nicht. Bereits zwei Jahre zuvor – 1983 – bringt Apple-Gründer Steve Jobs mit der Lisa einen der ersten Computer mit grafischer Oberfläche auf den Markt. Das Gerät ist jedoch teuer und spricht schon deshalb nur einen kleinen Kreis von Computer-Enthusiasten an. Doch die Richtung ist vorgegeben, der Wettlauf beginnt.

Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum Xerox PARC inspirieren. Dort wird die Idee der grafischen Benutzeroberfläche für PCs geboren. Bereits in den 1970er Jahren entsteht dort der Xerox Alto für Forschungszwecke. Nachdem 1981 der Xerox Star als erster kommerzieller Rechner floppt, gibt das Unternehmen sein Vorhaben auf.

Microsoft, Apple und das Urheberrecht

Durch Apple unter Zugzwang geraten, kündigt Bill Gates im November 1983 auf der Computermesse Comdex in Las Vegas sein Windows 1.0 an – lange bevor die Software überhaupt fertig ist. Als Anekdote ist überliefert, dass Gates’ Vater bei seinem Vortrag am Diaprojektor stand. Fast zwei Jahre braucht Microsoft anschließend, bis die erste Windows-Version auf den Markt kommt. In der Zwischenzeit stellt auch Apple seinen ersten PC auf die Beine: den Macintosh.

Gates nimmt sich für Windows relativ unverhohlen die Oberfläche des Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum zum Vorbild. Die Anwälte der Apfel-Company kann er sich nur vom Hals halten, weil er für Apple dringend benötigte Mac-Anwendungen liefert. Als Microsoft aber Anfang 1988 mit dem nächsten größeren Versionssprung, Windows 2.03, auf den Markt stößt, reicht Apple wegen Verstoßes gegen das Urheberrecht Klage gegen seinen Rivalen ein. Den über Jahre erbittert geführten Rechtsstreit verliert Apple letztendlich im Jahr 1994 – auch deshalb, weil es sich in den 1980er Jahren selbst bei Xerox bedient hatte.

Erst im Sommer 1997 normalisiert sich die Beziehung zwischen Apple und Microsoft langsam wieder, als der zu Apple zurückgekehrte Steve Jobs die Hilfe von Microsoft in Anspruch nimmt, um das in Schwierigkeiten geratene Unternehmen wieder profitabel zu machen. Nichtsdestotrotz nimmt Apple seinen “Lieblings”-Kontrahenten und dessen “Kopierleidenschaft” auch Jahre später noch aufs Korn – mit Vorliebe in Form ironischer Werbespots.

Durchbruch und Millenium-Fluch

Zum Start von Windows 1.0 gibt es weltweit eine Basis von “lediglich” sechs Millionen Personal Computer. Erst rund fünf Jahre später, im Jahr 1990, gelingt der Software-Schmiede aus Redmond mit Windows 3.0 ein erster Erfolg. Den endgültigen Durchbruch beschert dem Unternehmen dann weitere fünf Jahre später der Release von Windows 95. Unter Windows 95 lassen sich Peripheriegeräte wie Drucker deutlich einfacher anschließen und in Betrieb nehmen. Ohne umständliche Installation von Treibersoftware kommen die Nutzer dennoch nur selten aus. Erstmals kommt Windows 1995 auch mit einem virtuellen Papierkorb auf der Schreibtischoberfläche daher – ein Icon, das Macintosh-Nutzer der ersten Stunde zu dieser Zeit längst kennen. Auch eine Verbindung zum Internet können Nutzer mit Windows 95 erstmals herstellen: mit dem Internet Explorer.

Das 1998 erschienene Windows 98 wird im Vergleich zu seinem Vorgänger nur in Details weiterentwickelt. Bei diesen Details handelt es sich konkret um die standardmäßige Einbindung des Internet Explorers in das Windows-Betriebssystem, sowie die Einführung der Schnellstartleiste und die Unterstützung der damals neuen USB-Schnittstelle. Mit der im Jahr 2000 erschienenen Windows Millenium Edition (ME) kann Microsoft bei PC-Nutzern dagegen nicht punkten. Das auf Multimedia-Support optimierte Betriebssystem soll Windows-User mit mehr Benutzerfreundlichkeit verwöhnen, in der Praxis “besticht” es vor allem mit Instabilität und mangelhafter Performance.

Windows ME gilt als einer der größten OS-Flops aus Redmond.
Foto: Microsoft

XP-Kult und Vista-Fehlschlag

Mit Windows XP erneuert Microsoft im Jahr 2001 die optische Präsentation von Windows. Und auch technisch halten viele Neuerungen Einzug. Insbesondere auf Notebooks macht Windows nun eine deutlich bessere Figur. Das weiß auch die schreibende Gilde zu schätzen: Pünktlich zum Release erhält Windows XP auch von der Presse gute Noten. Anwender schätzen insbesondere die Navigation über das Startmenü. Windows XP gibt es auch als Tablet PC Edition – aus gutem Grund: Im Jahr 2002 startet Microsoft in Kooperation mit einigen OEMs eine große Tablet-Offensive. Die Windows-Tablets können sich jedoch nur in vertikalen Märkten wie dem Gesundheitswesen etablieren. Der Support von Windows XP endet im Jahr 2014 nach 13 Jahren. Dennoch können sich viele Unternehmen, Institutionen und Privatpersonen nur schwer vom äußerst beliebten Windows-Betriebssystem trennen. Für Microsoft ist Windows XP in diesen Jahren eines der meistverkauften Produkte. Der XP-Nachfolger Windows Vista wird dagegen von vielen Experten nicht gerade als Erfolgskapitel der Windows-Geschichte angesehen. Das Windows-OS soll zunächst bereits 2003 auf den Markt kommen, fertiggestellt wird das Projekt mit dem Codenamen “Longhorn” allerdings erst Ende 2006. Mit der umfangreichen, visuellen Neugestaltung von Windows Vista will Microsoft auch ein Zeichen setzen: Apples Betriebssystem Mac OS X macht zu diesem Zeitpunkt einen deutlich frischeren, moderneren Eindruck als Windows XP. Die neue “Aero”-Oberfläche, ein neu designtes Startmenü und zeitgemäß inszenierte Icons sowie viele technische Neuerungen zeichnen Windows Vista aus. Trotzdem kommt diese Windows-Version bei vielen Kunden nicht an – Stabilität und Performance können mit den Erwartungen vieler User nicht mithalten. So landet Vista oft nur bei Endkunden, die es mit neuen Systemen erwerben. Insbesondere im Unternehmensumfeld bleibt XP das Maß der Dinge.

Windows 7 und die Solidarität mit dem Start-Button

Windows 7 gilt entsprechend als der eigentlich legitime Nachfolger von Windows XP. Gegenüber Vista kann Windows 7 in Sachen Stabilität, Performance und Nutzerfreundlichkeit bei den Nutzern schnell punkten. Auch kurz vor dem Erscheinen von Windows 10 verzeichnet Windows 7 immer noch die höchsten Marktanteile unter den Windows-Betriebssystemen.

Mit Windows 8 ändert sich die Bedienung des Betriebssystems grundlegend: Die neue Kacheloberfläche lässt sich auf touch-fähigen Geräten zwar gut bedienen, stößt aber viele Desktop-Anwender vor den Kopf, die die Änderung der Benutzerführung oft als zu radikal empfinden. Drittanbieter-Tools die die beliebte Windows-Leiste mit Start-Button zurückbringen, haben zu diesem Zeitpunkt Hochkonjunktur. Nur ein Jahr später muss Microsoft reagieren und renoviert Windows 8 grundlegend. Das Ergebnis nennt man kurzerhand Windows 8.1. Der Startbildschirm ist unter Windows 8.1 nun flexibler konfigurierbar, auf Wunsch ist nun auch wieder die klassische Windows-Desktop-Ansicht verfügbar – inklusive Startknopf. Abseits der Diskussionen um das Für und Wider der Kachel-Oberfläche geht oft unter, dass Windows 8 – und insbesondere auch Windows 8.1 – einige spannende Neuerungen an Bord haben, wie etwa Speicherpools oder Arbeitsordner.

Windows 10 und das “neue” Microsoft

Mit Windows 10 veröffentlichte Microsoft Ende Juli 2015 nicht nur einfach eine neue Windows-Version. Das aktuelle Windows-OS verkörpert die neue “One-Platform”-Strategie des Redmonder IT-Konzerns, der mit Windows 10 und Windows 10 Mobile künftig eine geräteklassenübergreifende Plattform etablieren will. Windows 10 läuft also nicht nur auf PCs, sondern auch auf Tablet-PCs, Notebooks, Windows Phones, der Spielkonsole Xbox One und dem kommenden AR-Device Hololens. Weitergeführt werden soll diese Strategie von plattformübergreifenden “Universal”-Apps. Doch auch sonst ändert sich Einiges: Windows 10 wurde als erstes OS der Windows-Geschichte allen Nutzern von Windows 7, 8 und 8.1 als kostenloses Upgrade zur Verfügung gestellt und wird kontinuierlich über Software-Updates erweitert. Das heißt bei Microsoft “Windows-as-a-Service” – und sorgt dafür, dass der traditionelle Patch-Day endgültig Geschichte ist. Dass Microsoft mit Windows 10 neue Wege beschreitet, zeigte sich bereits während des Entwicklungsprozesses: Über das “Insider Program” waren beziehungsweise sind Millionen von Anwender mit ihrem Feedback in die Entwicklung des Betriebssystems involviert.

Mit Windows 10 beschreitet Microsoft auch beim Thema Open Source neue Wege und öffnet sich der Community. So soll das Win 10 Anniversary Update auch mit integriertem Ubuntu Bash kommen, während Windows Server 2016 weitergehende Linux-Virtualisierungen erlaubt. Doch nicht nur Linux, auch andere Open-Source-Projekte werden künftig unterstützt: Sowohl das .NET-Framework, als auch die Entwicklungsumgebung Visual Studio stellt Microsoft für Entwickler kostenlos zur Verfügung.

Windows 10 Creators Update

Ende Oktober 2016 kündigt Microsoft das nächste umfassende Update für sein Betriebssystem an. Das Creators Update soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über Microsofts Hololens, zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll.

Windows 10 S und Creators Update, Part 2

Anfang Mai 2017 stellte Microsoft mit dem Surface Laptop nicht nur ein weiteres Gerät der Surface-Reihe vor, sondern enthüllte auch soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über. Die cloudbasierte Version von Windows 10 läuft ausschließlich mit Apps aus dem Windows Store, ist jedoch upgrade-fähig. Die abgespeckte Windows-Version ist mit dem eingestellten RT vergleichbar und richtet sich in erster Linie an Bildungseinrichtungen. Schließlich will Microsoft dieses Feld nicht alleine den , zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. überlassen.

Auf der Entwicklerkonferenz Build 2017 kündigte Microsoft den Nachfolger zum Creators Update an: das Fall Creators Update. Unsere US-Kollegin Melissa Riofrio klärt Sie über die besten, neuen Features auf:

Seit April 2018 verzichtete Microsoft auf besondere Nomenklatur bei Windows 10 Updates, verbessert sein Betriebssystem aber konsequent weiter und liefert dazu im Regelfall zwei große Updates pro Jahr. Die aktuelle Version (20H2) wurde im Okotober 2020 veröffentlicht.

Aufmerksame Leser werden bemerkt haben, dass in diesem Text nicht auf jede Windows-Version eingegangen wird. Natürlich haben wir auch Windows NT, 2000 und wie sie alle heißen nicht vergessen – in unserer Bildergalerie bekommen Sie einen umfassenden Überblick über die wichtigsten Windows-Versionen.

Windows 11 21H2

Es begann mit einer überraschenden Ankündigung von Microsoft-CEO Satya Nadella auf der Entwicklerkonferenz Build 2021: “Wir werden bald eines der bedeutendsten Updates für Windows des letzten Jahrzehnts vorstellen. Ich selbst habe es in den letzten Monaten schon ausprobiert und bin unglaublich aufgeregt, was die nächste Generation von Windows betrifft.” Damit befeuerte der Manager eine regelrechte Flut an Spekulationen rund um ein neues Windows. Am 24. Juni lösten sich dann alle bis dahin noch bestehenden Rätsel. Microsoft stellte mit Windows 11 offiziell eine neue Generation seines Betriebssystems vor und erklärte, damit eine neue Ära einläuten zu wollen.

Die Idee, ein neues Windows zu bauen, entstand wohl in der Corona-Pandemie. Die vergangenen 18 Monate hätten die Art und Weise, wie Menschen den PC nutzen, komplett verändert, konstatierte Panos Panay, Chief Product Officer für den Bereich Windows und Devices bei Microsoft. Der PC habe das Leben in der Krise maßgeblich mitbestimmt. Man habe Windows 11 darauf ausgelegt, auf verschiedenen Gerätetypen zu laufen und unterschiedliche Bedienmodi zu unterstützen, hieß es von Seiten Microsofts. Beispielsweise sei der Abstand zwischen den Icons in der Taskleiste vergrößert worden, um eine Touch-Bedienung auf Tablets zu erleichtern. Auch die Erkennung von Spracheingaben sei Microsoft zufolge verbessert worden. Alle aktuell im Handel verkauften PCs und Notebooks sollen Windows-11-tauglich sein, hieß es. Wie schon beim Umstieg auf Windows 10 will Microsoft Anwendern mit der PC Health Check App ein Tool anbieten, um zu prüfen, ob ihr Rechner für das neue Windows-System geeignet ist.

Microsoft hat bei Windows 11 vor allem Design und Bedienerführung vereinfacht. Mithilfe neuer Tools wie “Snap Layouts”, “Snap Groups” und “Desktops” sollen Nutzer ihren Arbeitsplatz besser organisieren können, verspricht der Softwarehersteller. So ließen sich beispielsweise mehrere separate Arbeitsoberflächen einrichten und mit Apps und Tools bestücken – etwa für die Arbeit, den Privatbereich oder die Schule. Darüber hinaus verzahnt Microsoft Windows 11 enger mit dem in der Pandemie so erfolgreichen Communication- und Collaboration-Tool Teams.

Wieder zurück in Windows 11 sind die aus der Version 7 bekannten Widgets. Damit können Nutzer personalisierte Feeds mit beispielsweise Nachrichten oder Wetterinformationen einrichten. Der Redmonder Konzern bewirbt sein neues Betriebssystem darüber hinaus als besonders sicher. Die Architektur sei als Zero Trust angelegt, zudem sei das System Secure by Design. Wichtige Sicherheits-Features wie zum Beispiel Verschlüsselung seien von Haus aus aktiviert.

Überarbeitet hat Microsoft auch den Windows-Appstore, der laut Panay nun übersichtlicher und auch einfacher zu nutzen sein soll. Darüber hinaus ließen sich künftig auch Android-Apps über den Amazon Appstore in Windows herunterladen. App-Entwicklern winken mit Windows 11 laut Panay mehr Freiheiten. Sie könnten beliebige App-Frameworks für ihre Entwicklungen nutzen. Apps ließen sich beispielsweise als Win32-, Progressive-Web-App (PWA) oder Universal-Windows-App (UWA) in den Store einstellen.

Um mehr Entwickler auf die Windows-Plattform zu locken, hat Microsoft auch seine Abrechnungsmodalitäten angepasst: Bringt ein Entwickler seine eigene Abrechnungs-Engine mit in den Windows-Store, will der Konzern keine Gebühren verlangen. Wird die im Windows-Store von Microsoft angebotene Commerce-Service genutzt, werden 15 Prozent vom Umsatz fällig. Die erste Version von Windows 11 – 21H2 – wurde im Oktober 2021 veröffentlicht.

Windows 11 22 H2

Im September 2022 erfolgte schließlich mit der Version 22H2 das erste große Update des neuen Microsoft-Betriebssystems, das zahlreiche Überarbeitungen beziehungsweise Optimierungen beinhaltete, sowohl auf Design- als auch auf Funktionsebene. Hervorzuheben ist dabei vor allem die von den Nutzern lange herbeigesehnte Möglichkeit, innerhalb des Windows Datei-Explorers Registerkarten zu öffnen. Unsere Kollegen von der PC-Welt haben das erste Windows-Update, beziehungsweise dessen Betaversion, ausgiebig getestet und erklärt.

Windows 11 23H2

Ende Oktober 2023 veröffentlichte Microsoft schließlich die Version 23H2. Diese zeichnet sich in erster Linie durch die Integration generativer KI-Funktionen auf GPT-4-Basis aus – Stichwort Copilot. Das wirkt sich vielfältig auf diverse Bereiche des Windows-Ökosystems aus, wie eine Microsoft-Expertin in diesem Videobeitrag ausführlich erklärt.

Windows 11 24H2

Seit Oktober 2024 ist das 2024er-Update von Windows 11 allgemein verfügbar. Mit 24H2 halten zahlreiche Neuerungen in Windows 11 Einzug – insbesondere neue KI-Features (bei Copilot+-PCs). Darüber hinaus verspricht 24H2 auch WiFi-7-Support, einen optimierten Datei-Explorer sowie verbesserte Konnektivität. In der Praxis hat sich dieses Windows-Update leider vor allem dadurch ausgezeichnet, dass es bei der Nutzerbasis für umfassende (teilweise nur manuell zu lösende) Probleme gesorgt hat.

Knapp vier Jahre nach seiner Veröffentlichung ist der Erfolg von Windows 11 mit Blick auf die Nutzerakzeptanz noch ausbaufähig: Der weltweite Marktanteil des Betriebssystem liegt aktuell (Stand: Februar 2025) bei 38 Prozent. Der Vorgänger Windows 10 dominiert indes immer noch die Versionslandschaft mit 59 Prozent. (dpa/tc/mje/fm/ba)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​ Weiterlesen »

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​

Allgemein

Anyron Copeman / Foundry Wenn die meisten Menschen an ein Tablet denken, denken sie an das iPad. Die Tablets von Apple sind das Synonym für diese Gerätekategorie geworden, aber sie haben ein großes Problem: den Preis. Das günstigste Modell, das Apple derzeit anbietet, ist das betagte 10,9-Zoll-Modell aus dem Jahr 2022, das bei 399 Euro für nur 128 Gigabyte Speicherplatz beginnt. Wenn Sie sich stattdessen 256 Gigabyte wünschen, kostet Sie das Gerät schon 529 Euro. Sollten Sie hingegen nur ein Gerät suchen, um Netflix oder YouTube zu schauen, lohnt sich das einfach nicht. Und was ist mit Android-Tablets? Oberflächlich betrachtet gibt es auch hier nicht viele großartige Optionen. Samsung ist zwar marktführend, aber sein Galaxy Tab S10 und S10 Ultra sind zu teuer, während die preisgünstigen Tab A9 und A9+ eher für den allgemeinen Gebrauch als für den Konsum filmischer Inhalte geeignet sind. Es sieht jedoch so aus, als gäbe es eine Lösung von Honor. Das neue Pad V9 Tablet kostet mit 256 Gigabyte Speicherplatz 449,90 Euro und bietet dafür ein überraschend gutes audiovisuelles Erlebnis. Ein 11,5-Zoll-LC-Display mit einer Auflösung von 2.800 × 1.840 Pixeln klingt vielleicht nicht besonders beeindruckend, aber ich habe das Pad V9 in meiner alltäglichen Routine sehr gerne benutzt. Anyron Copeman / Foundry Das Honor Pad V9 liefert die satten, lebendigen Farben und tiefen Schwarztöne, die ich normalerweise mit OLED-Panels in Verbindung bringe. Dazu kommen eine hervorragende Detailtreue und eine hohe Bildwiederholrate von 144 Hertz. Das Gerät kann auch beeindruckend hell werden, sodass ich mir selbst bei direktem Sonnenlicht keine Sorgen um die Sichtbarkeit machen muss. Natürlich ist das Display nur ein Aspekt eines großartigen Tablets für Filme und Serien. Auch die Lautsprecher spielen eine große Rolle, und das Honor Pad V9 hat nicht weniger als acht davon! Sie befinden sich an beiden Enden des Geräts und liefern einen Klang, der mit dem eines Flaggschiff-Tablets mithalten kann. Der Sound ist durchweg klar und bietet einen schönen Bass. Anyron Copeman / Foundry Gleichzeitig können die Lautsprecher aber auch beeindruckend laut werden, ohne hörbare Verzerrungen zu verursachen. Ob Sie nun Musik, Dialoge oder effektreiche Blockbuster genießen, ein großartiges Hörerlebnis ist nahezu garantiert. Wenn Sie jedoch lieber Kopfhörer oder Lautsprecher anschließen möchten, haben Sie die Wahl zwischen Bluetooth 5.2 und einer 3,5-Millimeter-Buchse. Letztere unterstützt 24-Bit-Hi-Res-Audio und ist für eine kinoähnliche IMAX Enhanced Qualität zertifiziert. Entscheidend ist außerdem, dass der MediaTek Dimensity 8350 Chipsatz des Honor Pad V9 eine hohe Leistung bei allen Alltagsaufgaben bietet. In Kombination mit der Bildwiederholfrequenz von 144 Hertz erhalten Sie ein beeindruckendes Premium-Gefühl. Anyron Copeman / Foundry Und da das Honor Pad V9 bereits auf Android 15 setzt, haben Sie vollen Zugriff auf alle Ihre Lieblings-Apps und Streaming-Dienste. Bei der Software versteckt sich jedoch auch der größte Nachteil des Pad V9. Die MagicOS 9-Oberfläche von Honor unterscheidet sich deutlich von der, die Sie auf einem Galaxy- oder Pixel-Tablet vorfinden. Das wirkt für die meisten Menschen anfangs etwas ungewohnt. Das Ergebnis wirkt sehr unübersichtlich, mit Dutzenden zusätzlichen vorinstallierten Apps und häufigen Pop-ups. Es gibt einige wirklich nützliche Funktionen, aber selbst als erfahrener Honor-Nutzer fand ich es schwierig, diese zu finden und mich umzugewöhnen. Anyron Copeman / Foundry All das spielt keine Rolle, wenn Sie einfach nur ein Gerät zum Filme und Serien schauen suchen. Aber es gibt ein paar Dinge, über die wir noch nichts wissen, die aber wichtig sein könnten.Das erste ist die Akkulaufzeit. Das Pad V9 hat einen anständigen 10.100 Milliamperestunden-Akku, aber wie lange werden Sie damit tatsächlich Filme schauen können? Und wie schnell können Sie das Gerät mit der 66-Watt-Schnellladefunktion wieder voll aufladen? Auch die Dauer der Softwareunterstützung bleibt ungeklärt. Damit sich der Kauf lohnt, möchten Sie wahrscheinlich vier Jahre lang garantierten Sicherheits-Support haben, wobei neue Funktionen in größeren Betriebssystem-Updates weniger wichtig sind. Wenn diese beiden Fragen geklärt sind, könnte das Honor Pad V9 ein preiswertes Tablet für Film- und Fernsehfans werden. Im Online-Shop von Honor wird das Pad V9 nur in einer Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher angeboten. Der Preis dafür liegt eigentlich bei 499 Euro, Honor bietet aktuell jedoch einen Rabatt an, der den Preis auf 449,90 reduziert. Die Software verhindert jedoch, dass das Honor Pad V9 ein perfektes Tablet für die Produktivität werden könnte. Wenn Ihre Priorität auf diesem Teilbereich liegt, dann finden Sie bessere Optionen in unserem Ratgeber zu den besten Tablets. (PC-Welt) 

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​ Anyron Copeman / Foundry

Wenn die meisten Menschen an ein Tablet denken, denken sie an das iPad. Die Tablets von Apple sind das Synonym für diese Gerätekategorie geworden, aber sie haben ein großes Problem: den Preis.

Das günstigste Modell, das Apple derzeit anbietet, ist das betagte 10,9-Zoll-Modell aus dem Jahr 2022, das bei 399 Euro für nur 128 Gigabyte Speicherplatz beginnt. Wenn Sie sich stattdessen 256 Gigabyte wünschen, kostet Sie das Gerät schon 529 Euro.

Sollten Sie hingegen nur ein Gerät suchen, um Netflix oder YouTube zu schauen, lohnt sich das einfach nicht. Und was ist mit Android-Tablets?

Oberflächlich betrachtet gibt es auch hier nicht viele großartige Optionen. Samsung ist zwar marktführend, aber sein Galaxy Tab S10 und S10 Ultra sind zu teuer, während die preisgünstigen Tab A9 und A9+ eher für den allgemeinen Gebrauch als für den Konsum filmischer Inhalte geeignet sind.

Es sieht jedoch so aus, als gäbe es eine Lösung von Honor. Das neue Pad V9 Tablet kostet mit 256 Gigabyte Speicherplatz 449,90 Euro und bietet dafür ein überraschend gutes audiovisuelles Erlebnis.

Ein 11,5-Zoll-LC-Display mit einer Auflösung von 2.800 × 1.840 Pixeln klingt vielleicht nicht besonders beeindruckend, aber ich habe das Pad V9 in meiner alltäglichen Routine sehr gerne benutzt.

Anyron Copeman / Foundry

Das Honor Pad V9 liefert die satten, lebendigen Farben und tiefen Schwarztöne, die ich normalerweise mit OLED-Panels in Verbindung bringe. Dazu kommen eine hervorragende Detailtreue und eine hohe Bildwiederholrate von 144 Hertz. Das Gerät kann auch beeindruckend hell werden, sodass ich mir selbst bei direktem Sonnenlicht keine Sorgen um die Sichtbarkeit machen muss.

Natürlich ist das Display nur ein Aspekt eines großartigen Tablets für Filme und Serien. Auch die Lautsprecher spielen eine große Rolle, und das Honor Pad V9 hat nicht weniger als acht davon!

Sie befinden sich an beiden Enden des Geräts und liefern einen Klang, der mit dem eines Flaggschiff-Tablets mithalten kann. Der Sound ist durchweg klar und bietet einen schönen Bass.

Anyron Copeman / Foundry

Gleichzeitig können die Lautsprecher aber auch beeindruckend laut werden, ohne hörbare Verzerrungen zu verursachen. Ob Sie nun Musik, Dialoge oder effektreiche Blockbuster genießen, ein großartiges Hörerlebnis ist nahezu garantiert.

Wenn Sie jedoch lieber Kopfhörer oder Lautsprecher anschließen möchten, haben Sie die Wahl zwischen Bluetooth 5.2 und einer 3,5-Millimeter-Buchse. Letztere unterstützt 24-Bit-Hi-Res-Audio und ist für eine kinoähnliche IMAX Enhanced Qualität zertifiziert.

Entscheidend ist außerdem, dass der MediaTek Dimensity 8350 Chipsatz des Honor Pad V9 eine hohe Leistung bei allen Alltagsaufgaben bietet. In Kombination mit der Bildwiederholfrequenz von 144 Hertz erhalten Sie ein beeindruckendes Premium-Gefühl.

Anyron Copeman / Foundry

Und da das Honor Pad V9 bereits auf Android 15 setzt, haben Sie vollen Zugriff auf alle Ihre Lieblings-Apps und Streaming-Dienste.

Bei der Software versteckt sich jedoch auch der größte Nachteil des Pad V9. Die MagicOS 9-Oberfläche von Honor unterscheidet sich deutlich von der, die Sie auf einem Galaxy- oder Pixel-Tablet vorfinden. Das wirkt für die meisten Menschen anfangs etwas ungewohnt.

Das Ergebnis wirkt sehr unübersichtlich, mit Dutzenden zusätzlichen vorinstallierten Apps und häufigen Pop-ups. Es gibt einige wirklich nützliche Funktionen, aber selbst als erfahrener Honor-Nutzer fand ich es schwierig, diese zu finden und mich umzugewöhnen.

Anyron Copeman / Foundry

All das spielt keine Rolle, wenn Sie einfach nur ein Gerät zum Filme und Serien schauen suchen. Aber es gibt ein paar Dinge, über die wir noch nichts wissen, die aber wichtig sein könnten.Das erste ist die Akkulaufzeit. Das Pad V9 hat einen anständigen 10.100 Milliamperestunden-Akku, aber wie lange werden Sie damit tatsächlich Filme schauen können? Und wie schnell können Sie das Gerät mit der 66-Watt-Schnellladefunktion wieder voll aufladen?

Auch die Dauer der Softwareunterstützung bleibt ungeklärt. Damit sich der Kauf lohnt, möchten Sie wahrscheinlich vier Jahre lang garantierten Sicherheits-Support haben, wobei neue Funktionen in größeren Betriebssystem-Updates weniger wichtig sind.

Wenn diese beiden Fragen geklärt sind, könnte das Honor Pad V9 ein preiswertes Tablet für Film- und Fernsehfans werden.

Im Online-Shop von Honor wird das Pad V9 nur in einer Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher angeboten. Der Preis dafür liegt eigentlich bei 499 Euro, Honor bietet aktuell jedoch einen Rabatt an, der den Preis auf 449,90 reduziert.

Die Software verhindert jedoch, dass das Honor Pad V9 ein perfektes Tablet für die Produktivität werden könnte. Wenn Ihre Priorität auf diesem Teilbereich liegt, dann finden Sie bessere Optionen in unserem Ratgeber zu den besten Tablets.

(PC-Welt)

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​ Weiterlesen »

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​

Allgemein

Dominik Tomaszewski / Foundry Auf einen Blick Pro Unglaubliche Kameraleistung Ausgezeichneter Bildschirm Solide Akkulaufzeit & schnelles Aufladen Flotte Leistung Kontra Einige Rückschritte beim Design Nicht die beste Android-Oberfläche Mittelmäßige KI-Funktionen Fazit Das Xiaomi 15 Ultra ist ein erstklassiges Flaggschiff-Smartphone, das mit zahlreichen Upgrades gegenüber seinem Vorgänger punktet. Besonders die Kamera hebt es von Konkurrenten wie Samsung, Apple und Google ab. In Kombination mit dem Photography Kit setzt es neue Maßstäbe und gilt derzeit als das beste Kamera-Smartphone auf dem Markt. Allerdings trüben einige fragwürdige Designänderungen und vorinstallierte Bloatware das Gesamtbild. Xiaomi will mit seinem 15 Ultra erneut den Titel des besten Foto-Smartphones für sich beanspruchen. Nach dem exzellenten Xiaomi 14 Ultra und der starken Konkurrenz durch das Samsung Galaxy S25 Ultra und das Apple iPhone 16 Pro Max muss sich das Gerät anstrengen, diesem Titel gerecht zu werden. Wie bei vielen anderen Flaggschiff-Smartphones in diesem Jahr gibt es im Vergleich zum Vorgänger keine bahnbrechenden Neuerungen. Das Xiaomi 15 Ultra ist aber dennoch eines der besten Smartphones, die Sie aktuell kaufen können. Und das gilt nicht nur in Bezug auf seine Foto-Features. Mit einer UVP in Höhe von 1.499,90 Euro ist das Xiaomi 15 Ultra kein Schnäppchen. Es bietet jedoch standardmäßig doppelt so viel Speicherplatz wie die wichtigsten Konkurrenten. Wie sich das Smartphone in unserem Test schlägt, lesen Sie in den folgenden Zeilen. Design & Verarbeitung Neue Farben Ein wahres Leistungsmonster Optionales Fotografie-Kit Im Großen und Ganzen sieht das Xiaomi 15 Ultra aus wie sein Vorgänger und fühlt sich auch so an. Wie bei vielen Konkurrenten handelt es sich eher um kleine Optimierungen als um eine große Designüberarbeitung. Wie schon beim Vorgänger ist das riesige runde “Vulkan”-Kameramodul auf der Rückseite auch beim 15 Ultra der Hingucker. Im Allgemeinen würde ich einen kleineren Kamerabuckel bevorzugen. Da es sich beim 15 Ultra jedoch um ein Kamera-Smartphone handelt, bekommt es in diesem Bereich von mir einen Freifahrtschein. Dominik Tomaszewski / Foundry Der Kamerabuckel selbst ist nicht nur groß, sondern besteht auch aus einem Stück Gorilla Glass 7i, umgeben von einem Rahmen mit Nanotextur und einem roten Ring. Das ist zumindest bei meinem schwarzen Modell der Fall. Die weiße Variante und das neue zweifarbige Silver-Chrome-Modell haben keinen roten Ring. Ich bevorzuge die trapezförmige Anordnung der Linsen auf dem 14 Ultra, aber das ist nur ein kleiner Kritikpunkt. Auch von der Rückseite bin ich nicht wirklich begeistert. Die neue Glasoberfläche der schwarzen Variante ist extrem rutschig. Dominik Tomaszewski / Foundry Abgesehen davon fühlt sich das 15 Ultra sehr hochwertig an. Ich mag die schraffierte Einschalttaste, den Aluminiumrahmen und die abgeschrägten Kanten, die dem Trend zu vollkommen flachen Seiten entgegenwirken. Das 15 Ultra hat im Vergleich zum iPhone 16 leider keine eigene Kamerataste. Dafür bietet Xiaomi jedoch wieder ein Fotografie-Kit an (dazu später mehr). Sie erhalten Xiaomi Shield Glass 2.0 auf der Vorderseite und eine IP68-Zertifizierung gegen Staub und Wasser. Insgesamt fühlt sich das Smartphone gut verarbeitet und sehr robust an. Eine transparente Silikonhülle ist in der Verpackung enthalten. Allerdings ist es mit 226 Gramm (oder 229 Gramm bei der Silver-Chrome-Ausführung) ziemlich schwer. Bildschirm & Lautsprecher 6,73-Zoll-AMOLED 1 – 120 Hertz Bildwiederholfrequenz All Around Liquid Display Stereo-Lautsprecher Das Display des Xiaomi 15 Ultra ist mit dem des Vorgängers identisch. Sie erhalten ein großes 6,73-Zoll-AMOLED-Panel mit einer Auflösung von 3.200 × 1.400 Pixeln (522 Pixel pro Zoll) und einer dynamischen Bildwiederholfrequenz von 1 bis 120 Hertz. Ein kleines Upgrade in diesem Jahr ist die höhere Spitzenhelligkeit von 3.200 Nits. Beim 14 Ultra waren es 3.000 Nits. Dominik Tomaszewski / Foundry Es ist keine Überraschung, dass Xiaomi dieses hervorragende Display beibehält. Ich liebe nach wie vor das All Around Liquid Design, was im Wesentlichen bedeutet, dass das Glas auf der Vorderseite an den Rändern gewölbt ist, während das Panel darunter flach ist. Das Display ist gestochen scharf, hat kräftige Farben, einen ausgezeichneten Kontrast und eine enorme Helligkeit. Das Display des Xiaomi 15 ist mit seinen 6,36 Zoll jedoch ein wenig handlicher. Eine wichtige Neuerung ist der Ultraschall-Fingerabdrucksensor. Ich fand den des 14 Ultra bereits sehr gut, aber die neue Version ist zweifelsohne superschnell und zuverlässig. Wie beim 14 Ultra sind die Stereolautsprecher beeindruckend und bieten eine hervorragende Klarheit. Sie gehören zu den besten Lautsprechern, die ich je bei einem Handy getestet habe. Das 15 Ultra bietet außerdem Hi-Res und Hi-Res Audio Wireless Zertifizierungen. Spezifikationen & Leistung Snapdragon 8 Elite 16 GB RAM 512 GB Speicher neueste Konnektivitätsfeatures Es ist keine Überraschung, dass das Xiaomi 15 Ultra mit einem Qualcomm Snapdragon 8 Elite Chipsatz ausgestattet ist. Sie erhalten 16 Gigabyte Arbeitsspeicher und wahlweise 512 Gigabyte internen UFS 4.1-Speicher. Die Leistung ist erstklassig, und das 15 Ultra bewältigt alltägliche Aufgaben ohne Probleme. Alles läuft seidenweich und blitzschnell. Das Smartphone verfügt über eine RAM-Erweiterungsfunktion, mit der Sie theoretisch zusätzliche 6 Gigabyte hinzufügen können. Dabei wird ein Teil des internen Speicherplatzes als “virtueller RAM” genutzt. Diese Funktion war bei meinem Testgerät standardmäßig aktiviert. Dominik Tomaszewski / Foundry Natürlich liegt der Schwerpunkt auf den Kamerafähigkeiten, aber mit dem exzellenten Display und dem leistungsstarken Chipsatz ist das 15 Ultra auch ein ausgezeichnetes Gaming-Smartphone. Der größte Nachteil in dieser Hinsicht ist der Kamerabuckel, der im Weg ist, wenn Sie es im Hochformat halten. Das 3D-Dual-Channel-IceLoop-Kühlsystem leistet gute Arbeit und verhindert, dass das Handy bei anspruchsvollen Aufgaben zu heiß wird. Die übrigen Kernspezifikationen sind stark, angefangen bei Wi-Fi 7 sowie einem Upgrade auf Bluetooth 6.0 und Dual-SIM, das jetzt auch eSIM umfasst. Sie erhalten auch wieder einen IR-Blaster, den ich persönlich sehr mag. Xiaomi 15 Ultra Benchmarks Kameras Vier Kameras auf der Rückseite Neues 200-MP-Periskop-Teleobjektiv 32-MP-Frontkamera Separat erhältliches Fotografie-Kit Das Xiaomi 15 Ultra will mit seinen fünf Kameras, von denen sich vier auf der Rückseite befinden, an der Spitze der mobilen Fotografie stehen. Auch beim 15 Ultra wurden die Kameras wieder in Zusammenarbeit mit Leica entwickelt. Die wichtigste Neuerung ist das 200-Megapixel-Periskop-Teleobjektiv. Es hat einen kürzeren 4,3-fachen Zoom als das fünffache des 14 Ultra. Dafür bietet es einen größeren Sensor, eine höhere Auflösung und eine schnellere Blendenöffnung. Xiaomi behauptet, dass das Gesamtergebnis besser ist, insbesondere bei schlechten Lichtverhältnissen. Die anderen drei rückwärtigen Kameras bleiben bei 50 Megapixeln und bieten eine Kombination aus Hauptkamera, Ultraweitwinkelkamera und einer Floating-Telekamera. Die Spezifikationen sind mit denen des 14 Ultra nahezu identisch. Die variable Blende der Hauptkamera wurde jedoch mit einer festen f/1,63 Blende ersetzt. Die Idee dahinter ist, ein DSLR-ähnliches Erlebnis zu bieten, bei dem mehrere Brennweiten (oder Objektive) zur Verfügung stehen, ohne dass man die gesamte Ausrüstung mitschleppen und die Objektive für verschiedene Aufnahmen austauschen muss. Dominik Tomaszewski / Foundry Xiaomi hat auch bei der Kamera-App wieder gute Arbeit geleistet. Sie bietet sowohl eine einfach zu bedienende Reihe von Schaltflächen und Werkzeugen als auch einen Pro-Modus. Sie müssen kein Fotoexperte sein, um mit dem 15 Ultra großartige Aufnahmen zu machen. Probieren Sie einfach, je nach Motiv, die unterschiedlichen Brennweiten aus. Bis zu einem gewissen Grad wählt das 15 Ultra die richtige Kamera für Sie aus. Es schaltet etwa automatisch in den Makromodus, wenn Sie nah an ein Motiv herangehen. Sie müssen also nicht unbedingt wissen, was eine 23- oder 35-Millimeter-Brennweite ist. Genau wie bei der 14 Ultra sind die Ergebnisse wirklich sehr beeindruckend. Xiaomi und Leica haben bei der Konsistenz der vier Kameras besonders gute Arbeit geleistet. Besonders die Farbgenauigkeit kann sich sehen lassen. Ein Problem, mit dem viele Smartphones seit Jahren zu kämpfen haben. Sie können mit jeder Kamera knipsen und sicher sein, dass Sie ein detailliertes, gut belichtetes Bild mit einem ausgezeichneten Dynamikumfang erhalten. Sie haben außerdem die Wahl aus den Farbmodi Leica Authentic und Vibrant. Ich würde sagen, dass das Ultrawide-Objektiv das schwächste der vier ist. Das ist nicht überraschend, denn diese Linse ist die einzige ohne optische Bildstabilisierung (OIS). Sie weist außerdem schwächere Spezifikationen auf. Sie ist keineswegs schlecht, aber die anderen sind beeindruckender und werden wahrscheinlich ohnehin häufiger verwendet. Ich habe die Hauptkamera und das dreifache Teleobjektiv am meisten benutzt. Allerdings finde ich es schade, dass die variable Blende des Hauptobjektivs weggefallen ist. Die feste Blende f/1,63 sorgt für eine extrem geringe Schärfentiefe, was in vielen Situationen zu viel sein kann. Für Porträts ist die Kamera jedoch ausgezeichnet geeignet. Im Porträt-Modus können Sie zudem zwischen Master Portrait und Leica Portrait mit verschiedenen Einstellungen wählen. Wie bereits erwähnt, ist das neue 200-Megapixel-Periskop-Teleobjektiv die wichtigste Neuerung in diesem Jahr. Obwohl es nur einen 4,3-fachen statt eines fünffachen Zooms bietet, habe ich das nicht als Problem empfunden. Der Detailreichtum ist potenziell fantastisch (wenn man die Kamera ruhig genug halten kann). Die Brennweite entspricht 100 Millimetern, und Sie können bei Bedarf digital noch viel weiter zoomen und dabei brauchbare Ergebnisse erzielen. Die Leistung bei schlechten Lichtverhältnissen ist ausgezeichnet. Auch die Frontkamera ist solide und bietet viele Details, einen automatischen Bildausschnitt je nach Anzahl der Personen auf dem Foto, einen einstellbaren Porträtmodus und vieles mehr. Auch bei den Videos ist das Smartphone nicht zu schlagen: Sie können mit bis zu 8K bei 30 Bildern pro Sekunde aufnehmen und haben verschiedene Einstellungen zur Verfügung. Meine Testaufnahmen waren unglaublich flüssig, detailliert und farbenfroh. Eine Anmerkung zum Fotografie-Kit, das ich kurz getestet habe und demnächst separat vorstellen werde: In diesem Jahr heißt es “Legend Edition”. Es ist im Wesentlichen dasselbe wie beim 14 Ultra und kostet 199,90 Euro. Das Kit funktioniert wie eine Smartphone-Hülle und wird mit dem USB-C-Anschluss des Smartphones verbunden. Damit können Sie das 15 Ultra wie eine echte Kamera halten und bekommen zusätzliche Bedienelemente wie einen Zoom, einen zweistufigen Auslöser, ein Einstellrad und eine Videoaufnahmetaste. Außerdem gibt es eine Auswahl an abnehmbaren Ringen und einen abnehmbaren Daumengriff, zwei verschiedene optionale Auslöser und einen integrierten Akku mit 2.000 Milliamperestunden. Bei den ersten Tests hatte ich einige kleine Probleme, wie die wackelige Zoomsteuerung (die beim Vorgänger zuverlässiger war). Dennoch ist es ein herausragendes Zubehör, das das 15 Ultra in eine richtige Kamera verwandelt. Akkulaufzeit & Aufladen 5.410 mAh Akku 90 Watt kabelgebundenes Laden 80 Watt kabelloses Laden Die Ladegeschwindigkeiten von 90 und 80 Watt für kabelgebundenes und kabelloses Laden sind identisch mit denen des 14 Ultra aus dem letzten Jahr. Der Akku selbst ist mit 5.410 Milliamperestunden (statt 5.000) größer. Im PCMark-Akkutest hielt das 15 Ultra beeindruckende 17 Stunden durch. Das sind über viereinhalb Stunden mehr als beim Vorgänger. Es wäre natürlich schön, wenn Xiaomi mehr Siliziumkarbid (SiC)-Technologie einsetzen würde, um die Kapazität noch weiter zu steigern – wie beim OnePlus 13. Die Ausdauer ist jedoch sehr solide. Ich kann das Smartphone problemlos zwei Tage lang nutzen, wenn ich es nicht übermäßig für anspruchsvolle Aufgaben einsetze. Dominik Tomaszewski / Foundry Es ist verständlich, dass Xiaomi die Ladegeschwindigkeiten beibehalten hat. Es gibt zwar schnellere Handys für kabelgebundenes Laden, aber 90 Watt sind für die meisten Menschen ausreichend schnell und liegen weit vor denen von Apple und Google. Bei meinen Tests mit dem 90W HyperCharge-Adapter von Xiaomi ging es in nur 15 Minuten von null auf 42 Prozent und in 30 Minuten auf 72 Prozent. Das ist nicht so beeindruckend wie beim 14 Ultra, das Smartphone hat jedoch auch einen kleineren Akku. Beim 15 Ultra ist kein Ladegerät in der Verpackung enthalten, zumindest nicht bei meinem Exemplar. Ein offizielles 120-Watt-Ladegerät kostet bei Xiaomi 59,99 Euro. Der Wireless Charging Stand mit 80 Watt schlägt mit 99,99 Euro zu Buche. Bedenken Sie, dass es durch den Kamerabuckel beim kabellosen Laden zu Problemen kommen kann, wenn Sie ein Dritthersteller-Ladegerät verwenden. Software & Apps HyperOS 2 Android 15 Vier Betriebssystem-Updates Mit dem Xiaomi 15 Ultra erhalten Sie die neue Xiaomi-Benutzeroberfläche HyperOS 2.0. Sie ist mit HyperOS 1.0 nahezu identisch. Sie ist übersichtlich, sehr schnell und ist meist intuitiv. Dominik Tomaszewski / Foundry Wenn Sie neu in dieser Benutzeroberfläche sind, müssen Sie sich erst einmal an Dinge wie die geteilten Benachrichtigungs- und Schnelleinstellungsfenster gewöhnen, die sich wie bei iPhones auf beiden Seiten der Selfie-Kamera befinden. Die Ansicht der letzten Apps ist ebenfalls alternativ, mit einem Raster und Apps, die zum Schließen seitlich und nicht nach oben geschoben werden müssen. Xiaomi fügt immer noch eine ganze Menge vorinstallierte Bloatware hinzu, mit Apps wie Spotify, Facebook, AliExpress, LinkedIn und TikTok. Xiaomi hat auch viele eigene Apps, von denen viele die Google-Suite duplizieren und daher überflüssig erscheinen. Wie nicht anders zu erwarten, ist KI hier die große Neuheit, mit einer langen Liste von Funktionen wie Schreibhilfe, Übersetzung, Bildbearbeitung und mehr. Mein Hauptproblem mit diesen Funktionen ist, herauszufinden, wie sie funktionieren, oder überhaupt zu wissen, dass es sie gibt. Es gibt kaum Hinweise in der Software und vielleicht sehen Sie nicht einmal den Abschnitt HyperAI im Einstellungsmenü. Aber zum Glück sind Google Gemini und Funktionen wie “Circle to Search” integriert, sodass ich diese Funktionen weitaus häufiger genutzt habe. In Anbetracht des auf die Kamera ausgerichteten Designs sind die KI-Tools im Galerie-Editor für mich die nützlichsten. Ärgerlicherweise müssen Sie Plug-ins herunterladen, um sie nutzen zu können, und sich mit einem Xiaomi-Konto anmelden. Sobald das erledigt ist, können Sie Funktionen wie Verbessern, Erweitern oder Löschen. Dominik Tomaszewski / Foundry Was die Benutzerfreundlichkeit und die Ergebnisse angeht, ist das Ergebnis gemischt. Das “Löschen”-Plugin zum Beispiel ließ sich zunächst nicht richtig initialisieren. Die Option “Erweitern” enthält typische KI-Fehler, wenn Sie genau hinsehen, während das Ändern des Himmels (mit vielen verschiedenen Optionen) in meinen Tests einwandfrei funktioniert hat. Ich kann mir vorstellen, dass die meisten Nutzer einfach die Option “Verbessern” verwenden, um mit einem Tastendruck dafür zu sorgen, dass die Schnappschüsse hübscher aussehen. Aber wie bei der Gemini-Ausgabe hat Google bereits bessere und raffiniertere KI-Bildbearbeitungstools zur Verfügung, ganz zu schweigen von der Fülle der Fotobearbeitungs-Apps, die es gibt. Bei der Softwareunterstützung bleibt es bei vier Jahren Betriebssystem-Updates und sechs Jahren Sicherheitsupdates. Das ist etwas weniger als bei Samsung, Google und Apple. Wenn das für Sie wichtig ist, sollten Sie die Konkurrenten in Betracht ziehen. Preis und Verfügbarkeit Im Vergleich zum Vorgänger hat sich beim Preis des Xiaomi 15 Ultra nichts geändert. Im Online-Shop des Herstellers ist das Smartphone in drei Farbversionen für 1.499,90 Euro erhältlich. Das Fotografie-Kit ist als Zubehör erhältlich und kostet 199,90 Euro. Amazon hat das 15 Ultra ebenfalls für 1.499 Euro im Angebot. Wenn Sie das Xiaomi 15 Ultra mit dem Samsung Galaxy S25 Ultra vergleichen, ist es ein wenig teurer, aber das günstigste S25 Ultra für 1.449 Euro hat nur 256 Gigabyte Speicher. Das Modell mit 512 Gigabyte kostet derzeit ebenfalls nur 1.449 Euro. Xiaomi bietet hier also ein gutes Preis-Leistungs-Verhältnis. Das günstigste iPhone 16 Pro Max kostet 1.449 Euro, aber auch hier bekommen Sie nur 256 Gigabyte Speicher. Für 512 Gigabyte zahlen Sie bei Apple 1.699 Euro. Dominik Tomaszewski / Foundry Sollten Sie das Xiaomi 15 Ultra kaufen? Im Großen und Ganzen ist das Xiaomi 15 Ultra ein weiteres hervorragendes Flaggschiff-Smartphone, das mit einer Reihe von Upgrades aufwarten kann. Im Vergleich zum 14 Ultra ist es eine Wiederholung, aber das ist ein Trend bei den Flaggschiffen des Jahres 2025. Das 15 Ultra ist eine weitere Meisterklasse der Smartphone-Fotografie und verfügt jetzt über eine 200-Megapixel-Periskop-Telekamera sowie drei weitere hervorragende Rückkameras – auch wenn es schade ist, dass die Hauptkamera ihre variable Blendenfunktion verloren hat. Einmal mehr ist das optionale Fotografie-Kit die Geheimwaffe des Ultra. Es fühlt sich wirklich wie eine DSLR an und liefert Ergebnisse auf ähnlich hohem Niveau. Ansonsten bietet das 15 Ultra so ziemlich alles, was man sich von einem Flaggschiff wünschen kann. Der Bildschirm ist hervorragend, die Akkulaufzeit wurde verbessert, der Ladevorgang ist immer noch schnell und die Leistung ist seidenweich. Kleinere Details wie ein IR-Blaster und die neueste Konnektivität sowie Hi-Res-Audio sind ebenfalls an Bord. HyperOS ist nicht die beste Android-Oberfläche, und Xiaomi bietet nicht so lange Unterstützung wie Samsung und Google. Das sollten Sie beim Kauf bedenken. Es ist auch schade, dass es nur eine Farbvariante mit veganer Lederrückseite gibt. Dennoch ist das 15 Ultra ein beeindruckendes Flaggschiff. In Anbetracht der Ähnlichkeit der beiden Modelle würde ich mir überlegen, das 14 Ultra zum niedrigeren Preis zu kaufen. Spezifikationen Android 15 mit HyperOS 2.0 6,73 Zoll WQHD AMOLED-Display mit 1 – 120 Hz, 300 Hz Touch-Sampling, Dolby Vision, HDR10 Ultraschall-Fingerabdrucksensor im Display Xiaomi Shield 2.0 Glasfront Qualcomm Snapdragon 8 Elite 16 GB RAM LPDDR5X 512 GB UFS 4.1 nicht erweiterbarer Speicher 50 MP, f/1,63 Hauptkamera mit OIS 50 MP, f/2,2 Ultraweitwinkel-Kamera 50 MP, f/1,8 Teleobjektiv, 3x Kamera mit OIS 200 MP, f/2,6 Periskop 4,3x Kameras mit OIS 32 MP, f/2,0 Frontkamera Stereo-Lautsprecher mit Dolby Atmos Hi-Res & Hi-Res Audio Drahtlos-Zertifizierung 5G WiFi 7 Bluetooth 6.0 USB-C-Anschluss IR-Blaster NFC Dual-SIM (inkl. eSIM) 5.410 mAh Akku 90 W Schnellladung 80 W kabelloses Laden 10 W kabellose Rückwärtsaufladung IP68 161,3 × 75,3 × 9,35 mm 236 g Farben: Schwarz, Weiß, Silber Chrom (PC-Welt) 

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​ Dominik Tomaszewski / Foundry

Auf einen Blick

Pro

Unglaubliche Kameraleistung

Ausgezeichneter Bildschirm

Solide Akkulaufzeit & schnelles Aufladen

Flotte Leistung

Kontra

Einige Rückschritte beim Design

Nicht die beste Android-Oberfläche

Mittelmäßige KI-Funktionen

Fazit

Das Xiaomi 15 Ultra ist ein erstklassiges Flaggschiff-Smartphone, das mit zahlreichen Upgrades gegenüber seinem Vorgänger punktet. Besonders die Kamera hebt es von Konkurrenten wie Samsung, Apple und Google ab. In Kombination mit dem Photography Kit setzt es neue Maßstäbe und gilt derzeit als das beste Kamera-Smartphone auf dem Markt. Allerdings trüben einige fragwürdige Designänderungen und vorinstallierte Bloatware das Gesamtbild.

Xiaomi will mit seinem 15 Ultra erneut den Titel des besten Foto-Smartphones für sich beanspruchen. Nach dem exzellenten Xiaomi 14 Ultra und der starken Konkurrenz durch das Samsung Galaxy S25 Ultra und das Apple iPhone 16 Pro Max muss sich das Gerät anstrengen, diesem Titel gerecht zu werden.

Wie bei vielen anderen Flaggschiff-Smartphones in diesem Jahr gibt es im Vergleich zum Vorgänger keine bahnbrechenden Neuerungen. Das Xiaomi 15 Ultra ist aber dennoch eines der besten Smartphones, die Sie aktuell kaufen können. Und das gilt nicht nur in Bezug auf seine Foto-Features.

Mit einer UVP in Höhe von 1.499,90 Euro ist das Xiaomi 15 Ultra kein Schnäppchen. Es bietet jedoch standardmäßig doppelt so viel Speicherplatz wie die wichtigsten Konkurrenten. Wie sich das Smartphone in unserem Test schlägt, lesen Sie in den folgenden Zeilen.

Design & Verarbeitung

Neue Farben

Ein wahres Leistungsmonster

Optionales Fotografie-Kit

Im Großen und Ganzen sieht das Xiaomi 15 Ultra aus wie sein Vorgänger und fühlt sich auch so an. Wie bei vielen Konkurrenten handelt es sich eher um kleine Optimierungen als um eine große Designüberarbeitung. Wie schon beim Vorgänger ist das riesige runde “Vulkan”-Kameramodul auf der Rückseite auch beim 15 Ultra der Hingucker. Im Allgemeinen würde ich einen kleineren Kamerabuckel bevorzugen. Da es sich beim 15 Ultra jedoch um ein Kamera-Smartphone handelt, bekommt es in diesem Bereich von mir einen Freifahrtschein.

Dominik Tomaszewski / Foundry

Der Kamerabuckel selbst ist nicht nur groß, sondern besteht auch aus einem Stück Gorilla Glass 7i, umgeben von einem Rahmen mit Nanotextur und einem roten Ring. Das ist zumindest bei meinem schwarzen Modell der Fall. Die weiße Variante und das neue zweifarbige Silver-Chrome-Modell haben keinen roten Ring.

Ich bevorzuge die trapezförmige Anordnung der Linsen auf dem 14 Ultra, aber das ist nur ein kleiner Kritikpunkt. Auch von der Rückseite bin ich nicht wirklich begeistert. Die neue Glasoberfläche der schwarzen Variante ist extrem rutschig.

Dominik Tomaszewski / Foundry

Abgesehen davon fühlt sich das 15 Ultra sehr hochwertig an. Ich mag die schraffierte Einschalttaste, den Aluminiumrahmen und die abgeschrägten Kanten, die dem Trend zu vollkommen flachen Seiten entgegenwirken. Das 15 Ultra hat im Vergleich zum iPhone 16 leider keine eigene Kamerataste. Dafür bietet Xiaomi jedoch wieder ein Fotografie-Kit an (dazu später mehr).

Sie erhalten Xiaomi Shield Glass 2.0 auf der Vorderseite und eine IP68-Zertifizierung gegen Staub und Wasser. Insgesamt fühlt sich das Smartphone gut verarbeitet und sehr robust an. Eine transparente Silikonhülle ist in der Verpackung enthalten. Allerdings ist es mit 226 Gramm (oder 229 Gramm bei der Silver-Chrome-Ausführung) ziemlich schwer.

Bildschirm & Lautsprecher

6,73-Zoll-AMOLED

1 – 120 Hertz Bildwiederholfrequenz

All Around Liquid Display

Stereo-Lautsprecher

Das Display des Xiaomi 15 Ultra ist mit dem des Vorgängers identisch. Sie erhalten ein großes 6,73-Zoll-AMOLED-Panel mit einer Auflösung von 3.200 × 1.400 Pixeln (522 Pixel pro Zoll) und einer dynamischen Bildwiederholfrequenz von 1 bis 120 Hertz. Ein kleines Upgrade in diesem Jahr ist die höhere Spitzenhelligkeit von 3.200 Nits. Beim 14 Ultra waren es 3.000 Nits.

Dominik Tomaszewski / Foundry

Es ist keine Überraschung, dass Xiaomi dieses hervorragende Display beibehält. Ich liebe nach wie vor das All Around Liquid Design, was im Wesentlichen bedeutet, dass das Glas auf der Vorderseite an den Rändern gewölbt ist, während das Panel darunter flach ist.

Das Display ist gestochen scharf, hat kräftige Farben, einen ausgezeichneten Kontrast und eine enorme Helligkeit. Das Display des Xiaomi 15 ist mit seinen 6,36 Zoll jedoch ein wenig handlicher.

Eine wichtige Neuerung ist der Ultraschall-Fingerabdrucksensor. Ich fand den des 14 Ultra bereits sehr gut, aber die neue Version ist zweifelsohne superschnell und zuverlässig.

Wie beim 14 Ultra sind die Stereolautsprecher beeindruckend und bieten eine hervorragende Klarheit. Sie gehören zu den besten Lautsprechern, die ich je bei einem Handy getestet habe. Das 15 Ultra bietet außerdem Hi-Res und Hi-Res Audio Wireless Zertifizierungen.

Spezifikationen & Leistung

Snapdragon 8 Elite

16 GB RAM

512 GB Speicher

neueste Konnektivitätsfeatures

Es ist keine Überraschung, dass das Xiaomi 15 Ultra mit einem Qualcomm Snapdragon 8 Elite Chipsatz ausgestattet ist. Sie erhalten 16 Gigabyte Arbeitsspeicher und wahlweise 512 Gigabyte internen UFS 4.1-Speicher.

Die Leistung ist erstklassig, und das 15 Ultra bewältigt alltägliche Aufgaben ohne Probleme. Alles läuft seidenweich und blitzschnell. Das Smartphone verfügt über eine RAM-Erweiterungsfunktion, mit der Sie theoretisch zusätzliche 6 Gigabyte hinzufügen können. Dabei wird ein Teil des internen Speicherplatzes als “virtueller RAM” genutzt. Diese Funktion war bei meinem Testgerät standardmäßig aktiviert.

Dominik Tomaszewski / Foundry

Natürlich liegt der Schwerpunkt auf den Kamerafähigkeiten, aber mit dem exzellenten Display und dem leistungsstarken Chipsatz ist das 15 Ultra auch ein ausgezeichnetes Gaming-Smartphone. Der größte Nachteil in dieser Hinsicht ist der Kamerabuckel, der im Weg ist, wenn Sie es im Hochformat halten.

Das 3D-Dual-Channel-IceLoop-Kühlsystem leistet gute Arbeit und verhindert, dass das Handy bei anspruchsvollen Aufgaben zu heiß wird. Die übrigen Kernspezifikationen sind stark, angefangen bei Wi-Fi 7 sowie einem Upgrade auf Bluetooth 6.0 und Dual-SIM, das jetzt auch eSIM umfasst. Sie erhalten auch wieder einen IR-Blaster, den ich persönlich sehr mag.

Xiaomi 15 Ultra Benchmarks

Kameras

Vier Kameras auf der Rückseite

Neues 200-MP-Periskop-Teleobjektiv

32-MP-Frontkamera

Separat erhältliches Fotografie-Kit

Das Xiaomi 15 Ultra will mit seinen fünf Kameras, von denen sich vier auf der Rückseite befinden, an der Spitze der mobilen Fotografie stehen. Auch beim 15 Ultra wurden die Kameras wieder in Zusammenarbeit mit Leica entwickelt.

Die wichtigste Neuerung ist das 200-Megapixel-Periskop-Teleobjektiv. Es hat einen kürzeren 4,3-fachen Zoom als das fünffache des 14 Ultra. Dafür bietet es einen größeren Sensor, eine höhere Auflösung und eine schnellere Blendenöffnung. Xiaomi behauptet, dass das Gesamtergebnis besser ist, insbesondere bei schlechten Lichtverhältnissen.

Die anderen drei rückwärtigen Kameras bleiben bei 50 Megapixeln und bieten eine Kombination aus Hauptkamera, Ultraweitwinkelkamera und einer Floating-Telekamera. Die Spezifikationen sind mit denen des 14 Ultra nahezu identisch. Die variable Blende der Hauptkamera wurde jedoch mit einer festen f/1,63 Blende ersetzt.

Die Idee dahinter ist, ein DSLR-ähnliches Erlebnis zu bieten, bei dem mehrere Brennweiten (oder Objektive) zur Verfügung stehen, ohne dass man die gesamte Ausrüstung mitschleppen und die Objektive für verschiedene Aufnahmen austauschen muss.

Dominik Tomaszewski / Foundry

Xiaomi hat auch bei der Kamera-App wieder gute Arbeit geleistet. Sie bietet sowohl eine einfach zu bedienende Reihe von Schaltflächen und Werkzeugen als auch einen Pro-Modus. Sie müssen kein Fotoexperte sein, um mit dem 15 Ultra großartige Aufnahmen zu machen. Probieren Sie einfach, je nach Motiv, die unterschiedlichen Brennweiten aus.

Bis zu einem gewissen Grad wählt das 15 Ultra die richtige Kamera für Sie aus. Es schaltet etwa automatisch in den Makromodus, wenn Sie nah an ein Motiv herangehen. Sie müssen also nicht unbedingt wissen, was eine 23- oder 35-Millimeter-Brennweite ist.

Genau wie bei der 14 Ultra sind die Ergebnisse wirklich sehr beeindruckend. Xiaomi und Leica haben bei der Konsistenz der vier Kameras besonders gute Arbeit geleistet. Besonders die Farbgenauigkeit kann sich sehen lassen. Ein Problem, mit dem viele Smartphones seit Jahren zu kämpfen haben.

Sie können mit jeder Kamera knipsen und sicher sein, dass Sie ein detailliertes, gut belichtetes Bild mit einem ausgezeichneten Dynamikumfang erhalten. Sie haben außerdem die Wahl aus den Farbmodi Leica Authentic und Vibrant.

Ich würde sagen, dass das Ultrawide-Objektiv das schwächste der vier ist. Das ist nicht überraschend, denn diese Linse ist die einzige ohne optische Bildstabilisierung (OIS). Sie weist außerdem schwächere Spezifikationen auf. Sie ist keineswegs schlecht, aber die anderen sind beeindruckender und werden wahrscheinlich ohnehin häufiger verwendet.

Ich habe die Hauptkamera und das dreifache Teleobjektiv am meisten benutzt. Allerdings finde ich es schade, dass die variable Blende des Hauptobjektivs weggefallen ist. Die feste Blende f/1,63 sorgt für eine extrem geringe Schärfentiefe, was in vielen Situationen zu viel sein kann. Für Porträts ist die Kamera jedoch ausgezeichnet geeignet. Im Porträt-Modus können Sie zudem zwischen Master Portrait und Leica Portrait mit verschiedenen Einstellungen wählen.

Wie bereits erwähnt, ist das neue 200-Megapixel-Periskop-Teleobjektiv die wichtigste Neuerung in diesem Jahr. Obwohl es nur einen 4,3-fachen statt eines fünffachen Zooms bietet, habe ich das nicht als Problem empfunden. Der Detailreichtum ist potenziell fantastisch (wenn man die Kamera ruhig genug halten kann).

Die Brennweite entspricht 100 Millimetern, und Sie können bei Bedarf digital noch viel weiter zoomen und dabei brauchbare Ergebnisse erzielen. Die Leistung bei schlechten Lichtverhältnissen ist ausgezeichnet.

Auch die Frontkamera ist solide und bietet viele Details, einen automatischen Bildausschnitt je nach Anzahl der Personen auf dem Foto, einen einstellbaren Porträtmodus und vieles mehr. Auch bei den Videos ist das Smartphone nicht zu schlagen: Sie können mit bis zu 8K bei 30 Bildern pro Sekunde aufnehmen und haben verschiedene Einstellungen zur Verfügung. Meine Testaufnahmen waren unglaublich flüssig, detailliert und farbenfroh.

Eine Anmerkung zum Fotografie-Kit, das ich kurz getestet habe und demnächst separat vorstellen werde: In diesem Jahr heißt es “Legend Edition”. Es ist im Wesentlichen dasselbe wie beim 14 Ultra und kostet 199,90 Euro.

Das Kit funktioniert wie eine Smartphone-Hülle und wird mit dem USB-C-Anschluss des Smartphones verbunden. Damit können Sie das 15 Ultra wie eine echte Kamera halten und bekommen zusätzliche Bedienelemente wie einen Zoom, einen zweistufigen Auslöser, ein Einstellrad und eine Videoaufnahmetaste.

Außerdem gibt es eine Auswahl an abnehmbaren Ringen und einen abnehmbaren Daumengriff, zwei verschiedene optionale Auslöser und einen integrierten Akku mit 2.000 Milliamperestunden.

Bei den ersten Tests hatte ich einige kleine Probleme, wie die wackelige Zoomsteuerung (die beim Vorgänger zuverlässiger war). Dennoch ist es ein herausragendes Zubehör, das das 15 Ultra in eine richtige Kamera verwandelt.

Akkulaufzeit & Aufladen

5.410 mAh Akku

90 Watt kabelgebundenes Laden

80 Watt kabelloses Laden

Die Ladegeschwindigkeiten von 90 und 80 Watt für kabelgebundenes und kabelloses Laden sind identisch mit denen des 14 Ultra aus dem letzten Jahr. Der Akku selbst ist mit 5.410 Milliamperestunden (statt 5.000) größer. Im PCMark-Akkutest hielt das 15 Ultra beeindruckende 17 Stunden durch. Das sind über viereinhalb Stunden mehr als beim Vorgänger.

Es wäre natürlich schön, wenn Xiaomi mehr Siliziumkarbid (SiC)-Technologie einsetzen würde, um die Kapazität noch weiter zu steigern – wie beim OnePlus 13. Die Ausdauer ist jedoch sehr solide. Ich kann das Smartphone problemlos zwei Tage lang nutzen, wenn ich es nicht übermäßig für anspruchsvolle Aufgaben einsetze.

Dominik Tomaszewski / Foundry

Es ist verständlich, dass Xiaomi die Ladegeschwindigkeiten beibehalten hat. Es gibt zwar schnellere Handys für kabelgebundenes Laden, aber 90 Watt sind für die meisten Menschen ausreichend schnell und liegen weit vor denen von Apple und Google.

Bei meinen Tests mit dem 90W HyperCharge-Adapter von Xiaomi ging es in nur 15 Minuten von null auf 42 Prozent und in 30 Minuten auf 72 Prozent. Das ist nicht so beeindruckend wie beim 14 Ultra, das Smartphone hat jedoch auch einen kleineren Akku.

Beim 15 Ultra ist kein Ladegerät in der Verpackung enthalten, zumindest nicht bei meinem Exemplar. Ein offizielles 120-Watt-Ladegerät kostet bei Xiaomi 59,99 Euro. Der Wireless Charging Stand mit 80 Watt schlägt mit 99,99 Euro zu Buche. Bedenken Sie, dass es durch den Kamerabuckel beim kabellosen Laden zu Problemen kommen kann, wenn Sie ein Dritthersteller-Ladegerät verwenden.

Software & Apps

HyperOS 2

Android 15

Vier Betriebssystem-Updates

Mit dem Xiaomi 15 Ultra erhalten Sie die neue Xiaomi-Benutzeroberfläche HyperOS 2.0. Sie ist mit HyperOS 1.0 nahezu identisch. Sie ist übersichtlich, sehr schnell und ist meist intuitiv.

Dominik Tomaszewski / Foundry

Wenn Sie neu in dieser Benutzeroberfläche sind, müssen Sie sich erst einmal an Dinge wie die geteilten Benachrichtigungs- und Schnelleinstellungsfenster gewöhnen, die sich wie bei iPhones auf beiden Seiten der Selfie-Kamera befinden.

Die Ansicht der letzten Apps ist ebenfalls alternativ, mit einem Raster und Apps, die zum Schließen seitlich und nicht nach oben geschoben werden müssen. Xiaomi fügt immer noch eine ganze Menge vorinstallierte Bloatware hinzu, mit Apps wie Spotify, Facebook, AliExpress, LinkedIn und TikTok. Xiaomi hat auch viele eigene Apps, von denen viele die Google-Suite duplizieren und daher überflüssig erscheinen.

Wie nicht anders zu erwarten, ist KI hier die große Neuheit, mit einer langen Liste von Funktionen wie Schreibhilfe, Übersetzung, Bildbearbeitung und mehr. Mein Hauptproblem mit diesen Funktionen ist, herauszufinden, wie sie funktionieren, oder überhaupt zu wissen, dass es sie gibt.

Es gibt kaum Hinweise in der Software und vielleicht sehen Sie nicht einmal den Abschnitt HyperAI im Einstellungsmenü. Aber zum Glück sind Google Gemini und Funktionen wie “Circle to Search” integriert, sodass ich diese Funktionen weitaus häufiger genutzt habe.

In Anbetracht des auf die Kamera ausgerichteten Designs sind die KI-Tools im Galerie-Editor für mich die nützlichsten. Ärgerlicherweise müssen Sie Plug-ins herunterladen, um sie nutzen zu können, und sich mit einem Xiaomi-Konto anmelden. Sobald das erledigt ist, können Sie Funktionen wie Verbessern, Erweitern oder Löschen.

Dominik Tomaszewski / Foundry

Was die Benutzerfreundlichkeit und die Ergebnisse angeht, ist das Ergebnis gemischt. Das “Löschen”-Plugin zum Beispiel ließ sich zunächst nicht richtig initialisieren. Die Option “Erweitern” enthält typische KI-Fehler, wenn Sie genau hinsehen, während das Ändern des Himmels (mit vielen verschiedenen Optionen) in meinen Tests einwandfrei funktioniert hat.

Ich kann mir vorstellen, dass die meisten Nutzer einfach die Option “Verbessern” verwenden, um mit einem Tastendruck dafür zu sorgen, dass die Schnappschüsse hübscher aussehen. Aber wie bei der Gemini-Ausgabe hat Google bereits bessere und raffiniertere KI-Bildbearbeitungstools zur Verfügung, ganz zu schweigen von der Fülle der Fotobearbeitungs-Apps, die es gibt.

Bei der Softwareunterstützung bleibt es bei vier Jahren Betriebssystem-Updates und sechs Jahren Sicherheitsupdates. Das ist etwas weniger als bei Samsung, Google und Apple. Wenn das für Sie wichtig ist, sollten Sie die Konkurrenten in Betracht ziehen.

Preis und Verfügbarkeit

Im Vergleich zum Vorgänger hat sich beim Preis des Xiaomi 15 Ultra nichts geändert. Im Online-Shop des Herstellers ist das Smartphone in drei Farbversionen für 1.499,90 Euro erhältlich. Das Fotografie-Kit ist als Zubehör erhältlich und kostet 199,90 Euro. Amazon hat das 15 Ultra ebenfalls für 1.499 Euro im Angebot.

Wenn Sie das Xiaomi 15 Ultra mit dem Samsung Galaxy S25 Ultra vergleichen, ist es ein wenig teurer, aber das günstigste S25 Ultra für 1.449 Euro hat nur 256 Gigabyte Speicher. Das Modell mit 512 Gigabyte kostet derzeit ebenfalls nur 1.449 Euro. Xiaomi bietet hier also ein gutes Preis-Leistungs-Verhältnis.

Das günstigste iPhone 16 Pro Max kostet 1.449 Euro, aber auch hier bekommen Sie nur 256 Gigabyte Speicher. Für 512 Gigabyte zahlen Sie bei Apple 1.699 Euro.

Dominik Tomaszewski / Foundry

Sollten Sie das Xiaomi 15 Ultra kaufen?

Im Großen und Ganzen ist das Xiaomi 15 Ultra ein weiteres hervorragendes Flaggschiff-Smartphone, das mit einer Reihe von Upgrades aufwarten kann. Im Vergleich zum 14 Ultra ist es eine Wiederholung, aber das ist ein Trend bei den Flaggschiffen des Jahres 2025.

Das 15 Ultra ist eine weitere Meisterklasse der Smartphone-Fotografie und verfügt jetzt über eine 200-Megapixel-Periskop-Telekamera sowie drei weitere hervorragende Rückkameras – auch wenn es schade ist, dass die Hauptkamera ihre variable Blendenfunktion verloren hat. Einmal mehr ist das optionale Fotografie-Kit die Geheimwaffe des Ultra. Es fühlt sich wirklich wie eine DSLR an und liefert Ergebnisse auf ähnlich hohem Niveau.

Ansonsten bietet das 15 Ultra so ziemlich alles, was man sich von einem Flaggschiff wünschen kann. Der Bildschirm ist hervorragend, die Akkulaufzeit wurde verbessert, der Ladevorgang ist immer noch schnell und die Leistung ist seidenweich. Kleinere Details wie ein IR-Blaster und die neueste Konnektivität sowie Hi-Res-Audio sind ebenfalls an Bord.

HyperOS ist nicht die beste Android-Oberfläche, und Xiaomi bietet nicht so lange Unterstützung wie Samsung und Google. Das sollten Sie beim Kauf bedenken. Es ist auch schade, dass es nur eine Farbvariante mit veganer Lederrückseite gibt.

Dennoch ist das 15 Ultra ein beeindruckendes Flaggschiff. In Anbetracht der Ähnlichkeit der beiden Modelle würde ich mir überlegen, das 14 Ultra zum niedrigeren Preis zu kaufen.

Spezifikationen

Android 15 mit HyperOS 2.0

6,73 Zoll WQHD AMOLED-Display mit 1 – 120 Hz, 300 Hz Touch-Sampling, Dolby Vision, HDR10

Ultraschall-Fingerabdrucksensor im Display

Xiaomi Shield 2.0 Glasfront

Qualcomm Snapdragon 8 Elite

16 GB RAM LPDDR5X

512 GB UFS 4.1 nicht erweiterbarer Speicher

50 MP, f/1,63 Hauptkamera mit OIS

50 MP, f/2,2 Ultraweitwinkel-Kamera

50 MP, f/1,8 Teleobjektiv, 3x Kamera mit OIS

200 MP, f/2,6 Periskop 4,3x Kameras mit OIS

32 MP, f/2,0 Frontkamera

Stereo-Lautsprecher mit Dolby Atmos

Hi-Res & Hi-Res Audio Drahtlos-Zertifizierung

5G

WiFi 7

Bluetooth 6.0

USB-C-Anschluss

IR-Blaster

NFC

Dual-SIM (inkl. eSIM)

5.410 mAh Akku

90 W Schnellladung

80 W kabelloses Laden

10 W kabellose Rückwärtsaufladung

IP68

161,3 × 75,3 × 9,35 mm

236 g

Farben: Schwarz, Weiß, Silber Chrom

(PC-Welt)

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​ Weiterlesen »

Nach oben scrollen
×