Computerhaus Quickborn

Allgemein

Studie: Deutschen Chefs fehlt es an KI-Know-how​

Allgemein

Laut einer Studie von Sopra Steria fehlt es deutschen Führungskräften an GenAI-Kompetenz. Gorodenkoff – shutterstock.com Deutschlands Chefs müssen in Sachen GenAI-Kompetenz die Schulband drücken. Denn in den Managementetagen fehlt das entsprechende Wissen. Zu diesem Schluss kommt die Studie „Disruptive Potenziale – wie generative KI-Geschäftsmodelle neu definiert“ von Sopra Steria und dem F.A.Z.-Institut. Im Rahmen der Studie wurden 189 Entscheiderinnen und Entscheider aus Unternehmen in Deutschland online befragt. Zwei Drittel der Führungskräfte gehen selbstkritisch davon aus, dass Entscheider ohne fundiertes KI-Verständnis mittelfristig aus der Leitungsebene verdrängt werden. Zudem erwarten etwas mehr als die Hälfte, dass künftig vor allem vollständig auf GenAI basierende Geschäftsmodelle dominieren werden. Kaum KI-Kompetenz Doch ein Reality-Check ist ernüchternd: Heute nutzen erst 20 Prozent der deutschen Unternehmen GenAI tatsächlich unternehmensweit. Eine Ursache hierfür sieht Sopra Steria in der meist fehlenden Kompetenz auf der obersten Führungsebene. Die Bedeutung umfassender GenAI-Kompetenz in den Chefetagen unterstreicht Michael Buttkus, Leiter von Sopra Steria Next Deutschland, der Managementberatung von Sopra Steria: „Unternehmen, die GenAI als strategisches Instrument einsetzen wollen, brauchen auf der Entscheiderebene nicht nur visionäre Führungskräfte, sondern vor allem ein tiefgehendes Verständnis der Technologie und ihrer Wirkung auf Geschäftsmodelle.“ Neue Business-Modelle mit GenAI Allerdings geht nur eine Minderheit der befragten Entscheiderinnen und Entscheider davon aus, dass sich die strategischen Elemente des aktuellen Geschäftsmodells in ihrem Unternehmen gar nicht ändern werden. 52 Prozent der Unternehmen, die heute GenAI nutzen, schätzen zudem, dass es in Zukunft sogar vor allem neue, vollständig auf generativer KI basierende Geschäftsmodelle geben wird, so die Studie. Damit es zu diesem Game-Changer-Effekt kommt und die entsprechenden Weichenstellungen vorgenommen werden, benötigten die Unternehmen entsprechendes Know-how auf der Managementebene. „Entscheiderinnen und Entscheider bewilligen in den kommenden Jahren GenAI-Investitionen in Milliardenhöhe“, so Buttkus, „sie sollten bewerten können, welche Anwendungen den größten Return on Investment bieten und welche Auswirkungen die Technologie auf das eigene Geschäft hat, positiv wie negativ“. Kompetenzen aufbauen Für den entsprechenden Kompetenzaufbau in den Chefetagen ist allerdings mehr erforderlich als punktuelle Schulungen. „Wer GenAI erfolgreich einsetzen möchte, braucht neben technologischem Wissen vor allem ein strategisches Mindset“, erläutert Berater Buttkus. Derzeit setzen lediglich 26 Prozent der befragten Unternehmen GenAI explizit auf Vorstandsebene ein – ein Indiz dafür, dass noch zu oft lediglich operativ und zu wenig strategisch gehandelt wird. Zudem ist in den Augen der Studienautoren ein tiefgreifender Wandel in der Personalpolitik auf Führungsebene geboten. Schließlich zeige die Studien, dass 91 Prozent der Unternehmen erwarten, dass sich das gesamte Personalmanagement, insbesondere das Wissensmanagement, durch GenAI verändern werde. Um die nötigen Kompetenzen aufzubauen und dauerhaft zu etablieren, sollten Unternehmen gezielt neue Governance-Strukturen und beratende Gremien schaffen, in denen internes und externes GenAI-Know-how gebündelt und direkt in die Vorstandsetagen getragen wird. Optionen der Know-how-Vermittlung Um entsprechendes Wissen in den Chefetagen aufzubauen, haben die Unternehmen laut Sopra Steria verschiedene Optionen. Einige Unternehmen wie General Motors und die Helaba hätten mit dem AI Officer eine eigenständige Rolle auf Vorstandsebene etabliert, um dem Stellenwert der Technologie für das eigene Geschäft gerecht zu werden. Weitere gängige Maßnahmen seien strategische Talentakquise sowie Weiterbildungsprogramme und Coachings der Vorstände durch GenAI-Experten. Seltener sind beratende GenAI-Boards, die das Topmanagement kontinuierlich mit Expertise versorgen. In vielen Unternehmen gibt es bereits ethische KI-Boards. Allerdings fehle es an beratenden Gremien, die Vorstände gezielt und strategisch bei Investitionen in generative KI unterstützen. Hier sieht die Managementberatung Nachholbedarf, um teure Fehlinvestitionen zu vermeiden. 

Studie: Deutschen Chefs fehlt es an KI-Know-how​ Laut einer Studie von Sopra Steria fehlt es deutschen Führungskräften an GenAI-Kompetenz.
Gorodenkoff – shutterstock.com

Deutschlands Chefs müssen in Sachen GenAI-Kompetenz die Schulband drücken. Denn in den Managementetagen fehlt das entsprechende Wissen. Zu diesem Schluss kommt die Studie „Disruptive Potenziale – wie generative KI-Geschäftsmodelle neu definiert“ von Sopra Steria und dem F.A.Z.-Institut.

Im Rahmen der Studie wurden 189 Entscheiderinnen und Entscheider aus Unternehmen in Deutschland online befragt. Zwei Drittel der Führungskräfte gehen selbstkritisch davon aus, dass Entscheider ohne fundiertes KI-Verständnis mittelfristig aus der Leitungsebene verdrängt werden. Zudem erwarten etwas mehr als die Hälfte, dass künftig vor allem vollständig auf GenAI basierende Geschäftsmodelle dominieren werden.

Kaum KI-Kompetenz

Doch ein Reality-Check ist ernüchternd: Heute nutzen erst 20 Prozent der deutschen Unternehmen GenAI tatsächlich unternehmensweit. Eine Ursache hierfür sieht Sopra Steria in der meist fehlenden Kompetenz auf der obersten Führungsebene.

Die Bedeutung umfassender GenAI-Kompetenz in den Chefetagen unterstreicht Michael Buttkus, Leiter von Sopra Steria Next Deutschland, der Managementberatung von Sopra Steria: „Unternehmen, die GenAI als strategisches Instrument einsetzen wollen, brauchen auf der Entscheiderebene nicht nur visionäre Führungskräfte, sondern vor allem ein tiefgehendes Verständnis der Technologie und ihrer Wirkung auf Geschäftsmodelle.“

Neue Business-Modelle mit GenAI

Allerdings geht nur eine Minderheit der befragten Entscheiderinnen und Entscheider davon aus, dass sich die strategischen Elemente des aktuellen Geschäftsmodells in ihrem Unternehmen gar nicht ändern werden. 52 Prozent der Unternehmen, die heute GenAI nutzen, schätzen zudem, dass es in Zukunft sogar vor allem neue, vollständig auf generativer KI basierende Geschäftsmodelle geben wird, so die Studie.

Damit es zu diesem Game-Changer-Effekt kommt und die entsprechenden Weichenstellungen vorgenommen werden, benötigten die Unternehmen entsprechendes Know-how auf der Managementebene. „Entscheiderinnen und Entscheider bewilligen in den kommenden Jahren GenAI-Investitionen in Milliardenhöhe“, so Buttkus, „sie sollten bewerten können, welche Anwendungen den größten Return on Investment bieten und welche Auswirkungen die Technologie auf das eigene Geschäft hat, positiv wie negativ“.

Kompetenzen aufbauen

Für den entsprechenden Kompetenzaufbau in den Chefetagen ist allerdings mehr erforderlich als punktuelle Schulungen. „Wer GenAI erfolgreich einsetzen möchte, braucht neben technologischem Wissen vor allem ein strategisches Mindset“, erläutert Berater Buttkus. Derzeit setzen lediglich 26 Prozent der befragten Unternehmen GenAI explizit auf Vorstandsebene ein – ein Indiz dafür, dass noch zu oft lediglich operativ und zu wenig strategisch gehandelt wird.

Zudem ist in den Augen der Studienautoren ein tiefgreifender Wandel in der Personalpolitik auf Führungsebene geboten. Schließlich zeige die Studien, dass 91 Prozent der Unternehmen erwarten, dass sich das gesamte Personalmanagement, insbesondere das Wissensmanagement, durch GenAI verändern werde. Um die nötigen Kompetenzen aufzubauen und dauerhaft zu etablieren, sollten Unternehmen gezielt neue Governance-Strukturen und beratende Gremien schaffen, in denen internes und externes GenAI-Know-how gebündelt und direkt in die Vorstandsetagen getragen wird.

Optionen der Know-how-Vermittlung

Um entsprechendes Wissen in den Chefetagen aufzubauen, haben die Unternehmen laut Sopra Steria verschiedene Optionen. Einige Unternehmen wie General Motors und die Helaba hätten mit dem AI Officer eine eigenständige Rolle auf Vorstandsebene etabliert, um dem Stellenwert der Technologie für das eigene Geschäft gerecht zu werden. Weitere gängige Maßnahmen seien strategische Talentakquise sowie Weiterbildungsprogramme und Coachings der Vorstände durch GenAI-Experten.

Seltener sind beratende GenAI-Boards, die das Topmanagement kontinuierlich mit Expertise versorgen. In vielen Unternehmen gibt es bereits ethische KI-Boards. Allerdings fehle es an beratenden Gremien, die Vorstände gezielt und strategisch bei Investitionen in generative KI unterstützen. Hier sieht die Managementberatung Nachholbedarf, um teure Fehlinvestitionen zu vermeiden.

Studie: Deutschen Chefs fehlt es an KI-Know-how​ Weiterlesen »

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​

Allgemein

Apple setzt auf kürzere Zertifikatslaufzeiten für mehr Sicherheit, eine kontroverse Meinung, die nicht alle im CA/Browser Forum überzeugt. robert coolen – Shutterstock Die Gültigkeitsdauer von Transport-Layer-Security (TLS)-Zertifikaten und die Wiederverwendungszeit der Domain Control Validation (DCV) soll schrittweise verkürzt werden. Ab dem 15. März 2026 dürfen Zertifikate nur noch 200 Tage gültig sein, mit ebenso langer DCV-Wiederverwendungszeit. Ab 2027 sinkt die maximale Laufzeit auf 100 Tage und die DCV-Zeit ebenfalls auf 100 Tage. Ab 2029 dürfen Zertifikate nur noch 47 Tage gültig sein, mit einer DCV-Wiederverwendungszeit von nur 10 Tagen. Nach mehr als einem Jahr Debatte beschloss das CA/Browser Forum im ersten Quartal 2025, Apples Forderungen umzusetzen. Sicherheitsgewinn versus Eigeninteresse Die Entscheidungen sind nicht unumstritten: Während Befürworter den Sicherheitsgewinn betonen, befürchten Kritiker finanzielle Eigeninteressen und mögliche Interessenkonflikte. Fünf der Stimmberechtigten enthielten sich, allerdings gab es auch keine Gegenstimmen. Die Haltung gegenüber Apples Vorstoß innerhalb des CA/Browser Forums, zu dem unter anderem auch Google gehört, ist gemischt. Während man die Änderungswünsche mit Blick auf mehr Sicherheit grundsätzlich begrüßt, halten einige Stimmen die Verkürzung der Gültigkeit von bisher 398 Tagen auf 47 Tage für zu drastisch. Apple argumentiert mit Sicherheit Apple begründet die geplante Verkürzung der Zertifikatslaufzeiten damit, dass längere Gültigkeiten das Sicherheitsrisiko erhöhen. Eine schrittweise Einführung der Änderungen soll helfen, mögliche Probleme frühzeitig zu erkennen und korrigieren zu können. Zugleich betont das Unternehmen, dass Zertifikate nur den Zustand zum Ausstellungszeitpunkt widerspiegeln. Je länger sie gültig seien, desto wahrscheinlicher sei es, dass die enthaltenen Daten veraltet oder falsch sind. Kürzere Laufzeiten sollen daher die Zuverlässigkeit und Sicherheit erhöhen. Apple kritisiert Zertifizierer Apple kritisiert auch, dass Zertifizierungsstellen (CAs) nicht immer korrekt arbeiten und Zertifikate mitunter nicht regelkonform ausstellen. Um Risiken durch fehlerhafte Zertifikate zu minimieren, fordert Apple deshalb, die Ausstellungsdaten häufiger zu überprüfen sowie eine kürzere Gültigkeitsdauer von Zertifikaten. Dies soll nicht nur die Sicherheit erhöhen, sondern auch eine schnellere Reaktion auf kryptographische Veränderungen ermöglichen. Erste Veränderungen basierend auf Apple Forderung gibt es bereits: Die Mitglieder des CA/Browser Forums haben zur technischen Klarheit festgelegt, dass ein Tag genau 86.400 Sekunden umfasst. Jede zusätzliche Zeit, auch Bruchteile von Sekunden oder Schaltsekunden, zählt als weiterer Tag. 

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​ Apple setzt auf kürzere Zertifikatslaufzeiten für mehr Sicherheit, eine kontroverse Meinung, die nicht alle im CA/Browser Forum überzeugt.
robert coolen – Shutterstock

Die Gültigkeitsdauer von Transport-Layer-Security (TLS)-Zertifikaten und die Wiederverwendungszeit der Domain Control Validation (DCV) soll schrittweise verkürzt werden.

Ab dem 15. März 2026 dürfen Zertifikate nur noch 200 Tage gültig sein, mit ebenso langer DCV-Wiederverwendungszeit.

Ab 2027 sinkt die maximale Laufzeit auf 100 Tage und die DCV-Zeit ebenfalls auf 100 Tage.

Ab 2029 dürfen Zertifikate nur noch 47 Tage gültig sein, mit einer DCV-Wiederverwendungszeit von nur 10 Tagen.

Nach mehr als einem Jahr Debatte beschloss das CA/Browser Forum im ersten Quartal 2025, Apples Forderungen umzusetzen.

Sicherheitsgewinn versus Eigeninteresse

Die Entscheidungen sind nicht unumstritten: Während Befürworter den Sicherheitsgewinn betonen, befürchten Kritiker finanzielle Eigeninteressen und mögliche Interessenkonflikte. Fünf der Stimmberechtigten enthielten sich, allerdings gab es auch keine Gegenstimmen.

Die Haltung gegenüber Apples Vorstoß innerhalb des CA/Browser Forums, zu dem unter anderem auch Google gehört, ist gemischt. Während man die Änderungswünsche mit Blick auf mehr Sicherheit grundsätzlich begrüßt, halten einige Stimmen die Verkürzung der Gültigkeit von bisher 398 Tagen auf 47 Tage für zu drastisch.

Apple argumentiert mit Sicherheit

Apple begründet die geplante Verkürzung der Zertifikatslaufzeiten damit, dass längere Gültigkeiten das Sicherheitsrisiko erhöhen. Eine schrittweise Einführung der Änderungen soll helfen, mögliche Probleme frühzeitig zu erkennen und korrigieren zu können.

Zugleich betont das Unternehmen, dass Zertifikate nur den Zustand zum Ausstellungszeitpunkt widerspiegeln. Je länger sie gültig seien, desto wahrscheinlicher sei es, dass die enthaltenen Daten veraltet oder falsch sind. Kürzere Laufzeiten sollen daher die Zuverlässigkeit und Sicherheit erhöhen.

Apple kritisiert Zertifizierer

Apple kritisiert auch, dass Zertifizierungsstellen (CAs) nicht immer korrekt arbeiten und Zertifikate mitunter nicht regelkonform ausstellen. Um Risiken durch fehlerhafte Zertifikate zu minimieren, fordert Apple deshalb, die Ausstellungsdaten häufiger zu überprüfen sowie eine kürzere Gültigkeitsdauer von Zertifikaten. Dies soll nicht nur die Sicherheit erhöhen, sondern auch eine schnellere Reaktion auf kryptographische Veränderungen ermöglichen.

Erste Veränderungen basierend auf Apple Forderung gibt es bereits: Die Mitglieder des CA/Browser Forums haben zur technischen Klarheit festgelegt, dass ein Tag genau 86.400 Sekunden umfasst. Jede zusätzliche Zeit, auch Bruchteile von Sekunden oder Schaltsekunden, zählt als weiterer Tag.

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​ Weiterlesen »

Nutzen Sie Dependency Injection!​

Allgemein

Dependency Injection – im Grunde ein simples Konzept.Thomas Bethge | shutterstock.com Kluge Dev-Teams entwerfen und erstellen Systeme, die nicht an spezifische Implementierungen gebunden sind – solange, bis es nicht mehr anders geht. So zumindest meine Überzeugung. Denn auf diese Weise halten sich Entwickler alle Möglichkeiten offen und realisieren quasi nebenbei, flexible, erweiterbare Designs. Die entscheidende Zutat dafür ist natürlich entsprechend flexibel gestalteter Code – was Dependency Injection auf den Plan ruft. Diese simple Technik entkoppelt Ihren Code von bestimmten Implementierungen und maximiert seine Flexibilität. Die Idee dahinter besteht darin, Funktionalität so spät wie möglich zu implementieren – und stattdessen ausgiebig gegen Abstraktionen zu programmieren. Im Folgenden lesen Sie, warum Sie Dependency Injection nutzen sollten – in aller Kürze. So programmiert man sich in die Bredouille Dazu werfen wir einen Blick auf ein Beispiel: E-Commerce-Anwendungen sind weit verbreitet und müssen im Regelfall Kreditkarten verarbeiten können. Das ist eine relativ komplexe Angelegenheit – die sich aber sehr gut für Abstraktionen eignet. Angenommen, unser System nutzt den Zahlungsverarbeiter PayStuff – und wir halten uns strikt an das YAGNI-Prinzip (was nicht zu empfehlen ist). In diesem Fall könnten wir die Implementierung wie folgt festkodieren: class PayStuffPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via PayStuff…`); } } class Checkout { private paymentProcessor: PayStuffPaymentProcessor; constructor() { this.paymentProcessor = new PayStuffPaymentProcessor(); } processOrder(amount: number) { this.paymentProcessor.processPayment(amount); console.log(“Order processed successfully!”); } } // Usage const checkout = new Checkout(); checkout.processOrder(100); checkout.processOrder(50); Das funktioniert wahrscheinlich gut, um die Zahlungen für Bestellungen zu verarbeiten. Dass ein Unit Test erst gar nicht möglich ist – wen interessiert’s? YAGNI ftw! Doch dann die Überraschung: PayStuff stellt seinen Betrieb ein. Und wir müssen auf den neuen ConnectBucks-Processor umsteigen. An genau dem Tag, an dem das klar wird, kommt dann auch noch ein Produktmanager ums Eck und verlangt nach Support für PayPal und Google Pay. Jetzt ist unser System nicht mehr nur schwer zu testen, sondern funktioniert auch nicht mehr und muss umfangreich überarbeitet werden. Abstraktion, die den Tag rettet Das wäre uns erspart geblieben, wenn wir erkannt hätten, dass wir eine Abstraktion benötigen. Dazu erstellen wir ein Interface und schreiben sämtlichen Code dagegen – nicht gegen eine spezifische Implementierung. Statt diese direkt zu erstellen, schieben wir die Entscheidung darüber lieber und „injizieren“ die Implementierung der Abstraktion in den Konstruktor, die wir verwenden möchten. Mit anderen Worten: Wir verzögern die tatsächliche Implementierung so lange wie möglich und programmieren stattdessen gegen eine Schnittstelle. Ein simples Beispiel für ein Interface, das wir nutzen könnten: interface IPaymentProcessor { processPayment(amount: number): void; } Sie können das gesamte Zahlungsmodul mit diesem Interface schreiben – ohne zu wissen (oder sich darum zu kümmern), wie die Zahlung verarbeitet wird. An diesem Punkt erstellen Sie eine Klasse, die so konzipiert ist, dass sie eine Implementierung der Schnittstelle empfängt und nicht erstellt: class Checkout { private paymentProcessor: IPaymentProcessor; constructor(paymentProcessor: IPaymentProcessor) { if (!paymentProcessor) { throw new Error(“PaymentProcessor cannot be null or undefined.”); } this.paymentProcessor = paymentProcessor; } processOrder(amount: number) { this.paymentProcessor.processPayment(amount); console.log(“Order processed successfully!”); } } Diese Klasse verwendet eine Implementierung des Zahlungsverarbeiters als Parameter für den Konstruktor. Man könnte auch sagen, dass die Klasse eine Abhängigkeit vom Payment Processor aufweist und der Code diese in die Klasse einfügt. Welcher Zahlungsverarbeiter tatsächlich verwendet wird, „weiß“ die Klasse nicht – und es ist ihr auch egal. Plug-&-Play-Klassen Im nächsten Schritt können wir Klassen erstellen, die die IPaymentProcessor-Schnittstelle implementieren: class PayPalPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via PayPal…`); } } class GooglePayPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via Google Pay…`); } } class ConnectBucksPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via ConnectBucks…`); } } Für die Zukunft ist bei diesem Code vorgesorgt: Es ist sogar möglich, eine „Mock“-Verarbeitungsklasse zu Testing-Zwecken zu erstellen. Von diesem Punkt aus können Sie die Implementierungsklassen je nach Bedarf kreieren und sie an die Verarbeitungsklasse übergeben:   const creditCardCheckout = new Checkout(new CreditCardPayment()); creditCardCheckout.processOrder(100); const paypalCheckout = new Checkout(new PayPalPayment()); paypalCheckout.processOrder(50); Sie könnten darüber hinaus auch eine Factory-Klasse erstellen, die auf Anfrage die korrekte Implementierung erstellt. const processor: IPaymentProcessor = PaymentProcessorFactory.createProcessor(PaymentType.PayPal); const checkout = new Checkout(processor); checkout.processOrder(50); Und während die eigentliche Funktionsweise des Zahlungsprozesses in einer Implementierungsklasse verborgen ist, steht im Ergebnis ein flexibles System, das: anpassbar, testfähig, wartbar und leicht verständlich ist.   Das ist Dependency Injection „in a Nutshell“. Machen Sie es sich zunutze – es lohnt sich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nutzen Sie Dependency Injection!​ Dependency Injection – im Grunde ein simples Konzept.Thomas Bethge | shutterstock.com

Kluge Dev-Teams entwerfen und erstellen Systeme, die nicht an spezifische Implementierungen gebunden sind – solange, bis es nicht mehr anders geht. So zumindest meine Überzeugung. Denn auf diese Weise halten sich Entwickler alle Möglichkeiten offen und realisieren quasi nebenbei, flexible, erweiterbare Designs. Die entscheidende Zutat dafür ist natürlich entsprechend flexibel gestalteter Code – was Dependency Injection auf den Plan ruft.

Diese simple Technik entkoppelt Ihren Code von bestimmten Implementierungen und maximiert seine Flexibilität. Die Idee dahinter besteht darin, Funktionalität so spät wie möglich zu implementieren – und stattdessen ausgiebig gegen Abstraktionen zu programmieren.

Im Folgenden lesen Sie, warum Sie Dependency Injection nutzen sollten – in aller Kürze.

So programmiert man sich in die Bredouille

Dazu werfen wir einen Blick auf ein Beispiel: E-Commerce-Anwendungen sind weit verbreitet und müssen im Regelfall Kreditkarten verarbeiten können. Das ist eine relativ komplexe Angelegenheit – die sich aber sehr gut für Abstraktionen eignet.

Angenommen, unser System nutzt den Zahlungsverarbeiter PayStuff – und wir halten uns strikt an das YAGNI-Prinzip (was nicht zu empfehlen ist). In diesem Fall könnten wir die Implementierung wie folgt festkodieren:

class PayStuffPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via PayStuff…`);
}
}

class Checkout {
private paymentProcessor: PayStuffPaymentProcessor;

constructor() {
this.paymentProcessor = new PayStuffPaymentProcessor();
}

processOrder(amount: number) {
this.paymentProcessor.processPayment(amount);
console.log(“Order processed successfully!”);
}
}

// Usage
const checkout = new Checkout();
checkout.processOrder(100);
checkout.processOrder(50);

Das funktioniert wahrscheinlich gut, um die Zahlungen für Bestellungen zu verarbeiten. Dass ein Unit Test erst gar nicht möglich ist – wen interessiert’s? YAGNI ftw!

Doch dann die Überraschung: PayStuff stellt seinen Betrieb ein. Und wir müssen auf den neuen ConnectBucks-Processor umsteigen. An genau dem Tag, an dem das klar wird, kommt dann auch noch ein Produktmanager ums Eck und verlangt nach Support für PayPal und Google Pay.

Jetzt ist unser System nicht mehr nur schwer zu testen, sondern funktioniert auch nicht mehr und muss umfangreich überarbeitet werden.

Abstraktion, die den Tag rettet

Das wäre uns erspart geblieben, wenn wir erkannt hätten, dass wir eine Abstraktion benötigen. Dazu erstellen wir ein Interface und schreiben sämtlichen Code dagegen – nicht gegen eine spezifische Implementierung. Statt diese direkt zu erstellen, schieben wir die Entscheidung darüber lieber und „injizieren“ die Implementierung der Abstraktion in den Konstruktor, die wir verwenden möchten.

Mit anderen Worten: Wir verzögern die tatsächliche Implementierung so lange wie möglich und programmieren stattdessen gegen eine Schnittstelle. Ein simples Beispiel für ein Interface, das wir nutzen könnten:

interface IPaymentProcessor {
processPayment(amount: number): void;
}

Sie können das gesamte Zahlungsmodul mit diesem Interface schreiben – ohne zu wissen (oder sich darum zu kümmern), wie die Zahlung verarbeitet wird. An diesem Punkt erstellen Sie eine Klasse, die so konzipiert ist, dass sie eine Implementierung der Schnittstelle empfängt und nicht erstellt:

class Checkout {
private paymentProcessor: IPaymentProcessor;

constructor(paymentProcessor: IPaymentProcessor) {
if (!paymentProcessor) {
throw new Error(“PaymentProcessor cannot be null or undefined.”);
}

this.paymentProcessor = paymentProcessor;
}

processOrder(amount: number) {
this.paymentProcessor.processPayment(amount);
console.log(“Order processed successfully!”);
}
}

Diese Klasse verwendet eine Implementierung des Zahlungsverarbeiters als Parameter für den Konstruktor. Man könnte auch sagen, dass die Klasse eine Abhängigkeit vom Payment Processor aufweist und der Code diese in die Klasse einfügt. Welcher Zahlungsverarbeiter tatsächlich verwendet wird, „weiß“ die Klasse nicht – und es ist ihr auch egal.

Plug-&-Play-Klassen

Im nächsten Schritt können wir Klassen erstellen, die die IPaymentProcessor-Schnittstelle implementieren:

class PayPalPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via PayPal…`);
}
}

class GooglePayPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via Google Pay…`);
}
}

class ConnectBucksPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via ConnectBucks…`);
}
}

Für die Zukunft ist bei diesem Code vorgesorgt: Es ist sogar möglich, eine „Mock“-Verarbeitungsklasse zu Testing-Zwecken zu erstellen.

Von diesem Punkt aus können Sie die Implementierungsklassen je nach Bedarf kreieren und sie an die Verarbeitungsklasse übergeben:  

const creditCardCheckout = new Checkout(new CreditCardPayment());
creditCardCheckout.processOrder(100);

const paypalCheckout = new Checkout(new PayPalPayment());
paypalCheckout.processOrder(50);

Sie könnten darüber hinaus auch eine Factory-Klasse erstellen, die auf Anfrage die korrekte Implementierung erstellt.

const processor: IPaymentProcessor = PaymentProcessorFactory.createProcessor(PaymentType.PayPal);
const checkout = new Checkout(processor);
checkout.processOrder(50);

Und während die eigentliche Funktionsweise des Zahlungsprozesses in einer Implementierungsklasse verborgen ist, steht im Ergebnis ein flexibles System, das:

anpassbar,

testfähig,

wartbar und

leicht verständlich ist.  

Das ist Dependency Injection „in a Nutshell“. Machen Sie es sich zunutze – es lohnt sich. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nutzen Sie Dependency Injection!​ Weiterlesen »

Was macht ein Product Owner?​

Allgemein

Der Product Owner nimmt in agilen Projekten eine entscheidende Rolle ein. Foto: fizkes – shutterstock.com Agilität und agile Vorgehensweisen liegen im Trend. Es gibt kaum noch Unternehmen in Deutschland, die noch nicht versucht haben, durch Agilität positive Effekte für die Organisation oder für Projekte zu generieren. Um agile Prinzipien erfolgreich in der Organisation zu verankern, braucht es zwei wesentliche Faktoren: die geeigneten Methoden und in der Anwendung der Methodik ausgebildete Mitarbeiterinnen und Mitarbeiter, die die verschiedenen Rollen in den agilen Projekten kompetent ausfüllen. Die wohl bekannteste agile Vorgehensweise ist Scrum. Durch die einfache Struktur und die klar definierten Rollen lässt sich die Methodik schnell produktiv in Unternehmen einsetzen. Im Mittelpunkt steht ein Entwickler- oder Serviceteam, das selbstorganisiert arbeitet. Product Owner in Scrum – Definition Als Methodenfachmann stellt der Scrum Master sicher, dass der Prozess funktioniert. Die entscheidendste Rolle ist aber wohl die des Product Owners, der als Produktverantwortlicher maßgeblich für die Qualität des entwickelten Produktes verantwortlich ist. Innerhalb des Scrum Frameworks sind die Rollen der Teammitglieder mit ihren Aufgaben und Verantwortungsbereichen klar definiert. Für den Erfolg eines Projekts ist es essentiell wichtig, dass die Mitglieder die Abgrenzung zwischen diesen Rollen verstehen und leben. Scrum Teams arbeiten selbstorganisiert als in sich geschlossenes Team, das selbstständig entscheiden kann wie das definierte Ziel erreicht werden soll. Product Owner nehmen innerhalb von Scrum gegenüber der klassischen Projektorganisation eine vollkommen neue Rolle im Unternehmen ein. Wo Teamleiter und Projektleiter traditionellerweise ganzheitlich und oft hierarchisch für ein Team und dessen Ergebnisse verantwortlich zeichnen, fokussiert sich der Product Owner nur auf das Produkt aus Kundenperspektive. Product Owner agieren genau an der Schnittstelle zwischen traditioneller und agiler Organisation. In der Theorie liest sich das Rollenprofil als sinnvolle Verknüpfung zwischen Top-Management-Sicht mit Kunden- und Produktfokus auf der einen – und gutem Draht zu der Lösungs- und Entwicklungsebene auf der anderen Seite. Die offizielle Definition des Product Owners liefern die Entwickler des Scrum-Frameworks, Jeff Sutherland und Ken Schwaber, in ihrem Scrum Guide selbst: Der Product Owner ist für die Wertmaximierung der Arbeit des Entwicklerteams sowie für die Wertmaximierung des Produkts verantwortlich. Die Rolle des Product Owners wird nur durch eine Person ausgefüllt und sollte nicht auf mehrere Stellen verteilt werden. Der Product Owner ist während der gesamten Produktentwicklung sehr aktiv eingebunden – er ist das Zentrum des Produktes und durch das Unternehmen bemächtigt, Entscheidungen zur Produktentwicklung zu treffen. Dabei schaut er gleichzeitig in Richtung des Marktes und in Richtung der technischen Entwicklung und schlägt dementsprechend die Brücke zwischen dem Kunden und dem Entwicklerteam. Product Owner – Aufgaben In der Literatur von agilen Vorgehensweisen wie Scrum sind die Verantwortungsbereiche und Aufgaben eines Product Owners klar beschrieben. Die Hauptaufgaben beinhalten demnach folgende Aspekte: Aufnahme der Anforderungen von den Stakeholdern (z. B. Kunden, Fachbereiche, Geschäftsleitung) und Kommunikation mit Stakeholdern Erarbeiten und Formulieren einer Produktvision Bewerten und priorisieren der Anforderungen nach Business Value Management des Product Backlogs (Transparenz, Nachvollziehbarkeit und Verständlichkeit) Schreiben der User Stories (Teilpakete) unter Einhaltung klarer Qualitätskriterien (“Definition of Ready”) Erläuterung für und Vermittlung der Anforderungen (User Stories) an die Entwickler Verfügbarkeit für Fragestellungen der Entwickler zum Produkt Abnahme und Verifizierung der Produktinkremente Feedback-Vergabe an das Team Zusammenfassend formuliert hat der Product Owner die Aufgabe, die Kundensicht zu vertreten und diese Perspektive in Zusammenarbeit mit einem selbstorganisierten Entwicklunger- oder Service-Team in Projekte, Produkte oder Services einfließen zu lassen. In der Reinform wird die Rolle als Linienaufgabe angesehen. Sie kann jedoch auch (mit einigen Einschränkungen und Kniffen) als Projektrolle ausgeprägt sein. Hier sollte eine akademische Diskussion vermieden werden; die Ausprägung spielt für die Kernaufgabe “kundenorientierte Produktgestaltung” keine Rolle. Product Owner – Skills In der Rolle des Product Owners ist der oder die Ausführende die Person, die das Ergebnis des Produktes definiert. Um die Kundensicht sowie die der internen Stakeholder richtig einzuschätzen, das Produkt in Tiefe zu verstehen und gleichzeitig noch den Business Value und Markterfordernisse bewerten zu können, muss der Product Owner eine hohe fachliche Expertise und Know-How – auch über die eigenen Bereichsgrenzen hinweg – mitbringen. Wie immer, wenn unterschiedliche Menschen mit einem gemeinsamen Ziel zusammenkommen, ist die Motivation und Kommunikation untereinander maßgeblich für den späteren Erfolg. Als Schlüsselrolle im Projekt sollte der Product Owner ein hohes Empathievermögen zeigen, um zielgruppengerecht gegenüber den Stakeholdern und den Teammitgliedern kommunizieren zu können. Die Person muss in der Lage sein, dass Team zu motivieren, jeden Einzelnen auf der Reise mitzunehmen und von der Vision zu überzeugen. Auch Selbstorganisation braucht Führung. Das Team in einem Scrum-Projekt arbeitet zwar als selbstorganisierte Einheit, dennoch braucht es natürlich eine Person, die die Richtung vorgibt. Der Product Owner sollte den Mitgliedern weitestgehend freie Hand lassen, aber im Notfall eingreifen. Er oder sie führt über Zielvorgaben und Priorisierung des Backlogs. Er oder sie treibt das Projekt und das Team voran, schützt beides aber vor Eingriffen von außen und Überlastung. Product Owner vs. Product Manager vs. Project Manager Oft wird Agilität nach den ersten erfolgreich durchgeführten agilen Pilotprojekten mit großem Aktionismus in Unternehmen eingeführt. Häufig herrscht allerdings kein gemeinsames, korrektes Verständnis von den in Scrum definierten Rollen. Rekrutiert werden die Product Owner dementsprechend aus den Rollen, die das Management oder die HR-Abteilung schon kennt und als ähnlich einstuft, zum Beispiel Projektmanager oder Produktmanager. Diese zu kurz gedachte Lösung führt dazu, dass die Product Owner ein falsches Rollenverständnis entwickeln, im Arbeitsalltag von Problem zu Problem hecheln und keine dedizierten Ansprechpartner im Unternehmen haben. Auch sind die Abgrenzungen zwischen den Rollen innerhalb eines Scrum-Projektes teils nicht ganz klar, so dass die Aufgaben zwischen Scrum Master und Product Owner, den zwei integralen Rollen innerhalb eines Scrum-Projektes, bei Verwischung zu Problemen führen können. Der Product Manager ist für die Produktstrategie verantwortlich, die zur Entwicklung und späteren Auslieferung des Produktes führt. Er behält dabei die Bedürfnisse der Nutzer und die Marktentwicklungen über den ganzen Produktlebenszyklus hinweg im Blick und verankert diese in der Produkt-Roadmap und der Produkt-Vision. Der Project Manager ist für die Überwachung der Ausführung von Produktentwicklungs-, -einführungs- und Launchplänen verantwortlich, ist also für die Organisation und Projektsteuerung zuständig. Der Product Owner ist als Teil des Scrum-Teams dafür verantwortlich, die strategische Vision des Produktes konkret umzusetzen, er ist also für die taktische Umsetzung der Produktanforderungen zuständig und legt fest, was genau entwickelt werden soll. Dabei liegt es in seiner Verantwortung, den Wert des Produktes aus Kundensicht zu maximieren. Der Product Owner kennt die Anforderungen von Auftraggebern und Anwendern und berücksichtigt diese in der Entwicklung der Produkteigenschaften. Der Scrum Master ist als Methodiker für die Einhaltung der Scrum-Regeln und Scrum-Prozesse verantwortlich, stellt also sicher, dass die agilen Prinzipien aufrechterhalten werden. Seine Verantwortung liegt in der Steigerung der Teamproduktivität und Motivation der Teammitglieder. Im Gegensatz zum Product Owner, der festlegt, welche Aufgaben vom Entwicklerteam als nächstes angegangen werden sollen, hilft der Scrum Master dem Team, dieses Ziel im gesetzten Zeitrahmen zu erreichen, gibt aber keine direkten Arbeitsanweisungen an das Entwicklerteam. Product Owner – Gehalt Die Nachfrage nach Scrum Product Ownern ist aufgrund der steigenden Beliebtheit agiler Methoden in Unternehmen hoch; die Aussichten auf ein attraktives Gehalt sind somit sehr gut. Insbesondere wenn eine international anerkannte Zertifizierung der Scrum Alliance oder scrum.org erworben wurde, werden die Fachkenntnisse auch entsprechend entlohnt. Natürlich können keine pauschalen Aussagen zum Gehalt eines Product Owners getroffen werden, da dieses wesentlich vom Erfahrungsschatz, der Art des Unternehmens und der individuellen Verhandlung abhängt. Als Einsteiger oder Einsteigerin in der Rolle des Product Owners können Berufsanwärterinnen und Berufsanwärter laut der Jobbörse StepStone durchaus mit einem Gehalt von 54.000 Euro brutto im Jahr rechnen, das sich im Laufe der Zeit je nach Erfahrungsschatz und speziellen Branchenkenntnissen auf bis zu 73.700 Euro im Jahr steigern kann. Das Durchschnittsgehalt gibt Stepstone mit 61.700 Euro an. 

Was macht ein Product Owner?​ Der Product Owner nimmt in agilen Projekten eine entscheidende Rolle ein.
Foto: fizkes – shutterstock.com

Agilität und agile Vorgehensweisen liegen im Trend. Es gibt kaum noch Unternehmen in Deutschland, die noch nicht versucht haben, durch Agilität positive Effekte für die Organisation oder für Projekte zu generieren. Um agile Prinzipien erfolgreich in der Organisation zu verankern, braucht es zwei wesentliche Faktoren: die geeigneten Methoden und in der Anwendung der Methodik ausgebildete Mitarbeiterinnen und Mitarbeiter, die die verschiedenen Rollen in den agilen Projekten kompetent ausfüllen.

Die wohl bekannteste agile Vorgehensweise ist Scrum. Durch die einfache Struktur und die klar definierten Rollen lässt sich die Methodik schnell produktiv in Unternehmen einsetzen. Im Mittelpunkt steht ein Entwickler- oder Serviceteam, das selbstorganisiert arbeitet.

Product Owner in Scrum – Definition

Als Methodenfachmann stellt der Scrum Master sicher, dass der Prozess funktioniert. Die entscheidendste Rolle ist aber wohl die des Product Owners, der als Produktverantwortlicher maßgeblich für die Qualität des entwickelten Produktes verantwortlich ist. Innerhalb des Scrum Frameworks sind die Rollen der Teammitglieder mit ihren Aufgaben und Verantwortungsbereichen klar definiert. Für den Erfolg eines Projekts ist es essentiell wichtig, dass die Mitglieder die Abgrenzung zwischen diesen Rollen verstehen und leben. Scrum Teams arbeiten selbstorganisiert als in sich geschlossenes Team, das selbstständig entscheiden kann wie das definierte Ziel erreicht werden soll.

Product Owner nehmen innerhalb von Scrum gegenüber der klassischen Projektorganisation eine vollkommen neue Rolle im Unternehmen ein. Wo Teamleiter und Projektleiter traditionellerweise ganzheitlich und oft hierarchisch für ein Team und dessen Ergebnisse verantwortlich zeichnen, fokussiert sich der Product Owner nur auf das Produkt aus Kundenperspektive.

Product Owner agieren genau an der Schnittstelle zwischen traditioneller und agiler Organisation. In der Theorie liest sich das Rollenprofil als sinnvolle Verknüpfung zwischen Top-Management-Sicht mit Kunden- und Produktfokus auf der einen – und gutem Draht zu der Lösungs- und Entwicklungsebene auf der anderen Seite.

Die offizielle Definition des Product Owners liefern die Entwickler des Scrum-Frameworks, Jeff Sutherland und Ken Schwaber, in ihrem Scrum Guide selbst: Der Product Owner ist für die Wertmaximierung der Arbeit des Entwicklerteams sowie für die Wertmaximierung des Produkts verantwortlich.

Die Rolle des Product Owners wird nur durch eine Person ausgefüllt und sollte nicht auf mehrere Stellen verteilt werden. Der Product Owner ist während der gesamten Produktentwicklung sehr aktiv eingebunden – er ist das Zentrum des Produktes und durch das Unternehmen bemächtigt, Entscheidungen zur Produktentwicklung zu treffen. Dabei schaut er gleichzeitig in Richtung des Marktes und in Richtung der technischen Entwicklung und schlägt dementsprechend die Brücke zwischen dem Kunden und dem Entwicklerteam.

Product Owner – Aufgaben

In der Literatur von agilen Vorgehensweisen wie Scrum sind die Verantwortungsbereiche und Aufgaben eines Product Owners klar beschrieben. Die Hauptaufgaben beinhalten demnach folgende Aspekte:

Aufnahme der Anforderungen von den Stakeholdern (z. B. Kunden, Fachbereiche, Geschäftsleitung) und Kommunikation mit Stakeholdern

Erarbeiten und Formulieren einer Produktvision

Bewerten und priorisieren der Anforderungen nach Business Value

Management des Product Backlogs (Transparenz, Nachvollziehbarkeit und Verständlichkeit)

Schreiben der User Stories (Teilpakete) unter Einhaltung klarer Qualitätskriterien (“Definition of Ready”)

Erläuterung für und Vermittlung der Anforderungen (User Stories) an die Entwickler

Verfügbarkeit für Fragestellungen der Entwickler zum Produkt

Abnahme und Verifizierung der Produktinkremente

Feedback-Vergabe an das Team

Zusammenfassend formuliert hat der Product Owner die Aufgabe, die Kundensicht zu vertreten und diese Perspektive in Zusammenarbeit mit einem selbstorganisierten Entwicklunger- oder Service-Team in Projekte, Produkte oder Services einfließen zu lassen. In der Reinform wird die Rolle als Linienaufgabe angesehen. Sie kann jedoch auch (mit einigen Einschränkungen und Kniffen) als Projektrolle ausgeprägt sein. Hier sollte eine akademische Diskussion vermieden werden; die Ausprägung spielt für die Kernaufgabe “kundenorientierte Produktgestaltung” keine Rolle.

Product Owner – Skills

In der Rolle des Product Owners ist der oder die Ausführende die Person, die das Ergebnis des Produktes definiert. Um die Kundensicht sowie die der internen Stakeholder richtig einzuschätzen, das Produkt in Tiefe zu verstehen und gleichzeitig noch den Business Value und Markterfordernisse bewerten zu können, muss der Product Owner eine hohe fachliche Expertise und Know-How – auch über die eigenen Bereichsgrenzen hinweg – mitbringen.

Wie immer, wenn unterschiedliche Menschen mit einem gemeinsamen Ziel zusammenkommen, ist die Motivation und Kommunikation untereinander maßgeblich für den späteren Erfolg. Als Schlüsselrolle im Projekt sollte der Product Owner ein hohes Empathievermögen zeigen, um zielgruppengerecht gegenüber den Stakeholdern und den Teammitgliedern kommunizieren zu können. Die Person muss in der Lage sein, dass Team zu motivieren, jeden Einzelnen auf der Reise mitzunehmen und von der Vision zu überzeugen.

Auch Selbstorganisation braucht Führung. Das Team in einem Scrum-Projekt arbeitet zwar als selbstorganisierte Einheit, dennoch braucht es natürlich eine Person, die die Richtung vorgibt. Der Product Owner sollte den Mitgliedern weitestgehend freie Hand lassen, aber im Notfall eingreifen. Er oder sie führt über Zielvorgaben und Priorisierung des Backlogs. Er oder sie treibt das Projekt und das Team voran, schützt beides aber vor Eingriffen von außen und Überlastung.

Product Owner vs. Product Manager vs. Project Manager

Oft wird Agilität nach den ersten erfolgreich durchgeführten agilen Pilotprojekten mit großem Aktionismus in Unternehmen eingeführt. Häufig herrscht allerdings kein gemeinsames, korrektes Verständnis von den in Scrum definierten Rollen. Rekrutiert werden die Product Owner dementsprechend aus den Rollen, die das Management oder die HR-Abteilung schon kennt und als ähnlich einstuft, zum Beispiel Projektmanager oder Produktmanager.

Diese zu kurz gedachte Lösung führt dazu, dass die Product Owner ein falsches Rollenverständnis entwickeln, im Arbeitsalltag von Problem zu Problem hecheln und keine dedizierten Ansprechpartner im Unternehmen haben. Auch sind die Abgrenzungen zwischen den Rollen innerhalb eines Scrum-Projektes teils nicht ganz klar, so dass die Aufgaben zwischen Scrum Master und Product Owner, den zwei integralen Rollen innerhalb eines Scrum-Projektes, bei Verwischung zu Problemen führen können.

Der Product Manager ist für die Produktstrategie verantwortlich, die zur Entwicklung und späteren Auslieferung des Produktes führt. Er behält dabei die Bedürfnisse der Nutzer und die Marktentwicklungen über den ganzen Produktlebenszyklus hinweg im Blick und verankert diese in der Produkt-Roadmap und der Produkt-Vision.

Der Project Manager ist für die Überwachung der Ausführung von Produktentwicklungs-, -einführungs- und Launchplänen verantwortlich, ist also für die Organisation und Projektsteuerung zuständig.

Der Product Owner ist als Teil des Scrum-Teams dafür verantwortlich, die strategische Vision des Produktes konkret umzusetzen, er ist also für die taktische Umsetzung der Produktanforderungen zuständig und legt fest, was genau entwickelt werden soll. Dabei liegt es in seiner Verantwortung, den Wert des Produktes aus Kundensicht zu maximieren. Der Product Owner kennt die Anforderungen von Auftraggebern und Anwendern und berücksichtigt diese in der Entwicklung der Produkteigenschaften.

Der Scrum Master ist als Methodiker für die Einhaltung der Scrum-Regeln und Scrum-Prozesse verantwortlich, stellt also sicher, dass die agilen Prinzipien aufrechterhalten werden. Seine Verantwortung liegt in der Steigerung der Teamproduktivität und Motivation der Teammitglieder.

Im Gegensatz zum Product Owner, der festlegt, welche Aufgaben vom Entwicklerteam als nächstes angegangen werden sollen, hilft der Scrum Master dem Team, dieses Ziel im gesetzten Zeitrahmen zu erreichen, gibt aber keine direkten Arbeitsanweisungen an das Entwicklerteam.

Product Owner – Gehalt

Die Nachfrage nach Scrum Product Ownern ist aufgrund der steigenden Beliebtheit agiler Methoden in Unternehmen hoch; die Aussichten auf ein attraktives Gehalt sind somit sehr gut. Insbesondere wenn eine international anerkannte Zertifizierung der Scrum Alliance oder scrum.org erworben wurde, werden die Fachkenntnisse auch entsprechend entlohnt.

Natürlich können keine pauschalen Aussagen zum Gehalt eines Product Owners getroffen werden, da dieses wesentlich vom Erfahrungsschatz, der Art des Unternehmens und der individuellen Verhandlung abhängt. Als Einsteiger oder Einsteigerin in der Rolle des Product Owners können Berufsanwärterinnen und Berufsanwärter laut der Jobbörse StepStone durchaus mit einem Gehalt von 54.000 Euro brutto im Jahr rechnen, das sich im Laufe der Zeit je nach Erfahrungsschatz und speziellen Branchenkenntnissen auf bis zu 73.700 Euro im Jahr steigern kann. Das Durchschnittsgehalt gibt Stepstone mit 61.700 Euro an.

Was macht ein Product Owner?​ Weiterlesen »

Alltime-Fails: Die 7 schlechtesten IT-Produkte​

Allgemein

Man mag es kaum glauben – diese IT-Produkte gab es wirklich. Foto: Svyatoslav Balan – shutterstock.com Die folgende – höchst subjektive – Auswahl präsentiert Ihnen sieben der abgründigsten Auswürfe, die die Technologiewelt bislang hervorgebracht hat. Warum diese IT-Produkte verschmäht, gehasst oder ihre Macher vor den Kadi gezerrt wurden, variiert dabei: Vom simplen Scam über PR-Peinlichkeiten und scheinbar böswillig sabotierte User Experiences bis hin zur realen Gefahr für Leib und Leben ist alles dabei. Viel Vergnügen! IBM PCjr IBM wollte mit dem PCjr im Jahr 1984 seinen Footprint im Markt für Heimcomputer ausbauen. Wer den Apple-II-, Commodore-64- und später Macintosh-Konkurrenten benutzen wollte, erlebte allerdings oft sein persönliches Big-Blue-Wunder. Als Business-Gerät nicht potent genug, als Spielerechner zu teuer: IBMs PCjr. Foto: Von Rik Myslewski – Eigenes Werk, CC0, https://commons.wikimedia.org/w/index.php?curid=31428981 Die anfangs standardmäßig verbauten 128 KB RAM waren zu schwach für die meisten IBM-PC-Programme. Das limitierte die verfügbare Software – vor allem auf Videospiele. Die liefen auf dem Commodore 64 allerdings in der Regel besser, was schlecht war, weil dieser auch wesentlich günstiger zu haben war. Der Einführungspreis des PCjr von knapp 1.300 Dollar ließ schon bei der ersten Präsentation Ende 1983 die Alarmglocken bei den Analysten schrillen – und gilt auch als finaler Sargnagel für das Device. Vor allem aber war das Keyboard eine Ausgeburt der (Design-)Hölle. Die Funktionsbeschriftung der Tasten findet sich nämlich auf dem Gehäuse (über den Keys). Da nutzte es dann auch nichts mehr, dass die Tastatur mit einer “fancy” Infrarot-Wireless-Funktionalität ausgestattet war. Auf Bildern lässt sich nur erahnen, welche User Experience diese Chiclet-Monstrosität in die Waagschale geworfen hat. Foto: Von Jason Scott – IMG_0034, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=92421025 Den Scope der wahnwitzigen IBM-Designentscheidungen beim PCjr fassen die Kollegen von “The Register” sehr treffend zusammen. Die Briten haben – schmerzfrei wie man sie kennt – bereits im Jahr 2014 freiwillig einen PCjr für einen ausführlichen Test in seine Bestandteile zerlegt. Der bezeichnende Titel: “We tear down the machine Big Blue would rather you forgot“. Nicht umsonst killte IBM den PCjr nur knapp ein Jahr nach der Markteinführung kurzfristig – und überraschte mit diesem Move auch zahlreiche Hard- und Softwareentwickler, die sich dediziert IBMs Heimcomputer mit der Donkey-Kong-Nomenklatur verschrieben hatten. Erst im Jahr 1990 hatte sich Big Blue einigermaßen von der PCjr-Schmach erholt und wagte mit dem PS/1 einen neuen Heimcomputer-Versuch (der dann auch besser lief). Syncronys SoftRAM Die guten alten Neunziger Jahre: Als Fußball noch ansatzweise spannend war, die Reputation von Alfons Schuhbeck noch lebte und inflationäre Preise für lebensnotwendige Dinge kein Thema waren – (Arbeits-)Speicher ausgenommen. Weil die Anforderungen für Windows-95-Programme unaufhörlich stiegen, klang das Angebot der Softwareschmiede Syncronys, den Arbeitsspeicher für knapp 30 Dollar per Software zu verdoppeln, für einige User sehr verlockend – genauer gesagt für rund 700.000. Das Problem daran: Es handelte sich um einen Scam, den unsere US-Kollegen von der PC World bereits im Jahr 2006 zu einem der drei schlechtesten Tech-Produkte aller Zeiten kürten. Und zwar vollkommen zu Recht: “Es stellte sich heraus, dass SoftRAM lediglich die Cache-Größe der Festplatte von Windows-Systemen vergrößerte – etwas, das User bereits mit moderaten Fähigkeiten völlig ohne spezifische Software in circa einer Minute bewerkstelligen konnten. Und selbst dann war der Performance-Vorteil vernachlässigbar. Die Federal Trade Commission bezeichnete das Marketing-Gebahren von Syncronys als ‘unwahr und irreführend’, das Unternehmen wurde letztlich dazu gezwungen, das Produkt vom Markt zu nehmen und Käufer zu entschädigen. Nachdem sie noch eine Handvoll weiterer, schlechter Windows Utilities veröffentlichten, war Syncronys im Jahr 1999 bankrott. Wir werden die Company nicht vermissen.” Have they updated SoftRAM for the 2020s? pic.twitter.com/noLejeddnX— @keiran_rowell@mastodon.social (@keiranrowell) October 13, 2020 Apple Mac Portable“Man fragt sich nur, wie viele Menschen wohl bereit sein werden, 8.000 Dollar für etwas auszugeben, das im Grunde ein Zweitrechner ist”, zitierte die Los Angeles Times den Gartner-Analysten David Cearley anlässlich der Präsentation von Apples portablem Macintosh im Jahr 1989. Ganz generell sahen Analysten der Publikation zufolge den Portable Mac als “zu groß, zu schwer und zu teuer” an. Der Einführungspreis lag bei mehr als 7.000 Dollar, dazu brachte der Mac Portable mehr als 7 Kilogramm auf die Waage (was vor allem den verbauten Bleisäure-Akkus geschuldet war).Qualitativ gab es am ersten tragbaren Mac hingegen wenig auszusetzen. Entsprechend enthusiastisch zeigte sich Apple-Manager Jean-Louis Gassée, der das Laptop-Monster nicht nur vor Publikum auf der Bühne präsentierte, sondern ihn bei dieser Gelegenheit gleich zusammenbaute: Knapp zwei Jahre nach seinem Launch ereilte den Mac Portable im Jahr 1991 ein früher Tod, nachdem die Absatzzahlen weit hinter den Erwartungen von Apple zurückblieben. Er wurde von der Powerbook-Familie beerbt. Immerhin hat das portable Schwergewicht zu Lebzeiten noch einen Ort gefunden, an dem sein Gewicht keine Rolle spielt – das Weltall: In 1991 a Mac Portable traveled to space! Little did the astronauts know they’d be dodging floppy disks! #vintagemac #nasa #spaceshuttle #space #klingons #apple #android #mac #ios #ios16 #repair #applerepair #righttorepair #tecktok #techtoker #sysadmin #it #computer pic.twitter.com/sFcQS4zujk— The Stem Group (@TheStemGroup) November 8, 2022 Microsoft BobMicrosoft hat in seiner langen Historie einige Böcke geschossen – man erinnere sich nur an das Chatbot-Desaster um Tay, die Betriebssystem-GAUs mit Windows Millenium Edition, Vista und 8 oder den vernichtend langwierigen Sterbeprozess von Windows Mobile beziehungsweise Phone.Doch auch wenn es um Redmonder Fehlgriffe geht, lohnt sich ein Blick in die Nische: Dann fällt schnell auf, dass ein kleines Stück Microsoft-Software unter Nerds ganz besonders verhasst scheint: Bob. Bevor der Baumeister diesen Namen mit Sinnhaftigkeit und Frohsinn füllte, erzeugte Microsofts Bob bei den Benutzern nämlich vor allem eines – innere Leere. Wir zitieren ein weiteres Mal unsere US-Kollegen von der PC World:“Bob war als ‘Social Interface’ für Windows 3.1 gedacht und versetzte die Benutzer in ein virtuelles Wohnzimmer mit klickbaren Objekten und einer Reihe von Zeichentrick-Helfern wie ‘Chaos the Cat’ und ‘Scuzz the Rat’, die durch eine überschaubare Reihe von Applikationen führten. Glücklicherweise wurde Bob unter dem Hype rund um den Start von Windows 95 begraben – auch wenn einige Elemente weiterlebten, um Microsoft-Office- und Windows-XP-Nutzer zu belästigen … Vor allem aber warf Bob mehr Fragen auf, als er beantworten konnte: Hat irgendjemand bei Microsoft das Teil einmal benutzt – oder ernsthaft angenommen, jemand anderes würde das tun wollen? Und war es eigentlich Absicht, dass der Bob-Smiley eine frappierende Ähnlichkeit zu Bill Gates aufweist?”Dass Melinda Gates als Projektmanagerin an der Entwicklung von Bob beteiligt war, dürfte die letztgestellte Frage beantworten. Ihre Neugierde auf Bob kennt inzwischen vermutlich keine Grenzen mehr. Glücklicherweise hat sich der auf Retro-Tech spezialisierte YouTube-Kanal “LGR” detailliert mit der Frage auseinandergesetzt, wie infernal die Microsoft-Bob-Experience wirklich war: Samsung Galaxy Note 7Im Jahr 2016 setzte Samsung laut Bloomberg alles daran, die nächste Iteration seines erfolgreichen Premium-Phablets vor Apples alljährlichem iPhone-Happening im September auf den Markt zu bringen. Nachdem das Galaxy Note im August 2016 in den Handel kam, häuften sich Berichte von Benutzern über explodierende, brennende und überhitzte Devices. Die Flugaufsichtsbehörden der USA und der EU untersagten daraufhin, das Gerät (auch ausgeschaltet) an Bord eines Flugzeugs zu nehmen.Zum Dahinschmelzen: Samsungs Galaxy Note 7.Samsung reagiert zeitnah und beraumt eine großangelegte, weltweite Rückrufaktion an. Rund 2,5 Millionen Exemplare des Galaxy Note 7 werden nur Wochen nach dem Marktstart ausgetauscht. Nur um dann in einigen Fällen ebenfalls in Schall und Rauch aufzugehen. Die unter Umständen lebensgefährlichen Defekte des Galaxy Note 7 zwingen den koreanischen Tech-Konzern schließlich Mitte Oktober 2016, Verkauf und Produktion des Galaxy Note 7 komplett einzustellen.Allein der Rückruf der Galaxy-Note-7-Geräte dürfte Samsung rund eine Milliarde Dollar gekostet haben. Analysten der Credit Suisse schätzten die Gesamtverluste für Samsung durch das Note-7-Debakel im Jahr 2017 auf 17 Milliarden Dollar. Und auch die Reputation des koreanischen Apple-Konkurrenten erlitt durch (Sammel-)Klagen und eine zweifelhafte Kommunikationsstrategie erheblichen Schaden. Windows VistaDass Vista als Enfant Terrible innerhalb der Windows-Betriebssystemfamilie gilt, ist bekannt. Trotzdem kommt man in einer Auflistung wie dieser nicht drumherum, die Verfehlungen rund um den so gescheiterten wie gehassten XP-Nachfolger noch einmal wiederzukäuen. Schließlich kommt dieses Windows einem zeitlosen Betriebssystemverbrechen gleich. Vista sollte ursprünglich nur ein kleineres Update für Windows XP werden – ein Zwischenschritt vor dem nächsten OS, Codename “Blackcomb“. Weil dessen viele neue Technologien und Features aus Entwicklersicht plötzlich auch für Vista interessant wurden, stürzte das Projekt ins Chaos. Das gestand der ehemalige Windows-Manager Jim Allchin auch öffentlich im Interview mit dem Wall Street Journal – schon ein Jahr, bevor Vista offiziell das Licht der Welt erblickte. Windows Vista – ein Garant für kaltes Grauen. Als es dann so weit war, trieb das Betriebssystem seine Benutzer mit Bestätigungsmeldungen bei jeder noch so kleinen Konfigurationsänderung in den Wahnsinn. Wer sich davon nicht beeindrucken ließ, hatte eine weitere Chance für Wutanfälle, wenn er feststellte, dass zahllose Peripheriegeräte wie Drucker mit dem neuen Windows nicht kompatibel waren. Sollte selbst das die Halsschlagader noch nicht dazu gebracht haben, ausgiebig zu pulsieren, konnte es zur Krönung auch sein, dass Vista grundsätzlich nicht oder nur sehr schlecht auf dem Rechner lief. Und zwar auch auf Neugeräten, auf denen das Betriebssystem vorinstalliert war. Und Microsoft setzte sogar noch einen obendrauf: Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Rechner zu kaufen, entschied man sich dazu, diese als “Windows Vista Capable” zu vermarkten. Dass das nicht der Wahrheit entsprach und den Microsoft-Verantwortlichen auch bewusst war, wurde im Rahmen einer Sammelklage bekannt und warf ein weiteres Mal kein günstiges Licht auf den Konzern. WeTabEs sollte im Jahr 2010 die deutsche Antwort auf Apples iPad sein – eine Art neues Wirtschaftswunder in Device-Form: das WeTab. Allerdings verwandelte sich das Gründermärchen schnell in eine (PR-)Horrorstory. Weil auch uns manchmal die Schreibfaulheit plagt, überlassen wir es den Kollegen von 3Sat, dieses Kapitel der deutschen IT-Geschichte zu erzählen, welches man in Jugendsprache auch mit nur einem Wort zusammenfassen könnte: Cringe. 

Alltime-Fails: Die 7 schlechtesten IT-Produkte​ Man mag es kaum glauben – diese IT-Produkte gab es wirklich.
Foto: Svyatoslav Balan – shutterstock.com

Die folgende – höchst subjektive – Auswahl präsentiert Ihnen sieben der abgründigsten Auswürfe, die die Technologiewelt bislang hervorgebracht hat. Warum diese IT-Produkte verschmäht, gehasst oder ihre Macher vor den Kadi gezerrt wurden, variiert dabei: Vom simplen Scam über PR-Peinlichkeiten und scheinbar böswillig sabotierte User Experiences bis hin zur realen Gefahr für Leib und Leben ist alles dabei. Viel Vergnügen!

IBM PCjr

IBM wollte mit dem PCjr im Jahr 1984 seinen Footprint im Markt für Heimcomputer ausbauen. Wer den Apple-II-, Commodore-64- und später Macintosh-Konkurrenten benutzen wollte, erlebte allerdings oft sein persönliches Big-Blue-Wunder.

Als Business-Gerät nicht potent genug, als Spielerechner zu teuer: IBMs PCjr.
Foto: Von Rik Myslewski – Eigenes Werk, CC0, https://commons.wikimedia.org/w/index.php?curid=31428981

Die anfangs standardmäßig verbauten 128 KB RAM waren zu schwach für die meisten IBM-PC-Programme. Das limitierte die verfügbare Software – vor allem auf Videospiele. Die liefen auf dem Commodore 64 allerdings in der Regel besser, was schlecht war, weil dieser auch wesentlich günstiger zu haben war. Der Einführungspreis des PCjr von knapp 1.300 Dollar ließ schon bei der ersten Präsentation Ende 1983 die Alarmglocken bei den Analysten schrillen – und gilt auch als finaler Sargnagel für das Device.

Vor allem aber war das Keyboard eine Ausgeburt der (Design-)Hölle. Die Funktionsbeschriftung der Tasten findet sich nämlich auf dem Gehäuse (über den Keys). Da nutzte es dann auch nichts mehr, dass die Tastatur mit einer “fancy” Infrarot-Wireless-Funktionalität ausgestattet war.

Auf Bildern lässt sich nur erahnen, welche User Experience diese Chiclet-Monstrosität in die Waagschale geworfen hat.
Foto: Von Jason Scott – IMG_0034, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=92421025

Den Scope der wahnwitzigen IBM-Designentscheidungen beim PCjr fassen die Kollegen von “The Register” sehr treffend zusammen. Die Briten haben – schmerzfrei wie man sie kennt – bereits im Jahr 2014 freiwillig einen PCjr für einen ausführlichen Test in seine Bestandteile zerlegt. Der bezeichnende Titel: “We tear down the machine Big Blue would rather you forgot“.

Nicht umsonst killte IBM den PCjr nur knapp ein Jahr nach der Markteinführung kurzfristig – und überraschte mit diesem Move auch zahlreiche Hard- und Softwareentwickler, die sich dediziert IBMs Heimcomputer mit der Donkey-Kong-Nomenklatur verschrieben hatten. Erst im Jahr 1990 hatte sich Big Blue einigermaßen von der PCjr-Schmach erholt und wagte mit dem PS/1 einen neuen Heimcomputer-Versuch (der dann auch besser lief).

Syncronys SoftRAM

Die guten alten Neunziger Jahre: Als Fußball noch ansatzweise spannend war, die Reputation von Alfons Schuhbeck noch lebte und inflationäre Preise für lebensnotwendige Dinge kein Thema waren – (Arbeits-)Speicher ausgenommen. Weil die Anforderungen für Windows-95-Programme unaufhörlich stiegen, klang das Angebot der Softwareschmiede Syncronys, den Arbeitsspeicher für knapp 30 Dollar per Software zu verdoppeln, für einige User sehr verlockend – genauer gesagt für rund 700.000.

Das Problem daran: Es handelte sich um einen Scam, den unsere US-Kollegen von der PC World bereits im Jahr 2006 zu einem der drei schlechtesten Tech-Produkte aller Zeiten kürten. Und zwar vollkommen zu Recht:

“Es stellte sich heraus, dass SoftRAM lediglich die Cache-Größe der Festplatte von Windows-Systemen vergrößerte – etwas, das User bereits mit moderaten Fähigkeiten völlig ohne spezifische Software in circa einer Minute bewerkstelligen konnten. Und selbst dann war der Performance-Vorteil vernachlässigbar. Die Federal Trade Commission bezeichnete das Marketing-Gebahren von Syncronys als ‘unwahr und irreführend’, das Unternehmen wurde letztlich dazu gezwungen, das Produkt vom Markt zu nehmen und Käufer zu entschädigen. Nachdem sie noch eine Handvoll weiterer, schlechter Windows Utilities veröffentlichten, war Syncronys im Jahr 1999 bankrott. Wir werden die Company nicht vermissen.”

Have they updated SoftRAM for the 2020s? pic.twitter.com/noLejeddnX— @keiran_rowell@mastodon.social (@keiranrowell) October 13, 2020

Apple Mac Portable“Man fragt sich nur, wie viele Menschen wohl bereit sein werden, 8.000 Dollar für etwas auszugeben, das im Grunde ein Zweitrechner ist”, zitierte die Los Angeles Times den Gartner-Analysten David Cearley anlässlich der Präsentation von Apples portablem Macintosh im Jahr 1989. Ganz generell sahen Analysten der Publikation zufolge den Portable Mac als “zu groß, zu schwer und zu teuer” an. Der Einführungspreis lag bei mehr als 7.000 Dollar, dazu brachte der Mac Portable mehr als 7 Kilogramm auf die Waage (was vor allem den verbauten Bleisäure-Akkus geschuldet war).Qualitativ gab es am ersten tragbaren Mac hingegen wenig auszusetzen. Entsprechend enthusiastisch zeigte sich Apple-Manager Jean-Louis Gassée, der das Laptop-Monster nicht nur vor Publikum auf der Bühne präsentierte, sondern ihn bei dieser Gelegenheit gleich zusammenbaute:

Knapp zwei Jahre nach seinem Launch ereilte den Mac Portable im Jahr 1991 ein früher Tod, nachdem die Absatzzahlen weit hinter den Erwartungen von Apple zurückblieben. Er wurde von der Powerbook-Familie beerbt. Immerhin hat das portable Schwergewicht zu Lebzeiten noch einen Ort gefunden, an dem sein Gewicht keine Rolle spielt – das Weltall:

In 1991 a Mac Portable traveled to space! Little did the astronauts know they’d be dodging floppy disks! #vintagemac #nasa #spaceshuttle #space #klingons #apple #android #mac #ios #ios16 #repair #applerepair #righttorepair #tecktok #techtoker #sysadmin #it #computer pic.twitter.com/sFcQS4zujk— The Stem Group (@TheStemGroup) November 8, 2022

Microsoft BobMicrosoft hat in seiner langen Historie einige Böcke geschossen – man erinnere sich nur an das Chatbot-Desaster um Tay, die Betriebssystem-GAUs mit Windows Millenium Edition, Vista und 8 oder den vernichtend langwierigen Sterbeprozess von Windows Mobile beziehungsweise Phone.Doch auch wenn es um Redmonder Fehlgriffe geht, lohnt sich ein Blick in die Nische: Dann fällt schnell auf, dass ein kleines Stück Microsoft-Software unter Nerds ganz besonders verhasst scheint: Bob. Bevor der Baumeister diesen Namen mit Sinnhaftigkeit und Frohsinn füllte, erzeugte Microsofts Bob bei den Benutzern nämlich vor allem eines – innere Leere. Wir zitieren ein weiteres Mal unsere US-Kollegen von der PC World:“Bob war als ‘Social Interface’ für Windows 3.1 gedacht und versetzte die Benutzer in ein virtuelles Wohnzimmer mit klickbaren Objekten und einer Reihe von Zeichentrick-Helfern wie ‘Chaos the Cat’ und ‘Scuzz the Rat’, die durch eine überschaubare Reihe von Applikationen führten. Glücklicherweise wurde Bob unter dem Hype rund um den Start von Windows 95 begraben – auch wenn einige Elemente weiterlebten, um Microsoft-Office- und Windows-XP-Nutzer zu belästigen … Vor allem aber warf Bob mehr Fragen auf, als er beantworten konnte: Hat irgendjemand bei Microsoft das Teil einmal benutzt – oder ernsthaft angenommen, jemand anderes würde das tun wollen? Und war es eigentlich Absicht, dass der Bob-Smiley eine frappierende Ähnlichkeit zu Bill Gates aufweist?”Dass Melinda Gates als Projektmanagerin an der Entwicklung von Bob beteiligt war, dürfte die letztgestellte Frage beantworten. Ihre Neugierde auf Bob kennt inzwischen vermutlich keine Grenzen mehr. Glücklicherweise hat sich der auf Retro-Tech spezialisierte YouTube-Kanal “LGR” detailliert mit der Frage auseinandergesetzt, wie infernal die Microsoft-Bob-Experience wirklich war:

Samsung Galaxy Note 7Im Jahr 2016 setzte Samsung laut Bloomberg alles daran, die nächste Iteration seines erfolgreichen Premium-Phablets vor Apples alljährlichem iPhone-Happening im September auf den Markt zu bringen. Nachdem das Galaxy Note im August 2016 in den Handel kam, häuften sich Berichte von Benutzern über explodierende, brennende und überhitzte Devices. Die Flugaufsichtsbehörden der USA und der EU untersagten daraufhin, das Gerät (auch ausgeschaltet) an Bord eines Flugzeugs zu nehmen.Zum Dahinschmelzen: Samsungs Galaxy Note 7.Samsung reagiert zeitnah und beraumt eine großangelegte, weltweite Rückrufaktion an. Rund 2,5 Millionen Exemplare des Galaxy Note 7 werden nur Wochen nach dem Marktstart ausgetauscht. Nur um dann in einigen Fällen ebenfalls in Schall und Rauch aufzugehen. Die unter Umständen lebensgefährlichen Defekte des Galaxy Note 7 zwingen den koreanischen Tech-Konzern schließlich Mitte Oktober 2016, Verkauf und Produktion des Galaxy Note 7 komplett einzustellen.Allein der Rückruf der Galaxy-Note-7-Geräte dürfte Samsung rund eine Milliarde Dollar gekostet haben. Analysten der Credit Suisse schätzten die Gesamtverluste für Samsung durch das Note-7-Debakel im Jahr 2017 auf 17 Milliarden Dollar. Und auch die Reputation des koreanischen Apple-Konkurrenten erlitt durch (Sammel-)Klagen und eine zweifelhafte Kommunikationsstrategie erheblichen Schaden.

Windows VistaDass Vista als Enfant Terrible innerhalb der Windows-Betriebssystemfamilie gilt, ist bekannt. Trotzdem kommt man in einer Auflistung wie dieser nicht drumherum, die Verfehlungen rund um den so gescheiterten wie gehassten XP-Nachfolger noch einmal wiederzukäuen. Schließlich kommt dieses Windows einem zeitlosen Betriebssystemverbrechen gleich. Vista sollte ursprünglich nur ein kleineres Update für Windows XP werden – ein Zwischenschritt vor dem nächsten OS, Codename “Blackcomb“. Weil dessen viele neue Technologien und Features aus Entwicklersicht plötzlich auch für Vista interessant wurden, stürzte das Projekt ins Chaos. Das gestand der ehemalige Windows-Manager Jim Allchin auch öffentlich im Interview mit dem Wall Street Journal – schon ein Jahr, bevor Vista offiziell das Licht der Welt erblickte. Windows Vista – ein Garant für kaltes Grauen. Als es dann so weit war, trieb das Betriebssystem seine Benutzer mit Bestätigungsmeldungen bei jeder noch so kleinen Konfigurationsänderung in den Wahnsinn. Wer sich davon nicht beeindrucken ließ, hatte eine weitere Chance für Wutanfälle, wenn er feststellte, dass zahllose Peripheriegeräte wie Drucker mit dem neuen Windows nicht kompatibel waren. Sollte selbst das die Halsschlagader noch nicht dazu gebracht haben, ausgiebig zu pulsieren, konnte es zur Krönung auch sein, dass Vista grundsätzlich nicht oder nur sehr schlecht auf dem Rechner lief. Und zwar auch auf Neugeräten, auf denen das Betriebssystem vorinstalliert war. Und Microsoft setzte sogar noch einen obendrauf: Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Rechner zu kaufen, entschied man sich dazu, diese als “Windows Vista Capable” zu vermarkten. Dass das nicht der Wahrheit entsprach und den Microsoft-Verantwortlichen auch bewusst war, wurde im Rahmen einer Sammelklage bekannt und warf ein weiteres Mal kein günstiges Licht auf den Konzern.

WeTabEs sollte im Jahr 2010 die deutsche Antwort auf Apples iPad sein – eine Art neues Wirtschaftswunder in Device-Form: das WeTab. Allerdings verwandelte sich das Gründermärchen schnell in eine (PR-)Horrorstory. Weil auch uns manchmal die Schreibfaulheit plagt, überlassen wir es den Kollegen von 3Sat, dieses Kapitel der deutschen IT-Geschichte zu erzählen, welches man in Jugendsprache auch mit nur einem Wort zusammenfassen könnte: Cringe.

Alltime-Fails: Die 7 schlechtesten IT-Produkte​ Weiterlesen »

Der neue Trend – sich spielend vernetzen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Spiele sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken.eamesBot – Shutterstock 1229292619 Gut vernetzt zu sein bringt im Berufsleben viele Vorteile mit sich – das ist mittlerweile bekannt. Doch nicht jedem fällt das Netzwerken leicht. Hier können jedoch neue Formen des Spielens helfen, indem sie das Eis brechen und Interaktionen fördern. Statt einer formellen Nachricht können Interessenten eine Herausforderung zum Spiel senden oder ihr Ergebnis teilen und so mit anderen Mitgliedern in Kontakt bleiben.   In den letzten Jahren haben viele Medienunternehmen und soziale Netzwerke ein zunehmendes Interesse an Spielen gezeigt. Mittlerweile stehen zum Beispiel bei LinkedIn Mitglieder im deutschsprachigen Raum drei Spiele zur Verfügung – Queens, Tango und Zip. Inspiriert von beliebten Rätsel- und Knobelspielen sollen sie den Austausch und die Vernetzung fördern.   Die Spiele können nur einmal täglich gespielt werden und sind mehr als nur Denksport. Der Grund: Sie sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken. Aus eigener Erfahrung weiß ich, wie schwer es im Arbeitsalltag sein kann, mit Kollegen und Kolleginnen in Kontakt zu bleiben oder die erste Nachricht an neue oder eingerostete Kontakte zu verschicken. Mit solchen Spielen ist das jetzt einfach: Eine Herausforderung zum Spielen verschicken und schon bleibt man in Verbindung.  Denkspiele steigern die kognitive Leistungsfähigkeit Weiterer Nebeneffekt: Die Spiele sollen Mitglieder dazu ermutigen, sich während des Arbeitstages hin und wieder eine kurze Auszeit zu nehmen und den Geist zu trainieren. Denn aus der Forschung ist bekannt, dass regelmäßige Pausen im Arbeitsalltag wichtig sind. Gleichzeitig können sich Denkspiele positiv auf unsere kognitive Leistung auswirken.  Wer beim Spielen auf den Geschmack gekommen ist, kann natürlich noch auf viele andere Arten Networking betreiben. Der Schlüssel zum Erfolg liegt dabei im gegenseitigen Austausch. Erst durch regelmäßige Kontaktpflege entfaltet das eigene berufliche Netzwerk seine volle Kraft.  Unter linkedin.com/games und in der LinkedIn-App finden Sie die LinkedIn-Spiele. Einfach auf der Startseite nach rechts streichen und den Abschnitt „Spiele“ aufrufen. 

Der neue Trend – sich spielend vernetzen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Spiele sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken.eamesBot – Shutterstock 1229292619

Gut vernetzt zu sein bringt im Berufsleben viele Vorteile mit sich – das ist mittlerweile bekannt. Doch nicht jedem fällt das Netzwerken leicht. Hier können jedoch neue Formen des Spielens helfen, indem sie das Eis brechen und Interaktionen fördern. Statt einer formellen Nachricht können Interessenten eine Herausforderung zum Spiel senden oder ihr Ergebnis teilen und so mit anderen Mitgliedern in Kontakt bleiben.  

In den letzten Jahren haben viele Medienunternehmen und soziale Netzwerke ein zunehmendes Interesse an Spielen gezeigt. Mittlerweile stehen zum Beispiel bei LinkedIn Mitglieder im deutschsprachigen Raum drei Spiele zur Verfügung – Queens, Tango und Zip. Inspiriert von beliebten Rätsel- und Knobelspielen sollen sie den Austausch und die Vernetzung fördern.  

Die Spiele können nur einmal täglich gespielt werden und sind mehr als nur Denksport. Der Grund: Sie sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken. Aus eigener Erfahrung weiß ich, wie schwer es im Arbeitsalltag sein kann, mit Kollegen und Kolleginnen in Kontakt zu bleiben oder die erste Nachricht an neue oder eingerostete Kontakte zu verschicken. Mit solchen Spielen ist das jetzt einfach: Eine Herausforderung zum Spielen verschicken und schon bleibt man in Verbindung. 

Denkspiele steigern die kognitive Leistungsfähigkeit

Weiterer Nebeneffekt: Die Spiele sollen Mitglieder dazu ermutigen, sich während des Arbeitstages hin und wieder eine kurze Auszeit zu nehmen und den Geist zu trainieren. Denn aus der Forschung ist bekannt, dass regelmäßige Pausen im Arbeitsalltag wichtig sind. Gleichzeitig können sich Denkspiele positiv auf unsere kognitive Leistung auswirken. 

Wer beim Spielen auf den Geschmack gekommen ist, kann natürlich noch auf viele andere Arten Networking betreiben. Der Schlüssel zum Erfolg liegt dabei im gegenseitigen Austausch. Erst durch regelmäßige Kontaktpflege entfaltet das eigene berufliche Netzwerk seine volle Kraft. 

Unter linkedin.com/games und in der LinkedIn-App finden Sie die LinkedIn-Spiele. Einfach auf der Startseite nach rechts streichen und den Abschnitt „Spiele“ aufrufen.

Der neue Trend – sich spielend vernetzen​ Weiterlesen »

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​

Allgemein

Thomas Joos PC-Nutzer, die etwas in der Vergangenheit schwelgen und mit der Windows XP-Oberfläche arbeiten wollen (oder Windows 2000 und Windows 7), können sich kostenlos die Linux-Distribution Q4OS herunterladen und darauf die XPQ4-GUI installieren. Die GUI ermöglicht es, innerhalb der Debian-basierten Distribution Q4OS verschiedene Oberflächen zu aktivieren. Neben Windows XP stehen hier auch Windows 2000, Windows 7, Windows 8 und auch Windows 10 zur Verfügung. Sie können in der Oberfläche sogar Programme installieren, allerdings nur Linux-Anwendungen. Dafür können Sie alles in der grafischen Oberfläche erledigen, die sich wie Windows verhält. Thomas Joos Das System können Sie auch über einen USB-Stick als Live-Installation starten. Da der Download als ISO-Datei erfolgt, ist es auch möglich, die Distribution in einer VM zu testen. Die Oberfläche von Q4OS ist ohnehin bereits ähnlich zu Windows. Durch die Installation von XPQ4 lassen sich die genannten Windows-Oberflächen aktivieren. Die Entwickler von XPQ4 bieten darüber hinaus eine fertige Live-Umgebung mit Q4OS an, in der XPQ4 bereits installiert ist. Windows XP mithilfe von Linux nutzen – auch ohne Installation Um Windows XP über Q4OS/XPQ4 zu nutzen, reicht es aus, wenn Sie die ISO-Datei für XPQ4 als FreeXP bei den Entwicklern herunterladen. Verwenden Sie dazu am besten bei “Downloads” die Option “FreeXP live CD image”. Wollen Sie auf Basis von Q4OS und XPQ4 Windows 10 mit Linux nutzen, können Sie auch das Image “Free10 live CD image” verwenden. Hier steht die Windows 10-Oberfläche zur Verfügung, aber ohne die Möglichkeit, ältere Versionen wie Windows XP zu aktivieren. Starten Sie dieses Image, erhalten Sie eine Windows 10-Oberfläche auf Basis von Q4OS und XPQ4. Thomas Joos Wollen Sie einen PC mit Q4OS starten, unabhängig davon, ob Sie Windows XP oder Windows 10 als Oberfläche nutzen wollen, verwenden Sie zum Beispiel Rufus oder balenaEtcher. Am Beispiel von Rufus verbinden Sie den USB-Stick mit Ihrem PC, starten Rufus und wählen bei “Laufwerk” den USB-Stick aus. Bei “Startart” klicken Sie auf “Auswahl” und wählen die gewünschte ISO-Datei aus. Die restlichen Einstellungen können Sie auf dem Standard belassen. Mit “Start” beginnt die Erstellung des Sticks. Booten Sie einen PC, dann startet direkt FreeXP oder Free10 mit dem Stick. Thomas Joos An Windows XP unter Q4OS anmelden Die Anmeldung an Q4OS erfolgt standardmäßig mit dem Benutzernamen “adminq” und einem leeren Kennwort. Im Rahmen des Starts können Sie auch die Sprache der Oberfläche anpassen. Deutsch steht ebenfalls zur Verfügung, allerdings sind nicht alle Dialogfelder optimal übersetzt. Direkt nach der Anmeldung aktiviert das Betriebssystem die Windows XP-Oberfläche, wenn Sie direkt die FreeXP-Variante gestartet haben. Bei der Windows 10-Variante startet die Oberfläche von Windows 10. Die Bedienung von FreeXP entspricht weitgehend der von Windows XP, beziehungsweise der Windows-Version, die Sie in der Oberfläche eingestellt haben. Windows-Oberfläche anpassen Sie können die angezeigte Windows-Version jederzeit über das Tool “XPQ4 Desktop Styles” anpassen. In der Spalte “Themes” die verschiedenen Windows-Versionen zur Auswahl. Dazu gehören Windows XP mit der klassischen Ansicht, Windows XP mit der bekannten bunten Luna-Oberfläche, Windows 7, Windows 8, Windows 10 und auch Windows 2000. Thomas Joos Klicken Sie auf ein Theme und wählen Sie “Apply Theme”. Klicken Sie danach auf “Logout now”. Wählen Sie sich nach der Abmeldung mit dem Benutzer “adminq” ohne Kennwort an. Mit Windows unter Q4OS arbeiten Die Bedienung der jeweiligen Windows-Oberfläche entspricht in etwa der von Windows. Es gibt natürlich ein paar Unterschiede, da als Basis des Systems Debian-Linux mit Q4OS genutzt wird. Der Willkommensbildschirm von Q4OS ermöglicht über die Schaltfläche “Programme installieren” die Installation von Programmen. Mit “Mehr Optionen” lassen sich weitere Features aktivieren, wie verschiedene grafische Effekte. Über “Desktop Profiler” lassen sich die Oberfläche und generelle Anzeige anpassen. Thomas Joos Q4OS mit XPQ4 installieren Alternativ zum Testen der Live-CD von FreeXP ist es auch möglich, das Betriebssystem zu installieren. Dazu erfolgt ein Klick auf “Install Q4OS”. Im Anschluss startet der Installationsassistent direkt in der Oberfläche. Dieser ermöglicht die Auswahl der Sprache, des Tastaturmodells und die Auswahl der Q4OS-Variante. Sinnvoll ist an dieser Stelle die Auswahl von “Q4OS Desktop”. Auch die Partitionierung können Sie an dieser Stelle festlegen. Im Rahmen der Einrichtung lässt sich ein eigenes Benutzerkonto mit Kennwort testen- einrichten. Auf Wunsch kann FreeXP den Nutzer auch automatisch anmelden. Sobald der Assistent abgeschlossen ist, beginnt die Installation. Im Anschluss steht das Betriebssystem auf dem PC zur Verfügung. Nach dem Neustart erfolgt die Anmeldung mit dem neuen Benutzernamen und Kennwort. Thomas Joos Die Bedienung von FreeXP und Free10 auf Basis von Q4OS entspricht zwar generell der von Windows, aber es gibt durchaus Unterschiede.(PC-Welt) 

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​ Thomas Joos

PC-Nutzer, die etwas in der Vergangenheit schwelgen und mit der Windows XP-Oberfläche arbeiten wollen (oder Windows 2000 und Windows 7), können sich kostenlos die Linux-Distribution Q4OS herunterladen und darauf die XPQ4-GUI installieren. Die GUI ermöglicht es, innerhalb der Debian-basierten Distribution Q4OS verschiedene Oberflächen zu aktivieren.

Neben Windows XP stehen hier auch Windows 2000, Windows 7, Windows 8 und auch Windows 10 zur Verfügung. Sie können in der Oberfläche sogar Programme installieren, allerdings nur Linux-Anwendungen. Dafür können Sie alles in der grafischen Oberfläche erledigen, die sich wie Windows verhält.

Thomas Joos

Das System können Sie auch über einen USB-Stick als Live-Installation starten. Da der Download als ISO-Datei erfolgt, ist es auch möglich, die Distribution in einer VM zu testen. Die Oberfläche von Q4OS ist ohnehin bereits ähnlich zu Windows. Durch die Installation von XPQ4 lassen sich die genannten Windows-Oberflächen aktivieren. Die Entwickler von XPQ4 bieten darüber hinaus eine fertige Live-Umgebung mit Q4OS an, in der XPQ4 bereits installiert ist.

Windows XP mithilfe von Linux nutzen – auch ohne Installation

Um Windows XP über Q4OS/XPQ4 zu nutzen, reicht es aus, wenn Sie die ISO-Datei für XPQ4 als FreeXP bei den Entwicklern herunterladen. Verwenden Sie dazu am besten bei “Downloads” die Option “FreeXP live CD image”. Wollen Sie auf Basis von Q4OS und XPQ4 Windows 10 mit Linux nutzen, können Sie auch das Image “Free10 live CD image” verwenden. Hier steht die Windows 10-Oberfläche zur Verfügung, aber ohne die Möglichkeit, ältere Versionen wie Windows XP zu aktivieren. Starten Sie dieses Image, erhalten Sie eine Windows 10-Oberfläche auf Basis von Q4OS und XPQ4.

Thomas Joos

Wollen Sie einen PC mit Q4OS starten, unabhängig davon, ob Sie Windows XP oder Windows 10 als Oberfläche nutzen wollen, verwenden Sie zum Beispiel Rufus oder balenaEtcher. Am Beispiel von Rufus verbinden Sie den USB-Stick mit Ihrem PC, starten Rufus und wählen bei “Laufwerk” den USB-Stick aus. Bei “Startart” klicken Sie auf “Auswahl” und wählen die gewünschte ISO-Datei aus. Die restlichen Einstellungen können Sie auf dem Standard belassen. Mit “Start” beginnt die Erstellung des Sticks. Booten Sie einen PC, dann startet direkt FreeXP oder Free10 mit dem Stick.

Thomas Joos

An Windows XP unter Q4OS anmelden

Die Anmeldung an Q4OS erfolgt standardmäßig mit dem Benutzernamen “adminq” und einem leeren Kennwort. Im Rahmen des Starts können Sie auch die Sprache der Oberfläche anpassen. Deutsch steht ebenfalls zur Verfügung, allerdings sind nicht alle Dialogfelder optimal übersetzt. Direkt nach der Anmeldung aktiviert das Betriebssystem die Windows XP-Oberfläche, wenn Sie direkt die FreeXP-Variante gestartet haben.

Bei der Windows 10-Variante startet die Oberfläche von Windows 10. Die Bedienung von FreeXP entspricht weitgehend der von Windows XP, beziehungsweise der Windows-Version, die Sie in der Oberfläche eingestellt haben.

Windows-Oberfläche anpassen

Sie können die angezeigte Windows-Version jederzeit über das Tool “XPQ4 Desktop Styles” anpassen. In der Spalte “Themes” die verschiedenen Windows-Versionen zur Auswahl. Dazu gehören Windows XP mit der klassischen Ansicht, Windows XP mit der bekannten bunten Luna-Oberfläche, Windows 7, Windows 8, Windows 10 und auch Windows 2000.

Thomas Joos

Klicken Sie auf ein Theme und wählen Sie “Apply Theme”. Klicken Sie danach auf “Logout now”. Wählen Sie sich nach der Abmeldung mit dem Benutzer “adminq” ohne Kennwort an.

Mit Windows unter Q4OS arbeiten

Die Bedienung der jeweiligen Windows-Oberfläche entspricht in etwa der von Windows. Es gibt natürlich ein paar Unterschiede, da als Basis des Systems Debian-Linux mit Q4OS genutzt wird. Der Willkommensbildschirm von Q4OS ermöglicht über die Schaltfläche “Programme installieren” die Installation von Programmen. Mit “Mehr Optionen” lassen sich weitere Features aktivieren, wie verschiedene grafische Effekte. Über “Desktop Profiler” lassen sich die Oberfläche und generelle Anzeige anpassen.

Thomas Joos

Q4OS mit XPQ4 installieren

Alternativ zum Testen der Live-CD von FreeXP ist es auch möglich, das Betriebssystem zu installieren. Dazu erfolgt ein Klick auf “Install Q4OS”. Im Anschluss startet der Installationsassistent direkt in der Oberfläche. Dieser ermöglicht die Auswahl der Sprache, des Tastaturmodells und die Auswahl der Q4OS-Variante. Sinnvoll ist an dieser Stelle die Auswahl von “Q4OS Desktop”. Auch die Partitionierung können Sie an dieser Stelle festlegen. Im Rahmen der Einrichtung lässt sich ein eigenes Benutzerkonto mit Kennwort testen- einrichten. Auf Wunsch kann FreeXP den Nutzer auch automatisch anmelden.

Sobald der Assistent abgeschlossen ist, beginnt die Installation. Im Anschluss steht das Betriebssystem auf dem PC zur Verfügung. Nach dem Neustart erfolgt die Anmeldung mit dem neuen Benutzernamen und Kennwort.

Thomas Joos

Die Bedienung von FreeXP und Free10 auf Basis von Q4OS entspricht zwar generell der von Windows, aber es gibt durchaus Unterschiede.(PC-Welt)

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​ Weiterlesen »

IQ-Test: Was Intelligenztests können​

Allgemein

Die meisten Intelligenztests beschränken sich darauf, logisches und analytisches Wissen zu testen, obwohl man sich einig ist, dass dazu viel mehr gehört. Foto: New Africa – shutterstock.comDas Wort Intelligenz stammt aus dem Lateinischen, genauer, von dem Verb intellegere (dt. erkennen, verstehen, einsehen). Wer intelligent ist, der hat die Fähigkeit, Dinge schnell einzusehen oder zu verstehen – auf diesen Versuch einer Definition kann man sich wohl verständigen.Eine Definition, auf die sich die Wissenschaft insgesamt geeinigt hat, gibt es von dem Begriff Intelligenz dagegen nicht. Worauf man sich in Fachkreisen jedoch verständigen konnte, ist, dass Personen, die man gemeinhin als intelligent ansieht, kognitiv (sehr) leistungsfähig sind.Intelligenz ist mehr als logisches DenkenWorin diese kognitive Leistungsfähigkeit aber genau besteht, darüber ist man sich noch nicht abschließend einig. Denn Intelligenz bedeutet eben nicht nur, dass Personen in der Lage sind, Zusammenhänge logisch zu erschließen oder Aufgaben aufgrund von vorhandenem Wissen möglichst kreativ zu lösen. Ebenso scheint es für eine komplette Beschreibung von Intelligenz nicht ausreichend, dass die betreffende Person in der Lage ist, sich schnell in neuen Situationen zurechtzufinden und zügig auf eine Idee zu kommen, wie sich ein bisher unbekanntes Problem lösen lässt. Auch musikalische Begabung, ein Faible für Sprachen oder – nicht zu vergessen – Empathie, also die Fähigkeit, sich in andere Personen hineinzuversetzen, gehören zur Intelligenz dazu.Was misst ein IQ-Test?Nicht verwunderlich, dass es immer wieder Kritik an dem Intelligenztest gibt, denn ein solcher Test – jedenfalls die herkömmlichen – messen ganz viele Eigenschaften gar nicht, die zur Intelligenz eines Menschen gehören. Die Fähigkeit zur Empathie zum Beispiel kann ein herkömmlicher Intelligenztest nicht erfassen. Auch musikalische Begabung wird, wenn überhaupt, nur sehr oberflächlich ermittelt.So bleibt es dabei, dass diejenigen Intelligenztests, die in Deutschland und vielen anderen Ländern der westlichen Welt genutzt werden, sich in der Regel darauf beschränken, analytisches und logisches Denken, die Auffassungsgabe, das räumliche Vorstellungsvermögen und immerhin zum Teil auch die Sprachbeherrschung testen.Erste Tests mit KindernAuf der Grundlage dieser Ergebnisse wird der Intelligenzquotient einer Person bestimmt. Nämlich indem man zunächst das sogenannte Intelligenzalter bestimmt. Dieser Begriff geht zurück auf den französischen Psychologen Alfred Binet und seinen Kollegen, den Arzt Théodore Simon. Beide entwickelten Anfang des 20. Jahrhunderts Aufgaben, die dazu dienen sollten, einen eventuellen Förderbedarf von Kindern zu ermitteln.Zu Beginn war der IQ-Test also nicht dazu gedacht, besonders herausstechende Begabung auszufiltern, sondern, im Gegenteil, Kinder zu identifizieren, die besonders gefördert werden müssten. Mit den Testaufgaben, die die beiden Forscher entwickelten, wurde das Intelligenzalter der Kinder bestimmt, indem die Forscher die Aufgaben nach Schwierigkeitsgrad geordnet haben. Besonders einfache Aufgaben mit einem niedrigen Schwierigkeitsgrad können schon von jungen Kindern gelöst werden, für schwierigere Aufgaben ist es dagegen besser, wenn die Kinder älter sind und ein größeres Verständnis von der Welt und ihren Zusammenhängen haben.Abhängig davon, wie gut die Kinder die verschiedenen Tests lösten, teilten sie die Wissenschaftler verschiedenen Altersklassen zu. Den Intelligenzquotienten errechneten sie jedoch noch nicht.Nach dem Tod von Binet machte das ein anderer Wissenschaftler, der US-amerikanische Psychologe Lewis Terman von der Stanford University. Er ergänzte Aufgaben und entwickelte den bestehenden Test weiter. Zusätzlich dazu lieferte er die Formel mit, anhand derer man den Quotienten errechnen konnte. Den Intelligenzquotienten errechnete er, indem er das Intelligenzalter, also wie gut die Person Aufgaben lösen konnte, die im Prinzip noch zu schwierig waren, durch das biologische Alter mal 100 teilte.Der Intelligenzquotient heuteHeute ist der Intelligenzquotient der Goldstandard, wenn man die Intelligenz eines Menschen bewerten möchte. Die Vorgehensweise, um den Quotienten zu bestimmen, ist der ursprünglichen Herangehensweise immer noch sehr ähnlich: Je mehr Aufgaben die Testperson korrekt löst, umso mehr Punkte bekommt sie und umso höher ist der Intelligenzquotient, den sie im Intelligenztests erzielt.Testpersonen, die einen Wert erzielen, der um 100 IQ-Punkte liegt, gelten als durchschnittlich intelligent. Dabei sollte man beachten, dass der Intelligenzquotient in Form der Gaußschen Glockenkurve verteilt ist. Bedeutet: Ein durchschnittlicher IQ ist kein Grund, sich zu schämen, sondern statistisch betrachtet sehr wahrscheinlich. Eben deshalb, weil die überwiegende Mehrzahl in einem Bereich zwischen 85 und 115 liegt.Als hochbegabt gelten Personen, die einen IQ von mehr als 130 haben. Und das ist eine recht kleine Zahl: Nur 2 bis 2,5 Prozent der Menschen erreichen diesen Wert bei einem Intelligenztest.Intelligenz testen ohne Test: Achten Sie auf diese AnzeichenSie haben keine Lust oder keine Zeit, einen Intelligenztest zu absolvieren, möchten aber trotzdem einen Eindruck davon bekommen, ob Sie zu den eher durchschnittlich intelligenten Personen gehören oder vielleicht doch hochbegabt sind?Dann sollten Sie darauf achten, ob Sie folgende Anzeichen bei Ihnen erkennen. Die Indizien können natürlich auch dazu dienen, Ihren Eindruck zu überprüfen, ob Ihr Kollege oder Nachbar eher durchschnittlich intelligent ist oder sich vielleicht so eigenartig verhält, weil er hochbegabt ist. Können Sie folgende Anzeichen ausmachen?1. Ein guter Zuhörer sein: Personen, die besonders intelligent sind, scheinen diese Eigenschaft zu teilen: Sie können gut zuhören. Das lässt sich damit begründen, dass Personen mit einer überdurchschnittlichen Intelligenz in der Regel an vielen verschiedenen Dingen interessiert sind. Da sie einen großen Wissensdurst haben, sind sie froh über eine Menge Input. Und den bekommen sie am besten, wenn sie konzentriert ihren Mitmenschen zuhören. Denn die haben hin und wieder etwas Spannendes zu erzählen.2. Zum Chaos neigen: “Ordnung ist nur etwas für Primitive, das Genie beherrscht das Chaos.” Ob Albert Einstein, dem dieses Zitat in unterschiedlichen Varianten zugeschrieben wird, damit jedoch meinte, dass besonders intelligente Personen dadurch hervorstechen, dass sie einen überaus unaufgeräumten Schreibtisch haben, sei dahingestellt. Es scheint jedoch Hinweise darauf zu geben, dass Personen mit einem hohen IQ von einer chaotischen, man könnte auch sagen, kreativ angeordneten Umgebung profitieren. Denn die gibt ihnen eine ganze Menge Input oder Anregungen, um auf neue Ideen zu kommen.3. Ohne die Gesellschaft anderer auskommen: Personen mit einem höheren Intelligenzquotienten als der Durchschnitt haben häufig kein gesteigertes Interesse daran, sich mit anderen Menschen zu treffen. Sie kommen auch gut damit zurecht, Zeit allein zu verbringen und ihren Gedanken nachzuhängen oder sich denjenigen Dingen zu widmen, die sie gerade besonders interessieren. Dieses Verhalten kann dazu führen, dass besonders intelligente Menschen zu Eigenbrötlern ohne oder mit nur wenig Sozialkontakten werden.4. Eine hohe Anpassungsfähigkeit besitzen: Wer eingangs aufgepasst hat, den wird dieses Anzeichen nun nicht überraschen: Personen, die überdurchschnittlich schlau sind, gelingt es recht einfach und schnell, sich an geänderte Gegebenheiten anzupassen. Übrigens können Hochbegabte nicht nur schnell auf Situationen reagieren, die ihnen fremd sind oder zügig unbekannte Probleme lösen. Ein hoher IQ scheint außerdem einen positiven Einfluss auf die Reaktionsgeschwindigkeit im Allgemeinen zu haben.5. Sich selten zufrieden geben: Besonders intelligente Menschen sind äußerst selbstkritisch. Sie betrachten die Ergebnisse ihrer Arbeit recht objektiv und sehen daher an vielen Stellen Verbesserungspotenzial. Gerade bei der Teamarbeit kann dieser Drang zur Optimierung Konfliktpotenzial bedeuten. Denn höchstwahrscheinlich sind die übrigen Kollegen im Team nicht so intelligent und/oder sehen die Notwendigkeit überhaupt nicht, etwas am Ergebnis zu verbessern.Aber auch dann, wenn die hochintelligente Person allein arbeitet, ist das keine Garantie dafür, dass das Ergebnis optimal sein wird oder bis zur Perfektion optimiert werden kann. Personen, die einen Hang zur Selbstkritik haben, laufen Gefahr, schneller an Depressionen zu erkranken. Sie schaffen es in vielen Fällen einfach nicht, die hohen, selbstgesteckten Ziele zu erreichen.Lesen Sie auch: Wie Sie im Berufsalltag schlau rüberkommen 

IQ-Test: Was Intelligenztests können​ Die meisten Intelligenztests beschränken sich darauf, logisches und analytisches Wissen zu testen, obwohl man sich einig ist, dass dazu viel mehr gehört.
Foto: New Africa – shutterstock.comDas Wort Intelligenz stammt aus dem Lateinischen, genauer, von dem Verb intellegere (dt. erkennen, verstehen, einsehen). Wer intelligent ist, der hat die Fähigkeit, Dinge schnell einzusehen oder zu verstehen – auf diesen Versuch einer Definition kann man sich wohl verständigen.Eine Definition, auf die sich die Wissenschaft insgesamt geeinigt hat, gibt es von dem Begriff Intelligenz dagegen nicht. Worauf man sich in Fachkreisen jedoch verständigen konnte, ist, dass Personen, die man gemeinhin als intelligent ansieht, kognitiv (sehr) leistungsfähig sind.Intelligenz ist mehr als logisches DenkenWorin diese kognitive Leistungsfähigkeit aber genau besteht, darüber ist man sich noch nicht abschließend einig. Denn Intelligenz bedeutet eben nicht nur, dass Personen in der Lage sind, Zusammenhänge logisch zu erschließen oder Aufgaben aufgrund von vorhandenem Wissen möglichst kreativ zu lösen.

Ebenso scheint es für eine komplette Beschreibung von Intelligenz nicht ausreichend, dass die betreffende Person in der Lage ist, sich schnell in neuen Situationen zurechtzufinden und zügig auf eine Idee zu kommen, wie sich ein bisher unbekanntes Problem lösen lässt. Auch musikalische Begabung, ein Faible für Sprachen oder – nicht zu vergessen – Empathie, also die Fähigkeit, sich in andere Personen hineinzuversetzen, gehören zur Intelligenz dazu.Was misst ein IQ-Test?Nicht verwunderlich, dass es immer wieder Kritik an dem Intelligenztest gibt, denn ein solcher Test – jedenfalls die herkömmlichen – messen ganz viele Eigenschaften gar nicht, die zur Intelligenz eines Menschen gehören. Die Fähigkeit zur Empathie zum Beispiel kann ein herkömmlicher Intelligenztest nicht erfassen. Auch musikalische Begabung wird, wenn überhaupt, nur sehr oberflächlich ermittelt.So bleibt es dabei, dass diejenigen Intelligenztests, die in Deutschland und vielen anderen Ländern der westlichen Welt genutzt werden, sich in der Regel darauf beschränken, analytisches und logisches Denken, die Auffassungsgabe, das räumliche Vorstellungsvermögen und immerhin zum Teil auch die Sprachbeherrschung testen.Erste Tests mit KindernAuf der Grundlage dieser Ergebnisse wird der Intelligenzquotient einer Person bestimmt. Nämlich indem man zunächst das sogenannte Intelligenzalter bestimmt. Dieser Begriff geht zurück auf den französischen Psychologen Alfred Binet und seinen Kollegen, den Arzt Théodore Simon. Beide entwickelten Anfang des 20. Jahrhunderts Aufgaben, die dazu dienen sollten, einen eventuellen Förderbedarf von Kindern zu ermitteln.Zu Beginn war der IQ-Test also nicht dazu gedacht, besonders herausstechende Begabung auszufiltern, sondern, im Gegenteil, Kinder zu identifizieren, die besonders gefördert werden müssten.

Mit den Testaufgaben, die die beiden Forscher entwickelten, wurde das Intelligenzalter der Kinder bestimmt, indem die Forscher die Aufgaben nach Schwierigkeitsgrad geordnet haben. Besonders einfache Aufgaben mit einem niedrigen Schwierigkeitsgrad können schon von jungen Kindern gelöst werden, für schwierigere Aufgaben ist es dagegen besser, wenn die Kinder älter sind und ein größeres Verständnis von der Welt und ihren Zusammenhängen haben.Abhängig davon, wie gut die Kinder die verschiedenen Tests lösten, teilten sie die Wissenschaftler verschiedenen Altersklassen zu. Den Intelligenzquotienten errechneten sie jedoch noch nicht.Nach dem Tod von Binet machte das ein anderer Wissenschaftler, der US-amerikanische Psychologe Lewis Terman von der Stanford University. Er ergänzte Aufgaben und entwickelte den bestehenden Test weiter. Zusätzlich dazu lieferte er die Formel mit, anhand derer man den Quotienten errechnen konnte. Den Intelligenzquotienten errechnete er, indem er das Intelligenzalter, also wie gut die Person Aufgaben lösen konnte, die im Prinzip noch zu schwierig waren, durch das biologische Alter mal 100 teilte.Der Intelligenzquotient heuteHeute ist der Intelligenzquotient der Goldstandard, wenn man die Intelligenz eines Menschen bewerten möchte. Die Vorgehensweise, um den Quotienten zu bestimmen, ist der ursprünglichen Herangehensweise immer noch sehr ähnlich: Je mehr Aufgaben die Testperson korrekt löst, umso mehr Punkte bekommt sie und umso höher ist der Intelligenzquotient, den sie im Intelligenztests erzielt.Testpersonen, die einen Wert erzielen, der um 100 IQ-Punkte liegt, gelten als durchschnittlich intelligent. Dabei sollte man beachten, dass der Intelligenzquotient in Form der Gaußschen Glockenkurve verteilt ist. Bedeutet: Ein durchschnittlicher IQ ist kein Grund, sich zu schämen, sondern statistisch betrachtet sehr wahrscheinlich. Eben deshalb, weil die überwiegende Mehrzahl in einem Bereich zwischen 85 und 115 liegt.Als hochbegabt gelten Personen, die einen IQ von mehr als 130 haben. Und das ist eine recht kleine Zahl: Nur 2 bis 2,5 Prozent der Menschen erreichen diesen Wert bei einem Intelligenztest.Intelligenz testen ohne Test: Achten Sie auf diese AnzeichenSie haben keine Lust oder keine Zeit, einen Intelligenztest zu absolvieren, möchten aber trotzdem einen Eindruck davon bekommen, ob Sie zu den eher durchschnittlich intelligenten Personen gehören oder vielleicht doch hochbegabt sind?Dann sollten Sie darauf achten, ob Sie folgende Anzeichen bei Ihnen erkennen. Die Indizien können natürlich auch dazu dienen, Ihren Eindruck zu überprüfen, ob Ihr Kollege oder Nachbar eher durchschnittlich intelligent ist oder sich vielleicht so eigenartig verhält, weil er hochbegabt ist. Können Sie folgende Anzeichen ausmachen?1. Ein guter Zuhörer sein: Personen, die besonders intelligent sind, scheinen diese Eigenschaft zu teilen: Sie können gut zuhören. Das lässt sich damit begründen, dass Personen mit einer überdurchschnittlichen Intelligenz in der Regel an vielen verschiedenen Dingen interessiert sind. Da sie einen großen Wissensdurst haben, sind sie froh über eine Menge Input. Und den bekommen sie am besten, wenn sie konzentriert ihren Mitmenschen zuhören. Denn die haben hin und wieder etwas Spannendes zu erzählen.2. Zum Chaos neigen: “Ordnung ist nur etwas für Primitive, das Genie beherrscht das Chaos.” Ob Albert Einstein, dem dieses Zitat in unterschiedlichen Varianten zugeschrieben wird, damit jedoch meinte, dass besonders intelligente Personen dadurch hervorstechen, dass sie einen überaus unaufgeräumten Schreibtisch haben, sei dahingestellt. Es scheint jedoch Hinweise darauf zu geben, dass Personen mit einem hohen IQ von einer chaotischen, man könnte auch sagen, kreativ angeordneten Umgebung profitieren. Denn die gibt ihnen eine ganze Menge Input oder Anregungen, um auf neue Ideen zu kommen.3. Ohne die Gesellschaft anderer auskommen: Personen mit einem höheren Intelligenzquotienten als der Durchschnitt haben häufig kein gesteigertes Interesse daran, sich mit anderen Menschen zu treffen. Sie kommen auch gut damit zurecht, Zeit allein zu verbringen und ihren Gedanken nachzuhängen oder sich denjenigen Dingen zu widmen, die sie gerade besonders interessieren. Dieses Verhalten kann dazu führen, dass besonders intelligente Menschen zu Eigenbrötlern ohne oder mit nur wenig Sozialkontakten werden.4. Eine hohe Anpassungsfähigkeit besitzen: Wer eingangs aufgepasst hat, den wird dieses Anzeichen nun nicht überraschen: Personen, die überdurchschnittlich schlau sind, gelingt es recht einfach und schnell, sich an geänderte Gegebenheiten anzupassen. Übrigens können Hochbegabte nicht nur schnell auf Situationen reagieren, die ihnen fremd sind oder zügig unbekannte Probleme lösen. Ein hoher IQ scheint außerdem einen positiven Einfluss auf die Reaktionsgeschwindigkeit im Allgemeinen zu haben.5. Sich selten zufrieden geben: Besonders intelligente Menschen sind äußerst selbstkritisch. Sie betrachten die Ergebnisse ihrer Arbeit recht objektiv und sehen daher an vielen Stellen Verbesserungspotenzial. Gerade bei der Teamarbeit kann dieser Drang zur Optimierung Konfliktpotenzial bedeuten. Denn höchstwahrscheinlich sind die übrigen Kollegen im Team nicht so intelligent und/oder sehen die Notwendigkeit überhaupt nicht, etwas am Ergebnis zu verbessern.Aber auch dann, wenn die hochintelligente Person allein arbeitet, ist das keine Garantie dafür, dass das Ergebnis optimal sein wird oder bis zur Perfektion optimiert werden kann. Personen, die einen Hang zur Selbstkritik haben, laufen Gefahr, schneller an Depressionen zu erkranken. Sie schaffen es in vielen Fällen einfach nicht, die hohen, selbstgesteckten Ziele zu erreichen.Lesen Sie auch: Wie Sie im Berufsalltag schlau rüberkommen

IQ-Test: Was Intelligenztests können​ Weiterlesen »

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​

Allgemein

Im Employer Branding, Selektionsprozess und im Onboarding kann der Einsatz von Gamification besonders spannend sein. Foto: one photo – shutterstock.comUm sich im War for Talents von der Konkurrenz abzuheben, müssen Unternehmen kreativ werden. Gamification, also die Integration von spielerischen Elementen und -mechaniken in nicht-spielerische Kontexte, kann dabei einen wahren Gamechanger darstellen. Sie kann Aufmerksamkeit generieren, tiefere Erkenntnisse über die Kandidatinnen und Kandidaten liefern und die Motivation der Zielgruppe erhöhen. Dabei macht sie sich die menschliche Neigung, Herausforderungen anzunehmen und Belohnungen zu suchen, zu Nutze.Spielerische Elemente können an unterschiedlichen Punkten des Bewerbungsverfahrens verschiedene Zwecke erfüllen. Besonders spannend kann der Einsatz von Gamification im Employer Branding, im Selektionsprozess und im Onboarding sein.Gamification im Employer BrandingEin erster Firmenrundgang, den potenziellen Arbeitsplatz ansehen und die Arbeitsumgebung kennenlernen – und erst dann entscheiden, ob man sich auf eine Vakanz bewerben möchte oder nicht. Das kann der Einsatz von Virtual Reality – beispielsweise auf der Karriereseite oder in den sozialen Medien – ermöglichen. So kann die Arbeitgebermarke gestärkt werden: Zum einen, weil den potenziellen Bewerbenden schon vorab ein ausgewähltes Bild vom Unternehmen vermittelt werden kann und nicht zuletzt, weil es einen innovativen und kreativen Eindruck vermittelt. Im sogenannten Recruitainment können Online-Spiele zum Beispiel im Quiz-Format dazu eingesetzt werden, die Branche, das eigene Unternehmen und dessen Werte vorzustellen und greifbar zu machen. Die Kandidatinnen und Kandidaten können so vorab einschätzen, was sie in der Firma erwartet, vielleicht auch welche Fähigkeiten und Eigenschaften dafür erforderlich sind und ob sie sich mit der Firmenkultur identifizieren können. Für Unternehmen hat das den positiven Nebeneffekt der Vorselektion: Viele ungeeignete Bewerber werden schon vorab ausgesiebt, was den anschließenden Recruitingprozess schneller und effizienter gestaltet.Aber auch Social-Media-Challenges auf Instagram, TikTok und Co., bei denen die Nutzer selbst aktiv werden müssen, können wertvoll sein. Sie sorgen für eine vergrößerte Reichweite; außerdem kann der Wettbewerbsgedanke das Engagement und die Interaktionen der Zielgruppe mit dem eigenen Unternehmen erhöhen.Gamification im SelektionsprozessAber auch im Selektionsprozess hat sich Gamification als eine innovative und effektive Methode erwiesen. Verschiedene Elemente sollen die Kandidatinnen und Kandidaten herausfordern und ihre Eignung für die ausgeschriebene Position auf die Probe stellen. Gleichzeitig schaffen sie ein ansprechendes und motivierendes Setting. Eine beliebte Herangehensweise stellen beispielsweise Simulationen dar, in denen die Bewerbenden ihr Können in bestimmten Bereichen wie Problemlösung, Entscheidungsfindung oder strategischem Denken beweisen können.Sogenannte “Serious Games” zielen darauf ab, die Fähigkeiten und Kompetenzen der Kandidatinnen und Kandidaten zu bewerten. Diese Spiele können interaktive Elemente wie zum Beispiel Quizze oder Multiple-Choice-Fragen enthalten, die die Bewerbenden auf unterschiedliche Weise herausfordern. In Gruppensituationen bieten sich Rollen- oder Teamwork-Spiele sowie Gemeinschaftsaufgaben an.Gamification im OnboardingGamification kann auch auf kreative Weise in den Onboarding-Prozess integriert werden, um neue Mitarbeitende auf eine ansprechende und unterhaltsame Weise in die Unternehmensstrukturen einzuführen. Hierfür eignen sich Onboarding-Spiele, die eine intuitive Navigation durch das Unternehmen ermöglichen: Mithilfe von interaktiven Elementen wie Quizfragen, Rätseln oder Schatzsuchen können die Neulinge spielerisch in die neue Arbeitsumgebung eintauchen.Gamifiziertes Lernen durch interaktive Videos oder realitätsnahe Simulationen vermitteln den neuen Talenten notwendiges Wissen und Fähigkeiten. Und auch das Engagement der Mitarbeitenden lässt sich durch Gamification steigern: Anreize wie Belohnungen oder Punkte, die die Angestellten für erfolgreich abgeschlossene Aufgaben oder herausragende Leistungen verliehen werden, können dazu beitragen, dass diese sich stärker mit dem Unternehmen identifizieren und mit erhöhter Motivation an ihren Aufgaben arbeiten.Nicht zuletzt können Unternehmen – beispielsweise bei Remote besetzten Stellen – auch auf virtuelle Realität setzen, um das Onboarding noch interaktiver und interessanter zu gestalten. Mit virtuellen Touren durch die Arbeitsumgebungen lernen neue Mitarbeitende von zu Hause aus sowohl das restliche Team als auch die Unternehmenskultur kennen, was zu einem tieferen Verständnis und einer rascheren Integration führt.Gamification muss zur Firmenkultur passenObwohl Gamification im Recruiting zweifellos innovative und kreative Möglichkeiten bietet, gibt es Situationen, in denen es ratsam sein kann, auf diesen Ansatz zu verzichten. Zuerst und vor allem sollten Arbeitgeber sie nicht nur aus Gründen des Trends oder der Unterhaltung einsetzen. Stattdessen müssen die gamifizierten Elemente zur Stellenanforderung passen und einen wirklichen Mehrwert für den Bewerbungsprozess bieten. Auch sollten Unternehmen sicherstellen, dass die gewählten Methoden sowohl mit der Unternehmenskultur als auch mit seinen Werten im Einklang stehen.Nicht alle Bewerbenden sprechen gleichermaßen auf gamifizierte Ansätze an. Einige könnten sich von einer zu starken Betonung auf spielerische Elemente sogar abgeschreckt fühlen, da ihnen die Ernsthaftigkeit des Bewerbungsprozesses fehlt. Deshalb sollten Unternehmen Gamification in Maßen einsetzen. Außerdem ist das Thema Chancengleichheit unbedingt zu beachten. Alle Maßnahmen müssen fair und für alle Bewerbenden gleichermaßen zugänglich sein. Hierbei geht es sowohl um den Zugang zu Technologie als auch um Sprachkenntnisse, denn Firmen dürfen keinen Kandidaten aufgrund dieser Faktoren benachteiligen.Lesen Sie auchKI im RecruitingVideo Recruiting: So sprechen Sie Bewerber visuell anTeam-Branding – die neue Recruiting-Wunderwaffe? 

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​ Im Employer Branding, Selektionsprozess und im Onboarding kann der Einsatz von Gamification besonders spannend sein.
Foto: one photo – shutterstock.comUm sich im War for Talents von der Konkurrenz abzuheben, müssen Unternehmen kreativ werden. Gamification, also die Integration von spielerischen Elementen und -mechaniken in nicht-spielerische Kontexte, kann dabei einen wahren Gamechanger darstellen. Sie kann Aufmerksamkeit generieren, tiefere Erkenntnisse über die Kandidatinnen und Kandidaten liefern und die Motivation der Zielgruppe erhöhen. Dabei macht sie sich die menschliche Neigung, Herausforderungen anzunehmen und Belohnungen zu suchen, zu Nutze.Spielerische Elemente können an unterschiedlichen Punkten des Bewerbungsverfahrens verschiedene Zwecke erfüllen. Besonders spannend kann der Einsatz von Gamification im Employer Branding, im Selektionsprozess und im Onboarding sein.Gamification im Employer BrandingEin erster Firmenrundgang, den potenziellen Arbeitsplatz ansehen und die Arbeitsumgebung kennenlernen – und erst dann entscheiden, ob man sich auf eine Vakanz bewerben möchte oder nicht. Das kann der Einsatz von Virtual Reality – beispielsweise auf der Karriereseite oder in den sozialen Medien – ermöglichen. So kann die Arbeitgebermarke gestärkt werden: Zum einen, weil den potenziellen Bewerbenden schon vorab ein ausgewähltes Bild vom Unternehmen vermittelt werden kann und nicht zuletzt, weil es einen innovativen und kreativen Eindruck vermittelt.

Im sogenannten Recruitainment können Online-Spiele zum Beispiel im Quiz-Format dazu eingesetzt werden, die Branche, das eigene Unternehmen und dessen Werte vorzustellen und greifbar zu machen. Die Kandidatinnen und Kandidaten können so vorab einschätzen, was sie in der Firma erwartet, vielleicht auch welche Fähigkeiten und Eigenschaften dafür erforderlich sind und ob sie sich mit der Firmenkultur identifizieren können. Für Unternehmen hat das den positiven Nebeneffekt der Vorselektion: Viele ungeeignete Bewerber werden schon vorab ausgesiebt, was den anschließenden Recruitingprozess schneller und effizienter gestaltet.Aber auch Social-Media-Challenges auf Instagram, TikTok und Co., bei denen die Nutzer selbst aktiv werden müssen, können wertvoll sein. Sie sorgen für eine vergrößerte Reichweite; außerdem kann der Wettbewerbsgedanke das Engagement und die Interaktionen der Zielgruppe mit dem eigenen Unternehmen erhöhen.Gamification im SelektionsprozessAber auch im Selektionsprozess hat sich Gamification als eine innovative und effektive Methode erwiesen. Verschiedene Elemente sollen die Kandidatinnen und Kandidaten herausfordern und ihre Eignung für die ausgeschriebene Position auf die Probe stellen. Gleichzeitig schaffen sie ein ansprechendes und motivierendes Setting. Eine beliebte Herangehensweise stellen beispielsweise Simulationen dar, in denen die Bewerbenden ihr Können in bestimmten Bereichen wie Problemlösung, Entscheidungsfindung oder strategischem Denken beweisen können.Sogenannte “Serious Games” zielen darauf ab, die Fähigkeiten und Kompetenzen der Kandidatinnen und Kandidaten zu bewerten. Diese Spiele können interaktive Elemente wie zum Beispiel Quizze oder Multiple-Choice-Fragen enthalten, die die Bewerbenden auf unterschiedliche Weise herausfordern. In Gruppensituationen bieten sich Rollen- oder Teamwork-Spiele sowie Gemeinschaftsaufgaben an.Gamification im OnboardingGamification kann auch auf kreative Weise in den Onboarding-Prozess integriert werden, um neue Mitarbeitende auf eine ansprechende und unterhaltsame Weise in die Unternehmensstrukturen einzuführen. Hierfür eignen sich Onboarding-Spiele, die eine intuitive Navigation durch das Unternehmen ermöglichen: Mithilfe von interaktiven Elementen wie Quizfragen, Rätseln oder Schatzsuchen können die Neulinge spielerisch in die neue Arbeitsumgebung eintauchen.Gamifiziertes Lernen durch interaktive Videos oder realitätsnahe Simulationen vermitteln den neuen Talenten notwendiges Wissen und Fähigkeiten. Und auch das Engagement der Mitarbeitenden lässt sich durch Gamification steigern: Anreize wie Belohnungen oder Punkte, die die Angestellten für erfolgreich abgeschlossene Aufgaben oder herausragende Leistungen verliehen werden, können dazu beitragen, dass diese sich stärker mit dem Unternehmen identifizieren und mit erhöhter Motivation an ihren Aufgaben arbeiten.Nicht zuletzt können Unternehmen – beispielsweise bei Remote besetzten Stellen – auch auf virtuelle Realität setzen, um das Onboarding noch interaktiver und interessanter zu gestalten. Mit virtuellen Touren durch die Arbeitsumgebungen lernen neue Mitarbeitende von zu Hause aus sowohl das restliche Team als auch die Unternehmenskultur kennen, was zu einem tieferen Verständnis und einer rascheren Integration führt.Gamification muss zur Firmenkultur passenObwohl Gamification im Recruiting zweifellos innovative und kreative Möglichkeiten bietet, gibt es Situationen, in denen es ratsam sein kann, auf diesen Ansatz zu verzichten. Zuerst und vor allem sollten Arbeitgeber sie nicht nur aus Gründen des Trends oder der Unterhaltung einsetzen. Stattdessen müssen die gamifizierten Elemente zur Stellenanforderung passen und einen wirklichen Mehrwert für den Bewerbungsprozess bieten. Auch sollten Unternehmen sicherstellen, dass die gewählten Methoden sowohl mit der Unternehmenskultur als auch mit seinen Werten im Einklang stehen.Nicht alle Bewerbenden sprechen gleichermaßen auf gamifizierte Ansätze an. Einige könnten sich von einer zu starken Betonung auf spielerische Elemente sogar abgeschreckt fühlen, da ihnen die Ernsthaftigkeit des Bewerbungsprozesses fehlt. Deshalb sollten Unternehmen Gamification in Maßen einsetzen. Außerdem ist das Thema Chancengleichheit unbedingt zu beachten. Alle Maßnahmen müssen fair und für alle Bewerbenden gleichermaßen zugänglich sein. Hierbei geht es sowohl um den Zugang zu Technologie als auch um Sprachkenntnisse, denn Firmen dürfen keinen Kandidaten aufgrund dieser Faktoren benachteiligen.Lesen Sie auchKI im RecruitingVideo Recruiting: So sprechen Sie Bewerber visuell anTeam-Branding – die neue Recruiting-Wunderwaffe?

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​ Weiterlesen »

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​

Allgemein

Michael Crider/Foundry Das Update auf Android 15 ist für viele Nutzer noch gar nicht passiert, und trotzdem gibt es bereits Gründe, sich auf Android 16 zu freuen. Diese Version soll bereits in wenigen Monaten veröffentlicht werden und wird einige Verbesserungen mit sich bringen, die wirklich spannend klingen. Neuen Informationen zufolge wird Google mithilfe von Android 16 die Geschwindigkeit bei der Installation von Apps drastisch erhöhen. Davon profitieren nicht nur neue, leistungsstarke Geräte, wie die hauseigene Google Pixel 9 Reihe oder das Samsung Galaxy S25, sondern auch ältere Smartphones. Denn dank eines Tricks hängt das Tempo nicht mehr von der verbauten Hardware ab. Mehr Tempo durch Cloud Möglich wird das durch die sogenannte Cloud Compilation. Laut Android Authority plant Google, diese neue Funktion in Android 16 einzubauen. Damit beschleunigt sich der Installationsprozess von Apps aus dem Google Play Store bald deutlich. Wie viel schneller das abläuft, hängt wohl vom jeweiligen Gerät und von der installierten App ab. Allerdings ist bereits jetzt absehbar, dass mit dieser Neuerung schwache Prozessoren kein Grund mehr dafür sein werden, dass Nutzer bei der Installation von Anwendungen ewig warten müssen. In der Regel basiert die Wartezeit nämlich auf der Android-Runtime, einer Laufzeitumgebung, die für die Ausführung von Anwendungen erforderlich ist. Bei der Installation von Apps arbeitet zudem ein Tool namens „Dex2oat“, das aus der App-APK und deren kompilierten Dateien eine Anwendung erzeugt, die vom Gerät geladen werden kann. Das kann bei älteren Smartphones aber bisweilen etwas länger dauern, vor allem, wenn die APK sehr viele Codezeilen enthält. Cloud-Compilation stellt eine Alternative hierzu dar, denn damit werden die auszuführenden Dateien nicht mehr direkt auf dem Gerät generiert (was Speicher und Prozessor beansprucht), sondern nur noch aus sogenannten SDM-Dateien bezogen, die direkt aus dem Google-Play-Store geladen werden. SDM ist dabei die Bezeichnung für ein neues Dateiformat, das eben auf Cloud-Kompilierung basiert. Die 10 besten Smartphones im Test (2025) Erst mit Android 16 verfügbar Google wird die Nutzung von Cloud Compilation und SDM-Dateien voraussichtlich erst mit dem Update auf Android 16 einführen. Auch in der Entwickler-Beta von Android 16 wird das Format aktuell noch nicht genutzt. Android 16: Erste Developer Preview ist da – das ist neu Laut Android Authority wird Google zunächst den Google Play Store so umbauen müssen, dass die neue Funktion auch zum Einsatz kommen kann, was ein potenziell sehr langwieriger Prozess ist. Außerdem könnte durch den Wechsel auf Cloud Compilation die Download-Menge bei der Installation von Apps stark erhöht werden, was etwa gegen die Installation von Anwendungen unterwegs über mobile Daten oder bei schwachen Verbindungen sprechen würde. In jedem Fall ist es aber spannend zu sehen, woran Google aktuell arbeitet und wie auch ältere Geräte von Android 16 profitieren könnten. Die neue Version erscheint voraussichtlich im Juni für erste Geräte, also für Google Pixel Smartphones, und später in diesem Jahr für alle anderen. (PC-Welt) 

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​ Michael Crider/Foundry

Das Update auf Android 15 ist für viele Nutzer noch gar nicht passiert, und trotzdem gibt es bereits Gründe, sich auf Android 16 zu freuen. Diese Version soll bereits in wenigen Monaten veröffentlicht werden und wird einige Verbesserungen mit sich bringen, die wirklich spannend klingen.

Neuen Informationen zufolge wird Google mithilfe von Android 16 die Geschwindigkeit bei der Installation von Apps drastisch erhöhen. Davon profitieren nicht nur neue, leistungsstarke Geräte, wie die hauseigene Google Pixel 9 Reihe oder das Samsung Galaxy S25, sondern auch ältere Smartphones. Denn dank eines Tricks hängt das Tempo nicht mehr von der verbauten Hardware ab.

Mehr Tempo durch Cloud

Möglich wird das durch die sogenannte Cloud Compilation. Laut Android Authority plant Google, diese neue Funktion in Android 16 einzubauen. Damit beschleunigt sich der Installationsprozess von Apps aus dem Google Play Store bald deutlich.

Wie viel schneller das abläuft, hängt wohl vom jeweiligen Gerät und von der installierten App ab. Allerdings ist bereits jetzt absehbar, dass mit dieser Neuerung schwache Prozessoren kein Grund mehr dafür sein werden, dass Nutzer bei der Installation von Anwendungen ewig warten müssen.

In der Regel basiert die Wartezeit nämlich auf der Android-Runtime, einer Laufzeitumgebung, die für die Ausführung von Anwendungen erforderlich ist. Bei der Installation von Apps arbeitet zudem ein Tool namens „Dex2oat“, das aus der App-APK und deren kompilierten Dateien eine Anwendung erzeugt, die vom Gerät geladen werden kann. Das kann bei älteren Smartphones aber bisweilen etwas länger dauern, vor allem, wenn die APK sehr viele Codezeilen enthält.

Cloud-Compilation stellt eine Alternative hierzu dar, denn damit werden die auszuführenden Dateien nicht mehr direkt auf dem Gerät generiert (was Speicher und Prozessor beansprucht), sondern nur noch aus sogenannten SDM-Dateien bezogen, die direkt aus dem Google-Play-Store geladen werden. SDM ist dabei die Bezeichnung für ein neues Dateiformat, das eben auf Cloud-Kompilierung basiert.

Die 10 besten Smartphones im Test (2025)

Erst mit Android 16 verfügbar

Google wird die Nutzung von Cloud Compilation und SDM-Dateien voraussichtlich erst mit dem Update auf Android 16 einführen. Auch in der Entwickler-Beta von Android 16 wird das Format aktuell noch nicht genutzt.

Android 16: Erste Developer Preview ist da – das ist neu

Laut Android Authority wird Google zunächst den Google Play Store so umbauen müssen, dass die neue Funktion auch zum Einsatz kommen kann, was ein potenziell sehr langwieriger Prozess ist. Außerdem könnte durch den Wechsel auf Cloud Compilation die Download-Menge bei der Installation von Apps stark erhöht werden, was etwa gegen die Installation von Anwendungen unterwegs über mobile Daten oder bei schwachen Verbindungen sprechen würde.

In jedem Fall ist es aber spannend zu sehen, woran Google aktuell arbeitet und wie auch ältere Geräte von Android 16 profitieren könnten. Die neue Version erscheint voraussichtlich im Juni für erste Geräte, also für Google Pixel Smartphones, und später in diesem Jahr für alle anderen.

(PC-Welt)

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​ Weiterlesen »

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​

Allgemein

Allmy/Shutterstock.com Mit der Whatsapp Business API ist das zeitversetzte Versenden von Nachrichten kein Problem. Für den privaten Gebrauch hat Whatsapp diese praktische Funktion jedoch nicht vorgesehen und daher bisher auch nicht integriert. Wir zeigen, wie Sie trotzdem Whatsapp-Nachrichten erstellen und zeitversetzt verschicken. Für Android, iOS und Whatsapp Web. Android: Whatsapp-Nachrichten zeitversetzt senden mit der AutoResponder-App Die Android-App „AutoResponder für WhatsApp“ dient, wie ihr Name schon sagt, in erster Linie dem automatisierten Antworten auf Nachrichten (im Apple App-Store gibt es diese App nicht). Für die meisten Anwender reichen die Funktionen der kostenlosen Version aus. Bedenken Sie jedoch, dass sich die kostenlose Version über Werbung finanziert. Nach der Installation von AutoResponder kann Whatsapp wahlweise alle Nachrichten oder nur Nachrichten von bestimmten Kontakten automatisch beantworten. Dazu können Sie Regeln definieren und Texte vorgeben. Damit das funktioniert, müssen Sie der App aber die Berechtigungen geben, die Whatsapp-Nachrichten lesen zu dürfen, die Sie erhalten. Auch das Senden von Nachrichten über Whatsapp müssen Sie zunächst erlauben. Wer Datenschutzbedenken hat, sollte sich den Einsatz der App natürlich überlegen. IDG Alternative: SKEDit Scheduling App für Android Eine weitere bekannte Android-App für das zeitversetzte Senden von Whatsapp-Nachrichten ist „SKEDit Scheduling“. Allerdings mit zwei Nachteilen: Erstens erfolgt die Steuerung der App in englischer Sprache. Zweitens ist die App nicht besonders zuverlässig, was das tatsächliche Versenden der Nachricht betrifft. Zudem lassen sich Nachrichten nur zeitversetzt versenden, wenn zum Zeitpunkt des Sendevorgangs der Bildschirm entsperrt ist. Zwar können Sie dieses Problem mit der Option “Ask me before sending” umgehen (auf Deutsch: Frag mich vor dem Senden), doch dann müssen Sie aktiv bestätigen, dass die Nachricht gesendet werden soll. Planen von Whatsapp-Nachrichten mit Shortcuts für iOS Seit iOS 13 ist es möglich, verschiedene Aufgaben in iOS zu automatisieren. Diese Technik können Sie auch zum Versenden von zeitversetzten Whatsapp-Nachrichten nutzen. Dazu benötigen Sie die kostenlose Apple-App „Kurzbefehle“ aus dem App-Store auf Ihrem iPhone. Im Detail funktioniert das Ganze wie folgt: Navigieren Sie auf Ihrem iPhone zur Kurzbefehle-App und wählen Sie unten in der Mitte den “Automatisierung”-Tab. Tippen Sie auf “Persönliche Automatisierung erstellen” und im nächsten Schritt auf “Tageszeit”. Bestimmen Sie die Uhrzeit und das Datum für den Versand Ihrer Whatsapp-Nachrichten und drücken Sie auf “Weiter” in der Ecke oben rechts. Wählen Sie “Aktion hinzufügen”, gehen Sie dann zu “Apps” und suchen Sie sich Whatsapp heraus. Aus den angebotenen Optionen nehmen Sie “Nachricht senden”. Um Ihre Whatsapp-Nachrichten zu einer festgelegten Zeit zu senden, erfassen Sie die gewünschte Nachricht und wählen Sie den Empfänger aus. Nachdem Sie alles eingestellt haben, tippen Sie auf “Weiter” und abschließend auf “Fertig”, um Ihre Automatisierung zu sichern. Hinweis: Im Apple Store gibt es mittlerweile ein paar Apps, die die Möglichkeit versprechen, Whatsapp-Nachrichten zu timen und zu planen. Ein Blick auf die Bewertungen zeigt aber meistens, dass diese Apps nicht zuverlässig funktionieren. Daher würden wir weiterhin den Workaround empfehlen. Unsere Empfehlung: Nachrichten zeitversetzt senden in Whatsapp Web IDG Die einfachste und am leichtesten zu bedienende Lösung für zeitversetzte Whatsapp-Nachrichten ist die “Blueticks”-Erweiterung für Google Chrome, vorausgesetzt Sie nutzen Whatsapp auch im Browser. Die folgende Schritt-für-Schritt-Anleitung zeigt Ihnen, wie Sie vorgehen müssen: Besuchen Sie den Chrome Web Store in Ihrem Google Chrome Browser und rufen Sie die “Blueticks”-Erweiterung auf. Wählen Sie “Zu Chrome hinzufügen”. Nachdem “Blueticks” installiert wurde, gehen Sie zu Whatsapp Web in Ihrem Google Chrome Browser. Sollten Sie noch nicht eingeloggt sein, verwenden Sie die Whatsapp-App auf Ihrem Smartphone, um den QR-Code, der auf Ihrem Bildschirm angezeigt wird, zu scannen und sich somit bei Ihrem WhatsApp-Konto auf dem Computer einzuloggen. Einmal eingeloggt, suchen Sie sich den Kontakt (oder die Gruppe) heraus, an den Sie die geplante Nachricht senden wollen. Um zum “Whatsapp Nachrichtenplaner” zu gelangen, klicken Sie auf das Uhr-ähnliche Symbol, das sich neben der Mikrofon-Schaltfläche befindet. Tragen Sie Ihre Nachricht ein und wählen Sie das gewünschte Datum und die Uhrzeit für den Versand aus. Durch einen Klick auf “Schedule Send” wird Ihre Nachricht zur geplanten Zeit versendet. Hinweis: Bis zum Versandzeitpunkt erscheint die geplante Nachricht in blauer Farbe. Sie können jederzeit vor dem Versand die Nachricht oder den Zeitpunkt mit dem Stiftsymbol anpassen. (PC-Welt) 

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​ Allmy/Shutterstock.com

Mit der Whatsapp Business API ist das zeitversetzte Versenden von Nachrichten kein Problem. Für den privaten Gebrauch hat Whatsapp diese praktische Funktion jedoch nicht vorgesehen und daher bisher auch nicht integriert. Wir zeigen, wie Sie trotzdem Whatsapp-Nachrichten erstellen und zeitversetzt verschicken. Für Android, iOS und Whatsapp Web.

Android: Whatsapp-Nachrichten zeitversetzt senden mit der AutoResponder-App

Die Android-App „AutoResponder für WhatsApp“ dient, wie ihr Name schon sagt, in erster Linie dem automatisierten Antworten auf Nachrichten (im Apple App-Store gibt es diese App nicht). Für die meisten Anwender reichen die Funktionen der kostenlosen Version aus. Bedenken Sie jedoch, dass sich die kostenlose Version über Werbung finanziert.

Nach der Installation von AutoResponder kann Whatsapp wahlweise alle Nachrichten oder nur Nachrichten von bestimmten Kontakten automatisch beantworten. Dazu können Sie Regeln definieren und Texte vorgeben.

Damit das funktioniert, müssen Sie der App aber die Berechtigungen geben, die Whatsapp-Nachrichten lesen zu dürfen, die Sie erhalten. Auch das Senden von Nachrichten über Whatsapp müssen Sie zunächst erlauben. Wer Datenschutzbedenken hat, sollte sich den Einsatz der App natürlich überlegen.

IDG

Alternative: SKEDit Scheduling App für Android

Eine weitere bekannte Android-App für das zeitversetzte Senden von Whatsapp-Nachrichten ist „SKEDit Scheduling“. Allerdings mit zwei Nachteilen: Erstens erfolgt die Steuerung der App in englischer Sprache. Zweitens ist die App nicht besonders zuverlässig, was das tatsächliche Versenden der Nachricht betrifft.

Zudem lassen sich Nachrichten nur zeitversetzt versenden, wenn zum Zeitpunkt des Sendevorgangs der Bildschirm entsperrt ist. Zwar können Sie dieses Problem mit der Option “Ask me before sending” umgehen (auf Deutsch: Frag mich vor dem Senden), doch dann müssen Sie aktiv bestätigen, dass die Nachricht gesendet werden soll.

Planen von Whatsapp-Nachrichten mit Shortcuts für iOS

Seit iOS 13 ist es möglich, verschiedene Aufgaben in iOS zu automatisieren. Diese Technik können Sie auch zum Versenden von zeitversetzten Whatsapp-Nachrichten nutzen. Dazu benötigen Sie die kostenlose Apple-App „Kurzbefehle“ aus dem App-Store auf Ihrem iPhone. Im Detail funktioniert das Ganze wie folgt:

Navigieren Sie auf Ihrem iPhone zur Kurzbefehle-App und wählen Sie unten in der Mitte den “Automatisierung”-Tab.

Tippen Sie auf “Persönliche Automatisierung erstellen” und im nächsten Schritt auf “Tageszeit”.

Bestimmen Sie die Uhrzeit und das Datum für den Versand Ihrer Whatsapp-Nachrichten und drücken Sie auf “Weiter” in der Ecke oben rechts.

Wählen Sie “Aktion hinzufügen”, gehen Sie dann zu “Apps” und suchen Sie sich Whatsapp heraus. Aus den angebotenen Optionen nehmen Sie “Nachricht senden”.

Um Ihre Whatsapp-Nachrichten zu einer festgelegten Zeit zu senden, erfassen Sie die gewünschte Nachricht und wählen Sie den Empfänger aus. Nachdem Sie alles eingestellt haben, tippen Sie auf “Weiter” und abschließend auf “Fertig”, um Ihre Automatisierung zu sichern.

Hinweis: Im Apple Store gibt es mittlerweile ein paar Apps, die die Möglichkeit versprechen, Whatsapp-Nachrichten zu timen und zu planen. Ein Blick auf die Bewertungen zeigt aber meistens, dass diese Apps nicht zuverlässig funktionieren. Daher würden wir weiterhin den Workaround empfehlen.

Unsere Empfehlung: Nachrichten zeitversetzt senden in Whatsapp Web

IDG

Die einfachste und am leichtesten zu bedienende Lösung für zeitversetzte Whatsapp-Nachrichten ist die “Blueticks”-Erweiterung für Google Chrome, vorausgesetzt Sie nutzen Whatsapp auch im Browser. Die folgende Schritt-für-Schritt-Anleitung zeigt Ihnen, wie Sie vorgehen müssen:

Besuchen Sie den Chrome Web Store in Ihrem Google Chrome Browser und rufen Sie die “Blueticks”-Erweiterung auf.

Wählen Sie “Zu Chrome hinzufügen”.

Nachdem “Blueticks” installiert wurde, gehen Sie zu Whatsapp Web in Ihrem Google Chrome Browser.

Sollten Sie noch nicht eingeloggt sein, verwenden Sie die Whatsapp-App auf Ihrem Smartphone, um den QR-Code, der auf Ihrem Bildschirm angezeigt wird, zu scannen und sich somit bei Ihrem WhatsApp-Konto auf dem Computer einzuloggen.

Einmal eingeloggt, suchen Sie sich den Kontakt (oder die Gruppe) heraus, an den Sie die geplante Nachricht senden wollen.

Um zum “Whatsapp Nachrichtenplaner” zu gelangen, klicken Sie auf das Uhr-ähnliche Symbol, das sich neben der Mikrofon-Schaltfläche befindet.

Tragen Sie Ihre Nachricht ein und wählen Sie das gewünschte Datum und die Uhrzeit für den Versand aus.

Durch einen Klick auf “Schedule Send” wird Ihre Nachricht zur geplanten Zeit versendet.

Hinweis: Bis zum Versandzeitpunkt erscheint die geplante Nachricht in blauer Farbe. Sie können jederzeit vor dem Versand die Nachricht oder den Zeitpunkt mit dem Stiftsymbol anpassen.

(PC-Welt)

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​ Weiterlesen »

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​

Allgemein

Spielen ohne teure Hardware? Das versprechen zumindest die Anbieter von Cloud-Gaming-Plattformen. Foto: Anton27 – shutterstock.com Sie möchten die aktuellsten Spieletitel zocken, haben aber keinen High-End-Computer? Oder Sie wollen unterwegs mal ein Game auf dem Notebook spielen? Dann könnte das Abonnement eines Cloud-Gaming-Dienstes für Sie interessant sein. Mit Cloud-Gaming können Sie auch mit einer bescheidenen Computerausstattung die neuesten Spiele spielen. Was Sie neben einem Abo noch benötigen, haben wir in unserem Beitrag “Das brauchen Sie zum Spiele streamen” beschrieben. Doch welche Cloud-Gaming-Plattform eignet sich nun am besten für das Spielvergnügen. Gemeinsam mit den Kollegen unserer Schwesterpublikation PCWorld haben wir die Abo-Dienste von Nvidia, Microsoft, Sony und Amazon genauer unter die Lupe genommen. Update März 2025 Geforce Now mit Tagespässen Nachdem Nvidia im Dezember 2023 mit Kapazitätsengpässen zu kämpfen hatte, ist jetzt auch wieder eine Neuanmeldung für einen Gratis-Account möglich. Neu im Angebot sind auch zwei Tagespässe für Nutzer, die sich nicht längerfristig binden wollen. Mit dem “Performance Day” für 4,39 Euro kann der User 24 Stunden lang die Features eines Performance-Accounts nutzen. Analog zur Ultimate-Mitgliedschaft ist ein “Ultimate Day” für 8,79 Euro erhältlich. Er erlaubt den Zugriff auf RTX-480-Server. Microsoft Game Pass teurer Microsofts Xbox Game Pass Ultimate kostet mittlerweile 17,99 Euro pro Monat. Offiziell ist die Cloud-Gaming-Plattform noch immer im Beta-Stadium. Frühjahrsangebote Mit Frühlingsangeboten, die bis zu 90 Prozent Rabatt beinhalten, lockt derzeit Amazon Luna. Das Angebot gilt für ausgewählte Spiele von GOG und Ubisoft und ist zeitlich begrenzt. Zum Spielen ist ein Abonnement erforderlich, das separat erhältlich ist. Update Dezember 2023 Geforce – ein Opfer des eigenen Erfolgs? Wie unten zu lesen, ist Geforce Now in unseren Augen der beste Cloud-Gaming-Dienst. Dieser Meinung scheinen auch zahlreiche Gamer zu sein, denn Nvidia hat nach eigenen Angaben für einige Abo-Mitgliedschaften einen Aufnahmestopp verhängt. Stand Dezember 2023 ist eine Neuanmeldung für einen Gratis-Account derzeit nicht möglich. Bestehende Accounts sind davon laut Nvidia nicht betroffen. Ebenso ist derzeit das Buchen einer einmonatigen Priority- oder Ultimate-Mitgliedschaft nicht möglich. Hier erhält der Spieler in spe die Meldung “Ausverkauft. Wir fügen mehr Kapazität hinzu”. Priority- und Ultimate-Abos mit sechs Monaten Laufzeit können dagegen gebucht werden. Geforce Now – Bester Cloud-Gaming-Dienst Spieleauswahl bei Geforce Now. Foto: Screenshot Nvidia Wenn es um das beste Gesamterlebnis geht, dann ist GeForce Now von Nvidia unsere klare Empfehlung. Der Cloud-Dienst kann mit starker Rechenpower und Grafikleistung punkten. Zudem finden sich mehr als 1.500 unterstützte Spiele auf der Plattform. Gespielt werden kann im Browser oder per App. Ferner werden ausgewählte Smart TVs und Streaming-Devices unterstützt. RTX-4080-Power aus der Cloud Je nach gewählten Abo-Modell können die Games aus der Cloud mit einer Auflösung bis zu 4k bei bis zu 240 Frames per Second gespielt werden. Um diese Grafikleistung zu realisieren, verwendet Nvidia bislang in den Servern Grafikarten vom Typ Geforce RTX 4080. Mittlerweile hat der Konzern zahlreiche Rechner auf das leistungsfähigere Modell RTX 4080 aufgerüstet. Warteschlangen beim Gratis-Account Mit Grati-Account müssen Spieler bei Geforce Now mit langen Warteschlangen rechnen. Foto: Screenshot Nvidia In Europa betreibt Nvidia nach eigenen Angaben sechs Cloud-Gaming-Rechenzentren, so dass Latenzzeiten kein Thema sein sollten. Ein Wermutstropfen sind dagegen – zumindest beim kostenlosen Account “Gratis” – Warteschlangen. Waren wir im Rahmen der Gratis-Mitgliedschaft eingeloggt, befanden wir uns oft auf Position 100 der Warteliste oder schlechter. In der Praxis bedeutet dies dann Wartezeiten von rund zehn Minuten, bevor gespielt werden kann. Zu den Wartzeiten kommt beim Gratis-Account noch eine weitere Einschränkung hinzu: Eine Spiele-Session ist zeitlich auf eine Stunde begrenzt. Letztlich dürfte dieses Angebot höchstens Gelegenheitsspieler zufriedenstellen. Oder Sie nutzen es, um grundsätzlich zu testen, ob Gaming aus der Cloud für Sie in Farge kommt. Schnellere Zugriffszeiten ohne lange Warteschlange verspricht Nvidia im Rahmen einer “Performance“-Mitgliedschaft für 10,99 Euro im Monat. Zudem kann hier eine Session bis zu sechs Stunden dauern. Ferner wird eine Auflösung von bis zu 1440p offeriert, bei bis zu 60 Frames per second. Die Preise für Geforce Now. Foto: Geforce Now Maximale Leistung erhalten Bezieher des Ultimate-Abonnement für 21,99 Euro im Monat. Als Gegenwert verspricht Nvidia einen exklusiven Zugriff auf schnelle Server mit RTX-4080-Grafikarten. Diese Grafikpower ermöglicht Auflösungen von bis zu 4k mit 240 FPS. Spiele-Sessions dürfen bis zu acht Stunden dauern. Nvidia ist nur der Hoster Egal für welche Art der Mitgliedschaft Sie sich entscheiden, eine Besonderheit muss dem Spieler bei Geforce Now bewusst sein: Nividia tritt wirklich nur als reiner Plattform-Hoster auf und vermarktet keine Spiele selbst. Diese müssen in Games-Stores wie Steam, Ubisoft oder Epic Games Store gekauft werden, wozu wiederum ein eigener Account erforderlich. Die eigene Spiele-Bibliothek in diesen Shops kann wiederum direkt mit Geforce Now verknüpft werden. Die Verknüpfung hat zudem einen weiteren Vorteil. Bereits früher für den PC gekauft Spiele können ebenfalls mit Geforce Now genutzt werden, wenn Nvidia das Hosting unterstützt. Auf der anderen Seite können so auch Spiele, die eigentlich für das Cloud-Gaming gekauft wurden, nach Beendigung des Abos auch auf den PC heruntergeladen werden. Grafikqualität sticht Geforce Now wartet unter den Cloud-Gaming-Plattformen mit der besten Grafikqualität auf. Foto: Screenshot Nvidia Auch wenn viele der Spiele, die Sie mit diesem Dienst spielen können, erst gekauft werden müssen, bietet Geforce Now eine der besten Grafikqualitäten. Zudem ist die Kompatibilitätsliste für Spiele sehr umfangreich. Die Option der kostenlosen Mitgliedschaft erlaubt erst einmal ohne Verpflichtungen hineinzuschnuppern, um zumindest einige kostenlose Spiele wie Destiny 2 oder Fortnite auszuprobieren. Xbox Cloud Gaming – bestes Preis-Leistungs-Verhältnis Xbox Cloud Gaming. Foto: Screenshot Microsoft Darüber, welche der großen Spielemarken die beste Hardware herstellt, kann man sich sicherlich trefflich streiten. Allerdings interessiert die meisten Nutzer eher, welche Spiele sie wo und wann spielen können. Hier öffnet Xbox Cloud Gaming – derzeit offiziell noch im Beta-Stadium – die Türe zu über 350 Titeln aus der Cloud. Das Angebot reicht von Skyrim über Deep Rock Galactic und Boyfriend Dungeon bis hin zu Battlefield V. Es umfasst zudem Klassiker wie Age of Empires oder den Microsoft Flugsimulator. Große Auswahl Sieht man einmal von der Möglichkeit ab, Fortnite kostenlos spielen zu können, ist der Xbox Game Pass Ultimate die Eintrittskarte in die Welt des Cloud-Gaming. Für ihn verlangt Microsoft 17,99 Euro im Monat. Er ermöglicht den Zugriff auf die gesamte Xbox-Game-Pass-Spielesammlung, die sowohl beeindruckend ist als auch ständig erweitert wird. Controller erforderlich Die Eintrittskarte zum Cloud Gaming ist bei Microsoft der Xbox Game Pass Ultimate. Foto: Screenshot Microsoft Neben dem Game Pass benötigt der Spieler in spe noch einen Xbox-kompatiblen Spielecontroller. Die Cloud-Spiele sind nämlich in der Regel alle für die Nutzung mit Controller ausgelegt. Mit Tastatur oder Maus geht hier derzeit nichts. Das Spielen selbst kann via Browser oder App erfolgen. Unterstützt werden neben der Windows-, Apple- und Android-Welt auch ausgewählte Smart TVs. Noch unrunde Grafik Sieht man von diesem Manko ab, war die user experience insgesamt positiv. Die Spiele liefen ohne Ruckler oder sonstige Performance-Auffälligkeiten. Lediglich die Grafikqualität gibt Anlass zur Kritik. In der Regel setzen die Xbox-Cloud-Spiele einen Controller voraus. Foto: Screenshot Microsoft Zum einen störten teilweise Kompressionsartefakte, zum anderen reißt einen die Auflösung im Vergleich zur Geforce-Now-Plattform nicht vom Hocker. Zwar werden die Spiele laut Microsoft mit einer Auflösung von 1080p und 60 FPS gestreamt, doch wir hatten häufig den Eindruck eher vor einem 720p-Bild zu sitzen. Hier rächt sich eventuelle die zu starke Videokompression bei der Übertragung. Unter dem Strich läuft die Cloud-Plattform für eine Beta-Version sehr stabil. Wer also auf 4k-Auflösung verzichten kann und keine Spiele selbst kaufen will, findet mit Xbox Cloud Gaming eine interessante Alternative zu Geforce Now. Eine Kröte gibt es aber noch zu schlucken: Die Spielbibliothek ändert sich ständig. Das garantiert zwar Abwechslung, aber lieb gewonnene Spiele können von heute auf morgen aus dem Angebot verschwinden. Amazon Luna – Spielen in der Nische Amazon Luna. Foto: Screenshot Amazon Amazon Luna ist die hierzulande eher unbekannte Cloud-Spiele-Plattform des Versandhändlers. Während Amazon auf seinem Marketplace für andere eigene Produkte wie echo-Devices, Fire-TV, Kindle-Reader oder seine Fire-Tablets kräftig die Werbetrommel rührt, fristet die Gaming-Plattform Luna ihr Dasein eher im Verborgenen. Wer direkt in die Plattform einsteigen will, kann dies mit der URL https://luna.amazon.de tun. Alternativ lässt sich Cloud-Plattform auch über den deutschen Marketplace mit der Suchoption “Alle Kategorien” mit dem Suchbegriff “Luna” finden. Broswer und App Spielen im Browser bei Amazon Luna. Foto: Screenshot Amazon Gespielt werden kann im Browser auf Windows-PCs, Macs, Chromebooks und Android-Smartphones, sowie mit dem Safari-Browser auf iPhones und iPads. Für PCs und Macs gibt es zudem ein Luna-App zum Herunterladen. Mit Hilfe der App Amazon Luna lässt sich auf der Cloud-Gaming-Plattform auch auf Fire-TV-Devices sowie Fire-Tablets spielen. Offiziell gibt Amazon zwar an, dass sich Luna auch mit Tastatur und Maus spielen lässt. Unsere Erfahrungen zeigten jedoch, dass dies nur bei wenigen Spielen der Fall ist und ansonsten eine Spiele-Controller erforderlich ist. Virtuelle Controller Wer keinen Controller hat, kann bei Amazon Luna das Smartphone als virtuellen Controller nutzen. Foto: Screenshot Amazon Wer jetzt nicht gleich zig Euro in einen entsprechenden Controller (eine Liste kompatibler Controller ist hier zu finden) investieren will, kann sich auch mit einem virtuellen Controller behelfen. Ein App macht dabei aus dem Mobiltelefon einen Luna-Smartphone-Controller. Die entsprechende App ist in Google Play (Luna-Controller) und im Apple App Store zu finden. Bei unseren Versuchen ließ sich ein Android Smartphone so problemlos als Controller nutzen. Allerdings kommt trotz haptischen Feedbacks mit dem virtuellen Controller nicht das gleiche Spiel-Feeling auf wie mit einem richtigen Controller. Doch für erste Gehversuche auf der Luna-Plattform genügt dies allemal. Spielauswahl Die Plattform selbst bietet eine Auswahl an Retro- und familienfreundlichen Spielen. Wer also in Nostalgie eintauchen will oder mit der Familie spielen möchte, wird hier fündig. Wer dagegen eher aktuelle Spiele sucht, dürfte von Luna eher enttäuscht sein. Ohne weitere Abos abzuschließen, können Amazon-Prime-Mitglieder zwischen fünf Spielen auswählen. Dabei wechselt Amazon nach eigenen Angaben das Angebot regelmäßig. Darüber hinaus offeriert Amazon in Deutschland noch die Spielekanäle Luna+, Jackbox Games sowie Ubisoft+. Die einzelnen Channel Die Preise für die Spiele-Channel bei Amazon Luna. Foto: Screenshot Amazon Für Luna+ berechnet Amazon im Monat 9,99 Euro. Dafür erhält der Abonnent Zugriff auf eine Sammlung an Spielen aus Genres wie Actionspiele, Adventures, Indie-Spiele, Shooter, Rennspiele, und Spieleklassiker. Zum Zeitpunkt der Recherche umfasste der Kanal etwas über 100 Spiele. Jackbox Games umfasst für monatlich 4,99 Euro elf Boxen mit Partyspielen. Jede Box erhält dabei mehrere einfache Spiele. Dies können sowohl lokal vor Ort als auch online gespielt werden. Allerdings ist ein Großteil der Spiele in Englisch. Deutlich teurer ist dagegen der Ubisoft+-Kanal. Es kostet 17,99 Euro im Monat. Dafür erhält der Spieler den Zugriff auf knapp über 40 Ubisoft-Spiele. Darunter sind Titel wie Far Cry, Assassin’s Creed, Uno, Die Siedler, Watchdogs, Trackmania oder Monopoly. Andere Konten einbinden Wie andere Cloud-Gaming-Plattformen bietet auch Luna die Möglichkeit, andere Konten einzubinden, um bereits vorhandene Spiele via Cloud zu zocken. Unterstützt werden die Angebote von EPIC Games und Ubisoft. Darüber hinaus besteht die Option, ein Twitch- oder Discord-Konto mit Luna zu verknüpfen. User expierence In Sachen user expierence muss sich Amazon Luna vor Geforce Now und Xbox Cloud Gaming nicht verstecken, auch wenn die Plattform in Sachen Grafikleistung gerade mit Geforce Now nicht mithalten kann. An der Bedienung selbst gibt es nichts zu kritisieren – sie ist weitestgehend intuitiv und störende Ruckler oder Aussetzer konnten wir auch nicht feststellen. Das größte Manko der Luna-Gaming-Plattform ist in unseren Augen schlicht die Spieleauswahl. Die wäre uns keinen Cent wert. Aber zum Glück sind ja Geschmäcker verschieden. Playstation Plus – Aufsteiger mit Macken Startbildschirm der App PlayStation Plus. Foto: Screenshot PlayStation Plus Premium-Preise erwarten den Gamer bei unserem vierten Cloud-Gaming-Anbieter. Selbst wer nur mal kurz schnuppern will kommt bei Sony um einen Monatsbeitrag von 16,99 Euro für das Premium-Abo nicht herum. Damit ist der Einstieg in das Cloud Gaming bei Sony am teuersten. PlayStation Plus für den PC ist Sonys Nachfolger des inzwischen eingestellten PlayStation-Now-Dienstes. Zwar offeriert auch Sony mit Essential, Extra und Premium drei verschiedene Abo-Varianten, doch das Zocken in der Cloud ist nur mit der teuren Premium-Variante möglich. App erforderlich PlayStation Plus wartet mit einem breiten Fundus an Spielen auf. Foto: Screenshot PlayStation Plus Negativ fällt zudem auf, dass PC-Spieler extra die PlayStation-Plus-App benötigen. Spielen im Browser, wie bei den anderen Plattformen, ist nicht möglich. Hier merkt man, dass sich das Sony-Angebot primär an die Besitzer einer Playstation-Konsole richtet. Im Gegenzug erhalten die Premium- und Extra-Mitglieder Zugriff auf eine große Bibliothek an PS4- und PS5-Spielen. Zudem beinhaltet das Abo eine kuratierte Auswahl an Ubisoft+-Classics-Spielen beinhaltet. Gefühlte Beta-Version All dies kann aber nicht darüber hinwegtäuschen, dass in den Augen unsere PCWorld-Kollegen das Benutzererlebnis und die App-Benutzeroberfläche komplett überarbeitet werden müssen. Im Gegensatz zu Xbox Cloud Gaming benötige PlayStation Plus auf dem PC noch viel Feinschliff, wenn es darum geht, einen soliden PC-Dienst und eine solide Anwendung, von der Benutzeroberfläche bis zur Verbindungsstabilität anzubieten. So habe man leider immer wieder das Gefühl, dass sich der Service in der Beta-Phase befinde. Ohne stabiles, performantes Internet macht das Cloud Gaming wenig Spaß. Foto: Screenshot Nvidia Sollte es Sony gelingen, diese Probleme zu überwinden, dann hätte der Cloud-Dienst viel zu bieten. PlayStation-Besitzer, die bereits Premium-Mitglieder sind, sollten dagegen die PC-App auf jeden Fall ausprobieren. Fazit Unter dem Strich haben uns von den vier Cloud-Gaming-Plattformen zum Streamen Nvidia Geforce Now sowie Xbox Cloud Gaming am meisten zugesagt. An Geforce Now gefiel uns die möglich Grafik-Performance, die aus der Cloud geliefert wird, sowie die Möglichkeit zahlreiche bereits gekaufte Spiele auch unterwegs via Cloud nutzen zu können. Xbox Cloud konnte dagegen durch seine umfassende Spieleauswahl aus der Xbox-Game-Pass-Collection punkten. Dafür wären wir auch bereit, die teilweise störenden Kompressionsartefakte zu akzeptieren. In Sachen Usability gibt es auch an Amazon Luna nichts zu kritisieren, doch wir konnten uns mit dem Spieleangebot schlicht nicht anfreunden. PlayStation Plus ist für PC-Gamer schlicht ein No Go. Für Besitzer einer entsprechenden Konsole, die nur ab und an auf den PC zum Game Streaming wechseln, mag das wiederum ganz anders aussehen. 

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​ Spielen ohne teure Hardware? Das versprechen zumindest die Anbieter von Cloud-Gaming-Plattformen.
Foto: Anton27 – shutterstock.com

Sie möchten die aktuellsten Spieletitel zocken, haben aber keinen High-End-Computer? Oder Sie wollen unterwegs mal ein Game auf dem Notebook spielen? Dann könnte das Abonnement eines Cloud-Gaming-Dienstes für Sie interessant sein.

Mit Cloud-Gaming können Sie auch mit einer bescheidenen Computerausstattung die neuesten Spiele spielen. Was Sie neben einem Abo noch benötigen, haben wir in unserem Beitrag “Das brauchen Sie zum Spiele streamen” beschrieben.

Doch welche Cloud-Gaming-Plattform eignet sich nun am besten für das Spielvergnügen. Gemeinsam mit den Kollegen unserer Schwesterpublikation PCWorld haben wir die Abo-Dienste von Nvidia, Microsoft, Sony und Amazon genauer unter die Lupe genommen.

Update März 2025

Geforce Now mit Tagespässen

Nachdem Nvidia im Dezember 2023 mit Kapazitätsengpässen zu kämpfen hatte, ist jetzt auch wieder eine Neuanmeldung für einen Gratis-Account möglich. Neu im Angebot sind auch zwei Tagespässe für Nutzer, die sich nicht längerfristig binden wollen. Mit dem “Performance Day” für 4,39 Euro kann der User 24 Stunden lang die Features eines Performance-Accounts nutzen. Analog zur Ultimate-Mitgliedschaft ist ein “Ultimate Day” für 8,79 Euro erhältlich. Er erlaubt den Zugriff auf RTX-480-Server.

Microsoft Game Pass teurer

Microsofts Xbox Game Pass Ultimate kostet mittlerweile 17,99 Euro pro Monat. Offiziell ist die Cloud-Gaming-Plattform noch immer im Beta-Stadium.

Frühjahrsangebote

Mit Frühlingsangeboten, die bis zu 90 Prozent Rabatt beinhalten, lockt derzeit Amazon Luna. Das Angebot gilt für ausgewählte Spiele von GOG und Ubisoft und ist zeitlich begrenzt. Zum Spielen ist ein Abonnement erforderlich, das separat erhältlich ist.

Update Dezember 2023

Geforce – ein Opfer des eigenen Erfolgs?

Wie unten zu lesen, ist Geforce Now in unseren Augen der beste Cloud-Gaming-Dienst. Dieser Meinung scheinen auch zahlreiche Gamer zu sein, denn Nvidia hat nach eigenen Angaben für einige Abo-Mitgliedschaften einen Aufnahmestopp verhängt. Stand Dezember 2023 ist eine Neuanmeldung für einen Gratis-Account derzeit nicht möglich. Bestehende Accounts sind davon laut Nvidia nicht betroffen.

Ebenso ist derzeit das Buchen einer einmonatigen Priority- oder Ultimate-Mitgliedschaft nicht möglich. Hier erhält der Spieler in spe die Meldung “Ausverkauft. Wir fügen mehr Kapazität hinzu”. Priority- und Ultimate-Abos mit sechs Monaten Laufzeit können dagegen gebucht werden.

Geforce Now – Bester Cloud-Gaming-Dienst

Spieleauswahl bei Geforce Now.
Foto: Screenshot Nvidia

Wenn es um das beste Gesamterlebnis geht, dann ist GeForce Now von Nvidia unsere klare Empfehlung. Der Cloud-Dienst kann mit starker Rechenpower und Grafikleistung punkten. Zudem finden sich mehr als 1.500 unterstützte Spiele auf der Plattform. Gespielt werden kann im Browser oder per App. Ferner werden ausgewählte Smart TVs und Streaming-Devices unterstützt.

RTX-4080-Power aus der Cloud

Je nach gewählten Abo-Modell können die Games aus der Cloud mit einer Auflösung bis zu 4k bei bis zu 240 Frames per Second gespielt werden. Um diese Grafikleistung zu realisieren, verwendet Nvidia bislang in den Servern Grafikarten vom Typ Geforce RTX 4080. Mittlerweile hat der Konzern zahlreiche Rechner auf das leistungsfähigere Modell RTX 4080 aufgerüstet.

Warteschlangen beim Gratis-Account

Mit Grati-Account müssen Spieler bei Geforce Now mit langen Warteschlangen rechnen.
Foto: Screenshot Nvidia

In Europa betreibt Nvidia nach eigenen Angaben sechs Cloud-Gaming-Rechenzentren, so dass Latenzzeiten kein Thema sein sollten. Ein Wermutstropfen sind dagegen – zumindest beim kostenlosen Account “Gratis” – Warteschlangen. Waren wir im Rahmen der Gratis-Mitgliedschaft eingeloggt, befanden wir uns oft auf Position 100 der Warteliste oder schlechter. In der Praxis bedeutet dies dann Wartezeiten von rund zehn Minuten, bevor gespielt werden kann.

Zu den Wartzeiten kommt beim Gratis-Account noch eine weitere Einschränkung hinzu: Eine Spiele-Session ist zeitlich auf eine Stunde begrenzt. Letztlich dürfte dieses Angebot höchstens Gelegenheitsspieler zufriedenstellen. Oder Sie nutzen es, um grundsätzlich zu testen, ob Gaming aus der Cloud für Sie in Farge kommt.

Schnellere Zugriffszeiten ohne lange Warteschlange verspricht Nvidia im Rahmen einer “Performance“-Mitgliedschaft für 10,99 Euro im Monat. Zudem kann hier eine Session bis zu sechs Stunden dauern. Ferner wird eine Auflösung von bis zu 1440p offeriert, bei bis zu 60 Frames per second.

Die Preise für Geforce Now.
Foto: Geforce Now

Maximale Leistung erhalten Bezieher des Ultimate-Abonnement für 21,99 Euro im Monat. Als Gegenwert verspricht Nvidia einen exklusiven Zugriff auf schnelle Server mit RTX-4080-Grafikarten. Diese Grafikpower ermöglicht Auflösungen von bis zu 4k mit 240 FPS. Spiele-Sessions dürfen bis zu acht Stunden dauern.

Nvidia ist nur der Hoster

Egal für welche Art der Mitgliedschaft Sie sich entscheiden, eine Besonderheit muss dem Spieler bei Geforce Now bewusst sein: Nividia tritt wirklich nur als reiner Plattform-Hoster auf und vermarktet keine Spiele selbst. Diese müssen in Games-Stores wie Steam, Ubisoft oder Epic Games Store gekauft werden, wozu wiederum ein eigener Account erforderlich. Die eigene Spiele-Bibliothek in diesen Shops kann wiederum direkt mit Geforce Now verknüpft werden.

Die Verknüpfung hat zudem einen weiteren Vorteil. Bereits früher für den PC gekauft Spiele können ebenfalls mit Geforce Now genutzt werden, wenn Nvidia das Hosting unterstützt. Auf der anderen Seite können so auch Spiele, die eigentlich für das Cloud-Gaming gekauft wurden, nach Beendigung des Abos auch auf den PC heruntergeladen werden.

Grafikqualität sticht

Geforce Now wartet unter den Cloud-Gaming-Plattformen mit der besten Grafikqualität auf.
Foto: Screenshot Nvidia

Auch wenn viele der Spiele, die Sie mit diesem Dienst spielen können, erst gekauft werden müssen, bietet Geforce Now eine der besten Grafikqualitäten. Zudem ist die Kompatibilitätsliste für Spiele sehr umfangreich. Die Option der kostenlosen Mitgliedschaft erlaubt erst einmal ohne Verpflichtungen hineinzuschnuppern, um zumindest einige kostenlose Spiele wie Destiny 2 oder Fortnite auszuprobieren.

Xbox Cloud Gaming – bestes Preis-Leistungs-Verhältnis

Xbox Cloud Gaming.
Foto: Screenshot Microsoft

Darüber, welche der großen Spielemarken die beste Hardware herstellt, kann man sich sicherlich trefflich streiten. Allerdings interessiert die meisten Nutzer eher, welche Spiele sie wo und wann spielen können.

Hier öffnet Xbox Cloud Gaming – derzeit offiziell noch im Beta-Stadium – die Türe zu über 350 Titeln aus der Cloud. Das Angebot reicht von Skyrim über Deep Rock Galactic und Boyfriend Dungeon bis hin zu Battlefield V. Es umfasst zudem Klassiker wie Age of Empires oder den Microsoft Flugsimulator.

Große Auswahl

Sieht man einmal von der Möglichkeit ab, Fortnite kostenlos spielen zu können, ist der Xbox Game Pass Ultimate die Eintrittskarte in die Welt des Cloud-Gaming. Für ihn verlangt Microsoft 17,99 Euro im Monat. Er ermöglicht den Zugriff auf die gesamte Xbox-Game-Pass-Spielesammlung, die sowohl beeindruckend ist als auch ständig erweitert wird.

Controller erforderlich

Die Eintrittskarte zum Cloud Gaming ist bei Microsoft der Xbox Game Pass Ultimate.
Foto: Screenshot Microsoft

Neben dem Game Pass benötigt der Spieler in spe noch einen Xbox-kompatiblen Spielecontroller. Die Cloud-Spiele sind nämlich in der Regel alle für die Nutzung mit Controller ausgelegt. Mit Tastatur oder Maus geht hier derzeit nichts. Das Spielen selbst kann via Browser oder App erfolgen. Unterstützt werden neben der Windows-, Apple- und Android-Welt auch ausgewählte Smart TVs.

Noch unrunde Grafik

Sieht man von diesem Manko ab, war die user experience insgesamt positiv. Die Spiele liefen ohne Ruckler oder sonstige Performance-Auffälligkeiten. Lediglich die Grafikqualität gibt Anlass zur Kritik.

In der Regel setzen die Xbox-Cloud-Spiele einen Controller voraus.
Foto: Screenshot Microsoft

Zum einen störten teilweise Kompressionsartefakte, zum anderen reißt einen die Auflösung im Vergleich zur Geforce-Now-Plattform nicht vom Hocker. Zwar werden die Spiele laut Microsoft mit einer Auflösung von 1080p und 60 FPS gestreamt, doch wir hatten häufig den Eindruck eher vor einem 720p-Bild zu sitzen. Hier rächt sich eventuelle die zu starke Videokompression bei der Übertragung.

Unter dem Strich läuft die Cloud-Plattform für eine Beta-Version sehr stabil. Wer also auf 4k-Auflösung verzichten kann und keine Spiele selbst kaufen will, findet mit Xbox Cloud Gaming eine interessante Alternative zu Geforce Now. Eine Kröte gibt es aber noch zu schlucken: Die Spielbibliothek ändert sich ständig. Das garantiert zwar Abwechslung, aber lieb gewonnene Spiele können von heute auf morgen aus dem Angebot verschwinden.

Amazon Luna – Spielen in der Nische

Amazon Luna.
Foto: Screenshot Amazon

Amazon Luna ist die hierzulande eher unbekannte Cloud-Spiele-Plattform des Versandhändlers. Während Amazon auf seinem Marketplace für andere eigene Produkte wie echo-Devices, Fire-TV, Kindle-Reader oder seine Fire-Tablets kräftig die Werbetrommel rührt, fristet die Gaming-Plattform Luna ihr Dasein eher im Verborgenen.

Wer direkt in die Plattform einsteigen will, kann dies mit der URL https://luna.amazon.de tun. Alternativ lässt sich Cloud-Plattform auch über den deutschen Marketplace mit der Suchoption “Alle Kategorien” mit dem Suchbegriff “Luna” finden.

Broswer und App

Spielen im Browser bei Amazon Luna.
Foto: Screenshot Amazon

Gespielt werden kann im Browser auf Windows-PCs, Macs, Chromebooks und Android-Smartphones, sowie mit dem Safari-Browser auf iPhones und iPads. Für PCs und Macs gibt es zudem ein Luna-App zum Herunterladen. Mit Hilfe der App Amazon Luna lässt sich auf der Cloud-Gaming-Plattform auch auf Fire-TV-Devices sowie Fire-Tablets spielen.

Offiziell gibt Amazon zwar an, dass sich Luna auch mit Tastatur und Maus spielen lässt. Unsere Erfahrungen zeigten jedoch, dass dies nur bei wenigen Spielen der Fall ist und ansonsten eine Spiele-Controller erforderlich ist.

Virtuelle Controller

Wer keinen Controller hat, kann bei Amazon Luna das Smartphone als virtuellen Controller nutzen.
Foto: Screenshot Amazon

Wer jetzt nicht gleich zig Euro in einen entsprechenden Controller (eine Liste kompatibler Controller ist hier zu finden) investieren will, kann sich auch mit einem virtuellen Controller behelfen. Ein App macht dabei aus dem Mobiltelefon einen Luna-Smartphone-Controller.

Die entsprechende App ist in Google Play (Luna-Controller) und im Apple App Store zu finden. Bei unseren Versuchen ließ sich ein Android Smartphone so problemlos als Controller nutzen. Allerdings kommt trotz haptischen Feedbacks mit dem virtuellen Controller nicht das gleiche Spiel-Feeling auf wie mit einem richtigen Controller. Doch für erste Gehversuche auf der Luna-Plattform genügt dies allemal.

Spielauswahl

Die Plattform selbst bietet eine Auswahl an Retro- und familienfreundlichen Spielen. Wer also in Nostalgie eintauchen will oder mit der Familie spielen möchte, wird hier fündig. Wer dagegen eher aktuelle Spiele sucht, dürfte von Luna eher enttäuscht sein.

Ohne weitere Abos abzuschließen, können Amazon-Prime-Mitglieder zwischen fünf Spielen auswählen. Dabei wechselt Amazon nach eigenen Angaben das Angebot regelmäßig. Darüber hinaus offeriert Amazon in Deutschland noch die Spielekanäle Luna+, Jackbox Games sowie Ubisoft+.

Die einzelnen Channel

Die Preise für die Spiele-Channel bei Amazon Luna.
Foto: Screenshot Amazon

Für Luna+ berechnet Amazon im Monat 9,99 Euro. Dafür erhält der Abonnent Zugriff auf eine Sammlung an Spielen aus Genres wie Actionspiele, Adventures, Indie-Spiele, Shooter, Rennspiele, und Spieleklassiker. Zum Zeitpunkt der Recherche umfasste der Kanal etwas über 100 Spiele.

Jackbox Games umfasst für monatlich 4,99 Euro elf Boxen mit Partyspielen. Jede Box erhält dabei mehrere einfache Spiele. Dies können sowohl lokal vor Ort als auch online gespielt werden. Allerdings ist ein Großteil der Spiele in Englisch.

Deutlich teurer ist dagegen der Ubisoft+-Kanal. Es kostet 17,99 Euro im Monat. Dafür erhält der Spieler den Zugriff auf knapp über 40 Ubisoft-Spiele. Darunter sind Titel wie Far Cry, Assassin’s Creed, Uno, Die Siedler, Watchdogs, Trackmania oder Monopoly.

Andere Konten einbinden

Wie andere Cloud-Gaming-Plattformen bietet auch Luna die Möglichkeit, andere Konten einzubinden, um bereits vorhandene Spiele via Cloud zu zocken. Unterstützt werden die Angebote von EPIC Games und Ubisoft. Darüber hinaus besteht die Option, ein Twitch- oder Discord-Konto mit Luna zu verknüpfen.

User expierence

In Sachen user expierence muss sich Amazon Luna vor Geforce Now und Xbox Cloud Gaming nicht verstecken, auch wenn die Plattform in Sachen Grafikleistung gerade mit Geforce Now nicht mithalten kann.

An der Bedienung selbst gibt es nichts zu kritisieren – sie ist weitestgehend intuitiv und störende Ruckler oder Aussetzer konnten wir auch nicht feststellen. Das größte Manko der Luna-Gaming-Plattform ist in unseren Augen schlicht die Spieleauswahl. Die wäre uns keinen Cent wert. Aber zum Glück sind ja Geschmäcker verschieden.

Playstation Plus – Aufsteiger mit Macken

Startbildschirm der App PlayStation Plus.
Foto: Screenshot PlayStation Plus

Premium-Preise erwarten den Gamer bei unserem vierten Cloud-Gaming-Anbieter. Selbst wer nur mal kurz schnuppern will kommt bei Sony um einen Monatsbeitrag von 16,99 Euro für das Premium-Abo nicht herum. Damit ist der Einstieg in das Cloud Gaming bei Sony am teuersten.

PlayStation Plus für den PC ist Sonys Nachfolger des inzwischen eingestellten PlayStation-Now-Dienstes. Zwar offeriert auch Sony mit Essential, Extra und Premium drei verschiedene Abo-Varianten, doch das Zocken in der Cloud ist nur mit der teuren Premium-Variante möglich.

App erforderlich

PlayStation Plus wartet mit einem breiten Fundus an Spielen auf.
Foto: Screenshot PlayStation Plus

Negativ fällt zudem auf, dass PC-Spieler extra die PlayStation-Plus-App benötigen. Spielen im Browser, wie bei den anderen Plattformen, ist nicht möglich. Hier merkt man, dass sich das Sony-Angebot primär an die Besitzer einer Playstation-Konsole richtet.

Im Gegenzug erhalten die Premium- und Extra-Mitglieder Zugriff auf eine große Bibliothek an PS4- und PS5-Spielen. Zudem beinhaltet das Abo eine kuratierte Auswahl an Ubisoft+-Classics-Spielen beinhaltet.

Gefühlte Beta-Version

All dies kann aber nicht darüber hinwegtäuschen, dass in den Augen unsere PCWorld-Kollegen das Benutzererlebnis und die App-Benutzeroberfläche komplett überarbeitet werden müssen. Im Gegensatz zu Xbox Cloud Gaming benötige PlayStation Plus auf dem PC noch viel Feinschliff, wenn es darum geht, einen soliden PC-Dienst und eine solide Anwendung, von der Benutzeroberfläche bis zur Verbindungsstabilität anzubieten. So habe man leider immer wieder das Gefühl, dass sich der Service in der Beta-Phase befinde.

Ohne stabiles, performantes Internet macht das Cloud Gaming wenig Spaß.
Foto: Screenshot Nvidia

Sollte es Sony gelingen, diese Probleme zu überwinden, dann hätte der Cloud-Dienst viel zu bieten. PlayStation-Besitzer, die bereits Premium-Mitglieder sind, sollten dagegen die PC-App auf jeden Fall ausprobieren.

Fazit

Unter dem Strich haben uns von den vier Cloud-Gaming-Plattformen zum Streamen Nvidia Geforce Now sowie Xbox Cloud Gaming am meisten zugesagt. An Geforce Now gefiel uns die möglich Grafik-Performance, die aus der Cloud geliefert wird, sowie die Möglichkeit zahlreiche bereits gekaufte Spiele auch unterwegs via Cloud nutzen zu können.

Xbox Cloud konnte dagegen durch seine umfassende Spieleauswahl aus der Xbox-Game-Pass-Collection punkten. Dafür wären wir auch bereit, die teilweise störenden Kompressionsartefakte zu akzeptieren.

In Sachen Usability gibt es auch an Amazon Luna nichts zu kritisieren, doch wir konnten uns mit dem Spieleangebot schlicht nicht anfreunden. PlayStation Plus ist für PC-Gamer schlicht ein No Go. Für Besitzer einer entsprechenden Konsole, die nur ab und an auf den PC zum Game Streaming wechseln, mag das wiederum ganz anders aussehen.

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​ Weiterlesen »

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​

Allgemein

Der Lebenslauf stellt für Personaler noch immer das wichtigste Dokument einer Bewerbungsmappe dar. Darauf sollten Bewerber achten. Foto: Kittisophon – shutterstock.comWer sich auf einen neuen Job bewirbt, benötigt vielleicht nicht immer ein Anschreiben, aber ein Lebenslauf, auch Curriculum Vitae (CV) genannt, gehört in den meisten Fällen noch immer zu vollständigen Bewerbungsunterlagen. Allein schon deshalb, weil der Lebens­lauf das Dokument in der Bewerbungsmappe ist, das sich Personaler am ehesten anschauen – das bestätigt auch eine Studie von Stepstone. Lebenslauf: Grundlagen-TippsHeißt konkret: Wenn Sie sich auf eine neue Stelle bewerben möchten, müssen Sie einen Lebenslauf schreiben. Das ist zum Glück gar nicht so schwierig, wenn Sie dabei folgende Punkte beachten:Länge: Ein guter Lebenslauf ist kurz und klar strukturiert. Idealerweise ist er nicht länger als eine, in Ausnahmefällen zwei, Din-A-4 Seiten. Schriftart und -größe: Denken Sie immer daran, dass die HR-Abteilungen nicht viel Zeit haben. Machen Sie es ihnen daher so einfach wie möglich und entscheiden Sie sich für eine der gängigen Schriftarten und eine gut lesbare Schriftgröße. Mit Times New Roman oder Calibri in der Schriftgröße 12 machen Sie keinen Fehler. Fettungen: Besonders wichtige Punkte in Ihrem Lebenslauf sind die, die Sie für die ausgeschriebene Position qualifizieren und genau zum Unternehmen passen. Deswegen sollten Sie diese mit Fettungen hervorheben. So springen sie dem Personalverantwortlichen sofort ins Auge. Rechtschreibung: Dieser Punkt wird gerne übersehen. Schließlich schreiben die wenigsten Bewerber in ihrem Lebenslauf ganze Sätze. Das bedeutet aber nicht, dass sich keine Rechtschreib- oder Grammatikfehler einschleichen könnten. Kontrollieren Sie daher auch den Lebenslauf auf etwaige Ausrutscher. Lebenslauf schreiben: Aufbau und TabellenformWenn Sie ihren Lebenslauf schreiben, haben Sie dabei die Wahl zwischen der chronologischen und der umgekehrt chronologischen Variante. Da Personaler wenig Zeit haben und sofort sehen möchten, ob Sie die nötigen Fähigkeiten und Kenntnisse für die Stelle mitbringen, bietet sich in der Regel die umgekehrt chronologische Reihenfolge an. Denn dabei starten Sie mit der Position, die Sie aktuell ausüben. Und das ist in der Regel diejenige, die Sie für den neuen Job qualifiziert. Für Positionen im deutschsprachigen Raum nutzen Bewerber in vielen Fällen den tabellarischen Lebenslauf. Die einzelnen beruflichen Stationen werden bei dieser Art des Curriculum Vitae – der Name deutet es schon an – in Form einer Tabelle aufgeführt, was für größtmögliche Übersicht sorgt. Der tabellarische Lebenslauf besteht aus folgenden Elementen:Überschrift: Darf nicht vergessen werden. Der tabellarische Lebenslauf wird mit “Lebenslauf” oder “CV” überschrieben. Wenn Sie möchten, können Sie ihren Namen in die Überschrift mit aufnehmen, das erleichtert dem Personaler die Zuordnung. Sie können Ihren Namen aber auch erst im nächsten Punkt nennen.Persönliche Angaben: Nach der Überschrift folgen die persönlichen Daten. Ihr Name und die aktuelle Anschrift, das Geburtsdatum (optional mit Geburtsort) und vor allem die Kontaktmöglichkeiten über Telefon und E-Mail.Berufserfahrung: Für den Punkt Berufserfahrung sollten sich Bewerber viel Zeit lassen, denn dieser Abschnitt in ihrem Lebenslauf interessiert den Personaler besonders. Auf der linken Seite im tabellarischen Lebenslauf steht die Zeitangabe, also von wann bis wann Sie in der jeweiligen Position beschäftigt waren. Auf der rechten Seite die Jobbezeichnung und ihr Arbeitgeber. Darunter erklären Sie in kurzen und knappen Sätzen, welche Tätigkeiten in der Position zu ihrem Aufgabenfeld gehörten. Achtung: Schneiden Sie die Beschreibung möglichst genau auf das Unternehmen zu, bei dem Sie sich bewerben. Betonen Sie in ihrem Lebenslauf also genau diejenigen Dinge, die zu dem Unternehmen passen und konzentrieren Sie sich darauf. Schule, Ausbildung, Studium: Nun folgt Ihre schulische Laufbahn. Absolventen und Personen, die gerade eine Ausbildung abgeschlossen haben, dürfen hier etwas ausführlicher werden, wenn sie ihren Lebenslauf erstellen. Denn passende berufliche Stationen fehlen dann häufig. Versuchen Sie in diesem Fall Schwerpunkte in ihrer bisherigen schulischen und beruflichen Ausbildung zu setzen und stimmen Sie diese auf das Unternehmen ab. Praktika und ehrenamtliche Aktivitäten: Dieser Punkt eignet sich ebenfalls besonders für Bewerber mit wenig Berufserfahrung. Denn die können sie zum Teil ausgleichen, wenn sie während des Studiums relevante Praktika absolviert haben oder im Ehrenamt Fertig- und Fähigkeiten erworben haben, die für den Arbeitgeber interessant sein könnten. Kenntnisse: Im nächsten Abschnitt des Lebenslaufs führen Bewerber Sprach- und EDV-Kenntnisse, Weiterbildungen und zusätzliche Qualifikationen auf – natürlich nur solche, die zu dem anvisierten Job passen.Hobbys und Interessen: Idealerweise nennen Sie nun nicht die klassischen Hobbys wie Lesen, Radfahren oder Schwimmen, sondern führen Interessen an, mit denen Sie sich aus der Masse der Bewerber abheben. Unterschrift, Ort und Datum: Zum Abschluss wird der Lebenslauf unterschrieben und wie offizielle Dokumente mit Ort und Datum versehen. Achten Sie darauf, dass das Datum aktuell ist. Besonders dann, wenn Sie ihren Lebenslauf nicht für jede Bewerbung komplett neu erstellen, sondern Teile davon übernehmen. Ein veraltetes Datum ist ein echter Fauxpas, der Sie die Einladung zum Vorstellungsgespräch kosten könnte. Welche Angaben gehören nicht in den Lebenslauf?Was Bewerber im Lebenslauf aufführen sollten, variiert hängt von der Position ab, auf die sie sich bewerben. Auf der anderen Seite gibt es einige Dinge, die nicht mehr in den Lebenslauf gehören. Vor allem dann, wenn Sie eine Vorlage aus dem Netz verwenden, sollten Sie darauf achten, dass diese Angaben nicht aufgeführt sind. Denn das würde darauf hindeuten, dass Sie es mit einer vermutlich veralteten Vorlage zu tun haben: Beruf der Eltern: Glücklicherweise gehört diese Angabe heute nicht mehr in den Lebenslauf, denn sie führte dazu, dass einige Bewerber bevorzugt, andere benachteiligt wurden. Wenn die Eltern Akademiker sind vermittelt das bei dem Personaler ein andere Bild als wenn die Eltern nicht arbeiten. Die Gefahr, dass sich der Personaler von dieser Angabe beeinflussen lässt, kann man dadurch umgehen, indem man den Beruf der Eltern nicht nennt. Er sagt ohnehin nichts über die eigenen Fähigkeiten und Kenntnisse aus. Und darum sollte es doch letztendlich im Bewerbungsgespräch gehen. Religion: Im Allgemeinen Gleichbehandlungsgesetz (AGG) ist zu lesen, dass Niemand wegen u.a. seiner Religionszugehörigkeit benachteiligt oder bevorzugt werden darf. Da Menschen aber nun einmal nur Menschen sind und sich auch unbewusst beeinflussen lassen, sollten Bewerber die Angabe ihrer Religionszugehörigkeit erst gar nicht in ihrer Bewerbung nennen. Mit einer Ausnahme: Wenn Sie sich bei einem kirchlichen Träger bewerben, sollten Sie erwähnen, zu welcher Religionsgruppe Sie sich rechnen. Grundschule: Unter dem Punkt “Schulische Ausbildung” oder “Bildungsweg” (oder einer vergleichbaren Formulierung) die Grundschule nichts mehr zu suchen. Sie ahnen vermutlich schon, warum das so ist. Richtig, die Grundschule ist für den weiteren beruflichen Weg komplett irrelevant. Die Wahl der Schule wird schließlich zum Großteil davon bestimmt, wo man wohnt. Noch dazu sagen die ersten vier Jahre der Schulbildung nicht allzu viel darüber aus, welche Art von Bewerber der Personal vor sich hat. Allenfalls bei einem Schülerpraktikum ist es noch denkbar, die Grundschule mit aufzuführen. Hauptsächlich der Vollständigkeit halber, weil man als Schüler noch nicht so viele Stationen unter dem Punkt “Bildungsweg” aufzählen kann.Curriculum Vitae: Häufige Fragen Sprachkenntnisse im Lebenslauf: Wo gebe ich sie an?Sprachkenntnisse im Lebenslauf gehören zu dem generellen Punkt “Kenntnisse”. Je nach angestrebter Position können Sie die Sprachkenntnisse aber unter “Schule, Ausbildung und Studium” aufführen. Beispielsweise dann, wenn Sie sich als Fremdsprachenassistent bewerben.Lebenslauf unterschreiben: Macht man das (noch)?Es gibt keine Vorschrift, dass Bewerber den Lebenslauf unterschreiben müssten, da er kein offizielles Dokument mit bindendem Charakter, wie beispielsweise der Arbeitsvertrag, ist. Trotzdem sehen es die meisten Personaler gern, wenn der Bewerber seine persönliche Unterschrift unter das Dokument setzt. Es schadet also nicht. Lebenslauf: Worauf beim Foto zu achten istIst ein Foto im Lebenslauf Pflicht? Nein, nicht mehr. Wenn Sie möchten, können Sie aber trotzdem ein Bewerbungsfoto ihrem Lebenslauf beifügen. Achten Sie bei dem Foto darauf, dass Sie professionell wirken. Idealerweise lassen Sie das Foto bei einem Fotografen schießen, der sich mit Bewerbungen und der Branche auskennt. (pg) 

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​ Der Lebenslauf stellt für Personaler noch immer das wichtigste Dokument einer Bewerbungsmappe dar. Darauf sollten Bewerber achten.
Foto: Kittisophon – shutterstock.comWer sich auf einen neuen Job bewirbt, benötigt vielleicht nicht immer ein Anschreiben, aber ein Lebenslauf, auch Curriculum Vitae (CV) genannt, gehört in den meisten Fällen noch immer zu vollständigen Bewerbungsunterlagen. Allein schon deshalb, weil der Lebens­lauf das Dokument in der Bewerbungsmappe ist, das sich Personaler am ehesten anschauen – das bestätigt auch eine Studie von Stepstone. Lebenslauf: Grundlagen-TippsHeißt konkret: Wenn Sie sich auf eine neue Stelle bewerben möchten, müssen Sie einen Lebenslauf schreiben. Das ist zum Glück gar nicht so schwierig, wenn Sie dabei folgende Punkte beachten:Länge: Ein guter Lebenslauf ist kurz und klar strukturiert. Idealerweise ist er nicht länger als eine, in Ausnahmefällen zwei, Din-A-4 Seiten. Schriftart und -größe: Denken Sie immer daran, dass die HR-Abteilungen nicht viel Zeit haben. Machen Sie es ihnen daher so einfach wie möglich und entscheiden Sie sich für eine der gängigen Schriftarten und eine gut lesbare Schriftgröße. Mit Times New Roman oder Calibri in der Schriftgröße 12 machen Sie keinen Fehler. Fettungen: Besonders wichtige Punkte in Ihrem Lebenslauf sind die, die Sie für die ausgeschriebene Position qualifizieren und genau zum Unternehmen passen. Deswegen sollten Sie diese mit Fettungen hervorheben. So springen sie dem Personalverantwortlichen sofort ins Auge. Rechtschreibung: Dieser Punkt wird gerne übersehen. Schließlich schreiben die wenigsten Bewerber in ihrem Lebenslauf ganze Sätze. Das bedeutet aber nicht, dass sich keine Rechtschreib- oder Grammatikfehler einschleichen könnten. Kontrollieren Sie daher auch den Lebenslauf auf etwaige Ausrutscher. Lebenslauf schreiben: Aufbau und TabellenformWenn Sie ihren Lebenslauf schreiben, haben Sie dabei die Wahl zwischen der chronologischen und der umgekehrt chronologischen Variante. Da Personaler wenig Zeit haben und sofort sehen möchten, ob Sie die nötigen Fähigkeiten und Kenntnisse für die Stelle mitbringen, bietet sich in der Regel die umgekehrt chronologische Reihenfolge an. Denn dabei starten Sie mit der Position, die Sie aktuell ausüben. Und das ist in der Regel diejenige, die Sie für den neuen Job qualifiziert. Für Positionen im deutschsprachigen Raum nutzen Bewerber in vielen Fällen den tabellarischen Lebenslauf. Die einzelnen beruflichen Stationen werden bei dieser Art des Curriculum Vitae – der Name deutet es schon an – in Form einer Tabelle aufgeführt, was für größtmögliche Übersicht sorgt. Der tabellarische Lebenslauf besteht aus folgenden Elementen:Überschrift: Darf nicht vergessen werden. Der tabellarische Lebenslauf wird mit “Lebenslauf” oder “CV” überschrieben. Wenn Sie möchten, können Sie ihren Namen in die Überschrift mit aufnehmen, das erleichtert dem Personaler die Zuordnung. Sie können Ihren Namen aber auch erst im nächsten Punkt nennen.Persönliche Angaben: Nach der Überschrift folgen die persönlichen Daten. Ihr Name und die aktuelle Anschrift, das Geburtsdatum (optional mit Geburtsort) und vor allem die Kontaktmöglichkeiten über Telefon und E-Mail.Berufserfahrung: Für den Punkt Berufserfahrung sollten sich Bewerber viel Zeit lassen, denn dieser Abschnitt in ihrem Lebenslauf interessiert den Personaler besonders. Auf der linken Seite im tabellarischen Lebenslauf steht die Zeitangabe, also von wann bis wann Sie in der jeweiligen Position beschäftigt waren. Auf der rechten Seite die Jobbezeichnung und ihr Arbeitgeber. Darunter erklären Sie in kurzen und knappen Sätzen, welche Tätigkeiten in der Position zu ihrem Aufgabenfeld gehörten. Achtung: Schneiden Sie die Beschreibung möglichst genau auf das Unternehmen zu, bei dem Sie sich bewerben. Betonen Sie in ihrem Lebenslauf also genau diejenigen Dinge, die zu dem Unternehmen passen und konzentrieren Sie sich darauf. Schule, Ausbildung, Studium: Nun folgt Ihre schulische Laufbahn. Absolventen und Personen, die gerade eine Ausbildung abgeschlossen haben, dürfen hier etwas ausführlicher werden, wenn sie ihren Lebenslauf erstellen. Denn passende berufliche Stationen fehlen dann häufig. Versuchen Sie in diesem Fall Schwerpunkte in ihrer bisherigen schulischen und beruflichen Ausbildung zu setzen und stimmen Sie diese auf das Unternehmen ab. Praktika und ehrenamtliche Aktivitäten: Dieser Punkt eignet sich ebenfalls besonders für Bewerber mit wenig Berufserfahrung. Denn die können sie zum Teil ausgleichen, wenn sie während des Studiums relevante Praktika absolviert haben oder im Ehrenamt Fertig- und Fähigkeiten erworben haben, die für den Arbeitgeber interessant sein könnten. Kenntnisse: Im nächsten Abschnitt des Lebenslaufs führen Bewerber Sprach- und EDV-Kenntnisse, Weiterbildungen und zusätzliche Qualifikationen auf – natürlich nur solche, die zu dem anvisierten Job passen.Hobbys und Interessen: Idealerweise nennen Sie nun nicht die klassischen Hobbys wie Lesen, Radfahren oder Schwimmen, sondern führen Interessen an, mit denen Sie sich aus der Masse der Bewerber abheben. Unterschrift, Ort und Datum: Zum Abschluss wird der Lebenslauf unterschrieben und wie offizielle Dokumente mit Ort und Datum versehen. Achten Sie darauf, dass das Datum aktuell ist. Besonders dann, wenn Sie ihren Lebenslauf nicht für jede Bewerbung komplett neu erstellen, sondern Teile davon übernehmen. Ein veraltetes Datum ist ein echter Fauxpas, der Sie die Einladung zum Vorstellungsgespräch kosten könnte. Welche Angaben gehören nicht in den Lebenslauf?Was Bewerber im Lebenslauf aufführen sollten, variiert hängt von der Position ab, auf die sie sich bewerben. Auf der anderen Seite gibt es einige Dinge, die nicht mehr in den Lebenslauf gehören. Vor allem dann, wenn Sie eine Vorlage aus dem Netz verwenden, sollten Sie darauf achten, dass diese Angaben nicht aufgeführt sind. Denn das würde darauf hindeuten, dass Sie es mit einer vermutlich veralteten Vorlage zu tun haben: Beruf der Eltern: Glücklicherweise gehört diese Angabe heute nicht mehr in den Lebenslauf, denn sie führte dazu, dass einige Bewerber bevorzugt, andere benachteiligt wurden. Wenn die Eltern Akademiker sind vermittelt das bei dem Personaler ein andere Bild als wenn die Eltern nicht arbeiten. Die Gefahr, dass sich der Personaler von dieser Angabe beeinflussen lässt, kann man dadurch umgehen, indem man den Beruf der Eltern nicht nennt. Er sagt ohnehin nichts über die eigenen Fähigkeiten und Kenntnisse aus. Und darum sollte es doch letztendlich im Bewerbungsgespräch gehen. Religion: Im Allgemeinen Gleichbehandlungsgesetz (AGG) ist zu lesen, dass Niemand wegen u.a. seiner Religionszugehörigkeit benachteiligt oder bevorzugt werden darf. Da Menschen aber nun einmal nur Menschen sind und sich auch unbewusst beeinflussen lassen, sollten Bewerber die Angabe ihrer Religionszugehörigkeit erst gar nicht in ihrer Bewerbung nennen. Mit einer Ausnahme: Wenn Sie sich bei einem kirchlichen Träger bewerben, sollten Sie erwähnen, zu welcher Religionsgruppe Sie sich rechnen. Grundschule: Unter dem Punkt “Schulische Ausbildung” oder “Bildungsweg” (oder einer vergleichbaren Formulierung) die Grundschule nichts mehr zu suchen. Sie ahnen vermutlich schon, warum das so ist. Richtig, die Grundschule ist für den weiteren beruflichen Weg komplett irrelevant. Die Wahl der Schule wird schließlich zum Großteil davon bestimmt, wo man wohnt. Noch dazu sagen die ersten vier Jahre der Schulbildung nicht allzu viel darüber aus, welche Art von Bewerber der Personal vor sich hat. Allenfalls bei einem Schülerpraktikum ist es noch denkbar, die Grundschule mit aufzuführen. Hauptsächlich der Vollständigkeit halber, weil man als Schüler noch nicht so viele Stationen unter dem Punkt “Bildungsweg” aufzählen kann.Curriculum Vitae: Häufige Fragen Sprachkenntnisse im Lebenslauf: Wo gebe ich sie an?Sprachkenntnisse im Lebenslauf gehören zu dem generellen Punkt “Kenntnisse”. Je nach angestrebter Position können Sie die Sprachkenntnisse aber unter “Schule, Ausbildung und Studium” aufführen. Beispielsweise dann, wenn Sie sich als Fremdsprachenassistent bewerben.Lebenslauf unterschreiben: Macht man das (noch)?Es gibt keine Vorschrift, dass Bewerber den Lebenslauf unterschreiben müssten, da er kein offizielles Dokument mit bindendem Charakter, wie beispielsweise der Arbeitsvertrag, ist. Trotzdem sehen es die meisten Personaler gern, wenn der Bewerber seine persönliche Unterschrift unter das Dokument setzt. Es schadet also nicht. Lebenslauf: Worauf beim Foto zu achten istIst ein Foto im Lebenslauf Pflicht? Nein, nicht mehr. Wenn Sie möchten, können Sie aber trotzdem ein Bewerbungsfoto ihrem Lebenslauf beifügen. Achten Sie bei dem Foto darauf, dass Sie professionell wirken. Idealerweise lassen Sie das Foto bei einem Fotografen schießen, der sich mit Bewerbungen und der Branche auskennt. (pg)

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​ Weiterlesen »

Deutschland soll auf die digitale Überholspur​

Allgemein

Schluss mit dem digitalen Stillstand in Deutschland. Das will die neue Regierung  aus Union und SPD mit  ihrer im Koalitionsvertrag vereinbarten digitalpolitischen Agenda erreichen. In ihm haben sich die drei Parteien ehrgeizige Ziele gesetzt, um Deutschland  zu einem Vorreiter in der Digitalisierung und Staatsmodernisierung zu machen.  Der Fokus liegt dabei auf der digitalen Transformation und der Förderung des Rechenzentrumsstandorts Deutschland. Mit einer Vielzahl von Maßnahmen und Strategien soll das Land nicht nur technologisch, sondern auch wirtschaftlich und gesellschaftlich zukunftsfähig gemacht werden. Digitalisierung als Schlüssel zur Modernisierung Die Digitalpolitik der Koalition ist auf Souveränität, Innovation und gesellschaftlichen Fortschritt ausgerichtet. Ziel ist ein digital souveränes Deutschland, das digitale Abhängigkeiten reduziert und Schlüsseltechnologien wie Künstliche Intelligenz (KI), Cloud-Dienste und Open Source gezielt fördert. Die digitale Infrastruktur soll durch den flächendeckenden Glasfaserausbau (FTTH) und die Förderung von 5G sowie perspektivisch 6G gestärkt werden. Funklöcher sollen geschlossen und Förderprogramme dort eingesetzt werden, wo ein marktgetriebener Ausbau nicht möglich ist. Mehr Digitalisierung und weniger Bürokratie Ein zentraler Bestandteil der Digitalstrategie ist die Modernisierung der Verwaltung. Verwaltungsleistungen sollen vollständig digitalisiert und barrierefrei angeboten werden. Ferner sind Bürgerkontos und eine Deutschland-ID geplant, um den Zugang zu Behördendienstleistungen zu vereinfachen sowie nutzerfreundlicher zu gestalten. Verwaltungsprozesse sind künftig zunehmend antragslos und lebenslagenorientiert gestaltet, während Schriftformerfordernisse durch eine Generalklausel abgeschafft werden. Angehen will man auch die überfällige Registermodernisierung durch die Vernetzung von Bundesregistern und die Nutzung souveräner Cloudplattformen. Ein Datendoppelerhebungsverbot („Once-Only-Prinzip“) soll eingeführt werden, um die Effizienz in der Verwaltung zu steigern. Die Koalition plant zudem eine EUDI-Wallet einzuführen, wie es die EU in der eIDAS Verordnung bis November 2026 fordert. Es soll Identifikation, Authentifizierung und Zahlungen ermöglichen. Auch ein Ökosystem rund um die Wallet ist im Gespräch, um die Nutzung zu erweitern. ​ Zusätzlich sieht der Vertrag vor, Open Source und offene Schnittstellen gezielt voranzutreiben, um die digitale Souveränität zu stärken. Ein eigenständiges Digitalministerium ​ Neben diesen Projekten wollen die Partner auch die Digitalisierung und Staatsmodernisierung effektiv vorantreiben. Zuständig dafür ist künftig ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung, das von der CDU geleitet wird. Dieses Ministerium soll zentrale Aufgaben wie die Entwicklung eines interoperablen und europäisch anschlussfähigen Deutschland-Stacks, die umfassende Nutzung von Automatisierung und KI im Staat sowie die Förderung des Breitband- und Glasfaserausbaus übernehmen. Zukunftsstandort dank Rechenzentren Ein weiterer Schwerpunkt des Koalitionsvertrags ist, den Rechenzentrumsstandort Deutschland zu fördern. Die Koalition strebt an, Deutschland als Leuchtturm Europas für Rechenzentren zu etablieren. Hierzu will man Cluster, regionale und dezentrale Ansiedlungen unterstützen. Ferner wird der Aufbau von mindestens einer europäischen „AI-Gigafactory“ in Deutschland angestrebt. Besonders Ostdeutschland soll von einem beschleunigten Ausbau profitieren. Um den Anschluss von Rechenzentren an das Stromnetz zu erleichtern, ist eine Digitalisierungsoffensive bei den Stromnetzbetreibern geplant. Gleichzeitig werde man mehr Transparenz über Netzanschlusskapazitäten fördern. Hierbei stehen Klimaneutralität und Energieeffizienz im Vordergrund, so der Wille der Parteien. Die Abwärme aus Rechenzentren soll zudem in Fernwärmenetze eingespeist werden. Das Ganze erfolgt unter der Prämisse, mit praxisnahen Vorschriften den Ausbau der Netze zu erleichtern. Cyber-Sicherheit und Datenschutz Des Weiteren legt die Koalition in ihrem Papier großen Wert auf die IT-Sicherheit und den Schutz kritischer Infrastrukturen (KRITIS). Die Cyber-Sicherheitsstrategie soll weiterentwickelt sowie präventive Beratungsangebote für kleine und mittlere Unternehmen ausgebaut werden. Nicht vertrauenswürdige Anbieter will man rechtssicher ausschließen. Im Bereich Datenschutz soll die Aufsicht reformiert und beim Bundesdatenschutzbeauftragten gebündelt werden. Zudem sind unbürokratische Widerspruchslösungen im Gespräch, um die Nutzung staatlicher Serviceleistungen zu erleichtern. 

Deutschland soll auf die digitale Überholspur​ Schluss mit dem digitalen Stillstand in Deutschland. Das will die neue Regierung  aus Union und SPD mit  ihrer im Koalitionsvertrag vereinbarten digitalpolitischen Agenda erreichen.

In ihm haben sich die drei Parteien ehrgeizige Ziele gesetzt, um Deutschland  zu einem Vorreiter in der Digitalisierung und Staatsmodernisierung zu machen.  Der Fokus liegt dabei auf der digitalen Transformation und der Förderung des Rechenzentrumsstandorts Deutschland.

Mit einer Vielzahl von Maßnahmen und Strategien soll das Land nicht nur technologisch, sondern auch wirtschaftlich und gesellschaftlich zukunftsfähig gemacht werden.

Digitalisierung als Schlüssel zur Modernisierung

Die Digitalpolitik der Koalition ist auf Souveränität, Innovation und gesellschaftlichen Fortschritt ausgerichtet. Ziel ist ein digital souveränes Deutschland, das digitale Abhängigkeiten reduziert und Schlüsseltechnologien wie

Künstliche Intelligenz (KI),

Cloud-Dienste und

Open Source

gezielt fördert.

Die digitale Infrastruktur soll durch den flächendeckenden Glasfaserausbau (FTTH) und die Förderung von 5G sowie perspektivisch 6G gestärkt werden. Funklöcher sollen geschlossen und Förderprogramme dort eingesetzt werden, wo ein marktgetriebener Ausbau nicht möglich ist.

Mehr Digitalisierung und weniger Bürokratie

Ein zentraler Bestandteil der Digitalstrategie ist die Modernisierung der Verwaltung.

Verwaltungsleistungen sollen vollständig digitalisiert und barrierefrei angeboten werden.

Ferner sind Bürgerkontos und eine Deutschland-ID geplant, um den Zugang zu Behördendienstleistungen zu vereinfachen sowie nutzerfreundlicher zu gestalten.

Verwaltungsprozesse sind künftig zunehmend antragslos und lebenslagenorientiert gestaltet, während Schriftformerfordernisse durch eine Generalklausel abgeschafft werden.

Angehen will man auch die überfällige Registermodernisierung durch die Vernetzung von Bundesregistern und die Nutzung souveräner Cloudplattformen.

Ein Datendoppelerhebungsverbot („Once-Only-Prinzip“) soll eingeführt werden, um die Effizienz in der Verwaltung zu steigern.

Die Koalition plant zudem eine EUDI-Wallet einzuführen, wie es die EU in der eIDAS Verordnung bis November 2026 fordert. Es soll Identifikation, Authentifizierung und Zahlungen ermöglichen.

Auch ein Ökosystem rund um die Wallet ist im Gespräch, um die Nutzung zu erweitern. ​

Zusätzlich sieht der Vertrag vor, Open Source und offene Schnittstellen gezielt voranzutreiben, um die digitale Souveränität zu stärken.

Ein eigenständiges Digitalministerium ​

Neben diesen Projekten wollen die Partner auch die Digitalisierung und Staatsmodernisierung effektiv vorantreiben. Zuständig dafür ist künftig ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung, das von der CDU geleitet wird.

Dieses Ministerium soll zentrale Aufgaben wie

die Entwicklung eines interoperablen und europäisch anschlussfähigen Deutschland-Stacks,

die umfassende Nutzung von Automatisierung und KI im Staat sowie

die Förderung des Breitband- und Glasfaserausbaus

übernehmen.

Zukunftsstandort dank Rechenzentren

Ein weiterer Schwerpunkt des Koalitionsvertrags ist, den Rechenzentrumsstandort Deutschland zu fördern. Die Koalition strebt an, Deutschland als Leuchtturm Europas für Rechenzentren zu etablieren.

Hierzu will man Cluster, regionale und dezentrale Ansiedlungen unterstützen. Ferner wird der Aufbau von mindestens einer europäischen „AI-Gigafactory“ in Deutschland angestrebt. Besonders Ostdeutschland soll von einem beschleunigten Ausbau profitieren.

Um den Anschluss von Rechenzentren an das Stromnetz zu erleichtern, ist eine Digitalisierungsoffensive bei den Stromnetzbetreibern geplant. Gleichzeitig werde man mehr Transparenz über Netzanschlusskapazitäten fördern. Hierbei stehen Klimaneutralität und Energieeffizienz im Vordergrund, so der Wille der Parteien. Die Abwärme aus Rechenzentren soll zudem in Fernwärmenetze eingespeist werden. Das Ganze erfolgt unter der Prämisse, mit praxisnahen Vorschriften den Ausbau der Netze zu erleichtern.

Cyber-Sicherheit und Datenschutz

Des Weiteren legt die Koalition in ihrem Papier großen Wert auf die IT-Sicherheit und den Schutz kritischer Infrastrukturen (KRITIS). Die Cyber-Sicherheitsstrategie soll weiterentwickelt sowie präventive Beratungsangebote für kleine und mittlere Unternehmen ausgebaut werden. Nicht vertrauenswürdige Anbieter will man rechtssicher ausschließen.

Im Bereich Datenschutz soll die Aufsicht reformiert und beim Bundesdatenschutzbeauftragten gebündelt werden. Zudem sind unbürokratische Widerspruchslösungen im Gespräch, um die Nutzung staatlicher Serviceleistungen zu erleichtern.

Deutschland soll auf die digitale Überholspur​ Weiterlesen »

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​

Allgemein

Die wirtschaftsorientierten Verbände begrüßen die digitalpolitische Agend von Union und SPD. PeopleImages.com – Yuri A – shutterstock.com Rund fünf Seiten widmet der Koalitionsvertrag von CDU, CSU und SPD dediziert der künftigen Digitalpolitik Deutschlands. Die nach außen sichtbarste Neuerung ist der Plan, ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung einzurichten. Auch ansonsten ist die digitale Agenda voll mit ambitionierten Zielen, die teilweise an ein digitales Wunderland erinnern. Entsprechend unterschiedlich fällt das Echo bei wirtschaftsnahen Verbänden und zivilgesellschaftlichen Organisationen aus. Das Meinungsspektrum reicht dabei von überschwänglicher Euphorie bis zu einer fundamentalen Kritik, die die Grundrechte in Gefahr sieht. Wir haben verschiedene Stimmen gesammelt. Die überschwänglichen Befürworter Bitkom Ganz klar positiv äußert sich Bitkom-Präsident Ralf Wintergerst zum Koalitionsvertrag von Union und SPD: „Die Einrichtung eines Ministeriums für Digitalisierung und Staatsmodernisierung ist ein Meilenstein für Deutschland und das lange erwartete Aufbruchsignal der neuen Bundesregierung. Richtig ausgestaltet, kann es die digitalpolitischen Themen im Bund in einer Hand zusammenführen und so zu einem echten Treiber für die Digitalisierung werden … Ein starkes Digitalministerium zeigt: Deutschland macht ernst mit der Digitalisierung und nimmt seine digitale Zukunft selbst in die Hand.“ BVDW Angelehnt an die berühmten Worte zur Papstwahl kommentiert der Bundesverband Digitale Wirtschaft (BVDW) die Ergebnisse der Koalitionsverhandlungen: Habemus digitale Zukunftsfähigkeit? Positiv in die Zukunft blickend meinte Dirk Freytag, Präsident des BVDW zur Veröffentlichung des Vertrages: „Der heutige Tag macht Hoffnung – Hoffnung auf einen echten Neuanfang in der deutschen Daten- und Digitalpolitik. In einer Zeit, in der nicht nur der Digitalen Wirtschaft die Zuversicht fehlt, setzt der Koalitionsvertrag ein wichtiges Zeichen: Es bewegt sich etwas. Im Fokus steht die digitale Wertschöpfung, nicht mehr sie zu hemmen.“ Jubel mit Wermutstropfen eco Grundsätzlich begrüßt man auch bei eco – Verband der Internetwirtschaft e. V.  – die künftige digitalpolitische Agenda. So wertet man die Schaffung eine eigenständigen Digitalministeriums als bedeutendes politische Signal. So lobt Vorstandsvorsitzender Oliver Süme etwa: „Mit dem Bekenntnis zu einem ‚Ministerium für Digitalisierung und Staatsmodernisierung‘ rückt eines der zentralen Zukunftsthemen in den Mittelpunkt politischen Handelns.“ Gleichzeitig schickt er aber mahnende Worte hinterher, dass es nicht bei Symbolpolitik bleiben dürfe: „So erfreulich dieses Signal ist: Entscheidend wird die Umsetzung sein. Ein solches Ministerium braucht ein mutiges Mandat, klare Zuständigkeiten und echten Gestaltungswillen.“ Auch wenn der Verband positiv zu den Plänen der Koalitionäre steht und etwa die Impulse für die Rechenzentrumsbranche begrüßt, ganz ungetrübt ist die Begeisterung des eco nicht. „Mit der erneuten Aufnahme von Vorratsdatenspeicherung in Form einer IP-Adressspeicherung im Koalitionsvertrag setzt die Koalition ein falsches Signal. Diese Maßnahmen bedrohen die Privatsphäre der Bürgerinnen und Bürger, und schaffen ein Klima der Unsicherheit im Netz“, warnt Verbandschef Süme. BDI Eher skeptische Worte findet auch Tanja Gönner, Hauptgeschäftsführerin des BDI. Sie sieht zwar Ansätze für dringend notwendige Strukturreformen, betont aber zugleich, dass nun eine rasche Umsetzung entscheidend sei. Entsprechend verhalten ist denn auch die Begeisterung für die künftige Digitalpolitik. „Unter dem Strich werden wir die Bundesregierung daran messen, ob sie den Staat effizienter macht und modernisiert“, so Gönner, „wenn es einem neuen, eigenständigen Bundesministerium gelingt, die Themen für Digitalisierung und Staatsmodernisierung intelligent und dynamisch zusammenzuführen, könnte das einen Schub für einen zukunftsfähigen Staat geben“. Die Kritiker D64 Wie den eco stört auch D64 – Zentrum für Digitalen Fortschritt – die Vorratsdatenspeicherung in der digitalen Agenda. Allerdings ist Svea Windwehr, Co-Vorsitzende bei D64, in ihrer Kritik nicht ganz so diplomatisch wie der eco: „Der Koalitionsvertrag höhlt Grundrechte aus, schafft neue Sicherheitsrisiken und ist so nicht verantwortungsvoll, sondern verantwortungslos.“ Auch andere Punkte sind D64 ein Dorn im Auge, wie etwa, dass die Bundespolizei künftig Sypware auf Endgeräten einsetzen dürfen soll. Diese Quellen-TKÜ unterminiere die Verschlüsselung und schwäche die IT-Sicherheit. Ferner habe man mit dem Koalitionsvertrag die Chance verpasst, ein wirksames IT-Schwachstellenmanagement auch für Behörden einzuführen und das Bundesamt für Sicherheit in der Informationstechnik (BSI) unabhängig aufzustellen. Und last but not least fehle das Bekenntnis, sich für starke europäische Datenschutzregeln, statt einer Verschlankung der DSGVO einzusetzen. NETZPOLITIK.ORG Auch NETZPOLOTIK.ORG stößt die Digitalpolitik der künftigen Regierungspartner eher sauer auf. Die Kritik entzündet sich an der bereits erwähnten Vorratsdatenspeicherung, aber auch an der geplanten Einführung eine biometrischen Internetfahndung. So sollen nicht-kommerzielle Tätigkeiten und vermeintlich risikoarme Datenverarbeitungen wie Kundenlisten von Handwerkern gänzlich von der DSGVO ausgenommen werden sollen. Ebenso bemängelt man, dass ein Bekenntnis zur Verschlüsselung und vertraulicher Kommunikation fehlt. Die Formulierung „Grundsätzlich sichern wir die Vertraulichkeit privater Kommunikation und Anonymität im Netz“ lasse Spielraum für gesetzliche und technische Hintertüren, auch bei der EU-Chatkontrolle. 

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​ Die wirtschaftsorientierten Verbände begrüßen die digitalpolitische Agend von Union und SPD.
PeopleImages.com – Yuri A – shutterstock.com

Rund fünf Seiten widmet der Koalitionsvertrag von CDU, CSU und SPD dediziert der künftigen Digitalpolitik Deutschlands. Die nach außen sichtbarste Neuerung ist der Plan, ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung einzurichten. Auch ansonsten ist die digitale Agenda voll mit ambitionierten Zielen, die teilweise an ein digitales Wunderland erinnern.

Entsprechend unterschiedlich fällt das Echo bei wirtschaftsnahen Verbänden und zivilgesellschaftlichen Organisationen aus. Das Meinungsspektrum reicht dabei von überschwänglicher Euphorie bis zu einer fundamentalen Kritik, die die Grundrechte in Gefahr sieht. Wir haben verschiedene Stimmen gesammelt.

Die überschwänglichen Befürworter

Bitkom

Ganz klar positiv äußert sich Bitkom-Präsident Ralf Wintergerst zum Koalitionsvertrag von Union und SPD: „Die Einrichtung eines Ministeriums für Digitalisierung und Staatsmodernisierung ist ein Meilenstein für Deutschland und das lange erwartete Aufbruchsignal der neuen Bundesregierung. Richtig ausgestaltet, kann es die digitalpolitischen Themen im Bund in einer Hand zusammenführen und so zu einem echten Treiber für die Digitalisierung werden … Ein starkes Digitalministerium zeigt: Deutschland macht ernst mit der Digitalisierung und nimmt seine digitale Zukunft selbst in die Hand.“

BVDW

Angelehnt an die berühmten Worte zur Papstwahl kommentiert der Bundesverband Digitale Wirtschaft (BVDW) die Ergebnisse der Koalitionsverhandlungen: Habemus digitale Zukunftsfähigkeit? Positiv in die Zukunft blickend meinte Dirk Freytag, Präsident des BVDW zur Veröffentlichung des Vertrages: „Der heutige Tag macht Hoffnung – Hoffnung auf einen echten Neuanfang in der deutschen Daten- und Digitalpolitik. In einer Zeit, in der nicht nur der Digitalen Wirtschaft die Zuversicht fehlt, setzt der Koalitionsvertrag ein wichtiges Zeichen: Es bewegt sich etwas. Im Fokus steht die digitale Wertschöpfung, nicht mehr sie zu hemmen.“

Jubel mit Wermutstropfen

eco

Grundsätzlich begrüßt man auch bei eco – Verband der Internetwirtschaft e. V.  – die künftige digitalpolitische Agenda. So wertet man die Schaffung eine eigenständigen Digitalministeriums als bedeutendes politische Signal. So lobt Vorstandsvorsitzender Oliver Süme etwa: „Mit dem Bekenntnis zu einem ‚Ministerium für Digitalisierung und Staatsmodernisierung‘ rückt eines der zentralen Zukunftsthemen in den Mittelpunkt politischen Handelns.“

Gleichzeitig schickt er aber mahnende Worte hinterher, dass es nicht bei Symbolpolitik bleiben dürfe: „So erfreulich dieses Signal ist: Entscheidend wird die Umsetzung sein. Ein solches Ministerium braucht ein mutiges Mandat, klare Zuständigkeiten und echten Gestaltungswillen.“

Auch wenn der Verband positiv zu den Plänen der Koalitionäre steht und etwa die Impulse für die Rechenzentrumsbranche begrüßt, ganz ungetrübt ist die Begeisterung des eco nicht. „Mit der erneuten Aufnahme von Vorratsdatenspeicherung in Form einer IP-Adressspeicherung im Koalitionsvertrag setzt die Koalition ein falsches Signal. Diese Maßnahmen bedrohen die Privatsphäre der Bürgerinnen und Bürger, und schaffen ein Klima der Unsicherheit im Netz“, warnt Verbandschef Süme.

BDI

Eher skeptische Worte findet auch Tanja Gönner, Hauptgeschäftsführerin des BDI. Sie sieht zwar Ansätze für dringend notwendige Strukturreformen, betont aber zugleich, dass nun eine rasche Umsetzung entscheidend sei.

Entsprechend verhalten ist denn auch die Begeisterung für die künftige Digitalpolitik. „Unter dem Strich werden wir die Bundesregierung daran messen, ob sie den Staat effizienter macht und modernisiert“, so Gönner, „wenn es einem neuen, eigenständigen Bundesministerium gelingt, die Themen für Digitalisierung und Staatsmodernisierung intelligent und dynamisch zusammenzuführen, könnte das einen Schub für einen zukunftsfähigen Staat geben“.

Die Kritiker

D64

Wie den eco stört auch D64 – Zentrum für Digitalen Fortschritt – die Vorratsdatenspeicherung in der digitalen Agenda. Allerdings ist Svea Windwehr, Co-Vorsitzende bei D64, in ihrer Kritik nicht ganz so diplomatisch wie der eco: „Der Koalitionsvertrag höhlt Grundrechte aus, schafft neue Sicherheitsrisiken und ist so nicht verantwortungsvoll, sondern verantwortungslos.“

Auch andere Punkte sind D64 ein Dorn im Auge, wie etwa, dass die Bundespolizei künftig Sypware auf Endgeräten einsetzen dürfen soll. Diese Quellen-TKÜ unterminiere die Verschlüsselung und schwäche die IT-Sicherheit.

Ferner habe man mit dem Koalitionsvertrag die Chance verpasst, ein wirksames IT-Schwachstellenmanagement auch für Behörden einzuführen und das Bundesamt für Sicherheit in der Informationstechnik (BSI) unabhängig aufzustellen. Und last but not least fehle das Bekenntnis, sich für starke europäische Datenschutzregeln, statt einer Verschlankung der DSGVO einzusetzen.

NETZPOLITIK.ORG

Auch NETZPOLOTIK.ORG stößt die Digitalpolitik der künftigen Regierungspartner eher sauer auf. Die Kritik entzündet sich an der bereits erwähnten Vorratsdatenspeicherung, aber auch an der geplanten Einführung eine biometrischen Internetfahndung.

So sollen nicht-kommerzielle Tätigkeiten und vermeintlich risikoarme Datenverarbeitungen wie Kundenlisten von Handwerkern gänzlich von der DSGVO ausgenommen werden sollen. Ebenso bemängelt man, dass ein Bekenntnis zur Verschlüsselung und vertraulicher Kommunikation fehlt. Die Formulierung „Grundsätzlich sichern wir die Vertraulichkeit privater Kommunikation und Anonymität im Netz“ lasse Spielraum für gesetzliche und technische Hintertüren, auch bei der EU-Chatkontrolle.

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​ Weiterlesen »

AlpineJS-Tutorial​

Allgemein

Weniger Gepäck (wie mit AlpineJS) ist in manchen Situationen die bessere Wahl.Taras Hipp | shutterstock.com Auf mehrtägigen Outdoor-Trips stellt man sich schnell die Frage, ob sich manche Gepäckstücke eigentlich rechtfertigen. Das verhält sich mit den Entscheidungen, die im Rahmen des Softwareentwicklungsprozesses zu treffen sind, ganz ähnlich: Jede neue Systemkomponente birgt zusätzliche Komplexität, weshalb sich auch jede einzelne am Ende bezahlt machen sollte. Dass weniger oft mehr ist, beweist auch Alpine.js als die Option für Minimalisten unter den JavaScript-Frameworks. Das Rahmenwerk bietet eine beeindruckende Funktionsbandbreite – bei einem sehr überschaubaren Footprint. Dieses Tutorial behandelt die Grundlagen von AlpineJS anhand einiger Beispiele. Sämtlichen Code in diesem Artikel finden Sie auch auf GitHub. Die Minimal-API von AlpineJS Wie in der Dokumentation nachzulesen ist, besteht AlpineJS aus einer Kollektion von: 15 Attributen, sechs Eigenschaften und zwei Methoden. Diese überschaubare API realisiert ein simplifiziertes Reactivity-Paket, das mit einigen praktischen Extras wie Eventing und einem Store garniert ist. Eine einfache Webseite: Abgesehen von der Einbindung des Alpine-Pakets über CDN sind die einzigen Alpine-bezogenen Dinge in diesem Beispiel die beiden Direktiven x-data und x-text. Wenn Sie den Beispielcode in eine HTML-Seite auf Ihrem System einfügen und im Browser anzeigen, sehen Sie die Nachricht „Text literal“. Das ist wenig beeindruckend, demonstriert aber zwei interessante Fakten in Zusammenhang mit AlpineJS: Damit die Reactivity greift, müssen Sie das Markup in eine x-data-Direktive einschließen. Wird letztere entfernt, bleibt x-text wirkungslos. Die x-data-Direktive erstellt also eine Alpine-Komponente. In diesem Fall ist die Direktive leer – in der Praxis ist das in den allermeisten Fällen nicht so. Schließlich geht es um Komponenten, deren Zweck es ist, auf diese Daten zu „reagieren“. Lässt sich jeder gültige JavaScript-Code in x-text einfügen – was für alle Alpine-Direktiven gilt. Die x-text-Property verbindet HTML (die Ansicht) und JavaScript (das Verhalten). Alpine & HTMX Um seine Funktionalität zu definieren, nutzt AlpineJS HTML-Attribute. Insofern ähnelt es in gewisser Weise HTMX. Trotzdem sich die beiden Technologien voneinander unterscheiden, nutzen beide mit x-prefix HTML-Extension-Properties, um gutes, altes HTML performanter zu machen. x-data- & x-text-Elemente nutzen Der Inhalt von x-data wird allen enthaltenen Elementen zur Verfügung gestellt. Für ein besseres Verständnis werfen Sie einen Blick auf folgenden Code: Der Output auf der Seite sind jetzt die ersten Worte der US-amerikanischen Unabhängigkeitserklärung. Wie Sie sehen, hat x-data ein simples, altes JavaScript-Objekt mit einem einzigen Feld definiert – „message“. Auf dieses Objektfeld, das die Präambel enthält, verweist x-text. Reactivity nutzen Um einen Fehler im Dokument zu beheben, nutzen wir im folgenden Beispiel Reactivity: Fix It In diesem Code bezieht sich die x-text-Direktive auf die Substantivvariable, die durch sie offengelegt wird. Neu ist die Schaltfläche (Button), die mit einer x-on:click-Direktive ausgestattet ist. Der Handler für diesen Click Event ersetzt das alte Default-Nomen („men“) durch das genderneutrale „people“. Darum, die Referenz in x-text zu aktualisieren, „kümmert“ sich die Reactivity. Die Benutzeroberfläche spiegelt die Änderungen automatisch wider. Funktionen in Daten Bei den Data Properties in AlpineJS handelt es sich um voll funktionsfähige JavaScript-Objekte. Mit diesem Wissen lässt sich die oben genannte Anforderung auch auf andere Weise erfüllen: Fix It Diesem Beispielcode ist zu entnehmen, dass das data-Objekt jetzt eine fixIt-Methode hostet, die vom Click Handler aufgerufen wird. Die Objektstruktur lässt sich dabei anpassen – je nachdem, wie sich das HTML verhalten soll. script vs. x-data Es kann vorkommen, dass Ihnen Code begegnet, der über die x-data -Direktive eine Funktion aufruft, die in einem script -Tag definiert ist. Das ist eine Frage des persönlichen Geschmacks, weil es genauso funktioniert, wie ein Inline- x-data: … … Remote-Daten abrufen Um die Anforderungen etwas nach oben zu schrauben, soll es im nächsten Beispiel darum gehen, eine JSON-formatierte Liste der US-Präsidenten über eine externe API zu laden. Im ersten Schritt sorgen wir dafür, dass diese geladen wird, sobald auch die Seite geladen wird. Dafür nutzen wir die x-init-Direktive: Mit Blick auf diesen Code ist zu sagen, dass die x-data-Direktive nun ein einfaches presidents-Feld mit einem leeren Array aufweist. Den Inhalt dieses Felds gibt x-text innerhalb des span-Elements aus. Der x-init-Part gestaltet sich etwas komplexer: Er ist in eine Self-Executing-Funktion eingeschlossen. Das liegt daran, dass AlpineJS eine Funktion erwartet – keine Funktionsdefinition. Sobald die Liste der Präsidenten vom Endpunkt abgerufen wurde, fügen wir sie der presidents-Variablen hinzu, die Alpine im Rahmen seines x-data-Objekts zur Verfügung gestellt hat. Iteration mit AlpineJS An diesem Punkt ruft die App die Daten vom Remote-Endpunkt ab und speichert sie. Allerdings liefert sie ungewollte Outputs wie [Object], [Object] …. Um dieses Problem zu beheben, müssen wir uns zunächst die Iteration über die Daten ansehen: From: Until: Dieser Code enthält eine normale, ungeordnete Liste sowie ein HTML-Vorlagenelement, das wiederum eine x-for-Direktive enthält. Diese funktioniert genauso wie in anderen reaktiven Frameworks und ermöglicht es, eine Collection und einen Identifier zu spezifizieren. Diese werden dem eingeschlossenen Markup zur Verfügung gestellt, das die jeweilige Instanz dieser Sammlung repräsentiert (in diesem Fall pres). Der Rest des Markups verwendet die pres-Variable, um über x-text Daten aus den Objekten auszugeben. Die App sieht nun in etwa wie im nachfolgenden Screenshot aus: loading=”lazy” width=”400px”>IDG Show/Hide & onClick Angenommen, wir möchten nun die Möglichkeit hinzufügen, auf die Daten für den jeweiligen Präsidenten umzuschalten, indem man auf dessen Namen klickt. Dazu würden wir das Markup wie folgt verändern: From: Until: In diesem Beispiel wenden wir die x-show-Direktive auf ein div an, das die Details des Präsidenten enthält. Ob der Inhalt sichtbar ist oder nicht, bestimmt die „Truthiness“ des x-show-Werts. In unserem Fall wird das durch das pres.show-Feld definiert. Um Daten und Verhalten besser voneinander zu isolieren, ist im Fall einer realen Anwendung davon abzuraten, Geschäftsdaten zu nutzen, um die show/hide-Variable zu hosten. Um den Wert von pres.show zu verändern, ergänzen wir den Header um einen x-on:click-Handler. Dieser tauscht einfach den true/false-Wert von pres.show: pres.show = ! pres.show. Übergangsanimation hinzufügen AlpineJS enthält integrierte „Transitions“, die sich auf die show-/hide-Funktion anwenden lassen. Eine Standardanimation fügen Sie folgendermaßen hinzu: From: Until: Geändert hat sich lediglich das Element, das die x-show-Direktive enthält – nun weist es außerdem eine x-transition-Anweisung auf. In diesem Fall kommt ein „Slide & Fade“-Effekt zum Einsatz. Sie können den Übergangseffekt jedoch umfassend anpassen – oder auch eigene CSS-Klassen einbringen. Tiefergehende Informationen zum Thema Transitions in AlpineJS hält die Dokumentation bereit. Binding an Inputs Im nächsten Schritt ergänzen wir eine simple Filterfunktion. Dazu ist es nötig, einen Input hinzuzufügen, der an die Daten gebunden wird und die zurückgegebenen Datensätze auf der Grundlage dieses Werts filtern: … Das x-data-Objekt weist nun ein „Filter“-Feld auf. Dieses ist über die x-model-Direktive bidirektional an das Eingabeelement gebunden und verweist auf “filter“. Wir haben die x-for-Direktive der Vorlage geändert, um auf eine neue getPresidents()-Methode zu verweisen, die im x-data-Objekt implementiert ist. Diese verwendet Standard-JavaScript-Syntax, um die Präsidenten danach zu filtern, ob ihr Filterfeld Text enthält. Die $dispatch-Direktive von AlpineJS Eventuell wirft die Kommunikation zwischen den Komponenten Fragen auf. AlpineJS verzichtet darauf, diese explizit zu „verdrahten“ – so gibt es beispielsweise keine parent-to-child-Properties. Stattdessen nutzt das Framework eine Browserumgebung (zum Beispiel das Fenster) über die $dispatch-Direktive als Event Bus. Das steht mit der AlpineJS-Philosophie in Einklang, nur so viel Funktionalität hinzuzufügen, wie nötig ist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

AlpineJS-Tutorial​ Weniger Gepäck (wie mit AlpineJS) ist in manchen Situationen die bessere Wahl.Taras Hipp | shutterstock.com

Auf mehrtägigen Outdoor-Trips stellt man sich schnell die Frage, ob sich manche Gepäckstücke eigentlich rechtfertigen. Das verhält sich mit den Entscheidungen, die im Rahmen des Softwareentwicklungsprozesses zu treffen sind, ganz ähnlich: Jede neue Systemkomponente birgt zusätzliche Komplexität, weshalb sich auch jede einzelne am Ende bezahlt machen sollte.

Dass weniger oft mehr ist, beweist auch Alpine.js als die Option für Minimalisten unter den JavaScript-Frameworks. Das Rahmenwerk bietet eine beeindruckende Funktionsbandbreite – bei einem sehr überschaubaren Footprint. Dieses Tutorial behandelt die Grundlagen von AlpineJS anhand einiger Beispiele. Sämtlichen Code in diesem Artikel finden Sie auch auf GitHub.

Die Minimal-API von AlpineJS

Wie in der Dokumentation nachzulesen ist, besteht AlpineJS aus einer Kollektion von:

15 Attributen,

sechs Eigenschaften und

zwei Methoden.

Diese überschaubare API realisiert ein simplifiziertes Reactivity-Paket, das mit einigen praktischen Extras wie Eventing und einem Store garniert ist. Eine einfache Webseite:

Abgesehen von der Einbindung des Alpine-Pakets über CDN sind die einzigen Alpine-bezogenen Dinge in diesem Beispiel die beiden Direktiven x-data und x-text.

Wenn Sie den Beispielcode in eine HTML-Seite auf Ihrem System einfügen und im Browser anzeigen, sehen Sie die Nachricht „Text literal“. Das ist wenig beeindruckend, demonstriert aber zwei interessante Fakten in Zusammenhang mit AlpineJS:

Damit die Reactivity greift, müssen Sie das Markup in eine x-data-Direktive einschließen. Wird letztere entfernt, bleibt x-text wirkungslos. Die x-data-Direktive erstellt also eine Alpine-Komponente. In diesem Fall ist die Direktive leer – in der Praxis ist das in den allermeisten Fällen nicht so. Schließlich geht es um Komponenten, deren Zweck es ist, auf diese Daten zu „reagieren“.

Lässt sich jeder gültige JavaScript-Code in x-text einfügen – was für alle Alpine-Direktiven gilt. Die x-text-Property verbindet HTML (die Ansicht) und JavaScript (das Verhalten).

Alpine & HTMX
Um seine Funktionalität zu definieren, nutzt AlpineJS HTML-Attribute. Insofern ähnelt es in gewisser Weise HTMX. Trotzdem sich die beiden Technologien voneinander unterscheiden, nutzen beide mit x-prefix HTML-Extension-Properties, um gutes, altes HTML performanter zu machen.

x-data- & x-text-Elemente nutzen

Der Inhalt von x-data wird allen enthaltenen Elementen zur Verfügung gestellt. Für ein besseres Verständnis werfen Sie einen Blick auf folgenden Code:

Der Output auf der Seite sind jetzt die ersten Worte der US-amerikanischen Unabhängigkeitserklärung. Wie Sie sehen, hat x-data ein simples, altes JavaScript-Objekt mit einem einzigen Feld definiert – „message“. Auf dieses Objektfeld, das die Präambel enthält, verweist x-text.

Reactivity nutzen

Um einen Fehler im Dokument zu beheben, nutzen wir im folgenden Beispiel Reactivity:

Fix It

In diesem Code bezieht sich die x-text-Direktive auf die Substantivvariable, die durch sie offengelegt wird. Neu ist die Schaltfläche (Button), die mit einer x-on:click-Direktive ausgestattet ist.

Der Handler für diesen Click Event ersetzt das alte Default-Nomen („men“) durch das genderneutrale „people“. Darum, die Referenz in x-text zu aktualisieren, „kümmert“ sich die Reactivity. Die Benutzeroberfläche spiegelt die Änderungen automatisch wider.

Funktionen in Daten

Bei den Data Properties in AlpineJS handelt es sich um voll funktionsfähige JavaScript-Objekte. Mit diesem Wissen lässt sich die oben genannte Anforderung auch auf andere Weise erfüllen:

Fix It

Diesem Beispielcode ist zu entnehmen, dass das data-Objekt jetzt eine fixIt-Methode hostet, die vom Click Handler aufgerufen wird. Die Objektstruktur lässt sich dabei anpassen – je nachdem, wie sich das HTML verhalten soll.

script vs. x-data
Es kann vorkommen, dass Ihnen Code begegnet, der über die x-data -Direktive eine Funktion aufruft, die in einem script -Tag definiert ist. Das ist eine Frage des persönlichen Geschmacks, weil es genauso funktioniert, wie ein Inline- x-data:


Remote-Daten abrufen

Um die Anforderungen etwas nach oben zu schrauben, soll es im nächsten Beispiel darum gehen, eine JSON-formatierte Liste der US-Präsidenten über eine externe API zu laden. Im ersten Schritt sorgen wir dafür, dass diese geladen wird, sobald auch die Seite geladen wird. Dafür nutzen wir die x-init-Direktive:

Mit Blick auf diesen Code ist zu sagen, dass die x-data-Direktive nun ein einfaches presidents-Feld mit einem leeren Array aufweist. Den Inhalt dieses Felds gibt x-text innerhalb des span-Elements aus. Der x-init-Part gestaltet sich etwas komplexer: Er ist in eine Self-Executing-Funktion eingeschlossen. Das liegt daran, dass AlpineJS eine Funktion erwartet – keine Funktionsdefinition.

Sobald die Liste der Präsidenten vom Endpunkt abgerufen wurde, fügen wir sie der presidents-Variablen hinzu, die Alpine im Rahmen seines x-data-Objekts zur Verfügung gestellt hat.

Iteration mit AlpineJS

An diesem Punkt ruft die App die Daten vom Remote-Endpunkt ab und speichert sie. Allerdings liefert sie ungewollte Outputs wie [Object], [Object] …. Um dieses Problem zu beheben, müssen wir uns zunächst die Iteration über die Daten ansehen:

From: Until:

Dieser Code enthält eine normale, ungeordnete Liste sowie ein HTML-Vorlagenelement, das wiederum eine x-for-Direktive enthält. Diese funktioniert genauso wie in anderen reaktiven Frameworks und ermöglicht es, eine Collection und einen Identifier zu spezifizieren. Diese werden dem eingeschlossenen Markup zur Verfügung gestellt, das die jeweilige Instanz dieser Sammlung repräsentiert (in diesem Fall pres).

Der Rest des Markups verwendet die pres-Variable, um über x-text Daten aus den Objekten auszugeben. Die App sieht nun in etwa wie im nachfolgenden Screenshot aus:

loading=”lazy” width=”400px”>IDG

Show/Hide & onClick

Angenommen, wir möchten nun die Möglichkeit hinzufügen, auf die Daten für den jeweiligen Präsidenten umzuschalten, indem man auf dessen Namen klickt. Dazu würden wir das Markup wie folgt verändern:

From: Until:

In diesem Beispiel wenden wir die x-show-Direktive auf ein div an, das die Details des Präsidenten enthält. Ob der Inhalt sichtbar ist oder nicht, bestimmt die „Truthiness“ des x-show-Werts. In unserem Fall wird das durch das pres.show-Feld definiert. Um Daten und Verhalten besser voneinander zu isolieren, ist im Fall einer realen Anwendung davon abzuraten, Geschäftsdaten zu nutzen, um die show/hide-Variable zu hosten.

Um den Wert von pres.show zu verändern, ergänzen wir den Header um einen x-on:click-Handler. Dieser tauscht einfach den true/false-Wert von pres.show: pres.show = ! pres.show.

Übergangsanimation hinzufügen

AlpineJS enthält integrierte „Transitions“, die sich auf die show-/hide-Funktion anwenden lassen. Eine Standardanimation fügen Sie folgendermaßen hinzu:

From: Until:

Geändert hat sich lediglich das Element, das die x-show-Direktive enthält – nun weist es außerdem eine x-transition-Anweisung auf. In diesem Fall kommt ein „Slide & Fade“-Effekt zum Einsatz. Sie können den Übergangseffekt jedoch umfassend anpassen – oder auch eigene CSS-Klassen einbringen.

Tiefergehende Informationen zum Thema Transitions in AlpineJS hält die Dokumentation bereit.

Binding an Inputs

Im nächsten Schritt ergänzen wir eine simple Filterfunktion. Dazu ist es nötig, einen Input hinzuzufügen, der an die Daten gebunden wird und die zurückgegebenen Datensätze auf der Grundlage dieses Werts filtern:

Das x-data-Objekt weist nun ein „Filter“-Feld auf. Dieses ist über die x-model-Direktive bidirektional an das Eingabeelement gebunden und verweist auf “filter“.

Wir haben die x-for-Direktive der Vorlage geändert, um auf eine neue getPresidents()-Methode zu verweisen, die im x-data-Objekt implementiert ist. Diese verwendet Standard-JavaScript-Syntax, um die Präsidenten danach zu filtern, ob ihr Filterfeld Text enthält.

Die $dispatch-Direktive von AlpineJS
Eventuell wirft die Kommunikation zwischen den Komponenten Fragen auf. AlpineJS verzichtet darauf, diese explizit zu „verdrahten“ – so gibt es beispielsweise keine parent-to-child-Properties. Stattdessen nutzt das Framework eine Browserumgebung (zum Beispiel das Fenster) über die $dispatch-Direktive als Event Bus. Das steht mit der AlpineJS-Philosophie in Einklang, nur so viel Funktionalität hinzuzufügen, wie nötig ist.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

AlpineJS-Tutorial​ Weiterlesen »

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​

Allgemein

15 Tipps, wie Sie relaxt in den Urlaub fahren, sich entspannen und möglichst lange von der Auszeit zehren. Foto: Song_about_summer – shutterstock.comHier nun 15 augenzwinkernde Tipps, wie Sie relaxt in Urlaub fahren, Ihre Auszeit entspannt genießen und von den “schönsten Wochen im Jahr” lange zehren.Verreisen Sie offiziell einen Tag früher. Sagen Sie allen Freunden und Bekannten sowie Kunden und Kollegen, mit denen Sie nicht direkt zusammenarbeiten, dass Ihr Urlaub einen Tag früher beginnt. Sonst stapeln sich am letzten Arbeitstag die dringlichen Aufgaben auf Ihrem Schreibtisch und Ihr Telefon klingelt ohne Unterlass.Vereinbaren Sie für den letzten Arbeitstag keine Reisetermine, Meetings sowie Arzt- und Friseurbesuche. Denn diese dauern oft länger als geplant. Die Folge: Sie starten völlig außer Atem in den Urlaub.Erledigen Sie vorm Urlaub alle wichtigen und dringlichen Aufgaben, die Sie nicht delegieren können. Sonst plagt Sie im Urlaub das schlechte Gewissen, und es fällt ihnen schwer, abzuschalten.Urlaub ist Urlaub. Lassen Sie alle Unterlagen, die Sie an Ihre Arbeit erinnern, zu Hause. Packen Sie auch keine Fachliteratur ein, die in Zusammenhang mit ihr steht. Und: Lesen Sie keine Tageszeitungen, schon gar nicht deren Wirtschaftsteil.Sagen Sie Ihren Assistenten oder Stellvertreterinnen: Nach meinem Urlaub sollten maximal so viele Vorgänge auf meinem Schreibtisch liegen, wie ich Urlaubstage habe. Sonst verleidet Ihnen der Gedanke an die Arbeit, die Sie erwartet, die letzten Urlaubstage.Vergessen Sie Ihr Smartphone zuhause. Denn wenn Sie sich permanent darüber informieren, was zuhause oder an der Börse passiert, gewinnen Sie nicht den nötigen Abstand vom Alltag, um wirklich weg zu sein. Sollte dies nicht möglich sein, dann lassen Sie zum Beispiel die eingehenden Telefonate in der Mailbox auflaufen. Dann entscheiden Sie, ob und wann Sie zurückrufen.Beginnen Sie vier, fünf Tage vorm Reiseantritt mit dem Packen. Dann können Sie noch rechtzeitig einen neuen Bikini oder eine neue Badehose kaufen, wenn Sie feststellen, dass Sie in Ihrem alten Outfit keine gute Figur mehr machen.Stimmen Sie sich bereits zu Hause auf den Urlaub ein. Zum Beispiel, indem Sie abends im Bett Reiseführer schmökern oder sich in YouTube Filmchen über Ihr Urlaubsziel anschauen.Feiern Sie Ihren Urlaubsbeginn. Zum Beispiel, indem Sie im Flugzeug ein Gläschen Sekt trinken.Vergessen Sie im Urlaub alles, was Sie über das Thema Zeit- und Selbstmanagement gehört haben. Im Urlaub gibt es nur eine “wichtige” und “dringliche” Aufgabe: sich erholen.Übertragen Sie das Leistungsdenken, dem Sie im Alltag huldigen, nicht auf Ihren Urlaub. Sie müssen nicht jeden Berg erklimmen und jedes Museum besuchen.Gestalten Sie Ihren Urlaub “agil”. Arbeiten Sie kein starres, vorab formuliertes Urlaubsproramm ab. Machen Sie das, wozu Sie gerade Lust und Laune haben – zum Beispiel nichts.Lassen Sie “Fünfe gerade sein”. Bei der Arbeit können Sie dem “Null-Fehler-Prinzip” huldigen. Doch im Urlaub sollten Sie ein “easy living” praktizieren. Sonst ärgern Sie sich über jeden lahmen Kellner und zu warmen Cocktail.“Verlängern” Sie Ihren Urlaub. Sagen Sie allen Personen, mit denen Sie nicht direkt zusammenarbeiten, dass Sie erst zwei Tage später zurückkehren. Sonst klingelt Ihr Telefon nach der Rückkehr ohne Unterlass. Dann ist die Erholung im Handumdrehen verflogen.Behalten Sie den Urlaub in Erinnerung. Stellen Sie ein Urlaubsfoto auf Ihren Schreibtisch. Oder laden Sie es als Startbild auf Ihren PC. Dann können Sie noch ab und zu von der Südsee oder den Bergen träumen.Und noch ein Tipp: Auch ein Urlaub in Balkonien beziehungsweise im heimischen Garten kann sehr erholsam sein. Es muss nicht immer eine Flug- beziehungsweise Fernreise sein.Lesen Sie auchSo gelingt nach dem Urlaub die Rückkehr ins BüroDie besten Apps für Meditation und Fitness 

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​ 15 Tipps, wie Sie relaxt in den Urlaub fahren, sich entspannen und möglichst lange von der Auszeit zehren.
Foto: Song_about_summer – shutterstock.comHier nun 15 augenzwinkernde Tipps, wie Sie relaxt in Urlaub fahren, Ihre Auszeit entspannt genießen und von den “schönsten Wochen im Jahr” lange zehren.Verreisen Sie offiziell einen Tag früher. Sagen Sie allen Freunden und Bekannten sowie Kunden und Kollegen, mit denen Sie nicht direkt zusammenarbeiten, dass Ihr Urlaub einen Tag früher beginnt. Sonst stapeln sich am letzten Arbeitstag die dringlichen Aufgaben auf Ihrem Schreibtisch und Ihr Telefon klingelt ohne Unterlass.Vereinbaren Sie für den letzten Arbeitstag keine Reisetermine, Meetings sowie Arzt- und Friseurbesuche. Denn diese dauern oft länger als geplant. Die Folge: Sie starten völlig außer Atem in den Urlaub.Erledigen Sie vorm Urlaub alle wichtigen und dringlichen Aufgaben, die Sie nicht delegieren können. Sonst plagt Sie im Urlaub das schlechte Gewissen, und es fällt ihnen schwer, abzuschalten.Urlaub ist Urlaub. Lassen Sie alle Unterlagen, die Sie an Ihre Arbeit erinnern, zu Hause. Packen Sie auch keine Fachliteratur ein, die in Zusammenhang mit ihr steht. Und: Lesen Sie keine Tageszeitungen, schon gar nicht deren Wirtschaftsteil.Sagen Sie Ihren Assistenten oder Stellvertreterinnen: Nach meinem Urlaub sollten maximal so viele Vorgänge auf meinem Schreibtisch liegen, wie ich Urlaubstage habe. Sonst verleidet Ihnen der Gedanke an die Arbeit, die Sie erwartet, die letzten Urlaubstage.Vergessen Sie Ihr Smartphone zuhause. Denn wenn Sie sich permanent darüber informieren, was zuhause oder an der Börse passiert, gewinnen Sie nicht den nötigen Abstand vom Alltag, um wirklich weg zu sein. Sollte dies nicht möglich sein, dann lassen Sie zum Beispiel die eingehenden Telefonate in der Mailbox auflaufen. Dann entscheiden Sie, ob und wann Sie zurückrufen.Beginnen Sie vier, fünf Tage vorm Reiseantritt mit dem Packen. Dann können Sie noch rechtzeitig einen neuen Bikini oder eine neue Badehose kaufen, wenn Sie feststellen, dass Sie in Ihrem alten Outfit keine gute Figur mehr machen.Stimmen Sie sich bereits zu Hause auf den Urlaub ein. Zum Beispiel, indem Sie abends im Bett Reiseführer schmökern oder sich in YouTube Filmchen über Ihr Urlaubsziel anschauen.Feiern Sie Ihren Urlaubsbeginn. Zum Beispiel, indem Sie im Flugzeug ein Gläschen Sekt trinken.Vergessen Sie im Urlaub alles, was Sie über das Thema Zeit- und Selbstmanagement gehört haben. Im Urlaub gibt es nur eine “wichtige” und “dringliche” Aufgabe: sich erholen.Übertragen Sie das Leistungsdenken, dem Sie im Alltag huldigen, nicht auf Ihren Urlaub. Sie müssen nicht jeden Berg erklimmen und jedes Museum besuchen.Gestalten Sie Ihren Urlaub “agil”. Arbeiten Sie kein starres, vorab formuliertes Urlaubsproramm ab. Machen Sie das, wozu Sie gerade Lust und Laune haben – zum Beispiel nichts.Lassen Sie “Fünfe gerade sein”. Bei der Arbeit können Sie dem “Null-Fehler-Prinzip” huldigen. Doch im Urlaub sollten Sie ein “easy living” praktizieren. Sonst ärgern Sie sich über jeden lahmen Kellner und zu warmen Cocktail.“Verlängern” Sie Ihren Urlaub. Sagen Sie allen Personen, mit denen Sie nicht direkt zusammenarbeiten, dass Sie erst zwei Tage später zurückkehren. Sonst klingelt Ihr Telefon nach der Rückkehr ohne Unterlass. Dann ist die Erholung im Handumdrehen verflogen.Behalten Sie den Urlaub in Erinnerung. Stellen Sie ein Urlaubsfoto auf Ihren Schreibtisch. Oder laden Sie es als Startbild auf Ihren PC. Dann können Sie noch ab und zu von der Südsee oder den Bergen träumen.Und noch ein Tipp: Auch ein Urlaub in Balkonien beziehungsweise im heimischen Garten kann sehr erholsam sein. Es muss nicht immer eine Flug- beziehungsweise Fernreise sein.Lesen Sie auchSo gelingt nach dem Urlaub die Rückkehr ins BüroDie besten Apps für Meditation und Fitness

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​ Weiterlesen »

Voll retro: Diese DOS-Spiele haben uns begeistert​

Allgemein

Das waren noch Zeiten – das Betriebssystem MS DOS 6.22 passte auf drei Floppy Disks mit jeweils 1,44 Megabyte. Foto: Jirik V – shutterstock.comDie Optik pixelig, der Ablauf ruckelig, die Abstürze häufig – und an 3D hat wirklich noch niemand gedacht. Trotz aller Einschränkungen hielten sie uns nächtelang wach, die ersten DOS-Spiele. Wenn man endlich die config.sys und autoexec.bat richtig eingestellt, seine Soundblaster-Konfiguration hinbekommen und genügend Speicher – jedes Kilobyte (!) war wertvoll – freigeschaufelt hatte, konnte es losgehen. Auf den Rechenboliden, mit denen wir heute arbeiten, laufen die DOS-Klassiker nicht mehr. Das liegt nicht nur daran, dass mit der Floppy-Disk ein elementar wichtiges Speichermedium mit sage und schreibe 1,44 Megabyte fehlt. Doch es gibt Mittel und Wege, die Nostalgiker zu neuem Leben zu erwecken. Das gemeinnützige Projekt Internet Archive in San Francisco hat es sich zur Aufgabe gemacht, die Perlen aus der Software-Steinzeit zu hüten und zu bewahren.Hier finden Sie heute die Klassiker von damals:Internet ArchiveDOS Games ArchiveAbandonware DOSDOS GamerWer die Spiele seiner Jugendzeiten zocken möchte, kann das in einem Browser-basierten Emulator tun. Tauchen Sie ein in die Welt von Larry, Loom und Lemmings. Hier ein kleiner Überblick über die Favoriten von damals: LemmingsGrüne Haare, blaues Kleidchen und alle ein bisschen doof – vielleicht hatte ich die Lemminge deshalb so gern. Wenn die putzigen Kerlchen ins Spielfeld purzelten, blindlings losliefen und man blitzschnell überlegen musste, wie man möglichst viele von ihnen heile zum Ausgang bugsiert, schlug der Puls jedes Mal höher. Jeder Lemming, den ich in eine Zeitbombe verwandeln musste, damit er mit seinem Dahinscheiden ein Loch in Decke oder Wand sprengte, um seinen Freunden den Weg zu bahnen, tat mir leid. Lemmings Foto: PsygnosisLemmings Foto: PsygnosisThe Incredible Machine (TIM)Da gehört das Zahnrad hin – oder doch das Förderband? Es war immer ein Triumphgefühl, wenn es endlich gelang, alle verfügbaren Teile so zu einer Maschine zusammenzusetzen, dass sie das tat, was sie tun sollte. Das Arsenal war unerschöpflich – Kanonen, Luftballons, Abflussrohre bis hin zum Küchenmixer und der Miezekatze – genauso wie der Spaß, den wir mit dem Game hatten. The Incredible Machine Foto: Sierra EntertainmentThe Incredible Machine Foto: Sierra_EntertainmentEpic Pinball Unter den zahllosen Flippern der DOS-Ära war Epic Pinball mein Favorit. Schon die ersten Tische “Android“, “Pot of Gold”, “Excalibur” oder “Deep Sea” brachten jede Menge Flipper-Spaß. Doch “Enigma” mit seinen knallig farbigen und flirrenden Hintergründen, fast ohne Tischkonturen, trieb mich regelmäßig in den Wahnsinn, wenn mich das Fingerspitzengefühl verließ, ich meine letzte Kugel zu heftig zurück ins Spiel drosch und diese wieder einmal auf der Flipper-Mine landete. Game over hieß es dann, doch für echte Zocker traf das noch lange nicht zu. Epic Pinball Foto: Epic MegaGamesEpic Pinball Foto: MegaGamesX-Wing “Es war einmal vor langer Zeit in einer weit, weit entfernten Galaxis”: Wer in der 70er und 80er Jahren Star Wars verfallen war, für den war das 1994 herausgekommene X-Wing natürlich ein Muss. Im X-Flügler der Rebellenallianz selbst die TIE-Jäger des Imperiums ins Visier zu nehmen – das war ein Riesen-Abenteuer. Dabei war die Aufgabe durchaus komplex. Es gab unterschiedlichste Missionen, Spielpunkte mussten gesammelt werden, um Orden und Beförderungen zu ergattern. Letztere hat man besser in einer manuell angelegten Sicherungskopie gespeichert – denn sonst musste man wieder von vorne anfangen, wenn einen die Macht im Stich gelassen und der Imperiums-Pilot gut gezielt hatte. Der quäkende Computersound der Star-Wars-Musikmotive ist heute auf jeden Fall ein Lacher. X-Wing Foto: LucasArts EntertainmentX-Wing Foto: LucasArts EntertainmentPrince of Persia 60 Minuten, dann stirbt die Prinzessin, die der böse, machtgierige Wesir Jaffar in seine Gewalt gebracht hat. Das waren die längsten 60 Minuten meines früheren Zocker-Lebens. Prince of Persia war im Grunde das erste Echtzeitspiel. Zwischendrin anzuhalten, den Spielstand abzuspeichern oder einfach mal die Hände auszuschütteln – das war nicht. Wer sich darauf einließ, musste eine Stunde Fallen überwinden und im Schwertkampf Jaffars Palastwachen ausschalten. Schließlich ging es um eine Prinzessin. War sie endlich gerettet, wurde man selbst zum Prince of Persia. Prince of Persia Foto: Broderbund SoftwarePrince of Persia Foto: Broderbund SoftwareDie Siedler 1994 kamen “Die Siedler” für DOS heraus. Ein Spiel mit Suchtcharakter. Stundenlang konnte man tüfteln. Wo soll die nächste Siedlung hin? Was brauche ich an Rohstoffen? Reichen die Soldaten aus, um die eigene Burg zu verteidigen? Es war jedes Mal zum Haare raufen, wenn die Strategie bis ins letzte Detail ausgefeilt schien und dann doch die Träger ausgingen und Steine nicht mehr abtransportiert werden konnten. Die Siedler Foto: Blue Byte SoftwareDie Siedler Foto: Blue Byte SoftwareDonkey Kong Kein Zweifel, der rosa Gorilla war Kult. Donkey Kong gilt als Mutter aller Jump’n-Run-Games. Früher war dieses Spiel genau das richtige, um zwischendrin kurz abzuschalten. Auch wenn Donkey Kong höhnisch grinste und den Spieler mit Stahlträgern bewarf, irgendwie fand er doch den Weg über die Leitern, um Pauline aus den Fängen des Ungetüms zu befreien.Donkey Kong Foto: AtariDonkey Kong Foto: Atari 

Voll retro: Diese DOS-Spiele haben uns begeistert​ Das waren noch Zeiten – das Betriebssystem MS DOS 6.22 passte auf drei Floppy Disks mit jeweils 1,44 Megabyte.
Foto: Jirik V – shutterstock.comDie Optik pixelig, der Ablauf ruckelig, die Abstürze häufig – und an 3D hat wirklich noch niemand gedacht. Trotz aller Einschränkungen hielten sie uns nächtelang wach, die ersten DOS-Spiele. Wenn man endlich die config.sys und autoexec.bat richtig eingestellt, seine Soundblaster-Konfiguration hinbekommen und genügend Speicher – jedes Kilobyte (!) war wertvoll – freigeschaufelt hatte, konnte es losgehen. Auf den Rechenboliden, mit denen wir heute arbeiten, laufen die DOS-Klassiker nicht mehr. Das liegt nicht nur daran, dass mit der Floppy-Disk ein elementar wichtiges Speichermedium mit sage und schreibe 1,44 Megabyte fehlt. Doch es gibt Mittel und Wege, die Nostalgiker zu neuem Leben zu erwecken. Das gemeinnützige Projekt Internet Archive in San Francisco hat es sich zur Aufgabe gemacht, die Perlen aus der Software-Steinzeit zu hüten und zu bewahren.Hier finden Sie heute die Klassiker von damals:Internet ArchiveDOS Games ArchiveAbandonware DOSDOS GamerWer die Spiele seiner Jugendzeiten zocken möchte, kann das in einem Browser-basierten Emulator tun. Tauchen Sie ein in die Welt von Larry, Loom und Lemmings. Hier ein kleiner Überblick über die Favoriten von damals: LemmingsGrüne Haare, blaues Kleidchen und alle ein bisschen doof – vielleicht hatte ich die Lemminge deshalb so gern. Wenn die putzigen Kerlchen ins Spielfeld purzelten, blindlings losliefen und man blitzschnell überlegen musste, wie man möglichst viele von ihnen heile zum Ausgang bugsiert, schlug der Puls jedes Mal höher. Jeder Lemming, den ich in eine Zeitbombe verwandeln musste, damit er mit seinem Dahinscheiden ein Loch in Decke oder Wand sprengte, um seinen Freunden den Weg zu bahnen, tat mir leid. Lemmings
Foto: PsygnosisLemmings
Foto: PsygnosisThe Incredible Machine (TIM)Da gehört das Zahnrad hin – oder doch das Förderband? Es war immer ein Triumphgefühl, wenn es endlich gelang, alle verfügbaren Teile so zu einer Maschine zusammenzusetzen, dass sie das tat, was sie tun sollte. Das Arsenal war unerschöpflich – Kanonen, Luftballons, Abflussrohre bis hin zum Küchenmixer und der Miezekatze – genauso wie der Spaß, den wir mit dem Game hatten. The Incredible Machine
Foto: Sierra EntertainmentThe Incredible Machine
Foto: Sierra_EntertainmentEpic Pinball Unter den zahllosen Flippern der DOS-Ära war Epic Pinball mein Favorit. Schon die ersten Tische “Android“, “Pot of Gold”, “Excalibur” oder “Deep Sea” brachten jede Menge Flipper-Spaß. Doch “Enigma” mit seinen knallig farbigen und flirrenden Hintergründen, fast ohne Tischkonturen, trieb mich regelmäßig in den Wahnsinn, wenn mich das Fingerspitzengefühl verließ, ich meine letzte Kugel zu heftig zurück ins Spiel drosch und diese wieder einmal auf der Flipper-Mine landete. Game over hieß es dann, doch für echte Zocker traf das noch lange nicht zu. Epic Pinball
Foto: Epic MegaGamesEpic Pinball
Foto: MegaGamesX-Wing “Es war einmal vor langer Zeit in einer weit, weit entfernten Galaxis”: Wer in der 70er und 80er Jahren Star Wars verfallen war, für den war das 1994 herausgekommene X-Wing natürlich ein Muss. Im X-Flügler der Rebellenallianz selbst die TIE-Jäger des Imperiums ins Visier zu nehmen – das war ein Riesen-Abenteuer. Dabei war die Aufgabe durchaus komplex. Es gab unterschiedlichste Missionen, Spielpunkte mussten gesammelt werden, um Orden und Beförderungen zu ergattern. Letztere hat man besser in einer manuell angelegten Sicherungskopie gespeichert – denn sonst musste man wieder von vorne anfangen, wenn einen die Macht im Stich gelassen und der Imperiums-Pilot gut gezielt hatte. Der quäkende Computersound der Star-Wars-Musikmotive ist heute auf jeden Fall ein Lacher. X-Wing
Foto: LucasArts EntertainmentX-Wing
Foto: LucasArts EntertainmentPrince of Persia 60 Minuten, dann stirbt die Prinzessin, die der böse, machtgierige Wesir Jaffar in seine Gewalt gebracht hat. Das waren die längsten 60 Minuten meines früheren Zocker-Lebens. Prince of Persia war im Grunde das erste Echtzeitspiel. Zwischendrin anzuhalten, den Spielstand abzuspeichern oder einfach mal die Hände auszuschütteln – das war nicht. Wer sich darauf einließ, musste eine Stunde Fallen überwinden und im Schwertkampf Jaffars Palastwachen ausschalten. Schließlich ging es um eine Prinzessin. War sie endlich gerettet, wurde man selbst zum Prince of Persia. Prince of Persia
Foto: Broderbund SoftwarePrince of Persia
Foto: Broderbund SoftwareDie Siedler 1994 kamen “Die Siedler” für DOS heraus. Ein Spiel mit Suchtcharakter. Stundenlang konnte man tüfteln. Wo soll die nächste Siedlung hin? Was brauche ich an Rohstoffen? Reichen die Soldaten aus, um die eigene Burg zu verteidigen? Es war jedes Mal zum Haare raufen, wenn die Strategie bis ins letzte Detail ausgefeilt schien und dann doch die Träger ausgingen und Steine nicht mehr abtransportiert werden konnten. Die Siedler
Foto: Blue Byte SoftwareDie Siedler
Foto: Blue Byte SoftwareDonkey Kong Kein Zweifel, der rosa Gorilla war Kult. Donkey Kong gilt als Mutter aller Jump’n-Run-Games. Früher war dieses Spiel genau das richtige, um zwischendrin kurz abzuschalten. Auch wenn Donkey Kong höhnisch grinste und den Spieler mit Stahlträgern bewarf, irgendwie fand er doch den Weg über die Leitern, um Pauline aus den Fängen des Ungetüms zu befreien.Donkey Kong
Foto: AtariDonkey Kong
Foto: Atari

Voll retro: Diese DOS-Spiele haben uns begeistert​ Weiterlesen »

Google führt Unified-Security-Plattform ein​

Allgemein

Google Unified Security soll Unternehmen mehr Transparenz über aktuelle Bedrohungen bieten – plus die Möglichkeit, darauf zu reagieren.Foundry Unternehmensinfrastrukturen wachsen ständig und werden immer größer. Das vergrößert nicht nur die Angriffsfläche, sondern erschwert auch die Arbeit der Verteidiger. Gleichzeitig führen getrennte, unzusammenhängende Sicherheits-Tools zu fragmentierten Daten ohne relevanten Kontext. Das macht Unternehmen angesichts der eskalierenden Bedrohungslage verwundbar – zumal sie meist nur reaktiv agieren. Security-Teams arbeiten in Silos und werden durch mühsame Arbeitsabläufe gebremst, so dass es schwierig ist, das Gesamtrisikoprofil eines Unternehmens genau zu bewerten und zu verbessern.  Security-Überblick dank einheitlicher Konsole Um diesen Herausforderungen zu begegnen, hat Google auf der Cloud Next 25 mit Google Unified Security (GUS) eine KI-gestützte Security-Lösung vorgestellt, die Bedrohungsdaten aus internen und externen Quellen mit der Expertise von Googles Incident-Response-Abteilung Mandiant zusammenführt.   GUS schafft laut Google eine einzige, skalierbare, durchsuchbare Sicherheitsdatenstruktur über die gesamte Angriffsfläche. Dies biete Transparenz sowie Erkennungs- und Reaktionsmöglichkeiten über Netzwerke, Endpunkte, Clouds und Anwendungen hinweg. Gleichzeitig werden die Sicherheitsdaten automatisch mit den neuesten Google Threat-Intelligence-Daten angereichert, um eine effektivere Erkennung und Priorisierung zu ermöglichen.   Zu den in GUS integrierten Produkten gehören laut Google:  die in Google Security Operations integrierten Funktionen Browser-Telemetrie und Asset-Kontext von Chrome Enterprise, um die Erkennung von Bedrohungen und Abhilfemaßnahmen zu unterstützen.  Google Threat Intelligence zur Sicherheitsüberprüfung, um proaktiv Gefährdungen zu verstehen und Sicherheitskontrollen anhand der neuesten beobachteten Aktivitäten von Bedrohungsakteuren zu testen.  Informationen zu Cloud-Risiken und -Gefährdungen aus dem Security Command Center, einschließlich derer, die sich auf KI-Workloads auswirken, angereichert mit integrierter Google Threat Intelligence, um Bedrohungen effektiver aufzuspüren und Vorfälle zu klassifizieren.  “Google Unified Security stellt einen Schritt nach vorn dar, um bessere Sicherheitsergebnisse zu erzielen. Durch die Integration von Browser-Verhalten, Managed Threat Hunting und Sicherheitsüberprüfung werden Abdeckungslücken strategisch beseitigt und das Sicherheitsmanagement sowie die Erkennung und Reaktion auf Bedrohungen vereinfacht“, erklärt Michelle Abraham, Senior Research Director, Security and Trust bei IDC. Dieser Ansatz biete Unternehmen eine ganzheitlichere und optimierte Verteidigung gegen die komplexe Bedrohungslandschaft von heute.  Wirklich umfassend wird der Ansatz allerdings erst nach Abschluss der 32-Milliarden-Dollar schweren Übernahme von Wiz. So räumte Google Cloud bei der Bekanntgabe des Kaufs Mitte März ein, dass Unternehmen mit modernen IT-Umgebungen eine Cybersicherheitslösung benötigten, die mehrere Clouds sowie hybride und lokale Umgebungen abdeckt. Aktuell sei der Überblick in dieser Hinsicht noch eingeschränkt.  Agentic AI unterstützt Security-Teams  Neu vorgestellt wurden auf der Cloud Next in Las Vegas außerdem zwei auf Gemini basierende KI-Agenten, die bestimmte Sicherheitsfunktionen automatisieren können, um Ressourcen für Security-Teams freizusetzen. Dazu gehört ein Agent in Google Security Operations, der SecOps-Plattform des Unternehmens, der Alarme sortieren und Untersuchungen automatisch durchführen soll.  Dieser Agent zur Alarmtriage, der im zweiten Quartal als Vorschau verfügbar sein wird, ist laut Google in der Lage, den Kontext eines Alarms zu verstehen, indem er relevante Informationen sammelt und dann ein Urteil abgibt. Ein Sicherheitsexperte kann dann auf dieser Basis entscheiden, was zu tun ist. Google schätzt (nicht ganz ohne Grund), dass der KI-Agent die Arbeitsbelastung von Tier-1- und Tier-2-Analysten, die ansonsten Hunderte von Warnmeldungen pro Tag prüfen und untersuchen müssen, erheblich reduziert.  In Google Threat Intelligence wiederum untersucht künftig ein Malware-Analyse-Agent, ob Code sicher oder schädlich ist. Dieser Agent, der voraussichtlich im 2. Quartal 2025 für ausgewählte Kunden verfügbar sein wird, analysiert potenziell bösartigen Code und ist in der Lage, Skripte zur Deobfuscation zu erstellen und auszuführen. Am Ende fasst der Agent seine Arbeit zusammen und gibt ein endgültiges Urteil ab.  Neuerungen bei Google Security Operations & Co.  Daneben gab es noch zahlreiche Erweiterungen im Security-Portfolio, beziehungsweise neue Sicherheits-Features bei den Google-Cloud-Produkten. Hier ein Überblick:  Google Security Operations  Neue Funktionen für das Datenpipeline-Management: Effizientere Skalierung, Kostenkontrolle, Einhaltung von Compliance-Vorgaben. Integration mit Bindplane erlaubt unter anderem Filterung, Umleitung und Schwärzung sensibler Daten.  Mandiant Threat Defense ist jetzt allgemein verfügbar und bietet KI-gestützte Bedrohungserkennung und -reaktion. Die Experten von Mandiant arbeiten dabei mit den Sicherheitsteams der Kunden zusammen und setzen KI-gestützte Techniken ein, um Bedrohungen zu identifizieren und darauf zu reagieren, Untersuchungen durchzuführen und die Reaktion über SOAR-Playbooks für Sicherheitsoperationen zu skalieren.  Security Command Center  AI Protection hilft bei der Erkennung von KI-Beständen, der Sicherung von KI-Modellen und -Daten. Ferner werden Bedrohungen, die auf KI-Systeme abzielen, erkannt und es wird darauf reagiert.   Model Armor, eine Funktion, die Teil des bestehenden GCP-Dienstes AI Protection ist. Sie ermöglicht Kunden die Anwendung von Inhaltssicherheits- und Sicherheitskontrollen auf Prompts, die an selbst gehostete KI-Modelle gesendet werden – entweder auf der Google Cloud Platform oder über mehrere Clouds hinweg.  Eine Data-Security-Posture-Management-(DSPM-)Funktion, die im Juni als Vorschau verfügbar sein wird, erlaubt die Erkennung, Sicherung und Verwaltung sensibler Daten, einschließlich der zum Training von KI-Modellen verwendeten Datensätze.  Der Compliance Manager (Preview ab Ende Juni) versetzt Kunden in die Lage, Richtlinien zu definieren, Konfigurationen zu kontrollieren und deren Durchsetzung zu überwachen. Auf diese Weise soll es ihnen möglich sein, die Daten-Compliance sicherzustellen und gegenüber Prüfern nachzuweisen.  Weitere Features:  Integration mit Snyk zur Erkennung von Schwachstellen (Preview).  Neue Security-Dashboards für Google Compute Engine (GCE) und Google Kubernetes Engine (GKE) (allgemein verfügbar).  Chrome Enterprise  Neuer Phishing-Schutz in der Premium-Version schützt vor Lookalike-Domains, auch intern.  Erweiterte Datenschutzfunktionen: Datenmaskierung, Wasserzeichen, Kontrollfunktionen (auch auf Android).  Mandiant Cybersecurity Consulting  Mandiant Retainer: On-Demand-Zugang zu Incident-Response-Teams, einlösbar für Analysen & Trainings.  Trusted Cloud  Sovereign Cloud: Ausbau in 32 Regionen weltweit. Partnerschaft mit Thales für „S3NS Trusted Cloud“ (SecNumCloud-konform).  Identitäts- & Zugriffsmanagement:  Einheitliche IAM-Richtlinien (Vorschau),  Managed Workload Identities (Vorschau),  Workload Identity Federation mit X.509 (GA).  Datensicherheit:  Confidential Computing für GKE-Workloads & GPUs (Vorschau/GA),  Neue HSM-Lösungen (Single-Tenant & Bare Metal HSM in Vorschau),  Data Discovery für Vertex AI & Azure, Data-in-Motion-Scanning.  Netzwerksicherheit:  Google Cloud erhält neue Integrationen mit Anbietern von Netzwerksicherheitslösungen zum Schutz von Google Cloud Workloads sowie neue Funktionen und Möglichkeiten im Bereich der Netzwerksicherheit. Dazu gehören:   DNS Armor, eine Funktion zur Erkennung von DNS-basierten Bedrohungen. Sie wurde in Zusammenarbeit mit Infoblox Threat Defense entwickelt;   Inline-Schutz vor Datenverlusten für Secure Web Proxy (SWP) über Integrationen mit Google’s Sensitive Data Protection und Symantec DLP; und   L7-Domain-Filterfunktionen für Google’s Cloud NGFW Enterprise.  Endpunkt-Schutz  Beim Schutz von Endgeräten verlässt sich Google stark auf den Chrome-Enterprise-Browser und den kostenpflichtigen Chrome-Enterprise-Premium-Service, der Echtzeit-Schutz vor Malware und Phishing beim Surfen im Internet, Malware-Tiefenscans auf dem Endgerät, Schutz vor Datenverlust, URL-Filterung, Einblicke in das Nutzerverhalten und mehr bietet.  Zu den neuen Funktionen dieses Dienstes gehört die Möglichkeit für Unternehmen, ihr eigenes Branding und ihre Unternehmensressourcen zu konfigurieren, um Phishing-Versuche auf internen Domains zu erkennen. Außerdem gibt es eine neue Datenmaskierungsfunktion, die die DLP-Funktionen zusammen mit Wasserzeichen, der Sperrung von Screenshots und Kontrollen für Kopieren, Einfügen, Hochladen, Herunterladen und Drucken vervollständigt.  

Google führt Unified-Security-Plattform ein​ Google Unified Security soll Unternehmen mehr Transparenz über aktuelle Bedrohungen bieten – plus die Möglichkeit, darauf zu reagieren.Foundry

Unternehmensinfrastrukturen wachsen ständig und werden immer größer. Das vergrößert nicht nur die Angriffsfläche, sondern erschwert auch die Arbeit der Verteidiger. Gleichzeitig führen getrennte, unzusammenhängende Sicherheits-Tools zu fragmentierten Daten ohne relevanten Kontext. Das macht Unternehmen angesichts der eskalierenden Bedrohungslage verwundbar – zumal sie meist nur reaktiv agieren. Security-Teams arbeiten in Silos und werden durch mühsame Arbeitsabläufe gebremst, so dass es schwierig ist, das Gesamtrisikoprofil eines Unternehmens genau zu bewerten und zu verbessern. 

Security-Überblick dank einheitlicher Konsole

Um diesen Herausforderungen zu begegnen, hat Google auf der Cloud Next 25 mit Google Unified Security (GUS) eine KI-gestützte Security-Lösung vorgestellt, die Bedrohungsdaten aus internen und externen Quellen mit der Expertise von Googles Incident-Response-Abteilung Mandiant zusammenführt.  

GUS schafft laut Google eine einzige, skalierbare, durchsuchbare Sicherheitsdatenstruktur über die gesamte Angriffsfläche. Dies biete Transparenz sowie Erkennungs- und Reaktionsmöglichkeiten über Netzwerke, Endpunkte, Clouds und Anwendungen hinweg. Gleichzeitig werden die Sicherheitsdaten automatisch mit den neuesten Google Threat-Intelligence-Daten angereichert, um eine effektivere Erkennung und Priorisierung zu ermöglichen.  

Zu den in GUS integrierten Produkten gehören laut Google: 

die in Google Security Operations integrierten Funktionen Browser-Telemetrie und Asset-Kontext von Chrome Enterprise, um die Erkennung von Bedrohungen und Abhilfemaßnahmen zu unterstützen. 

Google Threat Intelligence zur Sicherheitsüberprüfung, um proaktiv Gefährdungen zu verstehen und Sicherheitskontrollen anhand der neuesten beobachteten Aktivitäten von Bedrohungsakteuren zu testen. 

Informationen zu Cloud-Risiken und -Gefährdungen aus dem Security Command Center, einschließlich derer, die sich auf KI-Workloads auswirken, angereichert mit integrierter Google Threat Intelligence, um Bedrohungen effektiver aufzuspüren und Vorfälle zu klassifizieren. 

“Google Unified Security stellt einen Schritt nach vorn dar, um bessere Sicherheitsergebnisse zu erzielen. Durch die Integration von Browser-Verhalten, Managed Threat Hunting und Sicherheitsüberprüfung werden Abdeckungslücken strategisch beseitigt und das Sicherheitsmanagement sowie die Erkennung und Reaktion auf Bedrohungen vereinfacht“, erklärt Michelle Abraham, Senior Research Director, Security and Trust bei IDC. Dieser Ansatz biete Unternehmen eine ganzheitlichere und optimierte Verteidigung gegen die komplexe Bedrohungslandschaft von heute. 

Wirklich umfassend wird der Ansatz allerdings erst nach Abschluss der 32-Milliarden-Dollar schweren Übernahme von Wiz. So räumte Google Cloud bei der Bekanntgabe des Kaufs Mitte März ein, dass Unternehmen mit modernen IT-Umgebungen eine Cybersicherheitslösung benötigten, die mehrere Clouds sowie hybride und lokale Umgebungen abdeckt. Aktuell sei der Überblick in dieser Hinsicht noch eingeschränkt. 

Agentic AI unterstützt Security-Teams 

Neu vorgestellt wurden auf der Cloud Next in Las Vegas außerdem zwei auf Gemini basierende KI-Agenten, die bestimmte Sicherheitsfunktionen automatisieren können, um Ressourcen für Security-Teams freizusetzen. Dazu gehört ein Agent in Google Security Operations, der SecOps-Plattform des Unternehmens, der Alarme sortieren und Untersuchungen automatisch durchführen soll. 

Dieser Agent zur Alarmtriage, der im zweiten Quartal als Vorschau verfügbar sein wird, ist laut Google in der Lage, den Kontext eines Alarms zu verstehen, indem er relevante Informationen sammelt und dann ein Urteil abgibt. Ein Sicherheitsexperte kann dann auf dieser Basis entscheiden, was zu tun ist. Google schätzt (nicht ganz ohne Grund), dass der KI-Agent die Arbeitsbelastung von Tier-1- und Tier-2-Analysten, die ansonsten Hunderte von Warnmeldungen pro Tag prüfen und untersuchen müssen, erheblich reduziert. 

In Google Threat Intelligence wiederum untersucht künftig ein Malware-Analyse-Agent, ob Code sicher oder schädlich ist. Dieser Agent, der voraussichtlich im 2. Quartal 2025 für ausgewählte Kunden verfügbar sein wird, analysiert potenziell bösartigen Code und ist in der Lage, Skripte zur Deobfuscation zu erstellen und auszuführen. Am Ende fasst der Agent seine Arbeit zusammen und gibt ein endgültiges Urteil ab. 

Neuerungen bei Google Security Operations & Co. 

Daneben gab es noch zahlreiche Erweiterungen im Security-Portfolio, beziehungsweise neue Sicherheits-Features bei den Google-Cloud-Produkten. Hier ein Überblick: 

Google Security Operations 

Neue Funktionen für das Datenpipeline-Management: Effizientere Skalierung, Kostenkontrolle, Einhaltung von Compliance-Vorgaben. Integration mit Bindplane erlaubt unter anderem Filterung, Umleitung und Schwärzung sensibler Daten. 

Mandiant Threat Defense ist jetzt allgemein verfügbar und bietet KI-gestützte Bedrohungserkennung und -reaktion. Die Experten von Mandiant arbeiten dabei mit den Sicherheitsteams der Kunden zusammen und setzen KI-gestützte Techniken ein, um Bedrohungen zu identifizieren und darauf zu reagieren, Untersuchungen durchzuführen und die Reaktion über SOAR-Playbooks für Sicherheitsoperationen zu skalieren. 

Security Command Center 

AI Protection hilft bei der Erkennung von KI-Beständen, der Sicherung von KI-Modellen und -Daten. Ferner werden Bedrohungen, die auf KI-Systeme abzielen, erkannt und es wird darauf reagiert.  

Model Armor, eine Funktion, die Teil des bestehenden GCP-Dienstes AI Protection ist. Sie ermöglicht Kunden die Anwendung von Inhaltssicherheits- und Sicherheitskontrollen auf Prompts, die an selbst gehostete KI-Modelle gesendet werden – entweder auf der Google Cloud Platform oder über mehrere Clouds hinweg. 

Eine Data-Security-Posture-Management-(DSPM-)Funktion, die im Juni als Vorschau verfügbar sein wird, erlaubt die Erkennung, Sicherung und Verwaltung sensibler Daten, einschließlich der zum Training von KI-Modellen verwendeten Datensätze. 

Der Compliance Manager (Preview ab Ende Juni) versetzt Kunden in die Lage, Richtlinien zu definieren, Konfigurationen zu kontrollieren und deren Durchsetzung zu überwachen. Auf diese Weise soll es ihnen möglich sein, die Daten-Compliance sicherzustellen und gegenüber Prüfern nachzuweisen. 

Weitere Features: 

Integration mit Snyk zur Erkennung von Schwachstellen (Preview). 

Neue Security-Dashboards für Google Compute Engine (GCE) und Google Kubernetes Engine (GKE) (allgemein verfügbar). 

Chrome Enterprise 

Neuer Phishing-Schutz in der Premium-Version schützt vor Lookalike-Domains, auch intern. 

Erweiterte Datenschutzfunktionen: Datenmaskierung, Wasserzeichen, Kontrollfunktionen (auch auf Android). 

Mandiant Cybersecurity Consulting 

Mandiant Retainer: On-Demand-Zugang zu Incident-Response-Teams, einlösbar für Analysen & Trainings. 

Trusted Cloud 

Sovereign Cloud: Ausbau in 32 Regionen weltweit. Partnerschaft mit Thales für „S3NS Trusted Cloud“ (SecNumCloud-konform). 

Identitäts- & Zugriffsmanagement: 

Einheitliche IAM-Richtlinien (Vorschau), 

Managed Workload Identities (Vorschau), 

Workload Identity Federation mit X.509 (GA). 

Datensicherheit: 

Confidential Computing für GKE-Workloads & GPUs (Vorschau/GA), 

Neue HSM-Lösungen (Single-Tenant & Bare Metal HSM in Vorschau), 

Data Discovery für Vertex AI & Azure, Data-in-Motion-Scanning. 

Netzwerksicherheit: 

Google Cloud erhält neue Integrationen mit Anbietern von Netzwerksicherheitslösungen zum Schutz von Google Cloud Workloads sowie neue Funktionen und Möglichkeiten im Bereich der Netzwerksicherheit. Dazu gehören:  

DNS Armor, eine Funktion zur Erkennung von DNS-basierten Bedrohungen. Sie wurde in Zusammenarbeit mit Infoblox Threat Defense entwickelt;  

Inline-Schutz vor Datenverlusten für Secure Web Proxy (SWP) über Integrationen mit Google’s Sensitive Data Protection und Symantec DLP; und  

L7-Domain-Filterfunktionen für Google’s Cloud NGFW Enterprise. 

Endpunkt-Schutz 

Beim Schutz von Endgeräten verlässt sich Google stark auf den Chrome-Enterprise-Browser und den kostenpflichtigen Chrome-Enterprise-Premium-Service, der Echtzeit-Schutz vor Malware und Phishing beim Surfen im Internet, Malware-Tiefenscans auf dem Endgerät, Schutz vor Datenverlust, URL-Filterung, Einblicke in das Nutzerverhalten und mehr bietet. 

Zu den neuen Funktionen dieses Dienstes gehört die Möglichkeit für Unternehmen, ihr eigenes Branding und ihre Unternehmensressourcen zu konfigurieren, um Phishing-Versuche auf internen Domains zu erkennen. Außerdem gibt es eine neue Datenmaskierungsfunktion, die die DLP-Funktionen zusammen mit Wasserzeichen, der Sperrung von Screenshots und Kontrollen für Kopieren, Einfügen, Hochladen, Herunterladen und Drucken vervollständigt. 

Google führt Unified-Security-Plattform ein​ Weiterlesen »

Gartner: Kleine KI-Modelle auf dem Vormarsch​

Allgemein

Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung. Krot_Studio – shutterstock.com Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen. Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern. Schnellere Antworten Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte. Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen. KI-Modelle monetarisieren Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“ Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem. Kleine Modelle implementieren Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen: Pilotprojekte mit kontextualisierten Modellen: Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten. Kombinierte Ansätze: Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte. Datenqualität und Kompetenzen: Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben. 

Gartner: Kleine KI-Modelle auf dem Vormarsch​ Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung.
Krot_Studio – shutterstock.com

Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen.

Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern.

Schnellere Antworten

Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte.

Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen.

KI-Modelle monetarisieren

Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“

Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem.

Kleine Modelle implementieren

Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen:

Pilotprojekte mit kontextualisierten Modellen:

Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten.

Kombinierte Ansätze:

Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte.

Datenqualität und Kompetenzen:

Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben.

Gartner: Kleine KI-Modelle auf dem Vormarsch​ Weiterlesen »

Nach oben scrollen
×