Computerhaus Quickborn

April 2025

Digitalisierung treibt Nachfrage nach Managed Services an​

Allgemein

width=”2455″ height=”1381″ sizes=”(max-width: 2455px) 100vw, 2455px”>Angesichts des Drucks zu einer stärkeren Digitalisierung spielen Managed Services in deutschen Unternehmen eine zunehmend wichtige Rolle.metamorworks – shutterstock.com Obwohl fast alle deutschen Unternehmen (96 Prozent) die digitale Transformation als wichtigste Herausforderung sehen, kommen sie damit nicht so recht voran. In einer Umfrage von Lünendonk berichteten 36 Prozent der befragten Führungskräfte aus Großunternehmen und Konzernen, dass sich ihre bisherigen Digitalisierungsmaßnahmen nicht wie erhofft auszahlten.   Gleichzeitig zeigte sich bei den Gesprächen, dass intern oft die nötigen Fachkräfte fehlen, um Innovationen konsequent voranzutreiben und Prozesse nachhaltig zu transformieren. 57 Prozent der Befragten beklagten, dass sich die Mitarbeitenden in ihren Unternehmen noch zu stark mit nicht-wertschöpfenden Tätigkeiten außerhalb ihrer eigentlichen Kernaufgaben beschäftigen müssen.   Lünendonk Digitalisierung überfordert Unternehmen Die Konsequenz: Wie Lünendonk in den Gesprächen mit insgesamt 101 Führungskräften herausfand, scheitern viele Unternehmen daran, die im operativen Geschäft benötigten, digitalen Services auch in hoher Qualität und in kürzeren Zyklen bereitzustellen und zu standardisieren.   Vor diesem Hintergrund, so das Analystenhaus, stehen Managed Services vor dem strategischen Durchbruch. Die Auslagerung von Prozessen an einen externen Dienstleister werde als ein Weg gesehen, die Transformation zu beschleunigen und den Return on Investment (RoI) zu verbessern.   Laut Lünendonk gehen die Erwartungen dabei weit über das klassische Outsourcing mit Modellen wie Festpreis oder Time-and-Material hinaus. Stattdessen setzten die Unternehmen verstärkt auf flexiblere Modelle, die eine engere Verzahnung zwischen Business und IT sowie deutlich stärkere, leistungsbezogene Komponenten ermöglichen.   Die Ergebnisse der Studie bestätigen das: Tatsächlich bevorzugen 58 Prozent der Studienteilnehmer in ihren Managed-Service-Ausschreibungen Dienstleister, die die Gesamtverantwortung sowohl für den Betrieb und Weiterentwicklung der Geschäftsprozesse als auch der unterstützenden IT-Systeme übernehmen.   Ergebnisbasierte Verträge gewinnen dabei zunehmend an Bedeutung, auch wenn sie derzeit erst von einem Drittel der Unternehmen genutzt werden. Weitere 17 Prozent planen jedoch in Zukunft, solche Abrechnungsmodelle zu nutzen. Laut Studie setzen insbesondere Unternehmen mit mehr als zehn Milliarden Euro Umsatz bereits verstärkt auf leistungsorientierten Vertragsformen, bei denen Dienstleister nicht nur operativ unterstützen, sondern aktiv zur Verbesserung von Effizienz und Qualität beitragen.  „Die Zeiten, in denen Managed Services lediglich zur Kostensenkung und Standardisierung genutzt wurden, sind vorbei“, erklärt Studienautor Mario Zillmann, Partner bei Lünendonk & Hossenfelder. „Unsere Studie zeigt, dass Unternehmen von ihren Dienstleistern zunehmend strategische Unterstützung bei der Digitalisierung, Automatisierung und Compliance-Umsetzung erwarten.“  Laut Studie wird in den kommenden Jahren insbesondere in den Bereichen Technologie, Cybersecurity und künstliche Intelligenz die Nachfrage nach Managed Services rasant steigen. So soll sich der Anteil der Interviewpartner, die in den Bereichen Data & Analytics sowie KI einen hohen Bedarf an Managed Services erwarten – von aktuell 40 Prozent bis zum Jahr 2027 auf 80 Prozent verdoppeln. Auch im Bereich IT-Operations (Technology) werde der Bedarf deutlich steigen, prognostiziert Lünendonk, da hier sowohl die technologischen Entwicklungen besonders dynamisch verliefen als auch der Fachkräftemangel besonders hoch sei.  Bedarf bei Cyber Security und IT Compliance steigt  Die größte Nachfrage nach Managed Services sollen indes die steigenden Anforderungen an die Cybersecurity- Resilienz generieren. So müssen sich Unternehmen im Bereich IT-Security intensiv mit neuen Regularien wie dem Digital Operations Resilience Act (DORA) und NIS-2 auseinandersetzen und die Nutzung von Cloud Services regelkonform abbilden. Während DORA speziell für Finanzdienstleister gilt und in Teilen bereits umgesetzt ist, richtet sich NIS-2 an alle Unternehmen ab 50 Mitarbeitenden oder zehn Millionen Euro Umsatz. Für die Lünendonk-Studie „Managed Services – Der Weg in die Transformation und aus dem Fachkräftemangel“ wurden im Zeitraum von Oktober 2024 bis Januar 2025 101 Führungskräfte aus Großunternehmen und Konzernen mit einem Umsatz von mindestens 500 Millionen Euro befragt. Die Studie wurde in Kooperation mit Deloitte, EY, KPMG, Protiviti und PwC erstellt und steht zum kostenfreien Download bereit.  

Digitalisierung treibt Nachfrage nach Managed Services an​ width=”2455″ height=”1381″ sizes=”(max-width: 2455px) 100vw, 2455px”>Angesichts des Drucks zu einer stärkeren Digitalisierung spielen Managed Services in deutschen Unternehmen eine zunehmend wichtige Rolle.metamorworks – shutterstock.com

Obwohl fast alle deutschen Unternehmen (96 Prozent) die digitale Transformation als wichtigste Herausforderung sehen, kommen sie damit nicht so recht voran. In einer Umfrage von Lünendonk berichteten 36 Prozent der befragten Führungskräfte aus Großunternehmen und Konzernen, dass sich ihre bisherigen Digitalisierungsmaßnahmen nicht wie erhofft auszahlten.  

Gleichzeitig zeigte sich bei den Gesprächen, dass intern oft die nötigen Fachkräfte fehlen, um Innovationen konsequent voranzutreiben und Prozesse nachhaltig zu transformieren. 57 Prozent der Befragten beklagten, dass sich die Mitarbeitenden in ihren Unternehmen noch zu stark mit nicht-wertschöpfenden Tätigkeiten außerhalb ihrer eigentlichen Kernaufgaben beschäftigen müssen.  

Lünendonk

Digitalisierung überfordert Unternehmen

Die Konsequenz: Wie Lünendonk in den Gesprächen mit insgesamt 101 Führungskräften herausfand, scheitern viele Unternehmen daran, die im operativen Geschäft benötigten, digitalen Services auch in hoher Qualität und in kürzeren Zyklen bereitzustellen und zu standardisieren.  

Vor diesem Hintergrund, so das Analystenhaus, stehen Managed Services vor dem strategischen Durchbruch. Die Auslagerung von Prozessen an einen externen Dienstleister werde als ein Weg gesehen, die Transformation zu beschleunigen und den Return on Investment (RoI) zu verbessern.  

Laut Lünendonk gehen die Erwartungen dabei weit über das klassische Outsourcing mit Modellen wie Festpreis oder Time-and-Material hinaus. Stattdessen setzten die Unternehmen verstärkt auf flexiblere Modelle, die eine engere Verzahnung zwischen Business und IT sowie deutlich stärkere, leistungsbezogene Komponenten ermöglichen.  

Die Ergebnisse der Studie bestätigen das: Tatsächlich bevorzugen 58 Prozent der Studienteilnehmer in ihren Managed-Service-Ausschreibungen Dienstleister, die die Gesamtverantwortung sowohl für den Betrieb und Weiterentwicklung der Geschäftsprozesse als auch der unterstützenden IT-Systeme übernehmen.  

Ergebnisbasierte Verträge gewinnen dabei zunehmend an Bedeutung, auch wenn sie derzeit erst von einem Drittel der Unternehmen genutzt werden. Weitere 17 Prozent planen jedoch in Zukunft, solche Abrechnungsmodelle zu nutzen. Laut Studie setzen insbesondere Unternehmen mit mehr als zehn Milliarden Euro Umsatz bereits verstärkt auf leistungsorientierten Vertragsformen, bei denen Dienstleister nicht nur operativ unterstützen, sondern aktiv zur Verbesserung von Effizienz und Qualität beitragen. 

„Die Zeiten, in denen Managed Services lediglich zur Kostensenkung und Standardisierung genutzt wurden, sind vorbei“, erklärt Studienautor Mario Zillmann, Partner bei Lünendonk & Hossenfelder. „Unsere Studie zeigt, dass Unternehmen von ihren Dienstleistern zunehmend strategische Unterstützung bei der Digitalisierung, Automatisierung und Compliance-Umsetzung erwarten.“ 

Laut Studie wird in den kommenden Jahren insbesondere in den Bereichen Technologie, Cybersecurity und künstliche Intelligenz die Nachfrage nach Managed Services rasant steigen. So soll sich der Anteil der Interviewpartner, die in den Bereichen Data & Analytics sowie KI einen hohen Bedarf an Managed Services erwarten – von aktuell 40 Prozent bis zum Jahr 2027 auf 80 Prozent verdoppeln.

Auch im Bereich IT-Operations (Technology) werde der Bedarf deutlich steigen, prognostiziert Lünendonk, da hier sowohl die technologischen Entwicklungen besonders dynamisch verliefen als auch der Fachkräftemangel besonders hoch sei. 

Bedarf bei Cyber Security und IT Compliance steigt 

Die größte Nachfrage nach Managed Services sollen indes die steigenden Anforderungen an die Cybersecurity- Resilienz generieren. So müssen sich Unternehmen im Bereich IT-Security intensiv mit neuen Regularien wie dem Digital Operations Resilience Act (DORA) und NIS-2 auseinandersetzen und die Nutzung von Cloud Services regelkonform abbilden. Während DORA speziell für Finanzdienstleister gilt und in Teilen bereits umgesetzt ist, richtet sich NIS-2 an alle Unternehmen ab 50 Mitarbeitenden oder zehn Millionen Euro Umsatz.

Für die Lünendonk-Studie „Managed Services – Der Weg in die Transformation und aus dem Fachkräftemangel“ wurden im Zeitraum von Oktober 2024 bis Januar 2025 101 Führungskräfte aus Großunternehmen und Konzernen mit einem Umsatz von mindestens 500 Millionen Euro befragt. Die Studie wurde in Kooperation mit Deloitte, EY, KPMG, Protiviti und PwC erstellt und steht zum kostenfreien Download bereit. 

Digitalisierung treibt Nachfrage nach Managed Services an​ Weiterlesen »

Podcast: So geht moderne App-Entwicklung​

Allgemein

Mark Zimmermann von EnBW erklärt in unserem Podcast, worauf es bei moderner App-Entwicklung ankommt.Mark Zimmermann Die Entwicklung mobiler Apps ist komplex. Während Webanwendungen meist mit standardisierten Umgebungen arbeiten, müssen Entwickler von Apps mit einer Vielzahl von Geräten, Betriebssystemversionen, Bildschirmgrößen und Netzwerkbedingungen umgehen. In der aktuellen TechTalk-Episode skizziert Mark Zimmermann, Leiter des Center of Excellence for Mobile Solutions bei EnBW, einen modernen Ansatz der App-Entwicklung, der sich stark an den sich ständig ändernden Marktanforderungen orientiert.  Hohe Anforderungen an die App-Performance  „Die Anforderungen an Performance, Stabilität und Nutzerfreundlichkeit sind bei mobilen Anwendungen enorm hoch, erklärt der Mobility-Experte, „da Nutzer keine Geduld für Fehler, lange Ladezeiten oder einen erhöhten Akkuverbrauch haben.“  Auch die Entwicklungsprozesse und Werkzeuge unterscheiden sich stark. „Professionelle App-Entwicklung erfordert eine Strategie, die Performance, Sicherheit und Benutzerfreundlichkeit kombiniert“, konstatiert Zimmermann. „Agile Methoden mit kurzen Zyklen, iterativer Priorisierung und enger Zusammenarbeit zwischen Rollen sind die Basis moderner Projekte.“   Wie wichtige Aspekte wie Barrierefreiheit, Benutzerfreundlichkeit oder Update-Fähigkeit in der Praxis realisiert werden, welche Tools und Methoden zum Einsatz kommen und vieles mehr – das hören Sie in dieser Ausgabe von TechTalk, dem Podcast von Computerwoche, CIO und CSO.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1a9IEoP7UTXCmApyVcPf1S?utm_source=oembed”> 

Podcast: So geht moderne App-Entwicklung​ Mark Zimmermann von EnBW erklärt in unserem Podcast, worauf es bei moderner App-Entwicklung ankommt.Mark Zimmermann

Die Entwicklung mobiler Apps ist komplex. Während Webanwendungen meist mit standardisierten Umgebungen arbeiten, müssen Entwickler von Apps mit einer Vielzahl von Geräten, Betriebssystemversionen, Bildschirmgrößen und Netzwerkbedingungen umgehen. In der aktuellen TechTalk-Episode skizziert Mark Zimmermann, Leiter des Center of Excellence for Mobile Solutions bei EnBW, einen modernen Ansatz der App-Entwicklung, der sich stark an den sich ständig ändernden Marktanforderungen orientiert. 

Hohe Anforderungen an die App-Performance 

„Die Anforderungen an Performance, Stabilität und Nutzerfreundlichkeit sind bei mobilen Anwendungen enorm hoch, erklärt der Mobility-Experte, „da Nutzer keine Geduld für Fehler, lange Ladezeiten oder einen erhöhten Akkuverbrauch haben.“ 

Auch die Entwicklungsprozesse und Werkzeuge unterscheiden sich stark. „Professionelle App-Entwicklung erfordert eine Strategie, die Performance, Sicherheit und Benutzerfreundlichkeit kombiniert“, konstatiert Zimmermann. „Agile Methoden mit kurzen Zyklen, iterativer Priorisierung und enger Zusammenarbeit zwischen Rollen sind die Basis moderner Projekte.“  

Wie wichtige Aspekte wie Barrierefreiheit, Benutzerfreundlichkeit oder Update-Fähigkeit in der Praxis realisiert werden, welche Tools und Methoden zum Einsatz kommen und vieles mehr – das hören Sie in dieser Ausgabe von TechTalk, dem Podcast von Computerwoche, CIO und CSO.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1a9IEoP7UTXCmApyVcPf1S?utm_source=oembed”>

Podcast: So geht moderne App-Entwicklung​ Weiterlesen »

Medizintechniker B. Braun revolutioniert seinen Service mit KI​

Allgemein

Künstliche Intelligenz ist in der Kundenkommunikation eine wertvolle Hilfe. Die entsprechenden Agenden sorgen dafür, dass Kunden schnell an wichtige Informationen gelangen und lernen bei jeder Kundeninteraktion dazu. Ein solcher KI-gestützter Agent wird schon bald beim global agierenden Medizintechnikhersteller B. Braun zum Einsatz kommen. Die Service Techniker des Unternehmens sollen sogar bei technischen Störungen Unterstützung von den KI-Kollegen erhalten. Das Ziel ist, zentrales Wissen und eine Datenzentriertheit für den Agenten aufzubauen und bestmöglich zu nutzen. Außerdem sollen bestehende Services, die das hessische Unternehmen in der multikanalen Kundenkommunikation anbietet, optimiert werden. Die Realisierung eines solchen KI-gestützten Systems erfordert jedoch die Überwindung zahlreicher strategischer wie auch technologischer Herausforderungen. Es gilt, interne wie auch externe Hürden zu überwinden und die Komplexität des Vorhabens zu beschränken. Im CIO Webcast in Zusammenarbeit mit Salesforce und B.Braun erfahren Sie, welchen Weg der Medizintechnikhersteller eingeschlagen hat, um leistungsstarke KI-Agenten erfolgreiche zu integrieren. Patrick Heinen von Salesforce und Anne Wrobel von B. Braun schildern, wie Teams auf diese Weise von repetitiven Arbeiten befreit werden können. Die beiden Experten zeigen außerdem auf, wie sich das System sinnvoll mit dem SAP verbinden lässt und welche konkreten Verbesserungen das Unternehmen B. Braun mit seinen Agenten erzielen will. Der Fachjournalist Sven Hansel übernimmt die Moderation des Webcast. Webcast: Entwicklung von leistungsstarken KI-AgentenErfahren Sie im CIO-Webcast, wie der Medizintechniker B. Braun KI-Agenten ins Unternehmen integrieren will.Registrieren Sie sich jetzt 

Medizintechniker B. Braun revolutioniert seinen Service mit KI​ Künstliche Intelligenz ist in der Kundenkommunikation eine wertvolle Hilfe. Die entsprechenden Agenden sorgen dafür, dass Kunden schnell an wichtige Informationen gelangen und lernen bei jeder Kundeninteraktion dazu. Ein solcher KI-gestützter Agent wird schon bald beim global agierenden Medizintechnikhersteller B. Braun zum Einsatz kommen. Die Service Techniker des Unternehmens sollen sogar bei technischen Störungen Unterstützung von den KI-Kollegen erhalten. Das Ziel ist, zentrales Wissen und eine Datenzentriertheit für den Agenten aufzubauen und bestmöglich zu nutzen. Außerdem sollen bestehende Services, die das hessische Unternehmen in der multikanalen Kundenkommunikation anbietet, optimiert werden.

Die Realisierung eines solchen KI-gestützten Systems erfordert jedoch die Überwindung zahlreicher strategischer wie auch technologischer Herausforderungen. Es gilt, interne wie auch externe Hürden zu überwinden und die Komplexität des Vorhabens zu beschränken.

Im CIO Webcast in Zusammenarbeit mit Salesforce und B.Braun erfahren Sie, welchen Weg der Medizintechnikhersteller eingeschlagen hat, um leistungsstarke KI-Agenten erfolgreiche zu integrieren. Patrick Heinen von Salesforce und Anne Wrobel von B. Braun schildern, wie Teams auf diese Weise von repetitiven Arbeiten befreit werden können. Die beiden Experten zeigen außerdem auf, wie sich das System sinnvoll mit dem SAP verbinden lässt und welche konkreten Verbesserungen das Unternehmen B. Braun mit seinen Agenten erzielen will. Der Fachjournalist Sven Hansel übernimmt die Moderation des Webcast.

Webcast: Entwicklung von leistungsstarken KI-AgentenErfahren Sie im CIO-Webcast, wie der Medizintechniker B. Braun KI-Agenten ins Unternehmen integrieren will.Registrieren Sie sich jetzt

Medizintechniker B. Braun revolutioniert seinen Service mit KI​ Weiterlesen »

14 alternative Managed-Kubernetes-Plattformen​

Allgemein

Kubernetes-as-a-Service-Angebote gibt’s nicht nur vom Hyperscaler.cdrin | shutterstock.com Kubernetes ist ausgesprochen performant, aber auch äußerst komplex. Das veranlasst nicht wenige Organisationen und Unternehmen dazu, auf vollständig verwaltete Kubernetes-Plattformen zu setzen, statt auf selbst gehostete Lösungen. Dabei sind die Services der Hyperscaler im Regelfall der erste Anlaufpunkt – also konkret: Amazon Elastic Kubernetes Service (EKS), Azure Kubernetes Service (AKS) und Google Kubernetes Engine (GKE). Das Feld der Managed-Kubernetes-Anbieter und -Angebote ist allerdings deutlich vielfältiger: Die Cloud Native Computing Foundation (CNCF) verzeichnet inzwischen mehr als 100 zertifizierte Anbieter. Dabei wächst das Interesse an alternativen Plattformen, die nicht von Amazon Web Services (AWS), Google Cloud (GCP) oder Microsoft kommen und teilweise darauf spezialisiert sind, Container am Netzwerkrand, lokal oder in kleinerem Umfang bereitzustellen. Das liegt auch an den Kosten: Die Offerings einiger kleinerer Anbieter sind im Vergleich zu denen der Hyperscaler deutlich günstiger. In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten, CNCF-konformen Managed-Kubernetes-Plattformen – abseits von AWS, Microsoft und Google Cloud.   1. Alibaba Cloud Container Service for Kubernetes (ACK) Alibabas Container Service for Kubernetes hat standardmäßig diverse Funktionen an Bord, um Cluster Management und containerisierte App-Deployments zu vereinheitlichen. Dank der zugrundeliegenden Cloud-Infrastruktur des chinesischen Anbieters ist dieses Angebot zudem hoch skalierbar. Zu den wichtigsten Benefits des Kubernetes-Service von Alibaba zählen: eine native Virtual Private Cloud (VPC) für sichere Netzwerke, direkter Zugriff auf GPU-beschleunigte Instanzen, integrierte Canary- und Blue-Green-Deployment-Strategien, um regionenübergreifend bereitzustellen, sowie professionelle Support-Dienstleistungen. ACK priorisiert VPC-Netzwerke, weil es keinen nativen Support für moderne Container-Netzwerk-Interfaces auf eBPF-Basis bietet (obwohl Plug-Ins dafür zur Verfügung stehen). Geht es um Logging, Storage und rollenbasierte Zugangskontrollen, verlässt sich der Managed-Kubernetes-Service ebenfalls auf die Cloud-Infrastruktur von Alibaba. Wer nach quelloffener Flexibilität sucht, ist hier also falsch. Unter dem Strich: Ideal eignet sich dieser Kubernetes-Dienst in erster Linie für Unternehmen und Anwender, die bereits Alibaba-Cloud-Kunden sind und/oder im asiatischen Raum tätig sind.  2. D2iQ Kubernetes Platform (DKP) Die D2iQ Kubernetes Platform ist initial aus dem (in ursprünglicher Form) nicht mehr existenten Apache Mesos hervorgegangen – einem Open-Source-Projekt, das einst Kubernetes Konkurrenz machen sollte. Inzwischen wurde die Plattform von Nutanix übernommen und bietet die Möglichkeit, Cluster automatisiert und Cloud-übergreifend auf Kubernetes-Basis zu managen. Das Managed-Kubernetes-Angebot von D2iQ zeichnet sich vor allem aus durch: eine Steuerungsebene, die einen zentralen, Cluster-übergreifenden Blick ermöglicht, deklarative APIs und Standard-kubectl-Befehle, Support für Air-Gapped-Deployments, sowie   ein vereinfachtes Deployment von Datenbanken, CI/CD, Backups, Schwachstellen-Scans und Monitoring. Allerdings gibt es auch Kritik seitens der Anwender. Sie bemängeln vor allem eine schlechte Dokumentation, lahmen Support sowie eine steile Lernkurve bei der Ersteinrichtung. Unter dem Strich: Für Unternehmen und Organisationen, die Cloud-übergreifend agieren und über eine ausgeprägte GitOps-Kultur verfügen, ist dieses Angebot einen Blick wert. Insbesondere, wenn das Ziel ist, mehrere Cluster in verschiedenen Deployment-Umgebungen einfacher zu betreiben. 3. DigitalOcean Kubernetes (DOKS) Die Steuerungsebene der Managed-Kubernetes-Plattform von DigitalOcean ist wahlweise über ein User Interface, eine API oder die Kommandozeile zugänglich. Der Service abstrahiert das Infrastrukturmanagement und verspricht automatisierte Hochverfügbarkeit, Autoscaling und „One Click“-Backups. Die Anwender wissen an diesem Kubernetes-Dienst vor allem zu schätzen: eine intuitive Weboberfläche und die optimierte CLI, einfach zu bewerkstelligende Updates, nahtlos integrierbare, native Load Balancer und Volumes, sowie die Möglichkeit, GPU-Workloads über Nvidia-fähige Droplets einzubinden. Anfängliche Sicherheitsprobleme wurden inzwischen behoben. Was DOKS nicht bieten kann, ist integrierter Support für das Network File System (NFS). Dafür gibt es zwar Workarounds – bei der Konkurrenz aber eben auch native Optionen. Dafür werden VPC-Netzwerke nativ unterstützt – allerdings gestaltet sich das weniger flexibel als etwas bei AWS oder GCP. Unter dem Strich: Das Managed-Kubernetes-Angebot von DigitalOcean wird beständig weiteroptimiert und ist insbesondere für kleinere Kubernetes-Workloads wie APIs, Worker Nodes oder Log Processing zu empfehlen. 4. IBM Cloud Kubernetes Service (IKS) Auch IBM bietet mit seinem Kubernetes Service eine vollständig verwaltete Plattform, um Container-Applikationen in der hauseigenen Cloud bereitzustellen. Diese stellt benutzerfreundliche Tools zur Verfügung, um Cluster zu planen, zu warten, zu überwachen und bereitzustellen. Für die Benutzer manifestieren sich die wesentlichen Vorteile der Managed-Kubernetes-Plattform von Big Blue im Wesentlichen in: Workload Scalability, Hochverfügbarkeit, sowie der Möglichkeit, Ressourcen in stark regulierten Umgebungen zu isolieren. Darüber hinaus punktet der Managed Service auch mit einer nativen Container-Registry und den Integrationsmöglichkeiten mit weiteren IBM-Services – etwa Watson. Ganz allgemein weniger gut kommt hingegen die IBM Cloud an. Das begründet sich unter anderem in hohen Kosten, Troubleshooting-Problemen und einer lückenhaften Dokumentation. Unter dem Strich: Falls Ihr Unternehmen bereits die IBM Cloud nutzt und von einer engen Integration mit IBM Services profitiert, kann IKS dennoch eine gute Managed-Kubernetes-Option sein. 5. Kubermatic Kubernetes Platform (KKP) Die Kubermatic Kubernetes Platform ist eine verwaltete Kubernetes-Distribution, die für Edge-Szenarien mit geringer Bandbreite oder geringer Rechenleistung optimiert ist. Dieser Service ist in hohem Maße portabel und unterstützt sowohl hybride Multi-Cloud- als auch Data-Center- und Multitenant-Umgebungen. Diese Kubernetes-Plattform bietet insbesondere Automatisierungsmöglichkeiten. Nämlich mit Blick auf: Skalierung, Fehlerbehebung, Provisionierung, Updates, sowie Backups. KKP ist darüber hinaus auch in einer quelloffenen Community-Version mit Apache-2.0-Lizenz verfügbar. Mit Blick auf Container Network Interface (CNI)-Support war die Kubermatic Kubernetes Platform ursprünglich auf Canal beschränkt, unterstützt inzwischen jedoch unter anderem auch Cilium. Die Nutzerbasis dieser verwalteten Kubernetes-Plattform ist wesentlich kleiner als die seiner großen Konkurrenten. Allerdings zählt Kubermatic zu den fünf größten Kubernetes-Kontributoren. Unter dem Strich: Wenn Sie eine Kubernetes-native, verwaltete Plattform mit hoher Anpassungsfähigkeit für Container am Netzwerkrand suchen, ist dieser Managed Service einen Blick wert. 6. Linode Kubernetes Engine (LKE) Die Linode Kubernetes Engine ist eine Managed-Service-Plattform des Sicherheitsanbieters Akamai. Sie ermöglicht es, containerisierte Anwendungen bereitzustellen, ohne ein Kubernetes Cluster warten zu müssen. Auch diese Plattform bietet eine vollständig gemanagte Steuerungsebene und eröffnet programmgesteuerte Wege, um Cluster bereitzustellen. Mit Blick auf die LKE loben die Anwender in erster Linie: die Benutzerfreundlichkeit der Plattform, den hochwertigen Kunden-Support, die transparente Preisgestaltung (Worker-Knoten kosten, eingehende Übertragungen sind kostenlos), die hohe Verfügbarkeit, den Support für mehrere Kubernetes-Versionen, sowie die Möglichkeit, schnell zusätzliche Tools in Form von Add-Ons hinzuzufügen. Allerdings lässt der Linode-Kubernetes-Dienst einige fortschrittliche Funktionen größerer Konkurrenzplattformen vermissen, Insbesondere fehlt eine private Container-Registry – und obwohl es sich um einen Managed Service handelt, müssen die Anwender sich selbst um Deployment-Konfigurationen kümmern. Sauer aufstoßen könnte potenziellen Kunden auch, dass für GPU-Workloads zusätzliche (Abo-)Gebühren anfallen. Unter dem Strich: Linode Kubernetes Engine eignet sich in erster Linie für kleinere Teams oder (Startup-)Unternehmen. 7. Mirantis Kubernetes Engine (MKE) Die ehemals als Docker Enterprise bekannte Mirantis Kubernetes Engine ist eine Container-Orchestrierungsplattform mit Open-Source-Wurzeln, die auf Bare Metal, Public Cloud und allem dazwischen läuft. Dieser Service nutzt Calico zu Networking-Zwecken und KubeVirt, um Container und VMs zu managen. MKE-Anwender wissen an dem Managed Service insbesondere zu schätzen: den flexiblen Zugriff über Web-UI, CLI oder API, die einfache Bedienung, die ausgeprägten Sicherheitskontrollen, unbegrenzt nutzbare Worker Nodes, sowie eine interne, vertrauenswürdige Registry für Container-Images. Skepsis erzeugt hingegen das Open-Source-Engagement von Mirantis. Das Unternehmen ist berüchtigt dafür, kostenlos verfügbare Tools mit Docker-Bezug zu kommerzialisieren. Die Entscheidung, das populäre Kubernetes-Dashboard Lens zu einem Closed-Source-Produkt umzufunktionieren, hat die Situation, gelinde gesagt, nicht verbessert. Kritisch sehen manche Anwender auch die Performance des Kunden-Supports und die teilweise undurchsichtige Dokumentation.    Unter dem Strich: Für Anwender, die in das Docker-Ökosystem eingebettet sind und lieber eine einfache statt eine möglichst flexible Lösung bevorzugen, bleibt die Mirantis Kubernetes Engine eine solide Wahl. 8. Oracle Kubernetes Engine (OKE) Oracles Kubernetes Engine fußt auf der hauseigenen Cloud-Infrastruktur. Die Managed-Kubernetes-Plattform automatisiert dabei nicht nur Wartung und Patch Management, sondern bietet zudem Support für Autoscaling und effiziente Ressourcennutzung.  Durch die Verflechtung mit dem Oracle-Ökosystem eignet sich diese Plattform vor allem für Oracle-agnostische Organisationen. Diese profitieren (unter anderem) von:   zahlreichen Add-Ons sowie dauerhaft kostenlos nutzbaren Ressourcen (für selbst gehostete Projekte). Letztgenanntes Feature überzeugt sogar einige unabhängige Entwickler – im Allgemeinen ist Oracles Managed Service aber für Enterprise-Nutzer interessant. OKE-Anwender kritisieren in erster Linie die umständliche Experience, die die OCI-Benutzeroberfläche realisiert. Unter dem Strich: Wenn Sie nach einer Enterprise-orientierten Kubernetes-Management-Ebene mit einer großzügigen, kostenlosen Option suchen, könnte Oracle Kubernetes Engine die richtige Wahl sein. 9. Platform9 Managed Kubernetes (PMK) Der Managed-Kubernetes-Service von Platform9 automatisiert Custer-Prozesse – etwa mit Blick auf Deployment, Monitoring, Wartung und Upgrades. PMK ist Cloud-agnostisch und kann sowohl lokal als auch in Edge- und Public-Cloud-Umgebungen ausgeführt werden. Die Anwender des Platform9-Dienstes erfreuen sich vor allem an: skalierbarem Multi-Custer-Management, Multitenant-Fähigkeiten, granularen RBAC-Richtlinien, einer Hochverfügbarkeits-Garantie, sowie einer soliden Developer Experience.   Allerdings fehlt PMK eine integrierte Container-Registry – und der CNI-Support ist eher begrenzt (wenn auch über Plugins anpassbar). Dass die Steuerungsebene des Services in der Cloud gehostet wird, entspricht möglicherweise nicht in jedem Fall den Compliance-Vorgaben. Und obwohl manche Anwender von Kosteneinsparungen berichten, ist das Preisgefüge von PMK mitunter schwer zu durchdringen. Unter dem Strich: Für Unternehmen und Organisationen, die eine Private-Cloud-Kubernetes-Lösung suchen, ist Platform9 Managed Kubernetes eine starke Alternative zu Red Hat OpenShift oder VMware Tanzu. 10. Rackspace Managed Kubernetes (MPK) Die eben besprochene Plattform von Platform9 bildet auch die Grundlage für den Managed-Kubernetes-Dienst von Rackspace. Auch dieser Service wartet mit einer einheitlichen Steuerungsebene auf, um Cluster bereitzustellen, zu überwachen und zu aktualisieren. Dabei unterstützt MPK drei Umgebungen: Rackspace Bare Metal, AKS und EKS. Zu den Vorteilen dieses Angebots zählen: eine SLA, die Kubernetes-Upgrades innerhalb von 120 Tagen garantiert, dedizierte Support-Dienstleistungen (PDF) von Kubernetes-zertifizierten Engineers, Integrationsmöglichkeiten für Tools, die von der CNCF unterstützt werden – etwa Prometheus, Fluentd, Helm oder Istio. Eine native Container-Registry lässt das Managed-Service-Angebot von Rackspace jedoch ebenso vermissen wie IAM und Storage. Eine Public-Cloud-Anbindung oder entsprechende Bring-your-own-Lösungen sind also erforderlich. Unter dem Strich: Rackspace Managed Kubernetes ist eine solide Wahl für Teams, die auf Rackspace Bare Metal Hosting setzen, Hands-On-Support schätzen und eine zentrale Plattform suchen, um Kubernetes-Services von AWS und Azure zu managen. 11. Rancher Die Kubernetes-as-a-Service-Lösung von SUSE – Rancher – ist auf On-Premises- und Cloud-Umgebungen ausgerichtet. Dieser Service unterstützt mehrere, unterschiedliche Kubernetes-Plattformen – darunter Rancher Kubernetes Engine (RKE), K3s, AKS, EKS und GKE. Entwickler schätzen an Rancher vor allem: die einheitliche Web-UI, die einen einfachen Einstieg gewährleistet,   eine API, eine CLI sowie Support für Terraform,   die standardmäßig integrierten Authentifizierungsmethoden (etwa OAuth), die große Community, die es auch leicht macht, Support zu finden. Von Problemen berichten Anwender beim Kubernetes-Service von SUSE vor allem mit Blick auf die native Storage-Lösung Longhorn. Unter dem Strich: Rancher ist vergleichbar mit OpenShift (dazu gleich mehr), dabei aber weniger eigensinnig und modularer aufgebaut – inklusive einem anderen Multitenancy-Ansatz. Organisationen und Unternehmen, die mehrere, unterschiedliche Clouds und Cluster mit möglichst wenig Anbieterrestriktionen managen wollen, sind bei Rancher gut aufgehoben. 12. Red Hat OpenShift Kubernetes Engine Red Hats Hybrid-Cloud-Plattform Open Shift vereinheitlicht  Kubernetes mit einer Developer Tool Chain für vereinfachtes Cluster Management. Die Plattform integriert Observability, Networking, Security und GitOps. Das gewährleistet im Vergleich zu Standalone-Kubernetes simplere Patching- und Update-Prozesse. Im Gegensatz zu Cloud-spezifischen Services ist OpenShift portabel und kann On-Premises, in Rechenzentren oder Cloud-übergreifend eingesetzt werden. OpenShift Kubernetes Engine ist wiederum eine abgespeckte Version von OpenShift. Sie: stellt die Managed-Kubernetes-Umgebung ohne den übergeordneten PaaS-Layer bereit, unterstützt Kubernetes-Operatoren und ermöglicht, Container und virtuelle Maschinen parallel auszuführen. Allerdings berichten Anwender, dass OpenShift im Vergleich zu anderen Services deutlich eigenwilliger ist: Es bevorzugt seine eigene CLI gegenüber kubectl – und einige Helm-Charts und Operatoren müssen möglicherweise an das Sicherheitsmodell angepasst werden.   Unter dem Strich: OpenShift eignet sich in erster Linie für lokale Deployments, hybride Teams, die VMs und Container managen und Red-Hat-Kunden. Sie bekommen eine portable, Enterprise-fähige Kubernetes-Distribution mit integrierter Sicherheit und Automatisierungsmöglichkeiten. 13. Scaleway Kubernetes Kapsule Der französische Cloud- und Webhosting-Anbieter Scaleway hat mit Kubernetes Kapsule ebenfalls einen Managed-Kubernetes-Dienst im Angebot. Dieser ist vor allem auf Skalierbarkeit und Ausfallsicherheit ausgerichtet. Dieser Service zeichnet sich vor allem aus durch: eine schlanke Benutzererfahrung, starken Kundensupport, flexibles Cluster-Management per API, CLI oder Terraform, eine nutzungsbasierte Abrechnung, sowie eine App-Bibliothek inklusive vorkonfigurierter Lösungen für gängige Add-Ons.   Ein möglicher Nachteil bei dem Managed Service von Scaleway sind die unterstützten Regionen – Frankreich, die Niederlande und Polen. Für andere, potenzielle Interessenten könnten sich auch bestimmte fehlende Funktionen als „Deal Breaker“ erweisen – etwa fortgeschrittenes Load Balancing. Manche Anwender berichten außerdem von Ausfall-, beziehungsweise Zuverlässigkeitsproblemen. Unter dem Strich: Aufgrund seines begrenzten Funktionsumfangs und seiner geografischen Restriktionen eignet sich Scaleway Kubernetes Kapsule vor allem für Nebenprojekte, Experimente – oder für Startups mit Sitz in der EU, die eine erschwingliche, DSGVO-konforme Lösung suchen.   14. VMware Tanzu Kubernetes Grid (TKG) Tanzu Kubernetes Grid ist die Kubernetes-Plattform von VMware – beziehungsweise Broadcom. Sie verspricht, Networking, Authentifizierung, Monitoring, Logging und Zugangskontrollmaßnahmen zu vereinheitlichen und basiert in Teilen auf Open Source Software: Um mehrere Cluster zu managen, nutzt dieser Service beispielsweise die Cluster API. TKG bietet in erster Linie: eine gute Performance und sowohl CLI- als auch UI-Optionen. Allerdings ist dieser Service inzwischen nicht mehr Multi-Cloud-fähig: Seit Version 2.5 gibt es keinen Support mehr für AWS- und Azure-Workloads. Weil der Fokus damit vor allem auf der Virtualisierungsplattform vSphere liegt, ist dieser Service als agnostische Kubernetes-Steuerungsebene ungeeignet. Um Kubernetes Cloud-übergreifend managen zu können, ist zudem Tanzu Mission Control im Zusammenspiel mit nativen Services wie EKS, AKS oder GKE erforderlich. Dazu kommen noch ein Branding und eine Dokumentation, die mehr verwirren als Klarheit schaffen. Das geht offenbar so weit, dass selbst VMwares eigene Experten sich schwertun, die SKUs zu erklären. Die Preiserhöhungen, die nach der Übernahme von VMware durch Broadcom für den Service verankert wurden, sind eklatant. In Kombination mit dem Umstand, dass VMware zudem etliche Tanzu-Packages eingestellt hat, wirft das bezüglich der langfristigen Rentabilität des VMware-Kubernetes-Dienstes Fragen auf.   Unter dem Strich: Wenn Ihr Unternehmen stark in vSphere und virtuelle Maschinen investiert ist, höhere Kosten verkraften kann und keine echte Multi-Cloud-Lösung benötigt, könnte Tanzu Kubernetes Grid eine passende Lösung sein. Noch mehr Managed-Kubernetes-Optionen Es gibt unzählige weitere empfehlenswerte Managed-Kubernetes-Angebote, etwa von: Hetzner, Spectro Cloud,   OVHCloud, Civo, Tencent, oder Huawei. Diverse andere Lösungen fokussieren eher auf nischige Kubernetes-Management-Funktionen. Zum Beispiel diese Managed Services, die darauf ausgelegt sind, mehrere Cluster und Clouds universell zu steuern:   Portainer, Rafay, Omni, Liquo, und   Kube Clusters. Zusätzliche Managed-Kubernetes-Optionen, die sich speziell für Container- und Edge-Deployments in kleinerem Umfang eignen, sind: MicroK8s, K3s, K0s, Vultr, oder der quelloffene Developer-Favorit Kubespray. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 alternative Managed-Kubernetes-Plattformen​ Kubernetes-as-a-Service-Angebote gibt’s nicht nur vom Hyperscaler.cdrin | shutterstock.com

Kubernetes ist ausgesprochen performant, aber auch äußerst komplex. Das veranlasst nicht wenige Organisationen und Unternehmen dazu, auf vollständig verwaltete Kubernetes-Plattformen zu setzen, statt auf selbst gehostete Lösungen. Dabei sind die Services der Hyperscaler im Regelfall der erste Anlaufpunkt – also konkret:

Amazon Elastic Kubernetes Service (EKS),

Azure Kubernetes Service (AKS) und

Google Kubernetes Engine (GKE).

Das Feld der Managed-Kubernetes-Anbieter und -Angebote ist allerdings deutlich vielfältiger: Die Cloud Native Computing Foundation (CNCF) verzeichnet inzwischen mehr als 100 zertifizierte Anbieter. Dabei wächst das Interesse an alternativen Plattformen, die nicht von Amazon Web Services (AWS), Google Cloud (GCP) oder Microsoft kommen und teilweise darauf spezialisiert sind, Container am Netzwerkrand, lokal oder in kleinerem Umfang bereitzustellen. Das liegt auch an den Kosten: Die Offerings einiger kleinerer Anbieter sind im Vergleich zu denen der Hyperscaler deutlich günstiger.

In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten, CNCF-konformen Managed-Kubernetes-Plattformen – abseits von AWS, Microsoft und Google Cloud.  

1. Alibaba Cloud Container Service for Kubernetes (ACK)

Alibabas Container Service for Kubernetes hat standardmäßig diverse Funktionen an Bord, um Cluster Management und containerisierte App-Deployments zu vereinheitlichen. Dank der zugrundeliegenden Cloud-Infrastruktur des chinesischen Anbieters ist dieses Angebot zudem hoch skalierbar.

Zu den wichtigsten Benefits des Kubernetes-Service von Alibaba zählen:

eine native Virtual Private Cloud (VPC) für sichere Netzwerke,

direkter Zugriff auf GPU-beschleunigte Instanzen,

integrierte Canary- und Blue-Green-Deployment-Strategien, um regionenübergreifend bereitzustellen, sowie

professionelle Support-Dienstleistungen.

ACK priorisiert VPC-Netzwerke, weil es keinen nativen Support für moderne Container-Netzwerk-Interfaces auf eBPF-Basis bietet (obwohl Plug-Ins dafür zur Verfügung stehen). Geht es um Logging, Storage und rollenbasierte Zugangskontrollen, verlässt sich der Managed-Kubernetes-Service ebenfalls auf die Cloud-Infrastruktur von Alibaba. Wer nach quelloffener Flexibilität sucht, ist hier also falsch.

Unter dem Strich: Ideal eignet sich dieser Kubernetes-Dienst in erster Linie für Unternehmen und Anwender, die bereits Alibaba-Cloud-Kunden sind und/oder im asiatischen Raum tätig sind. 

2. D2iQ Kubernetes Platform (DKP)

Die D2iQ Kubernetes Platform ist initial aus dem (in ursprünglicher Form) nicht mehr existenten Apache Mesos hervorgegangen – einem Open-Source-Projekt, das einst Kubernetes Konkurrenz machen sollte. Inzwischen wurde die Plattform von Nutanix übernommen und bietet die Möglichkeit, Cluster automatisiert und Cloud-übergreifend auf Kubernetes-Basis zu managen.

Das Managed-Kubernetes-Angebot von D2iQ zeichnet sich vor allem aus durch:

eine Steuerungsebene, die einen zentralen, Cluster-übergreifenden Blick ermöglicht,

deklarative APIs und Standard-kubectl-Befehle,

Support für Air-Gapped-Deployments, sowie  

ein vereinfachtes Deployment von Datenbanken, CI/CD, Backups, Schwachstellen-Scans und Monitoring.

Allerdings gibt es auch Kritik seitens der Anwender. Sie bemängeln vor allem eine schlechte Dokumentation, lahmen Support sowie eine steile Lernkurve bei der Ersteinrichtung.

Unter dem Strich: Für Unternehmen und Organisationen, die Cloud-übergreifend agieren und über eine ausgeprägte GitOps-Kultur verfügen, ist dieses Angebot einen Blick wert. Insbesondere, wenn das Ziel ist, mehrere Cluster in verschiedenen Deployment-Umgebungen einfacher zu betreiben.

3. DigitalOcean Kubernetes (DOKS)

Die Steuerungsebene der Managed-Kubernetes-Plattform von DigitalOcean ist wahlweise über ein User Interface, eine API oder die Kommandozeile zugänglich. Der Service abstrahiert das Infrastrukturmanagement und verspricht automatisierte Hochverfügbarkeit, Autoscaling und „One Click“-Backups.

Die Anwender wissen an diesem Kubernetes-Dienst vor allem zu schätzen:

eine intuitive Weboberfläche und die optimierte CLI,

einfach zu bewerkstelligende Updates,

nahtlos integrierbare, native Load Balancer und Volumes, sowie

die Möglichkeit, GPU-Workloads über Nvidia-fähige Droplets einzubinden.

Anfängliche Sicherheitsprobleme wurden inzwischen behoben. Was DOKS nicht bieten kann, ist integrierter Support für das Network File System (NFS). Dafür gibt es zwar Workarounds – bei der Konkurrenz aber eben auch native Optionen. Dafür werden VPC-Netzwerke nativ unterstützt – allerdings gestaltet sich das weniger flexibel als etwas bei AWS oder GCP.

Unter dem Strich: Das Managed-Kubernetes-Angebot von DigitalOcean wird beständig weiteroptimiert und ist insbesondere für kleinere Kubernetes-Workloads wie APIs, Worker Nodes oder Log Processing zu empfehlen.

4. IBM Cloud Kubernetes Service (IKS)

Auch IBM bietet mit seinem Kubernetes Service eine vollständig verwaltete Plattform, um Container-Applikationen in der hauseigenen Cloud bereitzustellen. Diese stellt benutzerfreundliche Tools zur Verfügung, um Cluster zu planen, zu warten, zu überwachen und bereitzustellen.

Für die Benutzer manifestieren sich die wesentlichen Vorteile der Managed-Kubernetes-Plattform von Big Blue im Wesentlichen in:

Workload Scalability,

Hochverfügbarkeit, sowie

der Möglichkeit, Ressourcen in stark regulierten Umgebungen zu isolieren.

Darüber hinaus punktet der Managed Service auch mit einer nativen Container-Registry und den Integrationsmöglichkeiten mit weiteren IBM-Services – etwa Watson. Ganz allgemein weniger gut kommt hingegen die IBM Cloud an. Das begründet sich unter anderem in hohen Kosten, Troubleshooting-Problemen und einer lückenhaften Dokumentation.

Unter dem Strich: Falls Ihr Unternehmen bereits die IBM Cloud nutzt und von einer engen Integration mit IBM Services profitiert, kann IKS dennoch eine gute Managed-Kubernetes-Option sein.

5. Kubermatic Kubernetes Platform (KKP)

Die Kubermatic Kubernetes Platform ist eine verwaltete Kubernetes-Distribution, die für Edge-Szenarien mit geringer Bandbreite oder geringer Rechenleistung optimiert ist. Dieser Service ist in hohem Maße portabel und unterstützt sowohl hybride Multi-Cloud- als auch Data-Center- und Multitenant-Umgebungen.

Diese Kubernetes-Plattform bietet insbesondere Automatisierungsmöglichkeiten. Nämlich mit Blick auf:

Skalierung,

Fehlerbehebung,

Provisionierung,

Updates, sowie

Backups.

KKP ist darüber hinaus auch in einer quelloffenen Community-Version mit Apache-2.0-Lizenz verfügbar.

Mit Blick auf Container Network Interface (CNI)-Support war die Kubermatic Kubernetes Platform ursprünglich auf Canal beschränkt, unterstützt inzwischen jedoch unter anderem auch Cilium. Die Nutzerbasis dieser verwalteten Kubernetes-Plattform ist wesentlich kleiner als die seiner großen Konkurrenten. Allerdings zählt Kubermatic zu den fünf größten Kubernetes-Kontributoren.

Unter dem Strich: Wenn Sie eine Kubernetes-native, verwaltete Plattform mit hoher Anpassungsfähigkeit für Container am Netzwerkrand suchen, ist dieser Managed Service einen Blick wert.

6. Linode Kubernetes Engine (LKE)

Die Linode Kubernetes Engine ist eine Managed-Service-Plattform des Sicherheitsanbieters Akamai. Sie ermöglicht es, containerisierte Anwendungen bereitzustellen, ohne ein Kubernetes Cluster warten zu müssen. Auch diese Plattform bietet eine vollständig gemanagte Steuerungsebene und eröffnet programmgesteuerte Wege, um Cluster bereitzustellen.

Mit Blick auf die LKE loben die Anwender in erster Linie:

die Benutzerfreundlichkeit der Plattform,

den hochwertigen Kunden-Support,

die transparente Preisgestaltung (Worker-Knoten kosten, eingehende Übertragungen sind kostenlos),

die hohe Verfügbarkeit,

den Support für mehrere Kubernetes-Versionen, sowie

die Möglichkeit, schnell zusätzliche Tools in Form von Add-Ons hinzuzufügen.

Allerdings lässt der Linode-Kubernetes-Dienst einige fortschrittliche Funktionen größerer Konkurrenzplattformen vermissen, Insbesondere fehlt eine private Container-Registry – und obwohl es sich um einen Managed Service handelt, müssen die Anwender sich selbst um Deployment-Konfigurationen kümmern. Sauer aufstoßen könnte potenziellen Kunden auch, dass für GPU-Workloads zusätzliche (Abo-)Gebühren anfallen.

Unter dem Strich: Linode Kubernetes Engine eignet sich in erster Linie für kleinere Teams oder (Startup-)Unternehmen.

7. Mirantis Kubernetes Engine (MKE)

Die ehemals als Docker Enterprise bekannte Mirantis Kubernetes Engine ist eine Container-Orchestrierungsplattform mit Open-Source-Wurzeln, die auf Bare Metal, Public Cloud und allem dazwischen läuft. Dieser Service nutzt Calico zu Networking-Zwecken und KubeVirt, um Container und VMs zu managen.

MKE-Anwender wissen an dem Managed Service insbesondere zu schätzen:

den flexiblen Zugriff über Web-UI, CLI oder API,

die einfache Bedienung,

die ausgeprägten Sicherheitskontrollen,

unbegrenzt nutzbare Worker Nodes, sowie

eine interne, vertrauenswürdige Registry für Container-Images.

Skepsis erzeugt hingegen das Open-Source-Engagement von Mirantis. Das Unternehmen ist berüchtigt dafür, kostenlos verfügbare Tools mit Docker-Bezug zu kommerzialisieren. Die Entscheidung, das populäre Kubernetes-Dashboard Lens zu einem Closed-Source-Produkt umzufunktionieren, hat die Situation, gelinde gesagt, nicht verbessert. Kritisch sehen manche Anwender auch die Performance des Kunden-Supports und die teilweise undurchsichtige Dokumentation.   

Unter dem Strich: Für Anwender, die in das Docker-Ökosystem eingebettet sind und lieber eine einfache statt eine möglichst flexible Lösung bevorzugen, bleibt die Mirantis Kubernetes Engine eine solide Wahl.

8. Oracle Kubernetes Engine (OKE)

Oracles Kubernetes Engine fußt auf der hauseigenen Cloud-Infrastruktur. Die Managed-Kubernetes-Plattform automatisiert dabei nicht nur Wartung und Patch Management, sondern bietet zudem Support für Autoscaling und effiziente Ressourcennutzung. 

Durch die Verflechtung mit dem Oracle-Ökosystem eignet sich diese Plattform vor allem für Oracle-agnostische Organisationen. Diese profitieren (unter anderem) von:  

zahlreichen Add-Ons sowie

dauerhaft kostenlos nutzbaren Ressourcen (für selbst gehostete Projekte).

Letztgenanntes Feature überzeugt sogar einige unabhängige Entwickler – im Allgemeinen ist Oracles Managed Service aber für Enterprise-Nutzer interessant. OKE-Anwender kritisieren in erster Linie die umständliche Experience, die die OCI-Benutzeroberfläche realisiert.

Unter dem Strich: Wenn Sie nach einer Enterprise-orientierten Kubernetes-Management-Ebene mit einer großzügigen, kostenlosen Option suchen, könnte Oracle Kubernetes Engine die richtige Wahl sein.

9. Platform9 Managed Kubernetes (PMK)

Der Managed-Kubernetes-Service von Platform9 automatisiert Custer-Prozesse – etwa mit Blick auf Deployment, Monitoring, Wartung und Upgrades. PMK ist Cloud-agnostisch und kann sowohl lokal als auch in Edge- und Public-Cloud-Umgebungen ausgeführt werden.

Die Anwender des Platform9-Dienstes erfreuen sich vor allem an:

skalierbarem Multi-Custer-Management,

Multitenant-Fähigkeiten,

granularen RBAC-Richtlinien,

einer Hochverfügbarkeits-Garantie, sowie

einer soliden Developer Experience.  

Allerdings fehlt PMK eine integrierte Container-Registry – und der CNI-Support ist eher begrenzt (wenn auch über Plugins anpassbar). Dass die Steuerungsebene des Services in der Cloud gehostet wird, entspricht möglicherweise nicht in jedem Fall den Compliance-Vorgaben. Und obwohl manche Anwender von Kosteneinsparungen berichten, ist das Preisgefüge von PMK mitunter schwer zu durchdringen.

Unter dem Strich: Für Unternehmen und Organisationen, die eine Private-Cloud-Kubernetes-Lösung suchen, ist Platform9 Managed Kubernetes eine starke Alternative zu Red Hat OpenShift oder VMware Tanzu.

10. Rackspace Managed Kubernetes (MPK)

Die eben besprochene Plattform von Platform9 bildet auch die Grundlage für den Managed-Kubernetes-Dienst von Rackspace. Auch dieser Service wartet mit einer einheitlichen Steuerungsebene auf, um Cluster bereitzustellen, zu überwachen und zu aktualisieren. Dabei unterstützt MPK drei Umgebungen: Rackspace Bare Metal, AKS und EKS.

Zu den Vorteilen dieses Angebots zählen:

eine SLA, die Kubernetes-Upgrades innerhalb von 120 Tagen garantiert,

dedizierte Support-Dienstleistungen (PDF) von Kubernetes-zertifizierten Engineers,

Integrationsmöglichkeiten für Tools, die von der CNCF unterstützt werden – etwa Prometheus, Fluentd, Helm oder Istio.

Eine native Container-Registry lässt das Managed-Service-Angebot von Rackspace jedoch ebenso vermissen wie IAM und Storage. Eine Public-Cloud-Anbindung oder entsprechende Bring-your-own-Lösungen sind also erforderlich.

Unter dem Strich: Rackspace Managed Kubernetes ist eine solide Wahl für Teams, die auf Rackspace Bare Metal Hosting setzen, Hands-On-Support schätzen und eine zentrale Plattform suchen, um Kubernetes-Services von AWS und Azure zu managen.

11. Rancher

Die Kubernetes-as-a-Service-Lösung von SUSE – Rancher – ist auf On-Premises- und Cloud-Umgebungen ausgerichtet. Dieser Service unterstützt mehrere, unterschiedliche Kubernetes-Plattformen – darunter Rancher Kubernetes Engine (RKE), K3s, AKS, EKS und GKE.

Entwickler schätzen an Rancher vor allem:

die einheitliche Web-UI, die einen einfachen Einstieg gewährleistet,  

eine API, eine CLI sowie Support für Terraform,  

die standardmäßig integrierten Authentifizierungsmethoden (etwa OAuth),

die große Community, die es auch leicht macht, Support zu finden.

Von Problemen berichten Anwender beim Kubernetes-Service von SUSE vor allem mit Blick auf die native Storage-Lösung Longhorn.

Unter dem Strich: Rancher ist vergleichbar mit OpenShift (dazu gleich mehr), dabei aber weniger eigensinnig und modularer aufgebaut – inklusive einem anderen Multitenancy-Ansatz. Organisationen und Unternehmen, die mehrere, unterschiedliche Clouds und Cluster mit möglichst wenig Anbieterrestriktionen managen wollen, sind bei Rancher gut aufgehoben.

12. Red Hat OpenShift Kubernetes Engine

Red Hats Hybrid-Cloud-Plattform Open Shift vereinheitlicht  Kubernetes mit einer Developer Tool Chain für vereinfachtes Cluster Management. Die Plattform integriert Observability, Networking, Security und GitOps. Das gewährleistet im Vergleich zu Standalone-Kubernetes simplere Patching- und Update-Prozesse. Im Gegensatz zu Cloud-spezifischen Services ist OpenShift portabel und kann On-Premises, in Rechenzentren oder Cloud-übergreifend eingesetzt werden.

OpenShift Kubernetes Engine ist wiederum eine abgespeckte Version von OpenShift. Sie:

stellt die Managed-Kubernetes-Umgebung ohne den übergeordneten PaaS-Layer bereit,

unterstützt Kubernetes-Operatoren und

ermöglicht, Container und virtuelle Maschinen parallel auszuführen.

Allerdings berichten Anwender, dass OpenShift im Vergleich zu anderen Services deutlich eigenwilliger ist: Es bevorzugt seine eigene CLI gegenüber kubectl – und einige Helm-Charts und Operatoren müssen möglicherweise an das Sicherheitsmodell angepasst werden.  

Unter dem Strich: OpenShift eignet sich in erster Linie für lokale Deployments, hybride Teams, die VMs und Container managen und Red-Hat-Kunden. Sie bekommen eine portable, Enterprise-fähige Kubernetes-Distribution mit integrierter Sicherheit und Automatisierungsmöglichkeiten.

13. Scaleway Kubernetes Kapsule

Der französische Cloud- und Webhosting-Anbieter Scaleway hat mit Kubernetes Kapsule ebenfalls einen Managed-Kubernetes-Dienst im Angebot. Dieser ist vor allem auf Skalierbarkeit und Ausfallsicherheit ausgerichtet.

Dieser Service zeichnet sich vor allem aus durch:

eine schlanke Benutzererfahrung,

starken Kundensupport,

flexibles Cluster-Management per API, CLI oder Terraform,

eine nutzungsbasierte Abrechnung, sowie

eine App-Bibliothek inklusive vorkonfigurierter Lösungen für gängige Add-Ons.  

Ein möglicher Nachteil bei dem Managed Service von Scaleway sind die unterstützten Regionen – Frankreich, die Niederlande und Polen. Für andere, potenzielle Interessenten könnten sich auch bestimmte fehlende Funktionen als „Deal Breaker“ erweisen – etwa fortgeschrittenes Load Balancing. Manche Anwender berichten außerdem von Ausfall-, beziehungsweise Zuverlässigkeitsproblemen.

Unter dem Strich: Aufgrund seines begrenzten Funktionsumfangs und seiner geografischen Restriktionen eignet sich Scaleway Kubernetes Kapsule vor allem für Nebenprojekte, Experimente – oder für Startups mit Sitz in der EU, die eine erschwingliche, DSGVO-konforme Lösung suchen.  

14. VMware Tanzu Kubernetes Grid (TKG)

Tanzu Kubernetes Grid ist die Kubernetes-Plattform von VMware – beziehungsweise Broadcom. Sie verspricht, Networking, Authentifizierung, Monitoring, Logging und Zugangskontrollmaßnahmen zu vereinheitlichen und basiert in Teilen auf Open Source Software: Um mehrere Cluster zu managen, nutzt dieser Service beispielsweise die Cluster API.

TKG bietet in erster Linie:

eine gute Performance und

sowohl CLI- als auch UI-Optionen.

Allerdings ist dieser Service inzwischen nicht mehr Multi-Cloud-fähig: Seit Version 2.5 gibt es keinen Support mehr für AWS- und Azure-Workloads. Weil der Fokus damit vor allem auf der Virtualisierungsplattform vSphere liegt, ist dieser Service als agnostische Kubernetes-Steuerungsebene ungeeignet. Um Kubernetes Cloud-übergreifend managen zu können, ist zudem Tanzu Mission Control im Zusammenspiel mit nativen Services wie EKS, AKS oder GKE erforderlich.

Dazu kommen noch ein Branding und eine Dokumentation, die mehr verwirren als Klarheit schaffen. Das geht offenbar so weit, dass selbst VMwares eigene Experten sich schwertun, die SKUs zu erklären. Die Preiserhöhungen, die nach der Übernahme von VMware durch Broadcom für den Service verankert wurden, sind eklatant. In Kombination mit dem Umstand, dass VMware zudem etliche Tanzu-Packages eingestellt hat, wirft das bezüglich der langfristigen Rentabilität des VMware-Kubernetes-Dienstes Fragen auf.  

Unter dem Strich: Wenn Ihr Unternehmen stark in vSphere und virtuelle Maschinen investiert ist, höhere Kosten verkraften kann und keine echte Multi-Cloud-Lösung benötigt, könnte Tanzu Kubernetes Grid eine passende Lösung sein.

Noch mehr Managed-Kubernetes-Optionen

Es gibt unzählige weitere empfehlenswerte Managed-Kubernetes-Angebote, etwa von:

Hetzner,

Spectro Cloud,  

OVHCloud,

Civo,

Tencent, oder

Huawei.

Diverse andere Lösungen fokussieren eher auf nischige Kubernetes-Management-Funktionen. Zum Beispiel diese Managed Services, die darauf ausgelegt sind, mehrere Cluster und Clouds universell zu steuern:  

Portainer,

Rafay,

Omni,

Liquo, und  

Kube Clusters.

Zusätzliche Managed-Kubernetes-Optionen, die sich speziell für Container- und Edge-Deployments in kleinerem Umfang eignen, sind:

MicroK8s,

K3s,

K0s,

Vultr, oder

der quelloffene Developer-Favorit Kubespray.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 alternative Managed-Kubernetes-Plattformen​ Weiterlesen »

7 Wege zur Low-Code-Innovation​

Allgemein

Komplexität abstrahieren, um zu innovieren: Die Low-Code-Technologie macht’s möglich. Foto: SvetaZi | shutterstock.com Spreadsheets substituieren und Dashboards erstellen – das sind die wesentlichen Anwendungsfälle, die viele Business-Führungskräfte und auch Entwickler mit der Low-Code-Technologie in Verbindung bringen. Wir haben für diesen Artikel sieben Use Cases zusammengestellt, die weit mehr realisieren als bloß grundlegende Funktionalitäten – und signifikanten geschäftlichen Mehrwert versprechen. Von wegen Low-Code-Plattformen sind nicht skalierbar und ermöglichen keine Innovation. 1. LLMs mit Low-Code-RAG Was auf den ersten Blick wie ein ungleiches Duett aussieht, geht im Grunde gut zusammen: Low-Code und Generative AI (GenAI; generative KI). Mal angenommen, sie erwägen, ein Large Language Model (LLM) zu entwickeln, das Retrieval Augmented Generation (RAG) nutzen soll: Dann haben Sie die Wahl, das von Grund auf selbst neu aufzubauen, eine Lösung zu kaufen oder eine Low-Code-Option ins Auge zu fassen. Letzteres dürfte insbesondere für mittlere und kleine Unternehmen interessant sein, da sie – im Vergleich zu Großunternehmen – oft nicht in gleichem Maße auf technisches Knowhow und geistiges Eigentum zurückgreifen können. Von den monetären Ressourcen ganz zu schweigen. “Das Gros der KI-Player versucht den Unternehmen weiszumachen, dass sie ihre eigenen LLMs erstellen oder Open-Source-Modelle feinabstimmen müssen, um eine Reihe interner und externer Applikationen zu unterstützen”, kritisiert Igor Jablokov, Gründer und CEO des KI-Spezialisten Pryon und fügt hinzu: “Die Genauigkeit solcher Systeme lässt sich jedoch durch den Einsatz von RAG übertreffen – einfach, indem man mit einigen Klicks Dokumenten-Repositories einbindet und automatisiert KI-Modelle erstellt, die auf diesen Inhalten fußen.” Auch Malcolm Ross, SVP of Product Strategy beim Low-Code-Anbieter Appian, hebt nicht ganz uneigennützig die Vorteile der Technologie hervor: “Um das Design KI-generierter Anwendungen zu verstehen, ist immer noch fortgeschrittenes Informatik-Knowhow notwendig. Aber die visuellen Designkonzepte von Low-Code sind ideal dafür geeignet, KI in End-to-End-Prozesse einzubetten. Parallel wird die Produktivität der Entwickler erhöht und sichergestellt, dass der Output kontrollierbar bleibt.” Ein konkreter, zunehmend attraktiver Use Case ist dabei, Low-Code-Plattformen und GenAI-Funktionalitäten dazu zu nutzen, die Entwicklung von Daten-Pipelines und generativen KI-Anwendungen zu konsolidieren. Das ermöglicht, Anwendungen in denjenigen Bereichen zügig zu entwickeln und bereitzustellen, für die Unternehmen keine Developer oder Data Scientists abstellen können oder wollen. 2. Integrierte Geschäftsprozesse Geschäftsprozesse und Workflow-Optimierungen sind weitere Bereiche, in denen Low-Code unter Umständen bessere Resultate bringt als maßgeschneiderte SaaS-Lösungen. Letztere stehen zum Beispiel in den Bereichen Asset Management und Customer Relationship Management (CRM) in diversen Ausformungen zur Verfügung – aber was, wenn strategische Arbeitsabläufe beide Funktionsbereiche berühren? Der Einsatz von Low-Code kann hier Hilfestellung leisten und dabei unterstützen, integrierte Workflows zu entwickeln. So hat etwa die Statistikbehörde des US-Handelsministerium einen komplexen papierbasierten Datenerfassungsprozess in einen automatisierten Workflow mit Fokus auf die Datenqualität transformiert, wie Don Schuerman, CTO beim Automatisierungsspezialisten Pega, illustriert: “Das US Census Bureau nutzt Low-Code, um die Daten aller US-Haushalte zu sammeln. Im Ergebnis konnte das zuständige, 600.000 Personen starke Team 152 Millionen Haushalte in der Hälfte der Zeit des Vorjahres erfassen – und das ohne jede Downtime.” Low-Code-Plattformen können die Entwicklung integrierter Experiences beschleunigen und diesbezüglich verschiedenste Unternehmensbereiche unterstützen. Weitere Real-World-Beispiele für integrierte Workflows auf Low-Code-Basis: Risikoschätzungen im Versicherungssektor zu rationalisieren, die zentralisierten Customer Service, Policy Management, Claims Processing und Risikomanagement-Prozesse erfordern. Die physische Sicherheit auf Baustellen zu optimieren, was einen koordinierten Workflow zwischen Vorarbeitern, Subunternehmern, Projektmanagern und anderen Stakeholdern erfordert, um eine entsprechende Sicherheitsschulung der Arbeiter sicherzustellen. Intelligente Kundenerfahrungen im Healthcare-Bereich zu entwickeln, die die Verknüpfung von Kundendienst, Personalisierung und Analytics erfordern. 3. Moderne UX – ohne Reengineering Komponenten im Rahmen eines Replatformings zu modernisieren, ist dem Lift-and-Shift-Verfahren bekanntermaßen vorzuziehen, wenn es um App-Modernisierung in der Cloud geht. Ein hilfreicher Ansatz in diesem Bereich kann dabei darin bestehen, Backend-Datenbanken und Services beizubehalten und parallel Low-Code-Plattformen einzusetzen um das Benutzererlebnis am Frontend neu zu gestalten. Mit Hilfe dieser Strategie ist es auch möglich, mehrere User Experiences für unterschiedliche Geschäftszwecke zu generieren. Unter unabhängigen Software-Vendoren ist es zum Beispiel gängige Praxis, eine Funktion zu entwickeln und sie dann auf die Bedürfnisse verschiedener Kunden anzupassen, wie Deepak Anupalli, Mitbegründer und CTO des Softwareanbieters Wavemaker, weiß: “Diese Anbieter gestalten ihre Produkt-UX neu und behalten alle ihre bisherigen Investitionen in Infrastruktur, Back-End-Microservices und APIs bei. Sie nutzen Low-Code, um benutzerdefinierte Komponenten zu erstellen, die sich in bestehende Systeme einfügen und beschleunigen so Web- und Mobile-Implementierungen.” Konkrete Beispiele seien laut Anupalli etwa Self-Service-Portale für Versicherungsunternehmen oder die Modernisierung des Kunden-Onboardings im Bankenumfeld. 4. Maßgeschneiderte Abteilungs-Workflows SaaS-Lösungen unterstützen viele Abteilungen bei skalierbaren und standardmäßigen Workflows. Wenn jedoch spezialisierte Geschäftsprozesse automatisiert werden sollen, tauchen viele Fragezeichen auf. Einen solchen Workflow mit Hilfe von Low-Code- oder No-Code-Plattformen zu entwickeln, die sich in die primären Systeme der betreffenden Abteilung einfügen, kann an dieser Stelle ein sinnvoller Ansatz sein. Anurag Shah, VP und Head of Products beim Plattformanbieter Newgen Software, fasst mögliche Benefits am Beispiel von Marketing-Abteilungen zusammen: “Low-Code-Plattformen können auch für Rapid Prototyping genutzt werden und um KI – mit menschlichem Zutun – kanalübergreifend in Kundenkommunikationsprozesse einzubinden. Das unterstützt Anwender dabei, Marketing-Material, Reportings und weitere Dokumente automatisiert und in großem Umfang zu generieren und anzupassen. Im Ergebnis lassen sich die Effizienz steigern und die Kundenbindung optimieren.” Eoin Hinchy, CEO des Softwareanbieters Tines, kann ein konkretes Beispiel aus dem Bereich der IT-Sicherheit beisteuern: “Nachdem das Infosec-Team bei Elastic mit Warnmeldungen überschwemmt wurde, entwickelte das Unternehmen einen automatisierten Investigation-Workflow, der ganze 93 Arbeitstage an Zeitaufwand einsparen konnte. Mit Low-Code- oder No-Code-Lösungen zu automatisieren, kann den Unternehmensbetrieb deutlich effizienter gestalten und ermöglicht es Teams aus diversen Bereichen, sich auf die wirklich wichtigen Tasks zu konzentrieren.” Maßgeschneiderte Workflows auf Low-Code-Basis kommen darüber hinaus zum Beispiel auch in den Bereichen Mitarbeiter-Onboarding oder Schulung und Weiterbildung in Betracht. 5. Analytics als Gamechanger Reportings und Dashboards sind – wie eingangs bereits erwähnt – die üblichen Use-Case-Verdächtigen im Low-Code-Bereich. Viele Unternehmen unterstützen Business User zudem mit Datenkatalogen und Data-Preparation-Tools. Darüber hinaus kann die Low-Code-Technologie aber auch die Collaboration optimieren und Echtzeit-Analytics realisieren, wie Jay Henderson, SVP of Product Management beim Softwareanbieter Alteryx, konstatiert: “Mit Low-Code-freundlichen Analysetools können erfahrene Datenwissenschaftler mit technologischen Laien auf derselben Plattform auf Augenhöhe zusammenarbeiten. Gleichzeitig kann das einen Beitrag zu User Experience und Prozessautomatisierung leisten und Kompetenzlücken beseitigen.” Julian LaNeve, CTO beim Datenspezialisten Astronomer, liefert ein konkretes Beispiel aus dem US-Profisport: “Die Major-League-Baseball-Mannschaft der Texas Rangers verwendet Pipelines, um Daten über Spieler und Spielstatistiken zu erfassen, die dem Trainerstab direkt nach Spielschluss zur Verfügung stehen. Das ermöglicht nicht nur, die Leistung einzelner Spieler zu tracken sondern auch, das Verletzungsrisiko zu antizipieren.” 6. Public-Cloud-Workflows Zur Innovation kann es außerdem führen, mit Low-Code Produkt- oder Service-Komponenten in der Cloud zu entwickeln: Die Developer beschäftigen sich dabei mit den Engineering- und Skalierungsanforderungen, während Low-Code-Tools für simple Interfaces, administrative Tools oder Reportings genutzt werden. Dieser Ansatz funktioniert für Public-Cloud-Plattformen sowie die Anbindung an Drittanbieter-Services. Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Spezialisten SADA, gibt tiefere Einblicke: “Low-Code- und No-Code-Plattformen in der Google Cloud ermöglichen eine rationalisierte App-Entwicklung und revolutionieren die Datenverarbeitung und -analyse: Sie ermöglichen den Nutzern, intuitive Interfaces für die direkte Dateneingabe in Google Sheets oder BigQuery-Tabellen zu erstellen.” Die automatisierte Berichterstellung werde durch die Integration von Google Cloud Functions mit diesen Plattformen erleichtert, so die Managerin: “Datengesteuerte Reportings werden auf der Grundlage vordefinierter Kriterien automatisiert erstellt – die Teams können sich ganz auf die Entscheidungsfindung fokussieren. Darüber hinaus kann die Technologie auch der internen Kommunikation durch innovative Anwendungsfälle wie Chatbots und Bilderkennung dienlich sein und neue Geschäftsmöglichkeiten eröffnen.” 7. Authentifizierungs-Upgrades Ein weiterer Bereich, in dem sich mit Low-Code innovieren lässt, ist die Substituierung interner Commodity-Komponenten. Rudimentäre Registrierungs-, Login- und Password-Reset-Funktionalitäten zu entwickeln, ist relativ einfach – allerdings sollten die angesichts heutiger Security-Anforderungen und Nutzererwartungen auch zuverlässig implementiert werden. Wenn User dabei auf zusätzliche Invests in Form von Engineering-Aufwand möglichst verzichten möchten, ist Low-Code ein Weg. Meir Wahnon, Mitbegründer des israelischen Identity-Management-Anbieters Descope, spezifiziert: “Identity geht alle Business Teams etwas an und die User Journey umfasst diverse Schritte – etwa Anmeldung, Login, Multi-Faktor-Authentifizierung oder die Synchronisierung mit CRM-Tools. Die Erweiterbarkeit von Low-Code- und No-Code-Tools vereinfacht es, sie mit anderen Tools zu integrieren und Teams aus nicht-technischen Bereichen in diesen Prozess einzubinden. Zudem können Lösungen dieser Art dazu beitragen, die Details komplexer Authentifizierungsprozesse zu abstrahieren. Das bedeutet für Entwickler, sich stärker auf ihr Kernprodukt konzentrieren zu können.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Wege zur Low-Code-Innovation​ Komplexität abstrahieren, um zu innovieren: Die Low-Code-Technologie macht’s möglich.
Foto: SvetaZi | shutterstock.com

Spreadsheets substituieren und Dashboards erstellen – das sind die wesentlichen Anwendungsfälle, die viele Business-Führungskräfte und auch Entwickler mit der Low-Code-Technologie in Verbindung bringen.

Wir haben für diesen Artikel sieben Use Cases zusammengestellt, die weit mehr realisieren als bloß grundlegende Funktionalitäten – und signifikanten geschäftlichen Mehrwert versprechen. Von wegen Low-Code-Plattformen sind nicht skalierbar und ermöglichen keine Innovation.

1. LLMs mit Low-Code-RAG

Was auf den ersten Blick wie ein ungleiches Duett aussieht, geht im Grunde gut zusammen: Low-Code und Generative AI (GenAI; generative KI). Mal angenommen, sie erwägen, ein Large Language Model (LLM) zu entwickeln, das Retrieval Augmented Generation (RAG) nutzen soll: Dann haben Sie die Wahl, das von Grund auf selbst neu aufzubauen, eine Lösung zu kaufen oder eine Low-Code-Option ins Auge zu fassen. Letzteres dürfte insbesondere für mittlere und kleine Unternehmen interessant sein, da sie – im Vergleich zu Großunternehmen – oft nicht in gleichem Maße auf technisches Knowhow und geistiges Eigentum zurückgreifen können. Von den monetären Ressourcen ganz zu schweigen.

“Das Gros der KI-Player versucht den Unternehmen weiszumachen, dass sie ihre eigenen LLMs erstellen oder Open-Source-Modelle feinabstimmen müssen, um eine Reihe interner und externer Applikationen zu unterstützen”, kritisiert Igor Jablokov, Gründer und CEO des KI-Spezialisten Pryon und fügt hinzu: “Die Genauigkeit solcher Systeme lässt sich jedoch durch den Einsatz von RAG übertreffen – einfach, indem man mit einigen Klicks Dokumenten-Repositories einbindet und automatisiert KI-Modelle erstellt, die auf diesen Inhalten fußen.”

Auch Malcolm Ross, SVP of Product Strategy beim Low-Code-Anbieter Appian, hebt nicht ganz uneigennützig die Vorteile der Technologie hervor: “Um das Design KI-generierter Anwendungen zu verstehen, ist immer noch fortgeschrittenes Informatik-Knowhow notwendig. Aber die visuellen Designkonzepte von Low-Code sind ideal dafür geeignet, KI in End-to-End-Prozesse einzubetten. Parallel wird die Produktivität der Entwickler erhöht und sichergestellt, dass der Output kontrollierbar bleibt.”

Ein konkreter, zunehmend attraktiver Use Case ist dabei, Low-Code-Plattformen und GenAI-Funktionalitäten dazu zu nutzen, die Entwicklung von Daten-Pipelines und generativen KI-Anwendungen zu konsolidieren. Das ermöglicht, Anwendungen in denjenigen Bereichen zügig zu entwickeln und bereitzustellen, für die Unternehmen keine Developer oder Data Scientists abstellen können oder wollen.

2. Integrierte Geschäftsprozesse

Geschäftsprozesse und Workflow-Optimierungen sind weitere Bereiche, in denen Low-Code unter Umständen bessere Resultate bringt als maßgeschneiderte SaaS-Lösungen. Letztere stehen zum Beispiel in den Bereichen Asset Management und Customer Relationship Management (CRM) in diversen Ausformungen zur Verfügung – aber was, wenn strategische Arbeitsabläufe beide Funktionsbereiche berühren? Der Einsatz von Low-Code kann hier Hilfestellung leisten und dabei unterstützen, integrierte Workflows zu entwickeln.

So hat etwa die Statistikbehörde des US-Handelsministerium einen komplexen papierbasierten Datenerfassungsprozess in einen automatisierten Workflow mit Fokus auf die Datenqualität transformiert, wie Don Schuerman, CTO beim Automatisierungsspezialisten Pega, illustriert: “Das US Census Bureau nutzt Low-Code, um die Daten aller US-Haushalte zu sammeln. Im Ergebnis konnte das zuständige, 600.000 Personen starke Team 152 Millionen Haushalte in der Hälfte der Zeit des Vorjahres erfassen – und das ohne jede Downtime.”

Low-Code-Plattformen können die Entwicklung integrierter Experiences beschleunigen und diesbezüglich verschiedenste Unternehmensbereiche unterstützen. Weitere Real-World-Beispiele für integrierte Workflows auf Low-Code-Basis:

Risikoschätzungen im Versicherungssektor zu rationalisieren, die zentralisierten Customer Service, Policy Management, Claims Processing und Risikomanagement-Prozesse erfordern.

Die physische Sicherheit auf Baustellen zu optimieren, was einen koordinierten Workflow zwischen Vorarbeitern, Subunternehmern, Projektmanagern und anderen Stakeholdern erfordert, um eine entsprechende Sicherheitsschulung der Arbeiter sicherzustellen.

Intelligente Kundenerfahrungen im Healthcare-Bereich zu entwickeln, die die Verknüpfung von Kundendienst, Personalisierung und Analytics erfordern.

3. Moderne UX – ohne Reengineering

Komponenten im Rahmen eines Replatformings zu modernisieren, ist dem Lift-and-Shift-Verfahren bekanntermaßen vorzuziehen, wenn es um App-Modernisierung in der Cloud geht. Ein hilfreicher Ansatz in diesem Bereich kann dabei darin bestehen, Backend-Datenbanken und Services beizubehalten und parallel Low-Code-Plattformen einzusetzen um das Benutzererlebnis am Frontend neu zu gestalten.

Mit Hilfe dieser Strategie ist es auch möglich, mehrere User Experiences für unterschiedliche Geschäftszwecke zu generieren. Unter unabhängigen Software-Vendoren ist es zum Beispiel gängige Praxis, eine Funktion zu entwickeln und sie dann auf die Bedürfnisse verschiedener Kunden anzupassen, wie Deepak Anupalli, Mitbegründer und CTO des Softwareanbieters Wavemaker, weiß: “Diese Anbieter gestalten ihre Produkt-UX neu und behalten alle ihre bisherigen Investitionen in Infrastruktur, Back-End-Microservices und APIs bei. Sie nutzen Low-Code, um benutzerdefinierte Komponenten zu erstellen, die sich in bestehende Systeme einfügen und beschleunigen so Web- und Mobile-Implementierungen.”

Konkrete Beispiele seien laut Anupalli etwa Self-Service-Portale für Versicherungsunternehmen oder die Modernisierung des Kunden-Onboardings im Bankenumfeld.

4. Maßgeschneiderte Abteilungs-Workflows

SaaS-Lösungen unterstützen viele Abteilungen bei skalierbaren und standardmäßigen Workflows. Wenn jedoch spezialisierte Geschäftsprozesse automatisiert werden sollen, tauchen viele Fragezeichen auf. Einen solchen Workflow mit Hilfe von Low-Code- oder No-Code-Plattformen zu entwickeln, die sich in die primären Systeme der betreffenden Abteilung einfügen, kann an dieser Stelle ein sinnvoller Ansatz sein.

Anurag Shah, VP und Head of Products beim Plattformanbieter Newgen Software, fasst mögliche Benefits am Beispiel von Marketing-Abteilungen zusammen: “Low-Code-Plattformen können auch für Rapid Prototyping genutzt werden und um KI – mit menschlichem Zutun – kanalübergreifend in Kundenkommunikationsprozesse einzubinden. Das unterstützt Anwender dabei, Marketing-Material, Reportings und weitere Dokumente automatisiert und in großem Umfang zu generieren und anzupassen. Im Ergebnis lassen sich die Effizienz steigern und die Kundenbindung optimieren.”

Eoin Hinchy, CEO des Softwareanbieters Tines, kann ein konkretes Beispiel aus dem Bereich der IT-Sicherheit beisteuern: “Nachdem das Infosec-Team bei Elastic mit Warnmeldungen überschwemmt wurde, entwickelte das Unternehmen einen automatisierten Investigation-Workflow, der ganze 93 Arbeitstage an Zeitaufwand einsparen konnte. Mit Low-Code- oder No-Code-Lösungen zu automatisieren, kann den Unternehmensbetrieb deutlich effizienter gestalten und ermöglicht es Teams aus diversen Bereichen, sich auf die wirklich wichtigen Tasks zu konzentrieren.”

Maßgeschneiderte Workflows auf Low-Code-Basis kommen darüber hinaus zum Beispiel auch in den Bereichen Mitarbeiter-Onboarding oder Schulung und Weiterbildung in Betracht.

5. Analytics als Gamechanger

Reportings und Dashboards sind – wie eingangs bereits erwähnt – die üblichen Use-Case-Verdächtigen im Low-Code-Bereich. Viele Unternehmen unterstützen Business User zudem mit Datenkatalogen und Data-Preparation-Tools.

Darüber hinaus kann die Low-Code-Technologie aber auch die Collaboration optimieren und Echtzeit-Analytics realisieren, wie Jay Henderson, SVP of Product Management beim Softwareanbieter Alteryx, konstatiert: “Mit Low-Code-freundlichen Analysetools können erfahrene Datenwissenschaftler mit technologischen Laien auf derselben Plattform auf Augenhöhe zusammenarbeiten. Gleichzeitig kann das einen Beitrag zu User Experience und Prozessautomatisierung leisten und Kompetenzlücken beseitigen.”

Julian LaNeve, CTO beim Datenspezialisten Astronomer, liefert ein konkretes Beispiel aus dem US-Profisport: “Die Major-League-Baseball-Mannschaft der Texas Rangers verwendet Pipelines, um Daten über Spieler und Spielstatistiken zu erfassen, die dem Trainerstab direkt nach Spielschluss zur Verfügung stehen. Das ermöglicht nicht nur, die Leistung einzelner Spieler zu tracken sondern auch, das Verletzungsrisiko zu antizipieren.”

6. Public-Cloud-Workflows

Zur Innovation kann es außerdem führen, mit Low-Code Produkt- oder Service-Komponenten in der Cloud zu entwickeln: Die Developer beschäftigen sich dabei mit den Engineering- und Skalierungsanforderungen, während Low-Code-Tools für simple Interfaces, administrative Tools oder Reportings genutzt werden. Dieser Ansatz funktioniert für Public-Cloud-Plattformen sowie die Anbindung an Drittanbieter-Services.

Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Spezialisten SADA, gibt tiefere Einblicke: “Low-Code- und No-Code-Plattformen in der Google Cloud ermöglichen eine rationalisierte App-Entwicklung und revolutionieren die Datenverarbeitung und -analyse: Sie ermöglichen den Nutzern, intuitive Interfaces für die direkte Dateneingabe in Google Sheets oder BigQuery-Tabellen zu erstellen.”

Die automatisierte Berichterstellung werde durch die Integration von Google Cloud Functions mit diesen Plattformen erleichtert, so die Managerin: “Datengesteuerte Reportings werden auf der Grundlage vordefinierter Kriterien automatisiert erstellt – die Teams können sich ganz auf die Entscheidungsfindung fokussieren. Darüber hinaus kann die Technologie auch der internen Kommunikation durch innovative Anwendungsfälle wie Chatbots und Bilderkennung dienlich sein und neue Geschäftsmöglichkeiten eröffnen.”

7. Authentifizierungs-Upgrades

Ein weiterer Bereich, in dem sich mit Low-Code innovieren lässt, ist die Substituierung interner Commodity-Komponenten. Rudimentäre Registrierungs-, Login- und Password-Reset-Funktionalitäten zu entwickeln, ist relativ einfach – allerdings sollten die angesichts heutiger Security-Anforderungen und Nutzererwartungen auch zuverlässig implementiert werden. Wenn User dabei auf zusätzliche Invests in Form von Engineering-Aufwand möglichst verzichten möchten, ist Low-Code ein Weg.

Meir Wahnon, Mitbegründer des israelischen Identity-Management-Anbieters Descope, spezifiziert: “Identity geht alle Business Teams etwas an und die User Journey umfasst diverse Schritte – etwa Anmeldung, Login, Multi-Faktor-Authentifizierung oder die Synchronisierung mit CRM-Tools. Die Erweiterbarkeit von Low-Code- und No-Code-Tools vereinfacht es, sie mit anderen Tools zu integrieren und Teams aus nicht-technischen Bereichen in diesen Prozess einzubinden. Zudem können Lösungen dieser Art dazu beitragen, die Details komplexer Authentifizierungsprozesse zu abstrahieren. Das bedeutet für Entwickler, sich stärker auf ihr Kernprodukt konzentrieren zu können.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Wege zur Low-Code-Innovation​ Weiterlesen »

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​

Allgemein

Bevor es soweit kommt, sollten Sie in Ihrem Unternehmen besser einen Konfliktberater einsetzen. Foto: Just dance – shutterstock.comKonflikte treten in Unternehmen vermehrt auf, wenn sich in ihnen Dinge verändern – sei es im zwischenmenschlichen oder strukturellen Bereich. Dass sie auftreten, ist normal. Dessen ungeachtet schmälern sie in der Regel jedoch die Leistung. Deshalb sollten in jedem Unternehmen Personen existieren, die über die Kompetenz verfügen, Konflikte früh zu erkennen und aufzugreifen sowie den Mitarbeitern ein wirksames Instrumentarium zu deren Bearbeitung an die Hand zu geben.Zuweilen können diese sogenannten Konfliktberater oder -lotsen Führungskräfte sein. Häufig können sie vorhandene Konflikte aber nicht moderieren – zum Beispiel, wenn sie selbst (emotional) in den Konflikt involviert sind. Dann sollte eine neutrale Person die Konfliktparteien bezüglich geeigneter Lösungsstrategien beraten und/oder mit ihnen eine Lösung aushandeln – sofern gewünscht.Warum Konfliktberater?Diese Konfliktberater sollten mit den Methoden zur Deeskalation von Konflikten und zur Konfliktintervention vertraut sein. Zudem sind zwei Grundhaltungen wichtig:Allparteilichkeit. Eine Konfliktmoderation kann nur erfolgreich sein, wenn der Konfliktberater (emotional) nicht Partei für eine Konfliktpartei und eine mögliche Lösung ergreift.Vertraulichkeit. Die Konfliktparteien sprechen nur offen über ihre Gefühle, Verletzungen und Bedürfnisse, wenn sie sicher sind, dass die Gesprächsinhalte im Raum bleiben.Konfiktberater oder Führungskraft?Wie sieht die praktische Arbeit eines Konfliktberaters aus? Hierfür ein Beispiel. Angenommen eine Führungskraft registriert, dass es zwischen zwei Mitarbeitern ihres Bereichs regelmäßig zu Reibereien kommt. Sie ist jedoch unsicher, ob nur ein Interessengegensatz oder ein Konflikt vorliegt; außerdem, ob sie und, wenn ja, wie sie hierauf reagieren soll. Dann kann sie mit einem Konfliktberater hierüber sprechen. Angenommen die Führungskraft und der Konfliktberater kommen überein: Es existiert ein leistungsmindernder Konflikt, also sollte man intervenieren. Dann können sie folgendes Vorgehen vereinbaren. Schritt 1: Die Führungskraft klärt mit den Konfliktparteien das Problembewusstsein. Das ist wichtig. Denn zuweilen erwidern Mitarbeiter, wenn man sie auf Konflikte anspricht: “Wie kommen Sie darauf?” Sie negieren also den Konflikt. Deshalb sollte die Führungskraft zunächst klären, ob den Beteiligten der Konflikt bewusst ist und sie bereit sind, Zeit und Energie in seine Lösung zu investieren. Schritt 2: Die Führungskraft holt die Zustimmung für eine Konfliktmoderation ein. Angenommen die Konfliktparteien bejahen die Existenz eines Konflikts, dann kann die Führungskraft diese fragen, ob die aktuelle Situation für sie zufriedenstellend ist. Antworten sie “Nein”, kann die Führungskraft eine Konfliktmoderation durch einen neutralen Konfliktberater oder -lotsen vorschlagen – zum Beispiel mit der Begründung: “Ich möchte, dass Sie wieder in einer positiveren Atmosphäre und somit effektiver arbeiten.” Gespräch mit den “Streithähnen” Angenommen die Konfliktbeteiligten entscheiden sich für eine Konfliktmoderation. Dann sollte sich der Konfliktberater in einem ersten Treffen den Konfliktverlauf schildern lassen – ohne ihn zu bewerten. Anschließend sollte er den Konfliktparteien den möglichen Ablauf der Moderation erläutern. Danach kann er die “Streithähne” bitten, sich bis zum nächsten Treffen zu überlegen, welche Verhaltensweisen sie sich vom jeweils anderen wünschen, um besser arbeiten zu können – jedoch keine Charakter-, sondern nur Verhaltensänderungen. Die 8 Schritte einer Konfliktmoderation Die eigentliche Konfliktmoderation kann wie folgt ablaufen: 1. Schritt: Einsteigen. Meist kommen die Mitarbeiter voller Emotionen zur Konfliktmoderation. Deshalb sollte der Konfliktberater zu Beginn einige Worte zum Thema Konflikte sagen. Zum Beispiel, Konflikte gibt es überall – nicht nur im Betrieb. Außerdem entstehen Konflikte stets aufs Neue. Zum Beispiel, weil sich die Anforderungen ändern. Also müssen immer wieder neue Lösungen gefunden werden. Danach sollte er den “Streithähnen” nochmals erläutern, worum es bei der Konfliktmoderation geht: um ein Lösen des Konflikts. Jedoch nicht in der Form, dass alle Emotionen und Erfahrungen der Vergangenheit bearbeitet werden. Vielmehr soll die Arbeitsbeziehung neu ausgehandelt und das Verhalten an den Schnittstellen der Tätigkeitsfelder der beiden Mitarbeiter so geregelt werden, dass beide damit leben und ihren Job besser machen können. Geben und Nehmen fair aushandeln 2. Schritt: Regeln definieren. Danach sollte der Konfliktberater mit den Konfliktpartnern Regeln für die Moderation definieren. Zum Beispiel: Beide stellen Forderungen an das Verhalten des jeweils anderen. Diese werden nach dem Prinzip “Geben und Nehmen” ausgehandelt. Die Absprachen werden schriftlich fixiert. Vereinbart werden sollte auch, was im Raum bleibt und worüber mit Dritten gesprochen werden darf. 3. Schritt: Die Aufgaben des Konfliktberaters klären. Der Konfliktberater sollte mit den Konfliktpartnern auch seine Aufgaben und seine Rolle klären – zum Beispiel: Ich verhalte mich als Konfliktberater neutral und achte auf das Einhalten der Regeln. Ich verhindere, dass über Undiskutierbares, also zum Beispiel die Ziele des Unternehmens, verhandelt wird. Ich achte darauf, dass keine Vereinbarungen zu Lasten Dritter getroffen werden. Klare Absprachen treffen 4. Schritt: Themen/Forderungen sammeln. Nach dem Klären der Formalien kann der Konfliktberater die Beteiligten bitten, auf einem Formblatt folgende Aussagen zu ergänzen: “Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes mehr/anders tun würden: …” “Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes weniger/nicht mehr tun würden: …” “Bitte behalten Sie folgende Aktivitäten bei, die mir helfen, effektiv zu arbeiten: …” 5. Schritt: Verständnis klären. Die ausgefüllten Formblätter sollten kopiert oder so aufhängt werden, dass jeder sie lesen kann. Danach bittet der Konfliktberater die Konfliktpartner, die Forderungen/Wünsche des jeweils anderen mit eigenen Worten laut zu formulieren. “Sie wollen, dass ich …” Der andere soll die Aussage entweder bestätigen oder korrigieren. Sofern für das Verständnis nötig, bittet der Konfliktberater um Beispiele für das gewünschte Verhalten. Wechselseitige Angebote machen 6. Schritt: Forderungen priorisieren und aushandeln. Danach können beide Konfliktparteien die Forderungen markieren, die ihnen besonders wichtig sind; außerdem die Forderungen, die verhandelbar sind. Anschließend unterbreiten sie sich wechselseitig Angebote. Zum Beispiel: “Wenn Sie mich zeitnah informieren, würde ich …”. Der Konfliktberater achtet darauf, dass das Aushandeln ein Geben und Nehmen ist. 7. Schritt: Absprachen treffen und protokollieren. Der Konfliktberater notiert die Absprachen. Dass beim Aushandeln der künftigen Arbeitsbeziehung auch mal die Emotionen hochkochen, ist normal. Das sollte der Konfliktberater zulassen, damit der Druck aus dem Kessel weicht. Dabei muss er jedoch Fingerspitzengefühl zeigen, um zu verhindern, dass sich beim Gegenüber Druck aufbaut. Nach einiger Zeit kann er zum Beispiel ruhig sagen, dass der Gefühlsausbruch zeigt, wie viel Emotionen im Spiel sind und dass solche Verletzungen sicher auf beiden Seiten existieren. Danach sollte er vorschlagen: “Lassen Sie uns wieder zu den Verhaltensweisen zurückkehren, die Sie sich wünschen.” Werden Absprachen eingehalten? 8. Schritt: Abschließen und Folgetermin vereinbaren. Die bei Konfliktmoderationen getroffenen Vereinbarungen erscheinen Außenstehenden oft als Kleinigkeiten oder Selbstverständlichkeiten. Für die Beteiligten sind sie jedoch wichtig, weil daran Emotionen hängen. Vereinbart werden sollte auch, was geschieht, wenn Absprachen nicht eingehalten werden. Das müssen keine Sanktionen sein. Die Vereinbarung kann auch lauten: “Dann sprechen wir uns künftig darauf an.” Vereinbaren sollte der Konfliktberater mit den Konfliktparteien auch einen Folgetermin, um zu überprüfen, ob die Absprachen eingehalten wurden und eventuell neue Konfliktpunkte entstanden sind. Lesen Sie auch Konfliktmanagement: So schlichten Sie Streit im Unternehmen Warum Führungskräfte mutiger werden müssen 

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​ Bevor es soweit kommt, sollten Sie in Ihrem Unternehmen besser einen Konfliktberater einsetzen.
Foto: Just dance – shutterstock.comKonflikte treten in Unternehmen vermehrt auf, wenn sich in ihnen Dinge verändern – sei es im zwischenmenschlichen oder strukturellen Bereich. Dass sie auftreten, ist normal. Dessen ungeachtet schmälern sie in der Regel jedoch die Leistung. Deshalb sollten in jedem Unternehmen Personen existieren, die über die Kompetenz verfügen, Konflikte früh zu erkennen und aufzugreifen sowie den Mitarbeitern ein wirksames Instrumentarium zu deren Bearbeitung an die Hand zu geben.Zuweilen können diese sogenannten Konfliktberater oder -lotsen Führungskräfte sein. Häufig können sie vorhandene Konflikte aber nicht moderieren – zum Beispiel, wenn sie selbst (emotional) in den Konflikt involviert sind. Dann sollte eine neutrale Person die Konfliktparteien bezüglich geeigneter Lösungsstrategien beraten und/oder mit ihnen eine Lösung aushandeln – sofern gewünscht.Warum Konfliktberater?Diese Konfliktberater sollten mit den Methoden zur Deeskalation von Konflikten und zur Konfliktintervention vertraut sein. Zudem sind zwei Grundhaltungen wichtig:Allparteilichkeit. Eine Konfliktmoderation kann nur erfolgreich sein, wenn der Konfliktberater (emotional) nicht Partei für eine Konfliktpartei und eine mögliche Lösung ergreift.Vertraulichkeit. Die Konfliktparteien sprechen nur offen über ihre Gefühle, Verletzungen und Bedürfnisse, wenn sie sicher sind, dass die Gesprächsinhalte im Raum bleiben.Konfiktberater oder Führungskraft?Wie sieht die praktische Arbeit eines Konfliktberaters aus? Hierfür ein Beispiel. Angenommen eine Führungskraft registriert, dass es zwischen zwei Mitarbeitern ihres Bereichs regelmäßig zu Reibereien kommt. Sie ist jedoch unsicher, ob nur ein Interessengegensatz oder ein Konflikt vorliegt; außerdem, ob sie und, wenn ja, wie sie hierauf reagieren soll.

Dann kann sie mit einem Konfliktberater hierüber sprechen. Angenommen die Führungskraft und der Konfliktberater kommen überein: Es existiert ein leistungsmindernder Konflikt, also sollte man intervenieren. Dann können sie folgendes Vorgehen vereinbaren.

Schritt 1: Die Führungskraft klärt mit den Konfliktparteien das Problembewusstsein. Das ist wichtig. Denn zuweilen erwidern Mitarbeiter, wenn man sie auf Konflikte anspricht: “Wie kommen Sie darauf?” Sie negieren also den Konflikt. Deshalb sollte die Führungskraft zunächst klären, ob den Beteiligten der Konflikt bewusst ist und sie bereit sind, Zeit und Energie in seine Lösung zu investieren.

Schritt 2: Die Führungskraft holt die Zustimmung für eine Konfliktmoderation ein. Angenommen die Konfliktparteien bejahen die Existenz eines Konflikts, dann kann die Führungskraft diese fragen, ob die aktuelle Situation für sie zufriedenstellend ist. Antworten sie “Nein”, kann die Führungskraft eine Konfliktmoderation durch einen neutralen Konfliktberater oder -lotsen vorschlagen – zum Beispiel mit der Begründung: “Ich möchte, dass Sie wieder in einer positiveren Atmosphäre und somit effektiver arbeiten.”

Gespräch mit den “Streithähnen”

Angenommen die Konfliktbeteiligten entscheiden sich für eine Konfliktmoderation. Dann sollte sich der Konfliktberater in einem ersten Treffen den Konfliktverlauf schildern lassen – ohne ihn zu bewerten. Anschließend sollte er den Konfliktparteien den möglichen Ablauf der Moderation erläutern. Danach kann er die “Streithähne” bitten, sich bis zum nächsten Treffen zu überlegen, welche Verhaltensweisen sie sich vom jeweils anderen wünschen, um besser arbeiten zu können – jedoch keine Charakter-, sondern nur Verhaltensänderungen.

Die 8 Schritte einer Konfliktmoderation

Die eigentliche Konfliktmoderation kann wie folgt ablaufen:

1. Schritt: Einsteigen. Meist kommen die Mitarbeiter voller Emotionen zur Konfliktmoderation. Deshalb sollte der Konfliktberater zu Beginn einige Worte zum Thema Konflikte sagen. Zum Beispiel, Konflikte gibt es überall – nicht nur im Betrieb. Außerdem entstehen Konflikte stets aufs Neue. Zum Beispiel, weil sich die Anforderungen ändern. Also müssen immer wieder neue Lösungen gefunden werden.

Danach sollte er den “Streithähnen” nochmals erläutern, worum es bei der Konfliktmoderation geht: um ein Lösen des Konflikts. Jedoch nicht in der Form, dass alle Emotionen und Erfahrungen der Vergangenheit bearbeitet werden. Vielmehr soll die Arbeitsbeziehung neu ausgehandelt und das Verhalten an den Schnittstellen der Tätigkeitsfelder der beiden Mitarbeiter so geregelt werden, dass beide damit leben und ihren Job besser machen können.

Geben und Nehmen fair aushandeln

2. Schritt: Regeln definieren. Danach sollte der Konfliktberater mit den Konfliktpartnern Regeln für die Moderation definieren. Zum Beispiel:

Beide stellen Forderungen an das Verhalten des jeweils anderen.

Diese werden nach dem Prinzip “Geben und Nehmen” ausgehandelt.

Die Absprachen werden schriftlich fixiert.

Vereinbart werden sollte auch, was im Raum bleibt und worüber mit Dritten gesprochen werden darf.

3. Schritt: Die Aufgaben des Konfliktberaters klären. Der Konfliktberater sollte mit den Konfliktpartnern auch seine Aufgaben und seine Rolle klären – zum Beispiel:

Ich verhalte mich als Konfliktberater neutral und achte auf das Einhalten der Regeln.

Ich verhindere, dass über Undiskutierbares, also zum Beispiel die Ziele des Unternehmens, verhandelt wird.

Ich achte darauf, dass keine Vereinbarungen zu Lasten Dritter getroffen werden.

Klare Absprachen treffen

4. Schritt: Themen/Forderungen sammeln. Nach dem Klären der Formalien kann der Konfliktberater die Beteiligten bitten, auf einem Formblatt folgende Aussagen zu ergänzen:

“Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes mehr/anders tun würden: …”

“Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes weniger/nicht mehr tun würden: …”

“Bitte behalten Sie folgende Aktivitäten bei, die mir helfen, effektiv zu arbeiten: …”

5. Schritt: Verständnis klären. Die ausgefüllten Formblätter sollten kopiert oder so aufhängt werden, dass jeder sie lesen kann. Danach bittet der Konfliktberater die Konfliktpartner, die Forderungen/Wünsche des jeweils anderen mit eigenen Worten laut zu formulieren. “Sie wollen, dass ich …” Der andere soll die Aussage entweder bestätigen oder korrigieren. Sofern für das Verständnis nötig, bittet der Konfliktberater um Beispiele für das gewünschte Verhalten.

Wechselseitige Angebote machen

6. Schritt: Forderungen priorisieren und aushandeln. Danach können beide Konfliktparteien die Forderungen markieren, die ihnen besonders wichtig sind; außerdem die Forderungen, die verhandelbar sind. Anschließend unterbreiten sie sich wechselseitig Angebote. Zum Beispiel: “Wenn Sie mich zeitnah informieren, würde ich …”. Der Konfliktberater achtet darauf, dass das Aushandeln ein Geben und Nehmen ist.

7. Schritt: Absprachen treffen und protokollieren. Der Konfliktberater notiert die Absprachen. Dass beim Aushandeln der künftigen Arbeitsbeziehung auch mal die Emotionen hochkochen, ist normal. Das sollte der Konfliktberater zulassen, damit der Druck aus dem Kessel weicht. Dabei muss er jedoch Fingerspitzengefühl zeigen, um zu verhindern, dass sich beim Gegenüber Druck aufbaut. Nach einiger Zeit kann er zum Beispiel ruhig sagen, dass der Gefühlsausbruch zeigt, wie viel Emotionen im Spiel sind und dass solche Verletzungen sicher auf beiden Seiten existieren. Danach sollte er vorschlagen: “Lassen Sie uns wieder zu den Verhaltensweisen zurückkehren, die Sie sich wünschen.”

Werden Absprachen eingehalten?

8. Schritt: Abschließen und Folgetermin vereinbaren. Die bei Konfliktmoderationen getroffenen Vereinbarungen erscheinen Außenstehenden oft als Kleinigkeiten oder Selbstverständlichkeiten. Für die Beteiligten sind sie jedoch wichtig, weil daran Emotionen hängen. Vereinbart werden sollte auch, was geschieht, wenn Absprachen nicht eingehalten werden.

Das müssen keine Sanktionen sein. Die Vereinbarung kann auch lauten: “Dann sprechen wir uns künftig darauf an.” Vereinbaren sollte der Konfliktberater mit den Konfliktparteien auch einen Folgetermin, um zu überprüfen, ob die Absprachen eingehalten wurden und eventuell neue Konfliktpunkte entstanden sind.

Lesen Sie auch

Konfliktmanagement: So schlichten Sie Streit im Unternehmen

Warum Führungskräfte mutiger werden müssen

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​ Weiterlesen »

Studie: Deutschen Chefs fehlt es an KI-Know-how​

Allgemein

Laut einer Studie von Sopra Steria fehlt es deutschen Führungskräften an GenAI-Kompetenz. Gorodenkoff – shutterstock.com Deutschlands Chefs müssen in Sachen GenAI-Kompetenz die Schulband drücken. Denn in den Managementetagen fehlt das entsprechende Wissen. Zu diesem Schluss kommt die Studie „Disruptive Potenziale – wie generative KI-Geschäftsmodelle neu definiert“ von Sopra Steria und dem F.A.Z.-Institut. Im Rahmen der Studie wurden 189 Entscheiderinnen und Entscheider aus Unternehmen in Deutschland online befragt. Zwei Drittel der Führungskräfte gehen selbstkritisch davon aus, dass Entscheider ohne fundiertes KI-Verständnis mittelfristig aus der Leitungsebene verdrängt werden. Zudem erwarten etwas mehr als die Hälfte, dass künftig vor allem vollständig auf GenAI basierende Geschäftsmodelle dominieren werden. Kaum KI-Kompetenz Doch ein Reality-Check ist ernüchternd: Heute nutzen erst 20 Prozent der deutschen Unternehmen GenAI tatsächlich unternehmensweit. Eine Ursache hierfür sieht Sopra Steria in der meist fehlenden Kompetenz auf der obersten Führungsebene. Die Bedeutung umfassender GenAI-Kompetenz in den Chefetagen unterstreicht Michael Buttkus, Leiter von Sopra Steria Next Deutschland, der Managementberatung von Sopra Steria: „Unternehmen, die GenAI als strategisches Instrument einsetzen wollen, brauchen auf der Entscheiderebene nicht nur visionäre Führungskräfte, sondern vor allem ein tiefgehendes Verständnis der Technologie und ihrer Wirkung auf Geschäftsmodelle.“ Neue Business-Modelle mit GenAI Allerdings geht nur eine Minderheit der befragten Entscheiderinnen und Entscheider davon aus, dass sich die strategischen Elemente des aktuellen Geschäftsmodells in ihrem Unternehmen gar nicht ändern werden. 52 Prozent der Unternehmen, die heute GenAI nutzen, schätzen zudem, dass es in Zukunft sogar vor allem neue, vollständig auf generativer KI basierende Geschäftsmodelle geben wird, so die Studie. Damit es zu diesem Game-Changer-Effekt kommt und die entsprechenden Weichenstellungen vorgenommen werden, benötigten die Unternehmen entsprechendes Know-how auf der Managementebene. „Entscheiderinnen und Entscheider bewilligen in den kommenden Jahren GenAI-Investitionen in Milliardenhöhe“, so Buttkus, „sie sollten bewerten können, welche Anwendungen den größten Return on Investment bieten und welche Auswirkungen die Technologie auf das eigene Geschäft hat, positiv wie negativ“. Kompetenzen aufbauen Für den entsprechenden Kompetenzaufbau in den Chefetagen ist allerdings mehr erforderlich als punktuelle Schulungen. „Wer GenAI erfolgreich einsetzen möchte, braucht neben technologischem Wissen vor allem ein strategisches Mindset“, erläutert Berater Buttkus. Derzeit setzen lediglich 26 Prozent der befragten Unternehmen GenAI explizit auf Vorstandsebene ein – ein Indiz dafür, dass noch zu oft lediglich operativ und zu wenig strategisch gehandelt wird. Zudem ist in den Augen der Studienautoren ein tiefgreifender Wandel in der Personalpolitik auf Führungsebene geboten. Schließlich zeige die Studien, dass 91 Prozent der Unternehmen erwarten, dass sich das gesamte Personalmanagement, insbesondere das Wissensmanagement, durch GenAI verändern werde. Um die nötigen Kompetenzen aufzubauen und dauerhaft zu etablieren, sollten Unternehmen gezielt neue Governance-Strukturen und beratende Gremien schaffen, in denen internes und externes GenAI-Know-how gebündelt und direkt in die Vorstandsetagen getragen wird. Optionen der Know-how-Vermittlung Um entsprechendes Wissen in den Chefetagen aufzubauen, haben die Unternehmen laut Sopra Steria verschiedene Optionen. Einige Unternehmen wie General Motors und die Helaba hätten mit dem AI Officer eine eigenständige Rolle auf Vorstandsebene etabliert, um dem Stellenwert der Technologie für das eigene Geschäft gerecht zu werden. Weitere gängige Maßnahmen seien strategische Talentakquise sowie Weiterbildungsprogramme und Coachings der Vorstände durch GenAI-Experten. Seltener sind beratende GenAI-Boards, die das Topmanagement kontinuierlich mit Expertise versorgen. In vielen Unternehmen gibt es bereits ethische KI-Boards. Allerdings fehle es an beratenden Gremien, die Vorstände gezielt und strategisch bei Investitionen in generative KI unterstützen. Hier sieht die Managementberatung Nachholbedarf, um teure Fehlinvestitionen zu vermeiden. 

Studie: Deutschen Chefs fehlt es an KI-Know-how​ Laut einer Studie von Sopra Steria fehlt es deutschen Führungskräften an GenAI-Kompetenz.
Gorodenkoff – shutterstock.com

Deutschlands Chefs müssen in Sachen GenAI-Kompetenz die Schulband drücken. Denn in den Managementetagen fehlt das entsprechende Wissen. Zu diesem Schluss kommt die Studie „Disruptive Potenziale – wie generative KI-Geschäftsmodelle neu definiert“ von Sopra Steria und dem F.A.Z.-Institut.

Im Rahmen der Studie wurden 189 Entscheiderinnen und Entscheider aus Unternehmen in Deutschland online befragt. Zwei Drittel der Führungskräfte gehen selbstkritisch davon aus, dass Entscheider ohne fundiertes KI-Verständnis mittelfristig aus der Leitungsebene verdrängt werden. Zudem erwarten etwas mehr als die Hälfte, dass künftig vor allem vollständig auf GenAI basierende Geschäftsmodelle dominieren werden.

Kaum KI-Kompetenz

Doch ein Reality-Check ist ernüchternd: Heute nutzen erst 20 Prozent der deutschen Unternehmen GenAI tatsächlich unternehmensweit. Eine Ursache hierfür sieht Sopra Steria in der meist fehlenden Kompetenz auf der obersten Führungsebene.

Die Bedeutung umfassender GenAI-Kompetenz in den Chefetagen unterstreicht Michael Buttkus, Leiter von Sopra Steria Next Deutschland, der Managementberatung von Sopra Steria: „Unternehmen, die GenAI als strategisches Instrument einsetzen wollen, brauchen auf der Entscheiderebene nicht nur visionäre Führungskräfte, sondern vor allem ein tiefgehendes Verständnis der Technologie und ihrer Wirkung auf Geschäftsmodelle.“

Neue Business-Modelle mit GenAI

Allerdings geht nur eine Minderheit der befragten Entscheiderinnen und Entscheider davon aus, dass sich die strategischen Elemente des aktuellen Geschäftsmodells in ihrem Unternehmen gar nicht ändern werden. 52 Prozent der Unternehmen, die heute GenAI nutzen, schätzen zudem, dass es in Zukunft sogar vor allem neue, vollständig auf generativer KI basierende Geschäftsmodelle geben wird, so die Studie.

Damit es zu diesem Game-Changer-Effekt kommt und die entsprechenden Weichenstellungen vorgenommen werden, benötigten die Unternehmen entsprechendes Know-how auf der Managementebene. „Entscheiderinnen und Entscheider bewilligen in den kommenden Jahren GenAI-Investitionen in Milliardenhöhe“, so Buttkus, „sie sollten bewerten können, welche Anwendungen den größten Return on Investment bieten und welche Auswirkungen die Technologie auf das eigene Geschäft hat, positiv wie negativ“.

Kompetenzen aufbauen

Für den entsprechenden Kompetenzaufbau in den Chefetagen ist allerdings mehr erforderlich als punktuelle Schulungen. „Wer GenAI erfolgreich einsetzen möchte, braucht neben technologischem Wissen vor allem ein strategisches Mindset“, erläutert Berater Buttkus. Derzeit setzen lediglich 26 Prozent der befragten Unternehmen GenAI explizit auf Vorstandsebene ein – ein Indiz dafür, dass noch zu oft lediglich operativ und zu wenig strategisch gehandelt wird.

Zudem ist in den Augen der Studienautoren ein tiefgreifender Wandel in der Personalpolitik auf Führungsebene geboten. Schließlich zeige die Studien, dass 91 Prozent der Unternehmen erwarten, dass sich das gesamte Personalmanagement, insbesondere das Wissensmanagement, durch GenAI verändern werde. Um die nötigen Kompetenzen aufzubauen und dauerhaft zu etablieren, sollten Unternehmen gezielt neue Governance-Strukturen und beratende Gremien schaffen, in denen internes und externes GenAI-Know-how gebündelt und direkt in die Vorstandsetagen getragen wird.

Optionen der Know-how-Vermittlung

Um entsprechendes Wissen in den Chefetagen aufzubauen, haben die Unternehmen laut Sopra Steria verschiedene Optionen. Einige Unternehmen wie General Motors und die Helaba hätten mit dem AI Officer eine eigenständige Rolle auf Vorstandsebene etabliert, um dem Stellenwert der Technologie für das eigene Geschäft gerecht zu werden. Weitere gängige Maßnahmen seien strategische Talentakquise sowie Weiterbildungsprogramme und Coachings der Vorstände durch GenAI-Experten.

Seltener sind beratende GenAI-Boards, die das Topmanagement kontinuierlich mit Expertise versorgen. In vielen Unternehmen gibt es bereits ethische KI-Boards. Allerdings fehle es an beratenden Gremien, die Vorstände gezielt und strategisch bei Investitionen in generative KI unterstützen. Hier sieht die Managementberatung Nachholbedarf, um teure Fehlinvestitionen zu vermeiden.

Studie: Deutschen Chefs fehlt es an KI-Know-how​ Weiterlesen »

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​

Allgemein

Apple setzt auf kürzere Zertifikatslaufzeiten für mehr Sicherheit, eine kontroverse Meinung, die nicht alle im CA/Browser Forum überzeugt. robert coolen – Shutterstock Die Gültigkeitsdauer von Transport-Layer-Security (TLS)-Zertifikaten und die Wiederverwendungszeit der Domain Control Validation (DCV) soll schrittweise verkürzt werden. Ab dem 15. März 2026 dürfen Zertifikate nur noch 200 Tage gültig sein, mit ebenso langer DCV-Wiederverwendungszeit. Ab 2027 sinkt die maximale Laufzeit auf 100 Tage und die DCV-Zeit ebenfalls auf 100 Tage. Ab 2029 dürfen Zertifikate nur noch 47 Tage gültig sein, mit einer DCV-Wiederverwendungszeit von nur 10 Tagen. Nach mehr als einem Jahr Debatte beschloss das CA/Browser Forum im ersten Quartal 2025, Apples Forderungen umzusetzen. Sicherheitsgewinn versus Eigeninteresse Die Entscheidungen sind nicht unumstritten: Während Befürworter den Sicherheitsgewinn betonen, befürchten Kritiker finanzielle Eigeninteressen und mögliche Interessenkonflikte. Fünf der Stimmberechtigten enthielten sich, allerdings gab es auch keine Gegenstimmen. Die Haltung gegenüber Apples Vorstoß innerhalb des CA/Browser Forums, zu dem unter anderem auch Google gehört, ist gemischt. Während man die Änderungswünsche mit Blick auf mehr Sicherheit grundsätzlich begrüßt, halten einige Stimmen die Verkürzung der Gültigkeit von bisher 398 Tagen auf 47 Tage für zu drastisch. Apple argumentiert mit Sicherheit Apple begründet die geplante Verkürzung der Zertifikatslaufzeiten damit, dass längere Gültigkeiten das Sicherheitsrisiko erhöhen. Eine schrittweise Einführung der Änderungen soll helfen, mögliche Probleme frühzeitig zu erkennen und korrigieren zu können. Zugleich betont das Unternehmen, dass Zertifikate nur den Zustand zum Ausstellungszeitpunkt widerspiegeln. Je länger sie gültig seien, desto wahrscheinlicher sei es, dass die enthaltenen Daten veraltet oder falsch sind. Kürzere Laufzeiten sollen daher die Zuverlässigkeit und Sicherheit erhöhen. Apple kritisiert Zertifizierer Apple kritisiert auch, dass Zertifizierungsstellen (CAs) nicht immer korrekt arbeiten und Zertifikate mitunter nicht regelkonform ausstellen. Um Risiken durch fehlerhafte Zertifikate zu minimieren, fordert Apple deshalb, die Ausstellungsdaten häufiger zu überprüfen sowie eine kürzere Gültigkeitsdauer von Zertifikaten. Dies soll nicht nur die Sicherheit erhöhen, sondern auch eine schnellere Reaktion auf kryptographische Veränderungen ermöglichen. Erste Veränderungen basierend auf Apple Forderung gibt es bereits: Die Mitglieder des CA/Browser Forums haben zur technischen Klarheit festgelegt, dass ein Tag genau 86.400 Sekunden umfasst. Jede zusätzliche Zeit, auch Bruchteile von Sekunden oder Schaltsekunden, zählt als weiterer Tag. 

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​ Apple setzt auf kürzere Zertifikatslaufzeiten für mehr Sicherheit, eine kontroverse Meinung, die nicht alle im CA/Browser Forum überzeugt.
robert coolen – Shutterstock

Die Gültigkeitsdauer von Transport-Layer-Security (TLS)-Zertifikaten und die Wiederverwendungszeit der Domain Control Validation (DCV) soll schrittweise verkürzt werden.

Ab dem 15. März 2026 dürfen Zertifikate nur noch 200 Tage gültig sein, mit ebenso langer DCV-Wiederverwendungszeit.

Ab 2027 sinkt die maximale Laufzeit auf 100 Tage und die DCV-Zeit ebenfalls auf 100 Tage.

Ab 2029 dürfen Zertifikate nur noch 47 Tage gültig sein, mit einer DCV-Wiederverwendungszeit von nur 10 Tagen.

Nach mehr als einem Jahr Debatte beschloss das CA/Browser Forum im ersten Quartal 2025, Apples Forderungen umzusetzen.

Sicherheitsgewinn versus Eigeninteresse

Die Entscheidungen sind nicht unumstritten: Während Befürworter den Sicherheitsgewinn betonen, befürchten Kritiker finanzielle Eigeninteressen und mögliche Interessenkonflikte. Fünf der Stimmberechtigten enthielten sich, allerdings gab es auch keine Gegenstimmen.

Die Haltung gegenüber Apples Vorstoß innerhalb des CA/Browser Forums, zu dem unter anderem auch Google gehört, ist gemischt. Während man die Änderungswünsche mit Blick auf mehr Sicherheit grundsätzlich begrüßt, halten einige Stimmen die Verkürzung der Gültigkeit von bisher 398 Tagen auf 47 Tage für zu drastisch.

Apple argumentiert mit Sicherheit

Apple begründet die geplante Verkürzung der Zertifikatslaufzeiten damit, dass längere Gültigkeiten das Sicherheitsrisiko erhöhen. Eine schrittweise Einführung der Änderungen soll helfen, mögliche Probleme frühzeitig zu erkennen und korrigieren zu können.

Zugleich betont das Unternehmen, dass Zertifikate nur den Zustand zum Ausstellungszeitpunkt widerspiegeln. Je länger sie gültig seien, desto wahrscheinlicher sei es, dass die enthaltenen Daten veraltet oder falsch sind. Kürzere Laufzeiten sollen daher die Zuverlässigkeit und Sicherheit erhöhen.

Apple kritisiert Zertifizierer

Apple kritisiert auch, dass Zertifizierungsstellen (CAs) nicht immer korrekt arbeiten und Zertifikate mitunter nicht regelkonform ausstellen. Um Risiken durch fehlerhafte Zertifikate zu minimieren, fordert Apple deshalb, die Ausstellungsdaten häufiger zu überprüfen sowie eine kürzere Gültigkeitsdauer von Zertifikaten. Dies soll nicht nur die Sicherheit erhöhen, sondern auch eine schnellere Reaktion auf kryptographische Veränderungen ermöglichen.

Erste Veränderungen basierend auf Apple Forderung gibt es bereits: Die Mitglieder des CA/Browser Forums haben zur technischen Klarheit festgelegt, dass ein Tag genau 86.400 Sekunden umfasst. Jede zusätzliche Zeit, auch Bruchteile von Sekunden oder Schaltsekunden, zählt als weiterer Tag.

Apple forciert kürzere Laufzeiten für TLS-Zertifikate​ Weiterlesen »

Nutzen Sie Dependency Injection!​

Allgemein

Dependency Injection – im Grunde ein simples Konzept.Thomas Bethge | shutterstock.com Kluge Dev-Teams entwerfen und erstellen Systeme, die nicht an spezifische Implementierungen gebunden sind – solange, bis es nicht mehr anders geht. So zumindest meine Überzeugung. Denn auf diese Weise halten sich Entwickler alle Möglichkeiten offen und realisieren quasi nebenbei, flexible, erweiterbare Designs. Die entscheidende Zutat dafür ist natürlich entsprechend flexibel gestalteter Code – was Dependency Injection auf den Plan ruft. Diese simple Technik entkoppelt Ihren Code von bestimmten Implementierungen und maximiert seine Flexibilität. Die Idee dahinter besteht darin, Funktionalität so spät wie möglich zu implementieren – und stattdessen ausgiebig gegen Abstraktionen zu programmieren. Im Folgenden lesen Sie, warum Sie Dependency Injection nutzen sollten – in aller Kürze. So programmiert man sich in die Bredouille Dazu werfen wir einen Blick auf ein Beispiel: E-Commerce-Anwendungen sind weit verbreitet und müssen im Regelfall Kreditkarten verarbeiten können. Das ist eine relativ komplexe Angelegenheit – die sich aber sehr gut für Abstraktionen eignet. Angenommen, unser System nutzt den Zahlungsverarbeiter PayStuff – und wir halten uns strikt an das YAGNI-Prinzip (was nicht zu empfehlen ist). In diesem Fall könnten wir die Implementierung wie folgt festkodieren: class PayStuffPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via PayStuff…`); } } class Checkout { private paymentProcessor: PayStuffPaymentProcessor; constructor() { this.paymentProcessor = new PayStuffPaymentProcessor(); } processOrder(amount: number) { this.paymentProcessor.processPayment(amount); console.log(“Order processed successfully!”); } } // Usage const checkout = new Checkout(); checkout.processOrder(100); checkout.processOrder(50); Das funktioniert wahrscheinlich gut, um die Zahlungen für Bestellungen zu verarbeiten. Dass ein Unit Test erst gar nicht möglich ist – wen interessiert’s? YAGNI ftw! Doch dann die Überraschung: PayStuff stellt seinen Betrieb ein. Und wir müssen auf den neuen ConnectBucks-Processor umsteigen. An genau dem Tag, an dem das klar wird, kommt dann auch noch ein Produktmanager ums Eck und verlangt nach Support für PayPal und Google Pay. Jetzt ist unser System nicht mehr nur schwer zu testen, sondern funktioniert auch nicht mehr und muss umfangreich überarbeitet werden. Abstraktion, die den Tag rettet Das wäre uns erspart geblieben, wenn wir erkannt hätten, dass wir eine Abstraktion benötigen. Dazu erstellen wir ein Interface und schreiben sämtlichen Code dagegen – nicht gegen eine spezifische Implementierung. Statt diese direkt zu erstellen, schieben wir die Entscheidung darüber lieber und „injizieren“ die Implementierung der Abstraktion in den Konstruktor, die wir verwenden möchten. Mit anderen Worten: Wir verzögern die tatsächliche Implementierung so lange wie möglich und programmieren stattdessen gegen eine Schnittstelle. Ein simples Beispiel für ein Interface, das wir nutzen könnten: interface IPaymentProcessor { processPayment(amount: number): void; } Sie können das gesamte Zahlungsmodul mit diesem Interface schreiben – ohne zu wissen (oder sich darum zu kümmern), wie die Zahlung verarbeitet wird. An diesem Punkt erstellen Sie eine Klasse, die so konzipiert ist, dass sie eine Implementierung der Schnittstelle empfängt und nicht erstellt: class Checkout { private paymentProcessor: IPaymentProcessor; constructor(paymentProcessor: IPaymentProcessor) { if (!paymentProcessor) { throw new Error(“PaymentProcessor cannot be null or undefined.”); } this.paymentProcessor = paymentProcessor; } processOrder(amount: number) { this.paymentProcessor.processPayment(amount); console.log(“Order processed successfully!”); } } Diese Klasse verwendet eine Implementierung des Zahlungsverarbeiters als Parameter für den Konstruktor. Man könnte auch sagen, dass die Klasse eine Abhängigkeit vom Payment Processor aufweist und der Code diese in die Klasse einfügt. Welcher Zahlungsverarbeiter tatsächlich verwendet wird, „weiß“ die Klasse nicht – und es ist ihr auch egal. Plug-&-Play-Klassen Im nächsten Schritt können wir Klassen erstellen, die die IPaymentProcessor-Schnittstelle implementieren: class PayPalPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via PayPal…`); } } class GooglePayPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via Google Pay…`); } } class ConnectBucksPayment implements IPaymentProcessor { processPayment(amount: number) { console.log(`Processing $${amount} payment via ConnectBucks…`); } } Für die Zukunft ist bei diesem Code vorgesorgt: Es ist sogar möglich, eine „Mock“-Verarbeitungsklasse zu Testing-Zwecken zu erstellen. Von diesem Punkt aus können Sie die Implementierungsklassen je nach Bedarf kreieren und sie an die Verarbeitungsklasse übergeben:   const creditCardCheckout = new Checkout(new CreditCardPayment()); creditCardCheckout.processOrder(100); const paypalCheckout = new Checkout(new PayPalPayment()); paypalCheckout.processOrder(50); Sie könnten darüber hinaus auch eine Factory-Klasse erstellen, die auf Anfrage die korrekte Implementierung erstellt. const processor: IPaymentProcessor = PaymentProcessorFactory.createProcessor(PaymentType.PayPal); const checkout = new Checkout(processor); checkout.processOrder(50); Und während die eigentliche Funktionsweise des Zahlungsprozesses in einer Implementierungsklasse verborgen ist, steht im Ergebnis ein flexibles System, das: anpassbar, testfähig, wartbar und leicht verständlich ist.   Das ist Dependency Injection „in a Nutshell“. Machen Sie es sich zunutze – es lohnt sich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nutzen Sie Dependency Injection!​ Dependency Injection – im Grunde ein simples Konzept.Thomas Bethge | shutterstock.com

Kluge Dev-Teams entwerfen und erstellen Systeme, die nicht an spezifische Implementierungen gebunden sind – solange, bis es nicht mehr anders geht. So zumindest meine Überzeugung. Denn auf diese Weise halten sich Entwickler alle Möglichkeiten offen und realisieren quasi nebenbei, flexible, erweiterbare Designs. Die entscheidende Zutat dafür ist natürlich entsprechend flexibel gestalteter Code – was Dependency Injection auf den Plan ruft.

Diese simple Technik entkoppelt Ihren Code von bestimmten Implementierungen und maximiert seine Flexibilität. Die Idee dahinter besteht darin, Funktionalität so spät wie möglich zu implementieren – und stattdessen ausgiebig gegen Abstraktionen zu programmieren.

Im Folgenden lesen Sie, warum Sie Dependency Injection nutzen sollten – in aller Kürze.

So programmiert man sich in die Bredouille

Dazu werfen wir einen Blick auf ein Beispiel: E-Commerce-Anwendungen sind weit verbreitet und müssen im Regelfall Kreditkarten verarbeiten können. Das ist eine relativ komplexe Angelegenheit – die sich aber sehr gut für Abstraktionen eignet.

Angenommen, unser System nutzt den Zahlungsverarbeiter PayStuff – und wir halten uns strikt an das YAGNI-Prinzip (was nicht zu empfehlen ist). In diesem Fall könnten wir die Implementierung wie folgt festkodieren:

class PayStuffPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via PayStuff…`);
}
}

class Checkout {
private paymentProcessor: PayStuffPaymentProcessor;

constructor() {
this.paymentProcessor = new PayStuffPaymentProcessor();
}

processOrder(amount: number) {
this.paymentProcessor.processPayment(amount);
console.log(“Order processed successfully!”);
}
}

// Usage
const checkout = new Checkout();
checkout.processOrder(100);
checkout.processOrder(50);

Das funktioniert wahrscheinlich gut, um die Zahlungen für Bestellungen zu verarbeiten. Dass ein Unit Test erst gar nicht möglich ist – wen interessiert’s? YAGNI ftw!

Doch dann die Überraschung: PayStuff stellt seinen Betrieb ein. Und wir müssen auf den neuen ConnectBucks-Processor umsteigen. An genau dem Tag, an dem das klar wird, kommt dann auch noch ein Produktmanager ums Eck und verlangt nach Support für PayPal und Google Pay.

Jetzt ist unser System nicht mehr nur schwer zu testen, sondern funktioniert auch nicht mehr und muss umfangreich überarbeitet werden.

Abstraktion, die den Tag rettet

Das wäre uns erspart geblieben, wenn wir erkannt hätten, dass wir eine Abstraktion benötigen. Dazu erstellen wir ein Interface und schreiben sämtlichen Code dagegen – nicht gegen eine spezifische Implementierung. Statt diese direkt zu erstellen, schieben wir die Entscheidung darüber lieber und „injizieren“ die Implementierung der Abstraktion in den Konstruktor, die wir verwenden möchten.

Mit anderen Worten: Wir verzögern die tatsächliche Implementierung so lange wie möglich und programmieren stattdessen gegen eine Schnittstelle. Ein simples Beispiel für ein Interface, das wir nutzen könnten:

interface IPaymentProcessor {
processPayment(amount: number): void;
}

Sie können das gesamte Zahlungsmodul mit diesem Interface schreiben – ohne zu wissen (oder sich darum zu kümmern), wie die Zahlung verarbeitet wird. An diesem Punkt erstellen Sie eine Klasse, die so konzipiert ist, dass sie eine Implementierung der Schnittstelle empfängt und nicht erstellt:

class Checkout {
private paymentProcessor: IPaymentProcessor;

constructor(paymentProcessor: IPaymentProcessor) {
if (!paymentProcessor) {
throw new Error(“PaymentProcessor cannot be null or undefined.”);
}

this.paymentProcessor = paymentProcessor;
}

processOrder(amount: number) {
this.paymentProcessor.processPayment(amount);
console.log(“Order processed successfully!”);
}
}

Diese Klasse verwendet eine Implementierung des Zahlungsverarbeiters als Parameter für den Konstruktor. Man könnte auch sagen, dass die Klasse eine Abhängigkeit vom Payment Processor aufweist und der Code diese in die Klasse einfügt. Welcher Zahlungsverarbeiter tatsächlich verwendet wird, „weiß“ die Klasse nicht – und es ist ihr auch egal.

Plug-&-Play-Klassen

Im nächsten Schritt können wir Klassen erstellen, die die IPaymentProcessor-Schnittstelle implementieren:

class PayPalPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via PayPal…`);
}
}

class GooglePayPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via Google Pay…`);
}
}

class ConnectBucksPayment implements IPaymentProcessor {
processPayment(amount: number) {
console.log(`Processing $${amount} payment via ConnectBucks…`);
}
}

Für die Zukunft ist bei diesem Code vorgesorgt: Es ist sogar möglich, eine „Mock“-Verarbeitungsklasse zu Testing-Zwecken zu erstellen.

Von diesem Punkt aus können Sie die Implementierungsklassen je nach Bedarf kreieren und sie an die Verarbeitungsklasse übergeben:  

const creditCardCheckout = new Checkout(new CreditCardPayment());
creditCardCheckout.processOrder(100);

const paypalCheckout = new Checkout(new PayPalPayment());
paypalCheckout.processOrder(50);

Sie könnten darüber hinaus auch eine Factory-Klasse erstellen, die auf Anfrage die korrekte Implementierung erstellt.

const processor: IPaymentProcessor = PaymentProcessorFactory.createProcessor(PaymentType.PayPal);
const checkout = new Checkout(processor);
checkout.processOrder(50);

Und während die eigentliche Funktionsweise des Zahlungsprozesses in einer Implementierungsklasse verborgen ist, steht im Ergebnis ein flexibles System, das:

anpassbar,

testfähig,

wartbar und

leicht verständlich ist.  

Das ist Dependency Injection „in a Nutshell“. Machen Sie es sich zunutze – es lohnt sich. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nutzen Sie Dependency Injection!​ Weiterlesen »

Was macht ein Product Owner?​

Allgemein

Der Product Owner nimmt in agilen Projekten eine entscheidende Rolle ein. Foto: fizkes – shutterstock.com Agilität und agile Vorgehensweisen liegen im Trend. Es gibt kaum noch Unternehmen in Deutschland, die noch nicht versucht haben, durch Agilität positive Effekte für die Organisation oder für Projekte zu generieren. Um agile Prinzipien erfolgreich in der Organisation zu verankern, braucht es zwei wesentliche Faktoren: die geeigneten Methoden und in der Anwendung der Methodik ausgebildete Mitarbeiterinnen und Mitarbeiter, die die verschiedenen Rollen in den agilen Projekten kompetent ausfüllen. Die wohl bekannteste agile Vorgehensweise ist Scrum. Durch die einfache Struktur und die klar definierten Rollen lässt sich die Methodik schnell produktiv in Unternehmen einsetzen. Im Mittelpunkt steht ein Entwickler- oder Serviceteam, das selbstorganisiert arbeitet. Product Owner in Scrum – Definition Als Methodenfachmann stellt der Scrum Master sicher, dass der Prozess funktioniert. Die entscheidendste Rolle ist aber wohl die des Product Owners, der als Produktverantwortlicher maßgeblich für die Qualität des entwickelten Produktes verantwortlich ist. Innerhalb des Scrum Frameworks sind die Rollen der Teammitglieder mit ihren Aufgaben und Verantwortungsbereichen klar definiert. Für den Erfolg eines Projekts ist es essentiell wichtig, dass die Mitglieder die Abgrenzung zwischen diesen Rollen verstehen und leben. Scrum Teams arbeiten selbstorganisiert als in sich geschlossenes Team, das selbstständig entscheiden kann wie das definierte Ziel erreicht werden soll. Product Owner nehmen innerhalb von Scrum gegenüber der klassischen Projektorganisation eine vollkommen neue Rolle im Unternehmen ein. Wo Teamleiter und Projektleiter traditionellerweise ganzheitlich und oft hierarchisch für ein Team und dessen Ergebnisse verantwortlich zeichnen, fokussiert sich der Product Owner nur auf das Produkt aus Kundenperspektive. Product Owner agieren genau an der Schnittstelle zwischen traditioneller und agiler Organisation. In der Theorie liest sich das Rollenprofil als sinnvolle Verknüpfung zwischen Top-Management-Sicht mit Kunden- und Produktfokus auf der einen – und gutem Draht zu der Lösungs- und Entwicklungsebene auf der anderen Seite. Die offizielle Definition des Product Owners liefern die Entwickler des Scrum-Frameworks, Jeff Sutherland und Ken Schwaber, in ihrem Scrum Guide selbst: Der Product Owner ist für die Wertmaximierung der Arbeit des Entwicklerteams sowie für die Wertmaximierung des Produkts verantwortlich. Die Rolle des Product Owners wird nur durch eine Person ausgefüllt und sollte nicht auf mehrere Stellen verteilt werden. Der Product Owner ist während der gesamten Produktentwicklung sehr aktiv eingebunden – er ist das Zentrum des Produktes und durch das Unternehmen bemächtigt, Entscheidungen zur Produktentwicklung zu treffen. Dabei schaut er gleichzeitig in Richtung des Marktes und in Richtung der technischen Entwicklung und schlägt dementsprechend die Brücke zwischen dem Kunden und dem Entwicklerteam. Product Owner – Aufgaben In der Literatur von agilen Vorgehensweisen wie Scrum sind die Verantwortungsbereiche und Aufgaben eines Product Owners klar beschrieben. Die Hauptaufgaben beinhalten demnach folgende Aspekte: Aufnahme der Anforderungen von den Stakeholdern (z. B. Kunden, Fachbereiche, Geschäftsleitung) und Kommunikation mit Stakeholdern Erarbeiten und Formulieren einer Produktvision Bewerten und priorisieren der Anforderungen nach Business Value Management des Product Backlogs (Transparenz, Nachvollziehbarkeit und Verständlichkeit) Schreiben der User Stories (Teilpakete) unter Einhaltung klarer Qualitätskriterien (“Definition of Ready”) Erläuterung für und Vermittlung der Anforderungen (User Stories) an die Entwickler Verfügbarkeit für Fragestellungen der Entwickler zum Produkt Abnahme und Verifizierung der Produktinkremente Feedback-Vergabe an das Team Zusammenfassend formuliert hat der Product Owner die Aufgabe, die Kundensicht zu vertreten und diese Perspektive in Zusammenarbeit mit einem selbstorganisierten Entwicklunger- oder Service-Team in Projekte, Produkte oder Services einfließen zu lassen. In der Reinform wird die Rolle als Linienaufgabe angesehen. Sie kann jedoch auch (mit einigen Einschränkungen und Kniffen) als Projektrolle ausgeprägt sein. Hier sollte eine akademische Diskussion vermieden werden; die Ausprägung spielt für die Kernaufgabe “kundenorientierte Produktgestaltung” keine Rolle. Product Owner – Skills In der Rolle des Product Owners ist der oder die Ausführende die Person, die das Ergebnis des Produktes definiert. Um die Kundensicht sowie die der internen Stakeholder richtig einzuschätzen, das Produkt in Tiefe zu verstehen und gleichzeitig noch den Business Value und Markterfordernisse bewerten zu können, muss der Product Owner eine hohe fachliche Expertise und Know-How – auch über die eigenen Bereichsgrenzen hinweg – mitbringen. Wie immer, wenn unterschiedliche Menschen mit einem gemeinsamen Ziel zusammenkommen, ist die Motivation und Kommunikation untereinander maßgeblich für den späteren Erfolg. Als Schlüsselrolle im Projekt sollte der Product Owner ein hohes Empathievermögen zeigen, um zielgruppengerecht gegenüber den Stakeholdern und den Teammitgliedern kommunizieren zu können. Die Person muss in der Lage sein, dass Team zu motivieren, jeden Einzelnen auf der Reise mitzunehmen und von der Vision zu überzeugen. Auch Selbstorganisation braucht Führung. Das Team in einem Scrum-Projekt arbeitet zwar als selbstorganisierte Einheit, dennoch braucht es natürlich eine Person, die die Richtung vorgibt. Der Product Owner sollte den Mitgliedern weitestgehend freie Hand lassen, aber im Notfall eingreifen. Er oder sie führt über Zielvorgaben und Priorisierung des Backlogs. Er oder sie treibt das Projekt und das Team voran, schützt beides aber vor Eingriffen von außen und Überlastung. Product Owner vs. Product Manager vs. Project Manager Oft wird Agilität nach den ersten erfolgreich durchgeführten agilen Pilotprojekten mit großem Aktionismus in Unternehmen eingeführt. Häufig herrscht allerdings kein gemeinsames, korrektes Verständnis von den in Scrum definierten Rollen. Rekrutiert werden die Product Owner dementsprechend aus den Rollen, die das Management oder die HR-Abteilung schon kennt und als ähnlich einstuft, zum Beispiel Projektmanager oder Produktmanager. Diese zu kurz gedachte Lösung führt dazu, dass die Product Owner ein falsches Rollenverständnis entwickeln, im Arbeitsalltag von Problem zu Problem hecheln und keine dedizierten Ansprechpartner im Unternehmen haben. Auch sind die Abgrenzungen zwischen den Rollen innerhalb eines Scrum-Projektes teils nicht ganz klar, so dass die Aufgaben zwischen Scrum Master und Product Owner, den zwei integralen Rollen innerhalb eines Scrum-Projektes, bei Verwischung zu Problemen führen können. Der Product Manager ist für die Produktstrategie verantwortlich, die zur Entwicklung und späteren Auslieferung des Produktes führt. Er behält dabei die Bedürfnisse der Nutzer und die Marktentwicklungen über den ganzen Produktlebenszyklus hinweg im Blick und verankert diese in der Produkt-Roadmap und der Produkt-Vision. Der Project Manager ist für die Überwachung der Ausführung von Produktentwicklungs-, -einführungs- und Launchplänen verantwortlich, ist also für die Organisation und Projektsteuerung zuständig. Der Product Owner ist als Teil des Scrum-Teams dafür verantwortlich, die strategische Vision des Produktes konkret umzusetzen, er ist also für die taktische Umsetzung der Produktanforderungen zuständig und legt fest, was genau entwickelt werden soll. Dabei liegt es in seiner Verantwortung, den Wert des Produktes aus Kundensicht zu maximieren. Der Product Owner kennt die Anforderungen von Auftraggebern und Anwendern und berücksichtigt diese in der Entwicklung der Produkteigenschaften. Der Scrum Master ist als Methodiker für die Einhaltung der Scrum-Regeln und Scrum-Prozesse verantwortlich, stellt also sicher, dass die agilen Prinzipien aufrechterhalten werden. Seine Verantwortung liegt in der Steigerung der Teamproduktivität und Motivation der Teammitglieder. Im Gegensatz zum Product Owner, der festlegt, welche Aufgaben vom Entwicklerteam als nächstes angegangen werden sollen, hilft der Scrum Master dem Team, dieses Ziel im gesetzten Zeitrahmen zu erreichen, gibt aber keine direkten Arbeitsanweisungen an das Entwicklerteam. Product Owner – Gehalt Die Nachfrage nach Scrum Product Ownern ist aufgrund der steigenden Beliebtheit agiler Methoden in Unternehmen hoch; die Aussichten auf ein attraktives Gehalt sind somit sehr gut. Insbesondere wenn eine international anerkannte Zertifizierung der Scrum Alliance oder scrum.org erworben wurde, werden die Fachkenntnisse auch entsprechend entlohnt. Natürlich können keine pauschalen Aussagen zum Gehalt eines Product Owners getroffen werden, da dieses wesentlich vom Erfahrungsschatz, der Art des Unternehmens und der individuellen Verhandlung abhängt. Als Einsteiger oder Einsteigerin in der Rolle des Product Owners können Berufsanwärterinnen und Berufsanwärter laut der Jobbörse StepStone durchaus mit einem Gehalt von 54.000 Euro brutto im Jahr rechnen, das sich im Laufe der Zeit je nach Erfahrungsschatz und speziellen Branchenkenntnissen auf bis zu 73.700 Euro im Jahr steigern kann. Das Durchschnittsgehalt gibt Stepstone mit 61.700 Euro an. 

Was macht ein Product Owner?​ Der Product Owner nimmt in agilen Projekten eine entscheidende Rolle ein.
Foto: fizkes – shutterstock.com

Agilität und agile Vorgehensweisen liegen im Trend. Es gibt kaum noch Unternehmen in Deutschland, die noch nicht versucht haben, durch Agilität positive Effekte für die Organisation oder für Projekte zu generieren. Um agile Prinzipien erfolgreich in der Organisation zu verankern, braucht es zwei wesentliche Faktoren: die geeigneten Methoden und in der Anwendung der Methodik ausgebildete Mitarbeiterinnen und Mitarbeiter, die die verschiedenen Rollen in den agilen Projekten kompetent ausfüllen.

Die wohl bekannteste agile Vorgehensweise ist Scrum. Durch die einfache Struktur und die klar definierten Rollen lässt sich die Methodik schnell produktiv in Unternehmen einsetzen. Im Mittelpunkt steht ein Entwickler- oder Serviceteam, das selbstorganisiert arbeitet.

Product Owner in Scrum – Definition

Als Methodenfachmann stellt der Scrum Master sicher, dass der Prozess funktioniert. Die entscheidendste Rolle ist aber wohl die des Product Owners, der als Produktverantwortlicher maßgeblich für die Qualität des entwickelten Produktes verantwortlich ist. Innerhalb des Scrum Frameworks sind die Rollen der Teammitglieder mit ihren Aufgaben und Verantwortungsbereichen klar definiert. Für den Erfolg eines Projekts ist es essentiell wichtig, dass die Mitglieder die Abgrenzung zwischen diesen Rollen verstehen und leben. Scrum Teams arbeiten selbstorganisiert als in sich geschlossenes Team, das selbstständig entscheiden kann wie das definierte Ziel erreicht werden soll.

Product Owner nehmen innerhalb von Scrum gegenüber der klassischen Projektorganisation eine vollkommen neue Rolle im Unternehmen ein. Wo Teamleiter und Projektleiter traditionellerweise ganzheitlich und oft hierarchisch für ein Team und dessen Ergebnisse verantwortlich zeichnen, fokussiert sich der Product Owner nur auf das Produkt aus Kundenperspektive.

Product Owner agieren genau an der Schnittstelle zwischen traditioneller und agiler Organisation. In der Theorie liest sich das Rollenprofil als sinnvolle Verknüpfung zwischen Top-Management-Sicht mit Kunden- und Produktfokus auf der einen – und gutem Draht zu der Lösungs- und Entwicklungsebene auf der anderen Seite.

Die offizielle Definition des Product Owners liefern die Entwickler des Scrum-Frameworks, Jeff Sutherland und Ken Schwaber, in ihrem Scrum Guide selbst: Der Product Owner ist für die Wertmaximierung der Arbeit des Entwicklerteams sowie für die Wertmaximierung des Produkts verantwortlich.

Die Rolle des Product Owners wird nur durch eine Person ausgefüllt und sollte nicht auf mehrere Stellen verteilt werden. Der Product Owner ist während der gesamten Produktentwicklung sehr aktiv eingebunden – er ist das Zentrum des Produktes und durch das Unternehmen bemächtigt, Entscheidungen zur Produktentwicklung zu treffen. Dabei schaut er gleichzeitig in Richtung des Marktes und in Richtung der technischen Entwicklung und schlägt dementsprechend die Brücke zwischen dem Kunden und dem Entwicklerteam.

Product Owner – Aufgaben

In der Literatur von agilen Vorgehensweisen wie Scrum sind die Verantwortungsbereiche und Aufgaben eines Product Owners klar beschrieben. Die Hauptaufgaben beinhalten demnach folgende Aspekte:

Aufnahme der Anforderungen von den Stakeholdern (z. B. Kunden, Fachbereiche, Geschäftsleitung) und Kommunikation mit Stakeholdern

Erarbeiten und Formulieren einer Produktvision

Bewerten und priorisieren der Anforderungen nach Business Value

Management des Product Backlogs (Transparenz, Nachvollziehbarkeit und Verständlichkeit)

Schreiben der User Stories (Teilpakete) unter Einhaltung klarer Qualitätskriterien (“Definition of Ready”)

Erläuterung für und Vermittlung der Anforderungen (User Stories) an die Entwickler

Verfügbarkeit für Fragestellungen der Entwickler zum Produkt

Abnahme und Verifizierung der Produktinkremente

Feedback-Vergabe an das Team

Zusammenfassend formuliert hat der Product Owner die Aufgabe, die Kundensicht zu vertreten und diese Perspektive in Zusammenarbeit mit einem selbstorganisierten Entwicklunger- oder Service-Team in Projekte, Produkte oder Services einfließen zu lassen. In der Reinform wird die Rolle als Linienaufgabe angesehen. Sie kann jedoch auch (mit einigen Einschränkungen und Kniffen) als Projektrolle ausgeprägt sein. Hier sollte eine akademische Diskussion vermieden werden; die Ausprägung spielt für die Kernaufgabe “kundenorientierte Produktgestaltung” keine Rolle.

Product Owner – Skills

In der Rolle des Product Owners ist der oder die Ausführende die Person, die das Ergebnis des Produktes definiert. Um die Kundensicht sowie die der internen Stakeholder richtig einzuschätzen, das Produkt in Tiefe zu verstehen und gleichzeitig noch den Business Value und Markterfordernisse bewerten zu können, muss der Product Owner eine hohe fachliche Expertise und Know-How – auch über die eigenen Bereichsgrenzen hinweg – mitbringen.

Wie immer, wenn unterschiedliche Menschen mit einem gemeinsamen Ziel zusammenkommen, ist die Motivation und Kommunikation untereinander maßgeblich für den späteren Erfolg. Als Schlüsselrolle im Projekt sollte der Product Owner ein hohes Empathievermögen zeigen, um zielgruppengerecht gegenüber den Stakeholdern und den Teammitgliedern kommunizieren zu können. Die Person muss in der Lage sein, dass Team zu motivieren, jeden Einzelnen auf der Reise mitzunehmen und von der Vision zu überzeugen.

Auch Selbstorganisation braucht Führung. Das Team in einem Scrum-Projekt arbeitet zwar als selbstorganisierte Einheit, dennoch braucht es natürlich eine Person, die die Richtung vorgibt. Der Product Owner sollte den Mitgliedern weitestgehend freie Hand lassen, aber im Notfall eingreifen. Er oder sie führt über Zielvorgaben und Priorisierung des Backlogs. Er oder sie treibt das Projekt und das Team voran, schützt beides aber vor Eingriffen von außen und Überlastung.

Product Owner vs. Product Manager vs. Project Manager

Oft wird Agilität nach den ersten erfolgreich durchgeführten agilen Pilotprojekten mit großem Aktionismus in Unternehmen eingeführt. Häufig herrscht allerdings kein gemeinsames, korrektes Verständnis von den in Scrum definierten Rollen. Rekrutiert werden die Product Owner dementsprechend aus den Rollen, die das Management oder die HR-Abteilung schon kennt und als ähnlich einstuft, zum Beispiel Projektmanager oder Produktmanager.

Diese zu kurz gedachte Lösung führt dazu, dass die Product Owner ein falsches Rollenverständnis entwickeln, im Arbeitsalltag von Problem zu Problem hecheln und keine dedizierten Ansprechpartner im Unternehmen haben. Auch sind die Abgrenzungen zwischen den Rollen innerhalb eines Scrum-Projektes teils nicht ganz klar, so dass die Aufgaben zwischen Scrum Master und Product Owner, den zwei integralen Rollen innerhalb eines Scrum-Projektes, bei Verwischung zu Problemen führen können.

Der Product Manager ist für die Produktstrategie verantwortlich, die zur Entwicklung und späteren Auslieferung des Produktes führt. Er behält dabei die Bedürfnisse der Nutzer und die Marktentwicklungen über den ganzen Produktlebenszyklus hinweg im Blick und verankert diese in der Produkt-Roadmap und der Produkt-Vision.

Der Project Manager ist für die Überwachung der Ausführung von Produktentwicklungs-, -einführungs- und Launchplänen verantwortlich, ist also für die Organisation und Projektsteuerung zuständig.

Der Product Owner ist als Teil des Scrum-Teams dafür verantwortlich, die strategische Vision des Produktes konkret umzusetzen, er ist also für die taktische Umsetzung der Produktanforderungen zuständig und legt fest, was genau entwickelt werden soll. Dabei liegt es in seiner Verantwortung, den Wert des Produktes aus Kundensicht zu maximieren. Der Product Owner kennt die Anforderungen von Auftraggebern und Anwendern und berücksichtigt diese in der Entwicklung der Produkteigenschaften.

Der Scrum Master ist als Methodiker für die Einhaltung der Scrum-Regeln und Scrum-Prozesse verantwortlich, stellt also sicher, dass die agilen Prinzipien aufrechterhalten werden. Seine Verantwortung liegt in der Steigerung der Teamproduktivität und Motivation der Teammitglieder.

Im Gegensatz zum Product Owner, der festlegt, welche Aufgaben vom Entwicklerteam als nächstes angegangen werden sollen, hilft der Scrum Master dem Team, dieses Ziel im gesetzten Zeitrahmen zu erreichen, gibt aber keine direkten Arbeitsanweisungen an das Entwicklerteam.

Product Owner – Gehalt

Die Nachfrage nach Scrum Product Ownern ist aufgrund der steigenden Beliebtheit agiler Methoden in Unternehmen hoch; die Aussichten auf ein attraktives Gehalt sind somit sehr gut. Insbesondere wenn eine international anerkannte Zertifizierung der Scrum Alliance oder scrum.org erworben wurde, werden die Fachkenntnisse auch entsprechend entlohnt.

Natürlich können keine pauschalen Aussagen zum Gehalt eines Product Owners getroffen werden, da dieses wesentlich vom Erfahrungsschatz, der Art des Unternehmens und der individuellen Verhandlung abhängt. Als Einsteiger oder Einsteigerin in der Rolle des Product Owners können Berufsanwärterinnen und Berufsanwärter laut der Jobbörse StepStone durchaus mit einem Gehalt von 54.000 Euro brutto im Jahr rechnen, das sich im Laufe der Zeit je nach Erfahrungsschatz und speziellen Branchenkenntnissen auf bis zu 73.700 Euro im Jahr steigern kann. Das Durchschnittsgehalt gibt Stepstone mit 61.700 Euro an.

Was macht ein Product Owner?​ Weiterlesen »

Alltime-Fails: Die 7 schlechtesten IT-Produkte​

Allgemein

Man mag es kaum glauben – diese IT-Produkte gab es wirklich. Foto: Svyatoslav Balan – shutterstock.com Die folgende – höchst subjektive – Auswahl präsentiert Ihnen sieben der abgründigsten Auswürfe, die die Technologiewelt bislang hervorgebracht hat. Warum diese IT-Produkte verschmäht, gehasst oder ihre Macher vor den Kadi gezerrt wurden, variiert dabei: Vom simplen Scam über PR-Peinlichkeiten und scheinbar böswillig sabotierte User Experiences bis hin zur realen Gefahr für Leib und Leben ist alles dabei. Viel Vergnügen! IBM PCjr IBM wollte mit dem PCjr im Jahr 1984 seinen Footprint im Markt für Heimcomputer ausbauen. Wer den Apple-II-, Commodore-64- und später Macintosh-Konkurrenten benutzen wollte, erlebte allerdings oft sein persönliches Big-Blue-Wunder. Als Business-Gerät nicht potent genug, als Spielerechner zu teuer: IBMs PCjr. Foto: Von Rik Myslewski – Eigenes Werk, CC0, https://commons.wikimedia.org/w/index.php?curid=31428981 Die anfangs standardmäßig verbauten 128 KB RAM waren zu schwach für die meisten IBM-PC-Programme. Das limitierte die verfügbare Software – vor allem auf Videospiele. Die liefen auf dem Commodore 64 allerdings in der Regel besser, was schlecht war, weil dieser auch wesentlich günstiger zu haben war. Der Einführungspreis des PCjr von knapp 1.300 Dollar ließ schon bei der ersten Präsentation Ende 1983 die Alarmglocken bei den Analysten schrillen – und gilt auch als finaler Sargnagel für das Device. Vor allem aber war das Keyboard eine Ausgeburt der (Design-)Hölle. Die Funktionsbeschriftung der Tasten findet sich nämlich auf dem Gehäuse (über den Keys). Da nutzte es dann auch nichts mehr, dass die Tastatur mit einer “fancy” Infrarot-Wireless-Funktionalität ausgestattet war. Auf Bildern lässt sich nur erahnen, welche User Experience diese Chiclet-Monstrosität in die Waagschale geworfen hat. Foto: Von Jason Scott – IMG_0034, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=92421025 Den Scope der wahnwitzigen IBM-Designentscheidungen beim PCjr fassen die Kollegen von “The Register” sehr treffend zusammen. Die Briten haben – schmerzfrei wie man sie kennt – bereits im Jahr 2014 freiwillig einen PCjr für einen ausführlichen Test in seine Bestandteile zerlegt. Der bezeichnende Titel: “We tear down the machine Big Blue would rather you forgot“. Nicht umsonst killte IBM den PCjr nur knapp ein Jahr nach der Markteinführung kurzfristig – und überraschte mit diesem Move auch zahlreiche Hard- und Softwareentwickler, die sich dediziert IBMs Heimcomputer mit der Donkey-Kong-Nomenklatur verschrieben hatten. Erst im Jahr 1990 hatte sich Big Blue einigermaßen von der PCjr-Schmach erholt und wagte mit dem PS/1 einen neuen Heimcomputer-Versuch (der dann auch besser lief). Syncronys SoftRAM Die guten alten Neunziger Jahre: Als Fußball noch ansatzweise spannend war, die Reputation von Alfons Schuhbeck noch lebte und inflationäre Preise für lebensnotwendige Dinge kein Thema waren – (Arbeits-)Speicher ausgenommen. Weil die Anforderungen für Windows-95-Programme unaufhörlich stiegen, klang das Angebot der Softwareschmiede Syncronys, den Arbeitsspeicher für knapp 30 Dollar per Software zu verdoppeln, für einige User sehr verlockend – genauer gesagt für rund 700.000. Das Problem daran: Es handelte sich um einen Scam, den unsere US-Kollegen von der PC World bereits im Jahr 2006 zu einem der drei schlechtesten Tech-Produkte aller Zeiten kürten. Und zwar vollkommen zu Recht: “Es stellte sich heraus, dass SoftRAM lediglich die Cache-Größe der Festplatte von Windows-Systemen vergrößerte – etwas, das User bereits mit moderaten Fähigkeiten völlig ohne spezifische Software in circa einer Minute bewerkstelligen konnten. Und selbst dann war der Performance-Vorteil vernachlässigbar. Die Federal Trade Commission bezeichnete das Marketing-Gebahren von Syncronys als ‘unwahr und irreführend’, das Unternehmen wurde letztlich dazu gezwungen, das Produkt vom Markt zu nehmen und Käufer zu entschädigen. Nachdem sie noch eine Handvoll weiterer, schlechter Windows Utilities veröffentlichten, war Syncronys im Jahr 1999 bankrott. Wir werden die Company nicht vermissen.” Have they updated SoftRAM for the 2020s? pic.twitter.com/noLejeddnX— @keiran_rowell@mastodon.social (@keiranrowell) October 13, 2020 Apple Mac Portable“Man fragt sich nur, wie viele Menschen wohl bereit sein werden, 8.000 Dollar für etwas auszugeben, das im Grunde ein Zweitrechner ist”, zitierte die Los Angeles Times den Gartner-Analysten David Cearley anlässlich der Präsentation von Apples portablem Macintosh im Jahr 1989. Ganz generell sahen Analysten der Publikation zufolge den Portable Mac als “zu groß, zu schwer und zu teuer” an. Der Einführungspreis lag bei mehr als 7.000 Dollar, dazu brachte der Mac Portable mehr als 7 Kilogramm auf die Waage (was vor allem den verbauten Bleisäure-Akkus geschuldet war).Qualitativ gab es am ersten tragbaren Mac hingegen wenig auszusetzen. Entsprechend enthusiastisch zeigte sich Apple-Manager Jean-Louis Gassée, der das Laptop-Monster nicht nur vor Publikum auf der Bühne präsentierte, sondern ihn bei dieser Gelegenheit gleich zusammenbaute: Knapp zwei Jahre nach seinem Launch ereilte den Mac Portable im Jahr 1991 ein früher Tod, nachdem die Absatzzahlen weit hinter den Erwartungen von Apple zurückblieben. Er wurde von der Powerbook-Familie beerbt. Immerhin hat das portable Schwergewicht zu Lebzeiten noch einen Ort gefunden, an dem sein Gewicht keine Rolle spielt – das Weltall: In 1991 a Mac Portable traveled to space! Little did the astronauts know they’d be dodging floppy disks! #vintagemac #nasa #spaceshuttle #space #klingons #apple #android #mac #ios #ios16 #repair #applerepair #righttorepair #tecktok #techtoker #sysadmin #it #computer pic.twitter.com/sFcQS4zujk— The Stem Group (@TheStemGroup) November 8, 2022 Microsoft BobMicrosoft hat in seiner langen Historie einige Böcke geschossen – man erinnere sich nur an das Chatbot-Desaster um Tay, die Betriebssystem-GAUs mit Windows Millenium Edition, Vista und 8 oder den vernichtend langwierigen Sterbeprozess von Windows Mobile beziehungsweise Phone.Doch auch wenn es um Redmonder Fehlgriffe geht, lohnt sich ein Blick in die Nische: Dann fällt schnell auf, dass ein kleines Stück Microsoft-Software unter Nerds ganz besonders verhasst scheint: Bob. Bevor der Baumeister diesen Namen mit Sinnhaftigkeit und Frohsinn füllte, erzeugte Microsofts Bob bei den Benutzern nämlich vor allem eines – innere Leere. Wir zitieren ein weiteres Mal unsere US-Kollegen von der PC World:“Bob war als ‘Social Interface’ für Windows 3.1 gedacht und versetzte die Benutzer in ein virtuelles Wohnzimmer mit klickbaren Objekten und einer Reihe von Zeichentrick-Helfern wie ‘Chaos the Cat’ und ‘Scuzz the Rat’, die durch eine überschaubare Reihe von Applikationen führten. Glücklicherweise wurde Bob unter dem Hype rund um den Start von Windows 95 begraben – auch wenn einige Elemente weiterlebten, um Microsoft-Office- und Windows-XP-Nutzer zu belästigen … Vor allem aber warf Bob mehr Fragen auf, als er beantworten konnte: Hat irgendjemand bei Microsoft das Teil einmal benutzt – oder ernsthaft angenommen, jemand anderes würde das tun wollen? Und war es eigentlich Absicht, dass der Bob-Smiley eine frappierende Ähnlichkeit zu Bill Gates aufweist?”Dass Melinda Gates als Projektmanagerin an der Entwicklung von Bob beteiligt war, dürfte die letztgestellte Frage beantworten. Ihre Neugierde auf Bob kennt inzwischen vermutlich keine Grenzen mehr. Glücklicherweise hat sich der auf Retro-Tech spezialisierte YouTube-Kanal “LGR” detailliert mit der Frage auseinandergesetzt, wie infernal die Microsoft-Bob-Experience wirklich war: Samsung Galaxy Note 7Im Jahr 2016 setzte Samsung laut Bloomberg alles daran, die nächste Iteration seines erfolgreichen Premium-Phablets vor Apples alljährlichem iPhone-Happening im September auf den Markt zu bringen. Nachdem das Galaxy Note im August 2016 in den Handel kam, häuften sich Berichte von Benutzern über explodierende, brennende und überhitzte Devices. Die Flugaufsichtsbehörden der USA und der EU untersagten daraufhin, das Gerät (auch ausgeschaltet) an Bord eines Flugzeugs zu nehmen.Zum Dahinschmelzen: Samsungs Galaxy Note 7.Samsung reagiert zeitnah und beraumt eine großangelegte, weltweite Rückrufaktion an. Rund 2,5 Millionen Exemplare des Galaxy Note 7 werden nur Wochen nach dem Marktstart ausgetauscht. Nur um dann in einigen Fällen ebenfalls in Schall und Rauch aufzugehen. Die unter Umständen lebensgefährlichen Defekte des Galaxy Note 7 zwingen den koreanischen Tech-Konzern schließlich Mitte Oktober 2016, Verkauf und Produktion des Galaxy Note 7 komplett einzustellen.Allein der Rückruf der Galaxy-Note-7-Geräte dürfte Samsung rund eine Milliarde Dollar gekostet haben. Analysten der Credit Suisse schätzten die Gesamtverluste für Samsung durch das Note-7-Debakel im Jahr 2017 auf 17 Milliarden Dollar. Und auch die Reputation des koreanischen Apple-Konkurrenten erlitt durch (Sammel-)Klagen und eine zweifelhafte Kommunikationsstrategie erheblichen Schaden. Windows VistaDass Vista als Enfant Terrible innerhalb der Windows-Betriebssystemfamilie gilt, ist bekannt. Trotzdem kommt man in einer Auflistung wie dieser nicht drumherum, die Verfehlungen rund um den so gescheiterten wie gehassten XP-Nachfolger noch einmal wiederzukäuen. Schließlich kommt dieses Windows einem zeitlosen Betriebssystemverbrechen gleich. Vista sollte ursprünglich nur ein kleineres Update für Windows XP werden – ein Zwischenschritt vor dem nächsten OS, Codename “Blackcomb“. Weil dessen viele neue Technologien und Features aus Entwicklersicht plötzlich auch für Vista interessant wurden, stürzte das Projekt ins Chaos. Das gestand der ehemalige Windows-Manager Jim Allchin auch öffentlich im Interview mit dem Wall Street Journal – schon ein Jahr, bevor Vista offiziell das Licht der Welt erblickte. Windows Vista – ein Garant für kaltes Grauen. Als es dann so weit war, trieb das Betriebssystem seine Benutzer mit Bestätigungsmeldungen bei jeder noch so kleinen Konfigurationsänderung in den Wahnsinn. Wer sich davon nicht beeindrucken ließ, hatte eine weitere Chance für Wutanfälle, wenn er feststellte, dass zahllose Peripheriegeräte wie Drucker mit dem neuen Windows nicht kompatibel waren. Sollte selbst das die Halsschlagader noch nicht dazu gebracht haben, ausgiebig zu pulsieren, konnte es zur Krönung auch sein, dass Vista grundsätzlich nicht oder nur sehr schlecht auf dem Rechner lief. Und zwar auch auf Neugeräten, auf denen das Betriebssystem vorinstalliert war. Und Microsoft setzte sogar noch einen obendrauf: Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Rechner zu kaufen, entschied man sich dazu, diese als “Windows Vista Capable” zu vermarkten. Dass das nicht der Wahrheit entsprach und den Microsoft-Verantwortlichen auch bewusst war, wurde im Rahmen einer Sammelklage bekannt und warf ein weiteres Mal kein günstiges Licht auf den Konzern. WeTabEs sollte im Jahr 2010 die deutsche Antwort auf Apples iPad sein – eine Art neues Wirtschaftswunder in Device-Form: das WeTab. Allerdings verwandelte sich das Gründermärchen schnell in eine (PR-)Horrorstory. Weil auch uns manchmal die Schreibfaulheit plagt, überlassen wir es den Kollegen von 3Sat, dieses Kapitel der deutschen IT-Geschichte zu erzählen, welches man in Jugendsprache auch mit nur einem Wort zusammenfassen könnte: Cringe. 

Alltime-Fails: Die 7 schlechtesten IT-Produkte​ Man mag es kaum glauben – diese IT-Produkte gab es wirklich.
Foto: Svyatoslav Balan – shutterstock.com

Die folgende – höchst subjektive – Auswahl präsentiert Ihnen sieben der abgründigsten Auswürfe, die die Technologiewelt bislang hervorgebracht hat. Warum diese IT-Produkte verschmäht, gehasst oder ihre Macher vor den Kadi gezerrt wurden, variiert dabei: Vom simplen Scam über PR-Peinlichkeiten und scheinbar böswillig sabotierte User Experiences bis hin zur realen Gefahr für Leib und Leben ist alles dabei. Viel Vergnügen!

IBM PCjr

IBM wollte mit dem PCjr im Jahr 1984 seinen Footprint im Markt für Heimcomputer ausbauen. Wer den Apple-II-, Commodore-64- und später Macintosh-Konkurrenten benutzen wollte, erlebte allerdings oft sein persönliches Big-Blue-Wunder.

Als Business-Gerät nicht potent genug, als Spielerechner zu teuer: IBMs PCjr.
Foto: Von Rik Myslewski – Eigenes Werk, CC0, https://commons.wikimedia.org/w/index.php?curid=31428981

Die anfangs standardmäßig verbauten 128 KB RAM waren zu schwach für die meisten IBM-PC-Programme. Das limitierte die verfügbare Software – vor allem auf Videospiele. Die liefen auf dem Commodore 64 allerdings in der Regel besser, was schlecht war, weil dieser auch wesentlich günstiger zu haben war. Der Einführungspreis des PCjr von knapp 1.300 Dollar ließ schon bei der ersten Präsentation Ende 1983 die Alarmglocken bei den Analysten schrillen – und gilt auch als finaler Sargnagel für das Device.

Vor allem aber war das Keyboard eine Ausgeburt der (Design-)Hölle. Die Funktionsbeschriftung der Tasten findet sich nämlich auf dem Gehäuse (über den Keys). Da nutzte es dann auch nichts mehr, dass die Tastatur mit einer “fancy” Infrarot-Wireless-Funktionalität ausgestattet war.

Auf Bildern lässt sich nur erahnen, welche User Experience diese Chiclet-Monstrosität in die Waagschale geworfen hat.
Foto: Von Jason Scott – IMG_0034, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=92421025

Den Scope der wahnwitzigen IBM-Designentscheidungen beim PCjr fassen die Kollegen von “The Register” sehr treffend zusammen. Die Briten haben – schmerzfrei wie man sie kennt – bereits im Jahr 2014 freiwillig einen PCjr für einen ausführlichen Test in seine Bestandteile zerlegt. Der bezeichnende Titel: “We tear down the machine Big Blue would rather you forgot“.

Nicht umsonst killte IBM den PCjr nur knapp ein Jahr nach der Markteinführung kurzfristig – und überraschte mit diesem Move auch zahlreiche Hard- und Softwareentwickler, die sich dediziert IBMs Heimcomputer mit der Donkey-Kong-Nomenklatur verschrieben hatten. Erst im Jahr 1990 hatte sich Big Blue einigermaßen von der PCjr-Schmach erholt und wagte mit dem PS/1 einen neuen Heimcomputer-Versuch (der dann auch besser lief).

Syncronys SoftRAM

Die guten alten Neunziger Jahre: Als Fußball noch ansatzweise spannend war, die Reputation von Alfons Schuhbeck noch lebte und inflationäre Preise für lebensnotwendige Dinge kein Thema waren – (Arbeits-)Speicher ausgenommen. Weil die Anforderungen für Windows-95-Programme unaufhörlich stiegen, klang das Angebot der Softwareschmiede Syncronys, den Arbeitsspeicher für knapp 30 Dollar per Software zu verdoppeln, für einige User sehr verlockend – genauer gesagt für rund 700.000.

Das Problem daran: Es handelte sich um einen Scam, den unsere US-Kollegen von der PC World bereits im Jahr 2006 zu einem der drei schlechtesten Tech-Produkte aller Zeiten kürten. Und zwar vollkommen zu Recht:

“Es stellte sich heraus, dass SoftRAM lediglich die Cache-Größe der Festplatte von Windows-Systemen vergrößerte – etwas, das User bereits mit moderaten Fähigkeiten völlig ohne spezifische Software in circa einer Minute bewerkstelligen konnten. Und selbst dann war der Performance-Vorteil vernachlässigbar. Die Federal Trade Commission bezeichnete das Marketing-Gebahren von Syncronys als ‘unwahr und irreführend’, das Unternehmen wurde letztlich dazu gezwungen, das Produkt vom Markt zu nehmen und Käufer zu entschädigen. Nachdem sie noch eine Handvoll weiterer, schlechter Windows Utilities veröffentlichten, war Syncronys im Jahr 1999 bankrott. Wir werden die Company nicht vermissen.”

Have they updated SoftRAM for the 2020s? pic.twitter.com/noLejeddnX— @keiran_rowell@mastodon.social (@keiranrowell) October 13, 2020

Apple Mac Portable“Man fragt sich nur, wie viele Menschen wohl bereit sein werden, 8.000 Dollar für etwas auszugeben, das im Grunde ein Zweitrechner ist”, zitierte die Los Angeles Times den Gartner-Analysten David Cearley anlässlich der Präsentation von Apples portablem Macintosh im Jahr 1989. Ganz generell sahen Analysten der Publikation zufolge den Portable Mac als “zu groß, zu schwer und zu teuer” an. Der Einführungspreis lag bei mehr als 7.000 Dollar, dazu brachte der Mac Portable mehr als 7 Kilogramm auf die Waage (was vor allem den verbauten Bleisäure-Akkus geschuldet war).Qualitativ gab es am ersten tragbaren Mac hingegen wenig auszusetzen. Entsprechend enthusiastisch zeigte sich Apple-Manager Jean-Louis Gassée, der das Laptop-Monster nicht nur vor Publikum auf der Bühne präsentierte, sondern ihn bei dieser Gelegenheit gleich zusammenbaute:

Knapp zwei Jahre nach seinem Launch ereilte den Mac Portable im Jahr 1991 ein früher Tod, nachdem die Absatzzahlen weit hinter den Erwartungen von Apple zurückblieben. Er wurde von der Powerbook-Familie beerbt. Immerhin hat das portable Schwergewicht zu Lebzeiten noch einen Ort gefunden, an dem sein Gewicht keine Rolle spielt – das Weltall:

In 1991 a Mac Portable traveled to space! Little did the astronauts know they’d be dodging floppy disks! #vintagemac #nasa #spaceshuttle #space #klingons #apple #android #mac #ios #ios16 #repair #applerepair #righttorepair #tecktok #techtoker #sysadmin #it #computer pic.twitter.com/sFcQS4zujk— The Stem Group (@TheStemGroup) November 8, 2022

Microsoft BobMicrosoft hat in seiner langen Historie einige Böcke geschossen – man erinnere sich nur an das Chatbot-Desaster um Tay, die Betriebssystem-GAUs mit Windows Millenium Edition, Vista und 8 oder den vernichtend langwierigen Sterbeprozess von Windows Mobile beziehungsweise Phone.Doch auch wenn es um Redmonder Fehlgriffe geht, lohnt sich ein Blick in die Nische: Dann fällt schnell auf, dass ein kleines Stück Microsoft-Software unter Nerds ganz besonders verhasst scheint: Bob. Bevor der Baumeister diesen Namen mit Sinnhaftigkeit und Frohsinn füllte, erzeugte Microsofts Bob bei den Benutzern nämlich vor allem eines – innere Leere. Wir zitieren ein weiteres Mal unsere US-Kollegen von der PC World:“Bob war als ‘Social Interface’ für Windows 3.1 gedacht und versetzte die Benutzer in ein virtuelles Wohnzimmer mit klickbaren Objekten und einer Reihe von Zeichentrick-Helfern wie ‘Chaos the Cat’ und ‘Scuzz the Rat’, die durch eine überschaubare Reihe von Applikationen führten. Glücklicherweise wurde Bob unter dem Hype rund um den Start von Windows 95 begraben – auch wenn einige Elemente weiterlebten, um Microsoft-Office- und Windows-XP-Nutzer zu belästigen … Vor allem aber warf Bob mehr Fragen auf, als er beantworten konnte: Hat irgendjemand bei Microsoft das Teil einmal benutzt – oder ernsthaft angenommen, jemand anderes würde das tun wollen? Und war es eigentlich Absicht, dass der Bob-Smiley eine frappierende Ähnlichkeit zu Bill Gates aufweist?”Dass Melinda Gates als Projektmanagerin an der Entwicklung von Bob beteiligt war, dürfte die letztgestellte Frage beantworten. Ihre Neugierde auf Bob kennt inzwischen vermutlich keine Grenzen mehr. Glücklicherweise hat sich der auf Retro-Tech spezialisierte YouTube-Kanal “LGR” detailliert mit der Frage auseinandergesetzt, wie infernal die Microsoft-Bob-Experience wirklich war:

Samsung Galaxy Note 7Im Jahr 2016 setzte Samsung laut Bloomberg alles daran, die nächste Iteration seines erfolgreichen Premium-Phablets vor Apples alljährlichem iPhone-Happening im September auf den Markt zu bringen. Nachdem das Galaxy Note im August 2016 in den Handel kam, häuften sich Berichte von Benutzern über explodierende, brennende und überhitzte Devices. Die Flugaufsichtsbehörden der USA und der EU untersagten daraufhin, das Gerät (auch ausgeschaltet) an Bord eines Flugzeugs zu nehmen.Zum Dahinschmelzen: Samsungs Galaxy Note 7.Samsung reagiert zeitnah und beraumt eine großangelegte, weltweite Rückrufaktion an. Rund 2,5 Millionen Exemplare des Galaxy Note 7 werden nur Wochen nach dem Marktstart ausgetauscht. Nur um dann in einigen Fällen ebenfalls in Schall und Rauch aufzugehen. Die unter Umständen lebensgefährlichen Defekte des Galaxy Note 7 zwingen den koreanischen Tech-Konzern schließlich Mitte Oktober 2016, Verkauf und Produktion des Galaxy Note 7 komplett einzustellen.Allein der Rückruf der Galaxy-Note-7-Geräte dürfte Samsung rund eine Milliarde Dollar gekostet haben. Analysten der Credit Suisse schätzten die Gesamtverluste für Samsung durch das Note-7-Debakel im Jahr 2017 auf 17 Milliarden Dollar. Und auch die Reputation des koreanischen Apple-Konkurrenten erlitt durch (Sammel-)Klagen und eine zweifelhafte Kommunikationsstrategie erheblichen Schaden.

Windows VistaDass Vista als Enfant Terrible innerhalb der Windows-Betriebssystemfamilie gilt, ist bekannt. Trotzdem kommt man in einer Auflistung wie dieser nicht drumherum, die Verfehlungen rund um den so gescheiterten wie gehassten XP-Nachfolger noch einmal wiederzukäuen. Schließlich kommt dieses Windows einem zeitlosen Betriebssystemverbrechen gleich. Vista sollte ursprünglich nur ein kleineres Update für Windows XP werden – ein Zwischenschritt vor dem nächsten OS, Codename “Blackcomb“. Weil dessen viele neue Technologien und Features aus Entwicklersicht plötzlich auch für Vista interessant wurden, stürzte das Projekt ins Chaos. Das gestand der ehemalige Windows-Manager Jim Allchin auch öffentlich im Interview mit dem Wall Street Journal – schon ein Jahr, bevor Vista offiziell das Licht der Welt erblickte. Windows Vista – ein Garant für kaltes Grauen. Als es dann so weit war, trieb das Betriebssystem seine Benutzer mit Bestätigungsmeldungen bei jeder noch so kleinen Konfigurationsänderung in den Wahnsinn. Wer sich davon nicht beeindrucken ließ, hatte eine weitere Chance für Wutanfälle, wenn er feststellte, dass zahllose Peripheriegeräte wie Drucker mit dem neuen Windows nicht kompatibel waren. Sollte selbst das die Halsschlagader noch nicht dazu gebracht haben, ausgiebig zu pulsieren, konnte es zur Krönung auch sein, dass Vista grundsätzlich nicht oder nur sehr schlecht auf dem Rechner lief. Und zwar auch auf Neugeräten, auf denen das Betriebssystem vorinstalliert war. Und Microsoft setzte sogar noch einen obendrauf: Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Rechner zu kaufen, entschied man sich dazu, diese als “Windows Vista Capable” zu vermarkten. Dass das nicht der Wahrheit entsprach und den Microsoft-Verantwortlichen auch bewusst war, wurde im Rahmen einer Sammelklage bekannt und warf ein weiteres Mal kein günstiges Licht auf den Konzern.

WeTabEs sollte im Jahr 2010 die deutsche Antwort auf Apples iPad sein – eine Art neues Wirtschaftswunder in Device-Form: das WeTab. Allerdings verwandelte sich das Gründermärchen schnell in eine (PR-)Horrorstory. Weil auch uns manchmal die Schreibfaulheit plagt, überlassen wir es den Kollegen von 3Sat, dieses Kapitel der deutschen IT-Geschichte zu erzählen, welches man in Jugendsprache auch mit nur einem Wort zusammenfassen könnte: Cringe.

Alltime-Fails: Die 7 schlechtesten IT-Produkte​ Weiterlesen »

Der neue Trend – sich spielend vernetzen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Spiele sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken.eamesBot – Shutterstock 1229292619 Gut vernetzt zu sein bringt im Berufsleben viele Vorteile mit sich – das ist mittlerweile bekannt. Doch nicht jedem fällt das Netzwerken leicht. Hier können jedoch neue Formen des Spielens helfen, indem sie das Eis brechen und Interaktionen fördern. Statt einer formellen Nachricht können Interessenten eine Herausforderung zum Spiel senden oder ihr Ergebnis teilen und so mit anderen Mitgliedern in Kontakt bleiben.   In den letzten Jahren haben viele Medienunternehmen und soziale Netzwerke ein zunehmendes Interesse an Spielen gezeigt. Mittlerweile stehen zum Beispiel bei LinkedIn Mitglieder im deutschsprachigen Raum drei Spiele zur Verfügung – Queens, Tango und Zip. Inspiriert von beliebten Rätsel- und Knobelspielen sollen sie den Austausch und die Vernetzung fördern.   Die Spiele können nur einmal täglich gespielt werden und sind mehr als nur Denksport. Der Grund: Sie sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken. Aus eigener Erfahrung weiß ich, wie schwer es im Arbeitsalltag sein kann, mit Kollegen und Kolleginnen in Kontakt zu bleiben oder die erste Nachricht an neue oder eingerostete Kontakte zu verschicken. Mit solchen Spielen ist das jetzt einfach: Eine Herausforderung zum Spielen verschicken und schon bleibt man in Verbindung.  Denkspiele steigern die kognitive Leistungsfähigkeit Weiterer Nebeneffekt: Die Spiele sollen Mitglieder dazu ermutigen, sich während des Arbeitstages hin und wieder eine kurze Auszeit zu nehmen und den Geist zu trainieren. Denn aus der Forschung ist bekannt, dass regelmäßige Pausen im Arbeitsalltag wichtig sind. Gleichzeitig können sich Denkspiele positiv auf unsere kognitive Leistung auswirken.  Wer beim Spielen auf den Geschmack gekommen ist, kann natürlich noch auf viele andere Arten Networking betreiben. Der Schlüssel zum Erfolg liegt dabei im gegenseitigen Austausch. Erst durch regelmäßige Kontaktpflege entfaltet das eigene berufliche Netzwerk seine volle Kraft.  Unter linkedin.com/games und in der LinkedIn-App finden Sie die LinkedIn-Spiele. Einfach auf der Startseite nach rechts streichen und den Abschnitt „Spiele“ aufrufen. 

Der neue Trend – sich spielend vernetzen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Networking-shutterstock_1229292619.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Spiele sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken.eamesBot – Shutterstock 1229292619

Gut vernetzt zu sein bringt im Berufsleben viele Vorteile mit sich – das ist mittlerweile bekannt. Doch nicht jedem fällt das Netzwerken leicht. Hier können jedoch neue Formen des Spielens helfen, indem sie das Eis brechen und Interaktionen fördern. Statt einer formellen Nachricht können Interessenten eine Herausforderung zum Spiel senden oder ihr Ergebnis teilen und so mit anderen Mitgliedern in Kontakt bleiben.  

In den letzten Jahren haben viele Medienunternehmen und soziale Netzwerke ein zunehmendes Interesse an Spielen gezeigt. Mittlerweile stehen zum Beispiel bei LinkedIn Mitglieder im deutschsprachigen Raum drei Spiele zur Verfügung – Queens, Tango und Zip. Inspiriert von beliebten Rätsel- und Knobelspielen sollen sie den Austausch und die Vernetzung fördern.  

Die Spiele können nur einmal täglich gespielt werden und sind mehr als nur Denksport. Der Grund: Sie sind hervorragende Tools, um auf lockere und unterhaltsame Weise zu netzwerken. Aus eigener Erfahrung weiß ich, wie schwer es im Arbeitsalltag sein kann, mit Kollegen und Kolleginnen in Kontakt zu bleiben oder die erste Nachricht an neue oder eingerostete Kontakte zu verschicken. Mit solchen Spielen ist das jetzt einfach: Eine Herausforderung zum Spielen verschicken und schon bleibt man in Verbindung. 

Denkspiele steigern die kognitive Leistungsfähigkeit

Weiterer Nebeneffekt: Die Spiele sollen Mitglieder dazu ermutigen, sich während des Arbeitstages hin und wieder eine kurze Auszeit zu nehmen und den Geist zu trainieren. Denn aus der Forschung ist bekannt, dass regelmäßige Pausen im Arbeitsalltag wichtig sind. Gleichzeitig können sich Denkspiele positiv auf unsere kognitive Leistung auswirken. 

Wer beim Spielen auf den Geschmack gekommen ist, kann natürlich noch auf viele andere Arten Networking betreiben. Der Schlüssel zum Erfolg liegt dabei im gegenseitigen Austausch. Erst durch regelmäßige Kontaktpflege entfaltet das eigene berufliche Netzwerk seine volle Kraft. 

Unter linkedin.com/games und in der LinkedIn-App finden Sie die LinkedIn-Spiele. Einfach auf der Startseite nach rechts streichen und den Abschnitt „Spiele“ aufrufen.

Der neue Trend – sich spielend vernetzen​ Weiterlesen »

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​

Allgemein

Thomas Joos PC-Nutzer, die etwas in der Vergangenheit schwelgen und mit der Windows XP-Oberfläche arbeiten wollen (oder Windows 2000 und Windows 7), können sich kostenlos die Linux-Distribution Q4OS herunterladen und darauf die XPQ4-GUI installieren. Die GUI ermöglicht es, innerhalb der Debian-basierten Distribution Q4OS verschiedene Oberflächen zu aktivieren. Neben Windows XP stehen hier auch Windows 2000, Windows 7, Windows 8 und auch Windows 10 zur Verfügung. Sie können in der Oberfläche sogar Programme installieren, allerdings nur Linux-Anwendungen. Dafür können Sie alles in der grafischen Oberfläche erledigen, die sich wie Windows verhält. Thomas Joos Das System können Sie auch über einen USB-Stick als Live-Installation starten. Da der Download als ISO-Datei erfolgt, ist es auch möglich, die Distribution in einer VM zu testen. Die Oberfläche von Q4OS ist ohnehin bereits ähnlich zu Windows. Durch die Installation von XPQ4 lassen sich die genannten Windows-Oberflächen aktivieren. Die Entwickler von XPQ4 bieten darüber hinaus eine fertige Live-Umgebung mit Q4OS an, in der XPQ4 bereits installiert ist. Windows XP mithilfe von Linux nutzen – auch ohne Installation Um Windows XP über Q4OS/XPQ4 zu nutzen, reicht es aus, wenn Sie die ISO-Datei für XPQ4 als FreeXP bei den Entwicklern herunterladen. Verwenden Sie dazu am besten bei “Downloads” die Option “FreeXP live CD image”. Wollen Sie auf Basis von Q4OS und XPQ4 Windows 10 mit Linux nutzen, können Sie auch das Image “Free10 live CD image” verwenden. Hier steht die Windows 10-Oberfläche zur Verfügung, aber ohne die Möglichkeit, ältere Versionen wie Windows XP zu aktivieren. Starten Sie dieses Image, erhalten Sie eine Windows 10-Oberfläche auf Basis von Q4OS und XPQ4. Thomas Joos Wollen Sie einen PC mit Q4OS starten, unabhängig davon, ob Sie Windows XP oder Windows 10 als Oberfläche nutzen wollen, verwenden Sie zum Beispiel Rufus oder balenaEtcher. Am Beispiel von Rufus verbinden Sie den USB-Stick mit Ihrem PC, starten Rufus und wählen bei “Laufwerk” den USB-Stick aus. Bei “Startart” klicken Sie auf “Auswahl” und wählen die gewünschte ISO-Datei aus. Die restlichen Einstellungen können Sie auf dem Standard belassen. Mit “Start” beginnt die Erstellung des Sticks. Booten Sie einen PC, dann startet direkt FreeXP oder Free10 mit dem Stick. Thomas Joos An Windows XP unter Q4OS anmelden Die Anmeldung an Q4OS erfolgt standardmäßig mit dem Benutzernamen “adminq” und einem leeren Kennwort. Im Rahmen des Starts können Sie auch die Sprache der Oberfläche anpassen. Deutsch steht ebenfalls zur Verfügung, allerdings sind nicht alle Dialogfelder optimal übersetzt. Direkt nach der Anmeldung aktiviert das Betriebssystem die Windows XP-Oberfläche, wenn Sie direkt die FreeXP-Variante gestartet haben. Bei der Windows 10-Variante startet die Oberfläche von Windows 10. Die Bedienung von FreeXP entspricht weitgehend der von Windows XP, beziehungsweise der Windows-Version, die Sie in der Oberfläche eingestellt haben. Windows-Oberfläche anpassen Sie können die angezeigte Windows-Version jederzeit über das Tool “XPQ4 Desktop Styles” anpassen. In der Spalte “Themes” die verschiedenen Windows-Versionen zur Auswahl. Dazu gehören Windows XP mit der klassischen Ansicht, Windows XP mit der bekannten bunten Luna-Oberfläche, Windows 7, Windows 8, Windows 10 und auch Windows 2000. Thomas Joos Klicken Sie auf ein Theme und wählen Sie “Apply Theme”. Klicken Sie danach auf “Logout now”. Wählen Sie sich nach der Abmeldung mit dem Benutzer “adminq” ohne Kennwort an. Mit Windows unter Q4OS arbeiten Die Bedienung der jeweiligen Windows-Oberfläche entspricht in etwa der von Windows. Es gibt natürlich ein paar Unterschiede, da als Basis des Systems Debian-Linux mit Q4OS genutzt wird. Der Willkommensbildschirm von Q4OS ermöglicht über die Schaltfläche “Programme installieren” die Installation von Programmen. Mit “Mehr Optionen” lassen sich weitere Features aktivieren, wie verschiedene grafische Effekte. Über “Desktop Profiler” lassen sich die Oberfläche und generelle Anzeige anpassen. Thomas Joos Q4OS mit XPQ4 installieren Alternativ zum Testen der Live-CD von FreeXP ist es auch möglich, das Betriebssystem zu installieren. Dazu erfolgt ein Klick auf “Install Q4OS”. Im Anschluss startet der Installationsassistent direkt in der Oberfläche. Dieser ermöglicht die Auswahl der Sprache, des Tastaturmodells und die Auswahl der Q4OS-Variante. Sinnvoll ist an dieser Stelle die Auswahl von “Q4OS Desktop”. Auch die Partitionierung können Sie an dieser Stelle festlegen. Im Rahmen der Einrichtung lässt sich ein eigenes Benutzerkonto mit Kennwort testen- einrichten. Auf Wunsch kann FreeXP den Nutzer auch automatisch anmelden. Sobald der Assistent abgeschlossen ist, beginnt die Installation. Im Anschluss steht das Betriebssystem auf dem PC zur Verfügung. Nach dem Neustart erfolgt die Anmeldung mit dem neuen Benutzernamen und Kennwort. Thomas Joos Die Bedienung von FreeXP und Free10 auf Basis von Q4OS entspricht zwar generell der von Windows, aber es gibt durchaus Unterschiede.(PC-Welt) 

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​ Thomas Joos

PC-Nutzer, die etwas in der Vergangenheit schwelgen und mit der Windows XP-Oberfläche arbeiten wollen (oder Windows 2000 und Windows 7), können sich kostenlos die Linux-Distribution Q4OS herunterladen und darauf die XPQ4-GUI installieren. Die GUI ermöglicht es, innerhalb der Debian-basierten Distribution Q4OS verschiedene Oberflächen zu aktivieren.

Neben Windows XP stehen hier auch Windows 2000, Windows 7, Windows 8 und auch Windows 10 zur Verfügung. Sie können in der Oberfläche sogar Programme installieren, allerdings nur Linux-Anwendungen. Dafür können Sie alles in der grafischen Oberfläche erledigen, die sich wie Windows verhält.

Thomas Joos

Das System können Sie auch über einen USB-Stick als Live-Installation starten. Da der Download als ISO-Datei erfolgt, ist es auch möglich, die Distribution in einer VM zu testen. Die Oberfläche von Q4OS ist ohnehin bereits ähnlich zu Windows. Durch die Installation von XPQ4 lassen sich die genannten Windows-Oberflächen aktivieren. Die Entwickler von XPQ4 bieten darüber hinaus eine fertige Live-Umgebung mit Q4OS an, in der XPQ4 bereits installiert ist.

Windows XP mithilfe von Linux nutzen – auch ohne Installation

Um Windows XP über Q4OS/XPQ4 zu nutzen, reicht es aus, wenn Sie die ISO-Datei für XPQ4 als FreeXP bei den Entwicklern herunterladen. Verwenden Sie dazu am besten bei “Downloads” die Option “FreeXP live CD image”. Wollen Sie auf Basis von Q4OS und XPQ4 Windows 10 mit Linux nutzen, können Sie auch das Image “Free10 live CD image” verwenden. Hier steht die Windows 10-Oberfläche zur Verfügung, aber ohne die Möglichkeit, ältere Versionen wie Windows XP zu aktivieren. Starten Sie dieses Image, erhalten Sie eine Windows 10-Oberfläche auf Basis von Q4OS und XPQ4.

Thomas Joos

Wollen Sie einen PC mit Q4OS starten, unabhängig davon, ob Sie Windows XP oder Windows 10 als Oberfläche nutzen wollen, verwenden Sie zum Beispiel Rufus oder balenaEtcher. Am Beispiel von Rufus verbinden Sie den USB-Stick mit Ihrem PC, starten Rufus und wählen bei “Laufwerk” den USB-Stick aus. Bei “Startart” klicken Sie auf “Auswahl” und wählen die gewünschte ISO-Datei aus. Die restlichen Einstellungen können Sie auf dem Standard belassen. Mit “Start” beginnt die Erstellung des Sticks. Booten Sie einen PC, dann startet direkt FreeXP oder Free10 mit dem Stick.

Thomas Joos

An Windows XP unter Q4OS anmelden

Die Anmeldung an Q4OS erfolgt standardmäßig mit dem Benutzernamen “adminq” und einem leeren Kennwort. Im Rahmen des Starts können Sie auch die Sprache der Oberfläche anpassen. Deutsch steht ebenfalls zur Verfügung, allerdings sind nicht alle Dialogfelder optimal übersetzt. Direkt nach der Anmeldung aktiviert das Betriebssystem die Windows XP-Oberfläche, wenn Sie direkt die FreeXP-Variante gestartet haben.

Bei der Windows 10-Variante startet die Oberfläche von Windows 10. Die Bedienung von FreeXP entspricht weitgehend der von Windows XP, beziehungsweise der Windows-Version, die Sie in der Oberfläche eingestellt haben.

Windows-Oberfläche anpassen

Sie können die angezeigte Windows-Version jederzeit über das Tool “XPQ4 Desktop Styles” anpassen. In der Spalte “Themes” die verschiedenen Windows-Versionen zur Auswahl. Dazu gehören Windows XP mit der klassischen Ansicht, Windows XP mit der bekannten bunten Luna-Oberfläche, Windows 7, Windows 8, Windows 10 und auch Windows 2000.

Thomas Joos

Klicken Sie auf ein Theme und wählen Sie “Apply Theme”. Klicken Sie danach auf “Logout now”. Wählen Sie sich nach der Abmeldung mit dem Benutzer “adminq” ohne Kennwort an.

Mit Windows unter Q4OS arbeiten

Die Bedienung der jeweiligen Windows-Oberfläche entspricht in etwa der von Windows. Es gibt natürlich ein paar Unterschiede, da als Basis des Systems Debian-Linux mit Q4OS genutzt wird. Der Willkommensbildschirm von Q4OS ermöglicht über die Schaltfläche “Programme installieren” die Installation von Programmen. Mit “Mehr Optionen” lassen sich weitere Features aktivieren, wie verschiedene grafische Effekte. Über “Desktop Profiler” lassen sich die Oberfläche und generelle Anzeige anpassen.

Thomas Joos

Q4OS mit XPQ4 installieren

Alternativ zum Testen der Live-CD von FreeXP ist es auch möglich, das Betriebssystem zu installieren. Dazu erfolgt ein Klick auf “Install Q4OS”. Im Anschluss startet der Installationsassistent direkt in der Oberfläche. Dieser ermöglicht die Auswahl der Sprache, des Tastaturmodells und die Auswahl der Q4OS-Variante. Sinnvoll ist an dieser Stelle die Auswahl von “Q4OS Desktop”. Auch die Partitionierung können Sie an dieser Stelle festlegen. Im Rahmen der Einrichtung lässt sich ein eigenes Benutzerkonto mit Kennwort testen- einrichten. Auf Wunsch kann FreeXP den Nutzer auch automatisch anmelden.

Sobald der Assistent abgeschlossen ist, beginnt die Installation. Im Anschluss steht das Betriebssystem auf dem PC zur Verfügung. Nach dem Neustart erfolgt die Anmeldung mit dem neuen Benutzernamen und Kennwort.

Thomas Joos

Die Bedienung von FreeXP und Free10 auf Basis von Q4OS entspricht zwar generell der von Windows, aber es gibt durchaus Unterschiede.(PC-Welt)

Wer braucht schon Windows 11? So nutzen Sie Windows XP auf Linux-Basis​ Weiterlesen »

IQ-Test: Was Intelligenztests können​

Allgemein

Die meisten Intelligenztests beschränken sich darauf, logisches und analytisches Wissen zu testen, obwohl man sich einig ist, dass dazu viel mehr gehört. Foto: New Africa – shutterstock.comDas Wort Intelligenz stammt aus dem Lateinischen, genauer, von dem Verb intellegere (dt. erkennen, verstehen, einsehen). Wer intelligent ist, der hat die Fähigkeit, Dinge schnell einzusehen oder zu verstehen – auf diesen Versuch einer Definition kann man sich wohl verständigen.Eine Definition, auf die sich die Wissenschaft insgesamt geeinigt hat, gibt es von dem Begriff Intelligenz dagegen nicht. Worauf man sich in Fachkreisen jedoch verständigen konnte, ist, dass Personen, die man gemeinhin als intelligent ansieht, kognitiv (sehr) leistungsfähig sind.Intelligenz ist mehr als logisches DenkenWorin diese kognitive Leistungsfähigkeit aber genau besteht, darüber ist man sich noch nicht abschließend einig. Denn Intelligenz bedeutet eben nicht nur, dass Personen in der Lage sind, Zusammenhänge logisch zu erschließen oder Aufgaben aufgrund von vorhandenem Wissen möglichst kreativ zu lösen. Ebenso scheint es für eine komplette Beschreibung von Intelligenz nicht ausreichend, dass die betreffende Person in der Lage ist, sich schnell in neuen Situationen zurechtzufinden und zügig auf eine Idee zu kommen, wie sich ein bisher unbekanntes Problem lösen lässt. Auch musikalische Begabung, ein Faible für Sprachen oder – nicht zu vergessen – Empathie, also die Fähigkeit, sich in andere Personen hineinzuversetzen, gehören zur Intelligenz dazu.Was misst ein IQ-Test?Nicht verwunderlich, dass es immer wieder Kritik an dem Intelligenztest gibt, denn ein solcher Test – jedenfalls die herkömmlichen – messen ganz viele Eigenschaften gar nicht, die zur Intelligenz eines Menschen gehören. Die Fähigkeit zur Empathie zum Beispiel kann ein herkömmlicher Intelligenztest nicht erfassen. Auch musikalische Begabung wird, wenn überhaupt, nur sehr oberflächlich ermittelt.So bleibt es dabei, dass diejenigen Intelligenztests, die in Deutschland und vielen anderen Ländern der westlichen Welt genutzt werden, sich in der Regel darauf beschränken, analytisches und logisches Denken, die Auffassungsgabe, das räumliche Vorstellungsvermögen und immerhin zum Teil auch die Sprachbeherrschung testen.Erste Tests mit KindernAuf der Grundlage dieser Ergebnisse wird der Intelligenzquotient einer Person bestimmt. Nämlich indem man zunächst das sogenannte Intelligenzalter bestimmt. Dieser Begriff geht zurück auf den französischen Psychologen Alfred Binet und seinen Kollegen, den Arzt Théodore Simon. Beide entwickelten Anfang des 20. Jahrhunderts Aufgaben, die dazu dienen sollten, einen eventuellen Förderbedarf von Kindern zu ermitteln.Zu Beginn war der IQ-Test also nicht dazu gedacht, besonders herausstechende Begabung auszufiltern, sondern, im Gegenteil, Kinder zu identifizieren, die besonders gefördert werden müssten. Mit den Testaufgaben, die die beiden Forscher entwickelten, wurde das Intelligenzalter der Kinder bestimmt, indem die Forscher die Aufgaben nach Schwierigkeitsgrad geordnet haben. Besonders einfache Aufgaben mit einem niedrigen Schwierigkeitsgrad können schon von jungen Kindern gelöst werden, für schwierigere Aufgaben ist es dagegen besser, wenn die Kinder älter sind und ein größeres Verständnis von der Welt und ihren Zusammenhängen haben.Abhängig davon, wie gut die Kinder die verschiedenen Tests lösten, teilten sie die Wissenschaftler verschiedenen Altersklassen zu. Den Intelligenzquotienten errechneten sie jedoch noch nicht.Nach dem Tod von Binet machte das ein anderer Wissenschaftler, der US-amerikanische Psychologe Lewis Terman von der Stanford University. Er ergänzte Aufgaben und entwickelte den bestehenden Test weiter. Zusätzlich dazu lieferte er die Formel mit, anhand derer man den Quotienten errechnen konnte. Den Intelligenzquotienten errechnete er, indem er das Intelligenzalter, also wie gut die Person Aufgaben lösen konnte, die im Prinzip noch zu schwierig waren, durch das biologische Alter mal 100 teilte.Der Intelligenzquotient heuteHeute ist der Intelligenzquotient der Goldstandard, wenn man die Intelligenz eines Menschen bewerten möchte. Die Vorgehensweise, um den Quotienten zu bestimmen, ist der ursprünglichen Herangehensweise immer noch sehr ähnlich: Je mehr Aufgaben die Testperson korrekt löst, umso mehr Punkte bekommt sie und umso höher ist der Intelligenzquotient, den sie im Intelligenztests erzielt.Testpersonen, die einen Wert erzielen, der um 100 IQ-Punkte liegt, gelten als durchschnittlich intelligent. Dabei sollte man beachten, dass der Intelligenzquotient in Form der Gaußschen Glockenkurve verteilt ist. Bedeutet: Ein durchschnittlicher IQ ist kein Grund, sich zu schämen, sondern statistisch betrachtet sehr wahrscheinlich. Eben deshalb, weil die überwiegende Mehrzahl in einem Bereich zwischen 85 und 115 liegt.Als hochbegabt gelten Personen, die einen IQ von mehr als 130 haben. Und das ist eine recht kleine Zahl: Nur 2 bis 2,5 Prozent der Menschen erreichen diesen Wert bei einem Intelligenztest.Intelligenz testen ohne Test: Achten Sie auf diese AnzeichenSie haben keine Lust oder keine Zeit, einen Intelligenztest zu absolvieren, möchten aber trotzdem einen Eindruck davon bekommen, ob Sie zu den eher durchschnittlich intelligenten Personen gehören oder vielleicht doch hochbegabt sind?Dann sollten Sie darauf achten, ob Sie folgende Anzeichen bei Ihnen erkennen. Die Indizien können natürlich auch dazu dienen, Ihren Eindruck zu überprüfen, ob Ihr Kollege oder Nachbar eher durchschnittlich intelligent ist oder sich vielleicht so eigenartig verhält, weil er hochbegabt ist. Können Sie folgende Anzeichen ausmachen?1. Ein guter Zuhörer sein: Personen, die besonders intelligent sind, scheinen diese Eigenschaft zu teilen: Sie können gut zuhören. Das lässt sich damit begründen, dass Personen mit einer überdurchschnittlichen Intelligenz in der Regel an vielen verschiedenen Dingen interessiert sind. Da sie einen großen Wissensdurst haben, sind sie froh über eine Menge Input. Und den bekommen sie am besten, wenn sie konzentriert ihren Mitmenschen zuhören. Denn die haben hin und wieder etwas Spannendes zu erzählen.2. Zum Chaos neigen: “Ordnung ist nur etwas für Primitive, das Genie beherrscht das Chaos.” Ob Albert Einstein, dem dieses Zitat in unterschiedlichen Varianten zugeschrieben wird, damit jedoch meinte, dass besonders intelligente Personen dadurch hervorstechen, dass sie einen überaus unaufgeräumten Schreibtisch haben, sei dahingestellt. Es scheint jedoch Hinweise darauf zu geben, dass Personen mit einem hohen IQ von einer chaotischen, man könnte auch sagen, kreativ angeordneten Umgebung profitieren. Denn die gibt ihnen eine ganze Menge Input oder Anregungen, um auf neue Ideen zu kommen.3. Ohne die Gesellschaft anderer auskommen: Personen mit einem höheren Intelligenzquotienten als der Durchschnitt haben häufig kein gesteigertes Interesse daran, sich mit anderen Menschen zu treffen. Sie kommen auch gut damit zurecht, Zeit allein zu verbringen und ihren Gedanken nachzuhängen oder sich denjenigen Dingen zu widmen, die sie gerade besonders interessieren. Dieses Verhalten kann dazu führen, dass besonders intelligente Menschen zu Eigenbrötlern ohne oder mit nur wenig Sozialkontakten werden.4. Eine hohe Anpassungsfähigkeit besitzen: Wer eingangs aufgepasst hat, den wird dieses Anzeichen nun nicht überraschen: Personen, die überdurchschnittlich schlau sind, gelingt es recht einfach und schnell, sich an geänderte Gegebenheiten anzupassen. Übrigens können Hochbegabte nicht nur schnell auf Situationen reagieren, die ihnen fremd sind oder zügig unbekannte Probleme lösen. Ein hoher IQ scheint außerdem einen positiven Einfluss auf die Reaktionsgeschwindigkeit im Allgemeinen zu haben.5. Sich selten zufrieden geben: Besonders intelligente Menschen sind äußerst selbstkritisch. Sie betrachten die Ergebnisse ihrer Arbeit recht objektiv und sehen daher an vielen Stellen Verbesserungspotenzial. Gerade bei der Teamarbeit kann dieser Drang zur Optimierung Konfliktpotenzial bedeuten. Denn höchstwahrscheinlich sind die übrigen Kollegen im Team nicht so intelligent und/oder sehen die Notwendigkeit überhaupt nicht, etwas am Ergebnis zu verbessern.Aber auch dann, wenn die hochintelligente Person allein arbeitet, ist das keine Garantie dafür, dass das Ergebnis optimal sein wird oder bis zur Perfektion optimiert werden kann. Personen, die einen Hang zur Selbstkritik haben, laufen Gefahr, schneller an Depressionen zu erkranken. Sie schaffen es in vielen Fällen einfach nicht, die hohen, selbstgesteckten Ziele zu erreichen.Lesen Sie auch: Wie Sie im Berufsalltag schlau rüberkommen 

IQ-Test: Was Intelligenztests können​ Die meisten Intelligenztests beschränken sich darauf, logisches und analytisches Wissen zu testen, obwohl man sich einig ist, dass dazu viel mehr gehört.
Foto: New Africa – shutterstock.comDas Wort Intelligenz stammt aus dem Lateinischen, genauer, von dem Verb intellegere (dt. erkennen, verstehen, einsehen). Wer intelligent ist, der hat die Fähigkeit, Dinge schnell einzusehen oder zu verstehen – auf diesen Versuch einer Definition kann man sich wohl verständigen.Eine Definition, auf die sich die Wissenschaft insgesamt geeinigt hat, gibt es von dem Begriff Intelligenz dagegen nicht. Worauf man sich in Fachkreisen jedoch verständigen konnte, ist, dass Personen, die man gemeinhin als intelligent ansieht, kognitiv (sehr) leistungsfähig sind.Intelligenz ist mehr als logisches DenkenWorin diese kognitive Leistungsfähigkeit aber genau besteht, darüber ist man sich noch nicht abschließend einig. Denn Intelligenz bedeutet eben nicht nur, dass Personen in der Lage sind, Zusammenhänge logisch zu erschließen oder Aufgaben aufgrund von vorhandenem Wissen möglichst kreativ zu lösen.

Ebenso scheint es für eine komplette Beschreibung von Intelligenz nicht ausreichend, dass die betreffende Person in der Lage ist, sich schnell in neuen Situationen zurechtzufinden und zügig auf eine Idee zu kommen, wie sich ein bisher unbekanntes Problem lösen lässt. Auch musikalische Begabung, ein Faible für Sprachen oder – nicht zu vergessen – Empathie, also die Fähigkeit, sich in andere Personen hineinzuversetzen, gehören zur Intelligenz dazu.Was misst ein IQ-Test?Nicht verwunderlich, dass es immer wieder Kritik an dem Intelligenztest gibt, denn ein solcher Test – jedenfalls die herkömmlichen – messen ganz viele Eigenschaften gar nicht, die zur Intelligenz eines Menschen gehören. Die Fähigkeit zur Empathie zum Beispiel kann ein herkömmlicher Intelligenztest nicht erfassen. Auch musikalische Begabung wird, wenn überhaupt, nur sehr oberflächlich ermittelt.So bleibt es dabei, dass diejenigen Intelligenztests, die in Deutschland und vielen anderen Ländern der westlichen Welt genutzt werden, sich in der Regel darauf beschränken, analytisches und logisches Denken, die Auffassungsgabe, das räumliche Vorstellungsvermögen und immerhin zum Teil auch die Sprachbeherrschung testen.Erste Tests mit KindernAuf der Grundlage dieser Ergebnisse wird der Intelligenzquotient einer Person bestimmt. Nämlich indem man zunächst das sogenannte Intelligenzalter bestimmt. Dieser Begriff geht zurück auf den französischen Psychologen Alfred Binet und seinen Kollegen, den Arzt Théodore Simon. Beide entwickelten Anfang des 20. Jahrhunderts Aufgaben, die dazu dienen sollten, einen eventuellen Förderbedarf von Kindern zu ermitteln.Zu Beginn war der IQ-Test also nicht dazu gedacht, besonders herausstechende Begabung auszufiltern, sondern, im Gegenteil, Kinder zu identifizieren, die besonders gefördert werden müssten.

Mit den Testaufgaben, die die beiden Forscher entwickelten, wurde das Intelligenzalter der Kinder bestimmt, indem die Forscher die Aufgaben nach Schwierigkeitsgrad geordnet haben. Besonders einfache Aufgaben mit einem niedrigen Schwierigkeitsgrad können schon von jungen Kindern gelöst werden, für schwierigere Aufgaben ist es dagegen besser, wenn die Kinder älter sind und ein größeres Verständnis von der Welt und ihren Zusammenhängen haben.Abhängig davon, wie gut die Kinder die verschiedenen Tests lösten, teilten sie die Wissenschaftler verschiedenen Altersklassen zu. Den Intelligenzquotienten errechneten sie jedoch noch nicht.Nach dem Tod von Binet machte das ein anderer Wissenschaftler, der US-amerikanische Psychologe Lewis Terman von der Stanford University. Er ergänzte Aufgaben und entwickelte den bestehenden Test weiter. Zusätzlich dazu lieferte er die Formel mit, anhand derer man den Quotienten errechnen konnte. Den Intelligenzquotienten errechnete er, indem er das Intelligenzalter, also wie gut die Person Aufgaben lösen konnte, die im Prinzip noch zu schwierig waren, durch das biologische Alter mal 100 teilte.Der Intelligenzquotient heuteHeute ist der Intelligenzquotient der Goldstandard, wenn man die Intelligenz eines Menschen bewerten möchte. Die Vorgehensweise, um den Quotienten zu bestimmen, ist der ursprünglichen Herangehensweise immer noch sehr ähnlich: Je mehr Aufgaben die Testperson korrekt löst, umso mehr Punkte bekommt sie und umso höher ist der Intelligenzquotient, den sie im Intelligenztests erzielt.Testpersonen, die einen Wert erzielen, der um 100 IQ-Punkte liegt, gelten als durchschnittlich intelligent. Dabei sollte man beachten, dass der Intelligenzquotient in Form der Gaußschen Glockenkurve verteilt ist. Bedeutet: Ein durchschnittlicher IQ ist kein Grund, sich zu schämen, sondern statistisch betrachtet sehr wahrscheinlich. Eben deshalb, weil die überwiegende Mehrzahl in einem Bereich zwischen 85 und 115 liegt.Als hochbegabt gelten Personen, die einen IQ von mehr als 130 haben. Und das ist eine recht kleine Zahl: Nur 2 bis 2,5 Prozent der Menschen erreichen diesen Wert bei einem Intelligenztest.Intelligenz testen ohne Test: Achten Sie auf diese AnzeichenSie haben keine Lust oder keine Zeit, einen Intelligenztest zu absolvieren, möchten aber trotzdem einen Eindruck davon bekommen, ob Sie zu den eher durchschnittlich intelligenten Personen gehören oder vielleicht doch hochbegabt sind?Dann sollten Sie darauf achten, ob Sie folgende Anzeichen bei Ihnen erkennen. Die Indizien können natürlich auch dazu dienen, Ihren Eindruck zu überprüfen, ob Ihr Kollege oder Nachbar eher durchschnittlich intelligent ist oder sich vielleicht so eigenartig verhält, weil er hochbegabt ist. Können Sie folgende Anzeichen ausmachen?1. Ein guter Zuhörer sein: Personen, die besonders intelligent sind, scheinen diese Eigenschaft zu teilen: Sie können gut zuhören. Das lässt sich damit begründen, dass Personen mit einer überdurchschnittlichen Intelligenz in der Regel an vielen verschiedenen Dingen interessiert sind. Da sie einen großen Wissensdurst haben, sind sie froh über eine Menge Input. Und den bekommen sie am besten, wenn sie konzentriert ihren Mitmenschen zuhören. Denn die haben hin und wieder etwas Spannendes zu erzählen.2. Zum Chaos neigen: “Ordnung ist nur etwas für Primitive, das Genie beherrscht das Chaos.” Ob Albert Einstein, dem dieses Zitat in unterschiedlichen Varianten zugeschrieben wird, damit jedoch meinte, dass besonders intelligente Personen dadurch hervorstechen, dass sie einen überaus unaufgeräumten Schreibtisch haben, sei dahingestellt. Es scheint jedoch Hinweise darauf zu geben, dass Personen mit einem hohen IQ von einer chaotischen, man könnte auch sagen, kreativ angeordneten Umgebung profitieren. Denn die gibt ihnen eine ganze Menge Input oder Anregungen, um auf neue Ideen zu kommen.3. Ohne die Gesellschaft anderer auskommen: Personen mit einem höheren Intelligenzquotienten als der Durchschnitt haben häufig kein gesteigertes Interesse daran, sich mit anderen Menschen zu treffen. Sie kommen auch gut damit zurecht, Zeit allein zu verbringen und ihren Gedanken nachzuhängen oder sich denjenigen Dingen zu widmen, die sie gerade besonders interessieren. Dieses Verhalten kann dazu führen, dass besonders intelligente Menschen zu Eigenbrötlern ohne oder mit nur wenig Sozialkontakten werden.4. Eine hohe Anpassungsfähigkeit besitzen: Wer eingangs aufgepasst hat, den wird dieses Anzeichen nun nicht überraschen: Personen, die überdurchschnittlich schlau sind, gelingt es recht einfach und schnell, sich an geänderte Gegebenheiten anzupassen. Übrigens können Hochbegabte nicht nur schnell auf Situationen reagieren, die ihnen fremd sind oder zügig unbekannte Probleme lösen. Ein hoher IQ scheint außerdem einen positiven Einfluss auf die Reaktionsgeschwindigkeit im Allgemeinen zu haben.5. Sich selten zufrieden geben: Besonders intelligente Menschen sind äußerst selbstkritisch. Sie betrachten die Ergebnisse ihrer Arbeit recht objektiv und sehen daher an vielen Stellen Verbesserungspotenzial. Gerade bei der Teamarbeit kann dieser Drang zur Optimierung Konfliktpotenzial bedeuten. Denn höchstwahrscheinlich sind die übrigen Kollegen im Team nicht so intelligent und/oder sehen die Notwendigkeit überhaupt nicht, etwas am Ergebnis zu verbessern.Aber auch dann, wenn die hochintelligente Person allein arbeitet, ist das keine Garantie dafür, dass das Ergebnis optimal sein wird oder bis zur Perfektion optimiert werden kann. Personen, die einen Hang zur Selbstkritik haben, laufen Gefahr, schneller an Depressionen zu erkranken. Sie schaffen es in vielen Fällen einfach nicht, die hohen, selbstgesteckten Ziele zu erreichen.Lesen Sie auch: Wie Sie im Berufsalltag schlau rüberkommen

IQ-Test: Was Intelligenztests können​ Weiterlesen »

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​

Allgemein

Im Employer Branding, Selektionsprozess und im Onboarding kann der Einsatz von Gamification besonders spannend sein. Foto: one photo – shutterstock.comUm sich im War for Talents von der Konkurrenz abzuheben, müssen Unternehmen kreativ werden. Gamification, also die Integration von spielerischen Elementen und -mechaniken in nicht-spielerische Kontexte, kann dabei einen wahren Gamechanger darstellen. Sie kann Aufmerksamkeit generieren, tiefere Erkenntnisse über die Kandidatinnen und Kandidaten liefern und die Motivation der Zielgruppe erhöhen. Dabei macht sie sich die menschliche Neigung, Herausforderungen anzunehmen und Belohnungen zu suchen, zu Nutze.Spielerische Elemente können an unterschiedlichen Punkten des Bewerbungsverfahrens verschiedene Zwecke erfüllen. Besonders spannend kann der Einsatz von Gamification im Employer Branding, im Selektionsprozess und im Onboarding sein.Gamification im Employer BrandingEin erster Firmenrundgang, den potenziellen Arbeitsplatz ansehen und die Arbeitsumgebung kennenlernen – und erst dann entscheiden, ob man sich auf eine Vakanz bewerben möchte oder nicht. Das kann der Einsatz von Virtual Reality – beispielsweise auf der Karriereseite oder in den sozialen Medien – ermöglichen. So kann die Arbeitgebermarke gestärkt werden: Zum einen, weil den potenziellen Bewerbenden schon vorab ein ausgewähltes Bild vom Unternehmen vermittelt werden kann und nicht zuletzt, weil es einen innovativen und kreativen Eindruck vermittelt. Im sogenannten Recruitainment können Online-Spiele zum Beispiel im Quiz-Format dazu eingesetzt werden, die Branche, das eigene Unternehmen und dessen Werte vorzustellen und greifbar zu machen. Die Kandidatinnen und Kandidaten können so vorab einschätzen, was sie in der Firma erwartet, vielleicht auch welche Fähigkeiten und Eigenschaften dafür erforderlich sind und ob sie sich mit der Firmenkultur identifizieren können. Für Unternehmen hat das den positiven Nebeneffekt der Vorselektion: Viele ungeeignete Bewerber werden schon vorab ausgesiebt, was den anschließenden Recruitingprozess schneller und effizienter gestaltet.Aber auch Social-Media-Challenges auf Instagram, TikTok und Co., bei denen die Nutzer selbst aktiv werden müssen, können wertvoll sein. Sie sorgen für eine vergrößerte Reichweite; außerdem kann der Wettbewerbsgedanke das Engagement und die Interaktionen der Zielgruppe mit dem eigenen Unternehmen erhöhen.Gamification im SelektionsprozessAber auch im Selektionsprozess hat sich Gamification als eine innovative und effektive Methode erwiesen. Verschiedene Elemente sollen die Kandidatinnen und Kandidaten herausfordern und ihre Eignung für die ausgeschriebene Position auf die Probe stellen. Gleichzeitig schaffen sie ein ansprechendes und motivierendes Setting. Eine beliebte Herangehensweise stellen beispielsweise Simulationen dar, in denen die Bewerbenden ihr Können in bestimmten Bereichen wie Problemlösung, Entscheidungsfindung oder strategischem Denken beweisen können.Sogenannte “Serious Games” zielen darauf ab, die Fähigkeiten und Kompetenzen der Kandidatinnen und Kandidaten zu bewerten. Diese Spiele können interaktive Elemente wie zum Beispiel Quizze oder Multiple-Choice-Fragen enthalten, die die Bewerbenden auf unterschiedliche Weise herausfordern. In Gruppensituationen bieten sich Rollen- oder Teamwork-Spiele sowie Gemeinschaftsaufgaben an.Gamification im OnboardingGamification kann auch auf kreative Weise in den Onboarding-Prozess integriert werden, um neue Mitarbeitende auf eine ansprechende und unterhaltsame Weise in die Unternehmensstrukturen einzuführen. Hierfür eignen sich Onboarding-Spiele, die eine intuitive Navigation durch das Unternehmen ermöglichen: Mithilfe von interaktiven Elementen wie Quizfragen, Rätseln oder Schatzsuchen können die Neulinge spielerisch in die neue Arbeitsumgebung eintauchen.Gamifiziertes Lernen durch interaktive Videos oder realitätsnahe Simulationen vermitteln den neuen Talenten notwendiges Wissen und Fähigkeiten. Und auch das Engagement der Mitarbeitenden lässt sich durch Gamification steigern: Anreize wie Belohnungen oder Punkte, die die Angestellten für erfolgreich abgeschlossene Aufgaben oder herausragende Leistungen verliehen werden, können dazu beitragen, dass diese sich stärker mit dem Unternehmen identifizieren und mit erhöhter Motivation an ihren Aufgaben arbeiten.Nicht zuletzt können Unternehmen – beispielsweise bei Remote besetzten Stellen – auch auf virtuelle Realität setzen, um das Onboarding noch interaktiver und interessanter zu gestalten. Mit virtuellen Touren durch die Arbeitsumgebungen lernen neue Mitarbeitende von zu Hause aus sowohl das restliche Team als auch die Unternehmenskultur kennen, was zu einem tieferen Verständnis und einer rascheren Integration führt.Gamification muss zur Firmenkultur passenObwohl Gamification im Recruiting zweifellos innovative und kreative Möglichkeiten bietet, gibt es Situationen, in denen es ratsam sein kann, auf diesen Ansatz zu verzichten. Zuerst und vor allem sollten Arbeitgeber sie nicht nur aus Gründen des Trends oder der Unterhaltung einsetzen. Stattdessen müssen die gamifizierten Elemente zur Stellenanforderung passen und einen wirklichen Mehrwert für den Bewerbungsprozess bieten. Auch sollten Unternehmen sicherstellen, dass die gewählten Methoden sowohl mit der Unternehmenskultur als auch mit seinen Werten im Einklang stehen.Nicht alle Bewerbenden sprechen gleichermaßen auf gamifizierte Ansätze an. Einige könnten sich von einer zu starken Betonung auf spielerische Elemente sogar abgeschreckt fühlen, da ihnen die Ernsthaftigkeit des Bewerbungsprozesses fehlt. Deshalb sollten Unternehmen Gamification in Maßen einsetzen. Außerdem ist das Thema Chancengleichheit unbedingt zu beachten. Alle Maßnahmen müssen fair und für alle Bewerbenden gleichermaßen zugänglich sein. Hierbei geht es sowohl um den Zugang zu Technologie als auch um Sprachkenntnisse, denn Firmen dürfen keinen Kandidaten aufgrund dieser Faktoren benachteiligen.Lesen Sie auchKI im RecruitingVideo Recruiting: So sprechen Sie Bewerber visuell anTeam-Branding – die neue Recruiting-Wunderwaffe? 

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​ Im Employer Branding, Selektionsprozess und im Onboarding kann der Einsatz von Gamification besonders spannend sein.
Foto: one photo – shutterstock.comUm sich im War for Talents von der Konkurrenz abzuheben, müssen Unternehmen kreativ werden. Gamification, also die Integration von spielerischen Elementen und -mechaniken in nicht-spielerische Kontexte, kann dabei einen wahren Gamechanger darstellen. Sie kann Aufmerksamkeit generieren, tiefere Erkenntnisse über die Kandidatinnen und Kandidaten liefern und die Motivation der Zielgruppe erhöhen. Dabei macht sie sich die menschliche Neigung, Herausforderungen anzunehmen und Belohnungen zu suchen, zu Nutze.Spielerische Elemente können an unterschiedlichen Punkten des Bewerbungsverfahrens verschiedene Zwecke erfüllen. Besonders spannend kann der Einsatz von Gamification im Employer Branding, im Selektionsprozess und im Onboarding sein.Gamification im Employer BrandingEin erster Firmenrundgang, den potenziellen Arbeitsplatz ansehen und die Arbeitsumgebung kennenlernen – und erst dann entscheiden, ob man sich auf eine Vakanz bewerben möchte oder nicht. Das kann der Einsatz von Virtual Reality – beispielsweise auf der Karriereseite oder in den sozialen Medien – ermöglichen. So kann die Arbeitgebermarke gestärkt werden: Zum einen, weil den potenziellen Bewerbenden schon vorab ein ausgewähltes Bild vom Unternehmen vermittelt werden kann und nicht zuletzt, weil es einen innovativen und kreativen Eindruck vermittelt.

Im sogenannten Recruitainment können Online-Spiele zum Beispiel im Quiz-Format dazu eingesetzt werden, die Branche, das eigene Unternehmen und dessen Werte vorzustellen und greifbar zu machen. Die Kandidatinnen und Kandidaten können so vorab einschätzen, was sie in der Firma erwartet, vielleicht auch welche Fähigkeiten und Eigenschaften dafür erforderlich sind und ob sie sich mit der Firmenkultur identifizieren können. Für Unternehmen hat das den positiven Nebeneffekt der Vorselektion: Viele ungeeignete Bewerber werden schon vorab ausgesiebt, was den anschließenden Recruitingprozess schneller und effizienter gestaltet.Aber auch Social-Media-Challenges auf Instagram, TikTok und Co., bei denen die Nutzer selbst aktiv werden müssen, können wertvoll sein. Sie sorgen für eine vergrößerte Reichweite; außerdem kann der Wettbewerbsgedanke das Engagement und die Interaktionen der Zielgruppe mit dem eigenen Unternehmen erhöhen.Gamification im SelektionsprozessAber auch im Selektionsprozess hat sich Gamification als eine innovative und effektive Methode erwiesen. Verschiedene Elemente sollen die Kandidatinnen und Kandidaten herausfordern und ihre Eignung für die ausgeschriebene Position auf die Probe stellen. Gleichzeitig schaffen sie ein ansprechendes und motivierendes Setting. Eine beliebte Herangehensweise stellen beispielsweise Simulationen dar, in denen die Bewerbenden ihr Können in bestimmten Bereichen wie Problemlösung, Entscheidungsfindung oder strategischem Denken beweisen können.Sogenannte “Serious Games” zielen darauf ab, die Fähigkeiten und Kompetenzen der Kandidatinnen und Kandidaten zu bewerten. Diese Spiele können interaktive Elemente wie zum Beispiel Quizze oder Multiple-Choice-Fragen enthalten, die die Bewerbenden auf unterschiedliche Weise herausfordern. In Gruppensituationen bieten sich Rollen- oder Teamwork-Spiele sowie Gemeinschaftsaufgaben an.Gamification im OnboardingGamification kann auch auf kreative Weise in den Onboarding-Prozess integriert werden, um neue Mitarbeitende auf eine ansprechende und unterhaltsame Weise in die Unternehmensstrukturen einzuführen. Hierfür eignen sich Onboarding-Spiele, die eine intuitive Navigation durch das Unternehmen ermöglichen: Mithilfe von interaktiven Elementen wie Quizfragen, Rätseln oder Schatzsuchen können die Neulinge spielerisch in die neue Arbeitsumgebung eintauchen.Gamifiziertes Lernen durch interaktive Videos oder realitätsnahe Simulationen vermitteln den neuen Talenten notwendiges Wissen und Fähigkeiten. Und auch das Engagement der Mitarbeitenden lässt sich durch Gamification steigern: Anreize wie Belohnungen oder Punkte, die die Angestellten für erfolgreich abgeschlossene Aufgaben oder herausragende Leistungen verliehen werden, können dazu beitragen, dass diese sich stärker mit dem Unternehmen identifizieren und mit erhöhter Motivation an ihren Aufgaben arbeiten.Nicht zuletzt können Unternehmen – beispielsweise bei Remote besetzten Stellen – auch auf virtuelle Realität setzen, um das Onboarding noch interaktiver und interessanter zu gestalten. Mit virtuellen Touren durch die Arbeitsumgebungen lernen neue Mitarbeitende von zu Hause aus sowohl das restliche Team als auch die Unternehmenskultur kennen, was zu einem tieferen Verständnis und einer rascheren Integration führt.Gamification muss zur Firmenkultur passenObwohl Gamification im Recruiting zweifellos innovative und kreative Möglichkeiten bietet, gibt es Situationen, in denen es ratsam sein kann, auf diesen Ansatz zu verzichten. Zuerst und vor allem sollten Arbeitgeber sie nicht nur aus Gründen des Trends oder der Unterhaltung einsetzen. Stattdessen müssen die gamifizierten Elemente zur Stellenanforderung passen und einen wirklichen Mehrwert für den Bewerbungsprozess bieten. Auch sollten Unternehmen sicherstellen, dass die gewählten Methoden sowohl mit der Unternehmenskultur als auch mit seinen Werten im Einklang stehen.Nicht alle Bewerbenden sprechen gleichermaßen auf gamifizierte Ansätze an. Einige könnten sich von einer zu starken Betonung auf spielerische Elemente sogar abgeschreckt fühlen, da ihnen die Ernsthaftigkeit des Bewerbungsprozesses fehlt. Deshalb sollten Unternehmen Gamification in Maßen einsetzen. Außerdem ist das Thema Chancengleichheit unbedingt zu beachten. Alle Maßnahmen müssen fair und für alle Bewerbenden gleichermaßen zugänglich sein. Hierbei geht es sowohl um den Zugang zu Technologie als auch um Sprachkenntnisse, denn Firmen dürfen keinen Kandidaten aufgrund dieser Faktoren benachteiligen.Lesen Sie auchKI im RecruitingVideo Recruiting: So sprechen Sie Bewerber visuell anTeam-Branding – die neue Recruiting-Wunderwaffe?

Spielerisch zum Top-Talent: Wie Sie Gamification im Recruiting einsetzen​ Weiterlesen »

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​

Allgemein

Allmy/Shutterstock.com Mit der Whatsapp Business API ist das zeitversetzte Versenden von Nachrichten kein Problem. Für den privaten Gebrauch hat Whatsapp diese praktische Funktion jedoch nicht vorgesehen und daher bisher auch nicht integriert. Wir zeigen, wie Sie trotzdem Whatsapp-Nachrichten erstellen und zeitversetzt verschicken. Für Android, iOS und Whatsapp Web. Android: Whatsapp-Nachrichten zeitversetzt senden mit der AutoResponder-App Die Android-App „AutoResponder für WhatsApp“ dient, wie ihr Name schon sagt, in erster Linie dem automatisierten Antworten auf Nachrichten (im Apple App-Store gibt es diese App nicht). Für die meisten Anwender reichen die Funktionen der kostenlosen Version aus. Bedenken Sie jedoch, dass sich die kostenlose Version über Werbung finanziert. Nach der Installation von AutoResponder kann Whatsapp wahlweise alle Nachrichten oder nur Nachrichten von bestimmten Kontakten automatisch beantworten. Dazu können Sie Regeln definieren und Texte vorgeben. Damit das funktioniert, müssen Sie der App aber die Berechtigungen geben, die Whatsapp-Nachrichten lesen zu dürfen, die Sie erhalten. Auch das Senden von Nachrichten über Whatsapp müssen Sie zunächst erlauben. Wer Datenschutzbedenken hat, sollte sich den Einsatz der App natürlich überlegen. IDG Alternative: SKEDit Scheduling App für Android Eine weitere bekannte Android-App für das zeitversetzte Senden von Whatsapp-Nachrichten ist „SKEDit Scheduling“. Allerdings mit zwei Nachteilen: Erstens erfolgt die Steuerung der App in englischer Sprache. Zweitens ist die App nicht besonders zuverlässig, was das tatsächliche Versenden der Nachricht betrifft. Zudem lassen sich Nachrichten nur zeitversetzt versenden, wenn zum Zeitpunkt des Sendevorgangs der Bildschirm entsperrt ist. Zwar können Sie dieses Problem mit der Option “Ask me before sending” umgehen (auf Deutsch: Frag mich vor dem Senden), doch dann müssen Sie aktiv bestätigen, dass die Nachricht gesendet werden soll. Planen von Whatsapp-Nachrichten mit Shortcuts für iOS Seit iOS 13 ist es möglich, verschiedene Aufgaben in iOS zu automatisieren. Diese Technik können Sie auch zum Versenden von zeitversetzten Whatsapp-Nachrichten nutzen. Dazu benötigen Sie die kostenlose Apple-App „Kurzbefehle“ aus dem App-Store auf Ihrem iPhone. Im Detail funktioniert das Ganze wie folgt: Navigieren Sie auf Ihrem iPhone zur Kurzbefehle-App und wählen Sie unten in der Mitte den “Automatisierung”-Tab. Tippen Sie auf “Persönliche Automatisierung erstellen” und im nächsten Schritt auf “Tageszeit”. Bestimmen Sie die Uhrzeit und das Datum für den Versand Ihrer Whatsapp-Nachrichten und drücken Sie auf “Weiter” in der Ecke oben rechts. Wählen Sie “Aktion hinzufügen”, gehen Sie dann zu “Apps” und suchen Sie sich Whatsapp heraus. Aus den angebotenen Optionen nehmen Sie “Nachricht senden”. Um Ihre Whatsapp-Nachrichten zu einer festgelegten Zeit zu senden, erfassen Sie die gewünschte Nachricht und wählen Sie den Empfänger aus. Nachdem Sie alles eingestellt haben, tippen Sie auf “Weiter” und abschließend auf “Fertig”, um Ihre Automatisierung zu sichern. Hinweis: Im Apple Store gibt es mittlerweile ein paar Apps, die die Möglichkeit versprechen, Whatsapp-Nachrichten zu timen und zu planen. Ein Blick auf die Bewertungen zeigt aber meistens, dass diese Apps nicht zuverlässig funktionieren. Daher würden wir weiterhin den Workaround empfehlen. Unsere Empfehlung: Nachrichten zeitversetzt senden in Whatsapp Web IDG Die einfachste und am leichtesten zu bedienende Lösung für zeitversetzte Whatsapp-Nachrichten ist die “Blueticks”-Erweiterung für Google Chrome, vorausgesetzt Sie nutzen Whatsapp auch im Browser. Die folgende Schritt-für-Schritt-Anleitung zeigt Ihnen, wie Sie vorgehen müssen: Besuchen Sie den Chrome Web Store in Ihrem Google Chrome Browser und rufen Sie die “Blueticks”-Erweiterung auf. Wählen Sie “Zu Chrome hinzufügen”. Nachdem “Blueticks” installiert wurde, gehen Sie zu Whatsapp Web in Ihrem Google Chrome Browser. Sollten Sie noch nicht eingeloggt sein, verwenden Sie die Whatsapp-App auf Ihrem Smartphone, um den QR-Code, der auf Ihrem Bildschirm angezeigt wird, zu scannen und sich somit bei Ihrem WhatsApp-Konto auf dem Computer einzuloggen. Einmal eingeloggt, suchen Sie sich den Kontakt (oder die Gruppe) heraus, an den Sie die geplante Nachricht senden wollen. Um zum “Whatsapp Nachrichtenplaner” zu gelangen, klicken Sie auf das Uhr-ähnliche Symbol, das sich neben der Mikrofon-Schaltfläche befindet. Tragen Sie Ihre Nachricht ein und wählen Sie das gewünschte Datum und die Uhrzeit für den Versand aus. Durch einen Klick auf “Schedule Send” wird Ihre Nachricht zur geplanten Zeit versendet. Hinweis: Bis zum Versandzeitpunkt erscheint die geplante Nachricht in blauer Farbe. Sie können jederzeit vor dem Versand die Nachricht oder den Zeitpunkt mit dem Stiftsymbol anpassen. (PC-Welt) 

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​ Allmy/Shutterstock.com

Mit der Whatsapp Business API ist das zeitversetzte Versenden von Nachrichten kein Problem. Für den privaten Gebrauch hat Whatsapp diese praktische Funktion jedoch nicht vorgesehen und daher bisher auch nicht integriert. Wir zeigen, wie Sie trotzdem Whatsapp-Nachrichten erstellen und zeitversetzt verschicken. Für Android, iOS und Whatsapp Web.

Android: Whatsapp-Nachrichten zeitversetzt senden mit der AutoResponder-App

Die Android-App „AutoResponder für WhatsApp“ dient, wie ihr Name schon sagt, in erster Linie dem automatisierten Antworten auf Nachrichten (im Apple App-Store gibt es diese App nicht). Für die meisten Anwender reichen die Funktionen der kostenlosen Version aus. Bedenken Sie jedoch, dass sich die kostenlose Version über Werbung finanziert.

Nach der Installation von AutoResponder kann Whatsapp wahlweise alle Nachrichten oder nur Nachrichten von bestimmten Kontakten automatisch beantworten. Dazu können Sie Regeln definieren und Texte vorgeben.

Damit das funktioniert, müssen Sie der App aber die Berechtigungen geben, die Whatsapp-Nachrichten lesen zu dürfen, die Sie erhalten. Auch das Senden von Nachrichten über Whatsapp müssen Sie zunächst erlauben. Wer Datenschutzbedenken hat, sollte sich den Einsatz der App natürlich überlegen.

IDG

Alternative: SKEDit Scheduling App für Android

Eine weitere bekannte Android-App für das zeitversetzte Senden von Whatsapp-Nachrichten ist „SKEDit Scheduling“. Allerdings mit zwei Nachteilen: Erstens erfolgt die Steuerung der App in englischer Sprache. Zweitens ist die App nicht besonders zuverlässig, was das tatsächliche Versenden der Nachricht betrifft.

Zudem lassen sich Nachrichten nur zeitversetzt versenden, wenn zum Zeitpunkt des Sendevorgangs der Bildschirm entsperrt ist. Zwar können Sie dieses Problem mit der Option “Ask me before sending” umgehen (auf Deutsch: Frag mich vor dem Senden), doch dann müssen Sie aktiv bestätigen, dass die Nachricht gesendet werden soll.

Planen von Whatsapp-Nachrichten mit Shortcuts für iOS

Seit iOS 13 ist es möglich, verschiedene Aufgaben in iOS zu automatisieren. Diese Technik können Sie auch zum Versenden von zeitversetzten Whatsapp-Nachrichten nutzen. Dazu benötigen Sie die kostenlose Apple-App „Kurzbefehle“ aus dem App-Store auf Ihrem iPhone. Im Detail funktioniert das Ganze wie folgt:

Navigieren Sie auf Ihrem iPhone zur Kurzbefehle-App und wählen Sie unten in der Mitte den “Automatisierung”-Tab.

Tippen Sie auf “Persönliche Automatisierung erstellen” und im nächsten Schritt auf “Tageszeit”.

Bestimmen Sie die Uhrzeit und das Datum für den Versand Ihrer Whatsapp-Nachrichten und drücken Sie auf “Weiter” in der Ecke oben rechts.

Wählen Sie “Aktion hinzufügen”, gehen Sie dann zu “Apps” und suchen Sie sich Whatsapp heraus. Aus den angebotenen Optionen nehmen Sie “Nachricht senden”.

Um Ihre Whatsapp-Nachrichten zu einer festgelegten Zeit zu senden, erfassen Sie die gewünschte Nachricht und wählen Sie den Empfänger aus. Nachdem Sie alles eingestellt haben, tippen Sie auf “Weiter” und abschließend auf “Fertig”, um Ihre Automatisierung zu sichern.

Hinweis: Im Apple Store gibt es mittlerweile ein paar Apps, die die Möglichkeit versprechen, Whatsapp-Nachrichten zu timen und zu planen. Ein Blick auf die Bewertungen zeigt aber meistens, dass diese Apps nicht zuverlässig funktionieren. Daher würden wir weiterhin den Workaround empfehlen.

Unsere Empfehlung: Nachrichten zeitversetzt senden in Whatsapp Web

IDG

Die einfachste und am leichtesten zu bedienende Lösung für zeitversetzte Whatsapp-Nachrichten ist die “Blueticks”-Erweiterung für Google Chrome, vorausgesetzt Sie nutzen Whatsapp auch im Browser. Die folgende Schritt-für-Schritt-Anleitung zeigt Ihnen, wie Sie vorgehen müssen:

Besuchen Sie den Chrome Web Store in Ihrem Google Chrome Browser und rufen Sie die “Blueticks”-Erweiterung auf.

Wählen Sie “Zu Chrome hinzufügen”.

Nachdem “Blueticks” installiert wurde, gehen Sie zu Whatsapp Web in Ihrem Google Chrome Browser.

Sollten Sie noch nicht eingeloggt sein, verwenden Sie die Whatsapp-App auf Ihrem Smartphone, um den QR-Code, der auf Ihrem Bildschirm angezeigt wird, zu scannen und sich somit bei Ihrem WhatsApp-Konto auf dem Computer einzuloggen.

Einmal eingeloggt, suchen Sie sich den Kontakt (oder die Gruppe) heraus, an den Sie die geplante Nachricht senden wollen.

Um zum “Whatsapp Nachrichtenplaner” zu gelangen, klicken Sie auf das Uhr-ähnliche Symbol, das sich neben der Mikrofon-Schaltfläche befindet.

Tragen Sie Ihre Nachricht ein und wählen Sie das gewünschte Datum und die Uhrzeit für den Versand aus.

Durch einen Klick auf “Schedule Send” wird Ihre Nachricht zur geplanten Zeit versendet.

Hinweis: Bis zum Versandzeitpunkt erscheint die geplante Nachricht in blauer Farbe. Sie können jederzeit vor dem Versand die Nachricht oder den Zeitpunkt mit dem Stiftsymbol anpassen.

(PC-Welt)

Whatsapp-Nachrichten zeitverzögert verschicken – so geht’s​ Weiterlesen »

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​

Allgemein

Michael Crider/Foundry Das Update auf Android 15 ist für viele Nutzer noch gar nicht passiert, und trotzdem gibt es bereits Gründe, sich auf Android 16 zu freuen. Diese Version soll bereits in wenigen Monaten veröffentlicht werden und wird einige Verbesserungen mit sich bringen, die wirklich spannend klingen. Neuen Informationen zufolge wird Google mithilfe von Android 16 die Geschwindigkeit bei der Installation von Apps drastisch erhöhen. Davon profitieren nicht nur neue, leistungsstarke Geräte, wie die hauseigene Google Pixel 9 Reihe oder das Samsung Galaxy S25, sondern auch ältere Smartphones. Denn dank eines Tricks hängt das Tempo nicht mehr von der verbauten Hardware ab. Mehr Tempo durch Cloud Möglich wird das durch die sogenannte Cloud Compilation. Laut Android Authority plant Google, diese neue Funktion in Android 16 einzubauen. Damit beschleunigt sich der Installationsprozess von Apps aus dem Google Play Store bald deutlich. Wie viel schneller das abläuft, hängt wohl vom jeweiligen Gerät und von der installierten App ab. Allerdings ist bereits jetzt absehbar, dass mit dieser Neuerung schwache Prozessoren kein Grund mehr dafür sein werden, dass Nutzer bei der Installation von Anwendungen ewig warten müssen. In der Regel basiert die Wartezeit nämlich auf der Android-Runtime, einer Laufzeitumgebung, die für die Ausführung von Anwendungen erforderlich ist. Bei der Installation von Apps arbeitet zudem ein Tool namens „Dex2oat“, das aus der App-APK und deren kompilierten Dateien eine Anwendung erzeugt, die vom Gerät geladen werden kann. Das kann bei älteren Smartphones aber bisweilen etwas länger dauern, vor allem, wenn die APK sehr viele Codezeilen enthält. Cloud-Compilation stellt eine Alternative hierzu dar, denn damit werden die auszuführenden Dateien nicht mehr direkt auf dem Gerät generiert (was Speicher und Prozessor beansprucht), sondern nur noch aus sogenannten SDM-Dateien bezogen, die direkt aus dem Google-Play-Store geladen werden. SDM ist dabei die Bezeichnung für ein neues Dateiformat, das eben auf Cloud-Kompilierung basiert. Die 10 besten Smartphones im Test (2025) Erst mit Android 16 verfügbar Google wird die Nutzung von Cloud Compilation und SDM-Dateien voraussichtlich erst mit dem Update auf Android 16 einführen. Auch in der Entwickler-Beta von Android 16 wird das Format aktuell noch nicht genutzt. Android 16: Erste Developer Preview ist da – das ist neu Laut Android Authority wird Google zunächst den Google Play Store so umbauen müssen, dass die neue Funktion auch zum Einsatz kommen kann, was ein potenziell sehr langwieriger Prozess ist. Außerdem könnte durch den Wechsel auf Cloud Compilation die Download-Menge bei der Installation von Apps stark erhöht werden, was etwa gegen die Installation von Anwendungen unterwegs über mobile Daten oder bei schwachen Verbindungen sprechen würde. In jedem Fall ist es aber spannend zu sehen, woran Google aktuell arbeitet und wie auch ältere Geräte von Android 16 profitieren könnten. Die neue Version erscheint voraussichtlich im Juni für erste Geräte, also für Google Pixel Smartphones, und später in diesem Jahr für alle anderen. (PC-Welt) 

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​ Michael Crider/Foundry

Das Update auf Android 15 ist für viele Nutzer noch gar nicht passiert, und trotzdem gibt es bereits Gründe, sich auf Android 16 zu freuen. Diese Version soll bereits in wenigen Monaten veröffentlicht werden und wird einige Verbesserungen mit sich bringen, die wirklich spannend klingen.

Neuen Informationen zufolge wird Google mithilfe von Android 16 die Geschwindigkeit bei der Installation von Apps drastisch erhöhen. Davon profitieren nicht nur neue, leistungsstarke Geräte, wie die hauseigene Google Pixel 9 Reihe oder das Samsung Galaxy S25, sondern auch ältere Smartphones. Denn dank eines Tricks hängt das Tempo nicht mehr von der verbauten Hardware ab.

Mehr Tempo durch Cloud

Möglich wird das durch die sogenannte Cloud Compilation. Laut Android Authority plant Google, diese neue Funktion in Android 16 einzubauen. Damit beschleunigt sich der Installationsprozess von Apps aus dem Google Play Store bald deutlich.

Wie viel schneller das abläuft, hängt wohl vom jeweiligen Gerät und von der installierten App ab. Allerdings ist bereits jetzt absehbar, dass mit dieser Neuerung schwache Prozessoren kein Grund mehr dafür sein werden, dass Nutzer bei der Installation von Anwendungen ewig warten müssen.

In der Regel basiert die Wartezeit nämlich auf der Android-Runtime, einer Laufzeitumgebung, die für die Ausführung von Anwendungen erforderlich ist. Bei der Installation von Apps arbeitet zudem ein Tool namens „Dex2oat“, das aus der App-APK und deren kompilierten Dateien eine Anwendung erzeugt, die vom Gerät geladen werden kann. Das kann bei älteren Smartphones aber bisweilen etwas länger dauern, vor allem, wenn die APK sehr viele Codezeilen enthält.

Cloud-Compilation stellt eine Alternative hierzu dar, denn damit werden die auszuführenden Dateien nicht mehr direkt auf dem Gerät generiert (was Speicher und Prozessor beansprucht), sondern nur noch aus sogenannten SDM-Dateien bezogen, die direkt aus dem Google-Play-Store geladen werden. SDM ist dabei die Bezeichnung für ein neues Dateiformat, das eben auf Cloud-Kompilierung basiert.

Die 10 besten Smartphones im Test (2025)

Erst mit Android 16 verfügbar

Google wird die Nutzung von Cloud Compilation und SDM-Dateien voraussichtlich erst mit dem Update auf Android 16 einführen. Auch in der Entwickler-Beta von Android 16 wird das Format aktuell noch nicht genutzt.

Android 16: Erste Developer Preview ist da – das ist neu

Laut Android Authority wird Google zunächst den Google Play Store so umbauen müssen, dass die neue Funktion auch zum Einsatz kommen kann, was ein potenziell sehr langwieriger Prozess ist. Außerdem könnte durch den Wechsel auf Cloud Compilation die Download-Menge bei der Installation von Apps stark erhöht werden, was etwa gegen die Installation von Anwendungen unterwegs über mobile Daten oder bei schwachen Verbindungen sprechen würde.

In jedem Fall ist es aber spannend zu sehen, woran Google aktuell arbeitet und wie auch ältere Geräte von Android 16 profitieren könnten. Die neue Version erscheint voraussichtlich im Juni für erste Geräte, also für Google Pixel Smartphones, und später in diesem Jahr für alle anderen.

(PC-Welt)

Android 16: Mit diesem Trick werden auch alte Geräte deutlich schneller​ Weiterlesen »

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​

Allgemein

Spielen ohne teure Hardware? Das versprechen zumindest die Anbieter von Cloud-Gaming-Plattformen. Foto: Anton27 – shutterstock.com Sie möchten die aktuellsten Spieletitel zocken, haben aber keinen High-End-Computer? Oder Sie wollen unterwegs mal ein Game auf dem Notebook spielen? Dann könnte das Abonnement eines Cloud-Gaming-Dienstes für Sie interessant sein. Mit Cloud-Gaming können Sie auch mit einer bescheidenen Computerausstattung die neuesten Spiele spielen. Was Sie neben einem Abo noch benötigen, haben wir in unserem Beitrag “Das brauchen Sie zum Spiele streamen” beschrieben. Doch welche Cloud-Gaming-Plattform eignet sich nun am besten für das Spielvergnügen. Gemeinsam mit den Kollegen unserer Schwesterpublikation PCWorld haben wir die Abo-Dienste von Nvidia, Microsoft, Sony und Amazon genauer unter die Lupe genommen. Update März 2025 Geforce Now mit Tagespässen Nachdem Nvidia im Dezember 2023 mit Kapazitätsengpässen zu kämpfen hatte, ist jetzt auch wieder eine Neuanmeldung für einen Gratis-Account möglich. Neu im Angebot sind auch zwei Tagespässe für Nutzer, die sich nicht längerfristig binden wollen. Mit dem “Performance Day” für 4,39 Euro kann der User 24 Stunden lang die Features eines Performance-Accounts nutzen. Analog zur Ultimate-Mitgliedschaft ist ein “Ultimate Day” für 8,79 Euro erhältlich. Er erlaubt den Zugriff auf RTX-480-Server. Microsoft Game Pass teurer Microsofts Xbox Game Pass Ultimate kostet mittlerweile 17,99 Euro pro Monat. Offiziell ist die Cloud-Gaming-Plattform noch immer im Beta-Stadium. Frühjahrsangebote Mit Frühlingsangeboten, die bis zu 90 Prozent Rabatt beinhalten, lockt derzeit Amazon Luna. Das Angebot gilt für ausgewählte Spiele von GOG und Ubisoft und ist zeitlich begrenzt. Zum Spielen ist ein Abonnement erforderlich, das separat erhältlich ist. Update Dezember 2023 Geforce – ein Opfer des eigenen Erfolgs? Wie unten zu lesen, ist Geforce Now in unseren Augen der beste Cloud-Gaming-Dienst. Dieser Meinung scheinen auch zahlreiche Gamer zu sein, denn Nvidia hat nach eigenen Angaben für einige Abo-Mitgliedschaften einen Aufnahmestopp verhängt. Stand Dezember 2023 ist eine Neuanmeldung für einen Gratis-Account derzeit nicht möglich. Bestehende Accounts sind davon laut Nvidia nicht betroffen. Ebenso ist derzeit das Buchen einer einmonatigen Priority- oder Ultimate-Mitgliedschaft nicht möglich. Hier erhält der Spieler in spe die Meldung “Ausverkauft. Wir fügen mehr Kapazität hinzu”. Priority- und Ultimate-Abos mit sechs Monaten Laufzeit können dagegen gebucht werden. Geforce Now – Bester Cloud-Gaming-Dienst Spieleauswahl bei Geforce Now. Foto: Screenshot Nvidia Wenn es um das beste Gesamterlebnis geht, dann ist GeForce Now von Nvidia unsere klare Empfehlung. Der Cloud-Dienst kann mit starker Rechenpower und Grafikleistung punkten. Zudem finden sich mehr als 1.500 unterstützte Spiele auf der Plattform. Gespielt werden kann im Browser oder per App. Ferner werden ausgewählte Smart TVs und Streaming-Devices unterstützt. RTX-4080-Power aus der Cloud Je nach gewählten Abo-Modell können die Games aus der Cloud mit einer Auflösung bis zu 4k bei bis zu 240 Frames per Second gespielt werden. Um diese Grafikleistung zu realisieren, verwendet Nvidia bislang in den Servern Grafikarten vom Typ Geforce RTX 4080. Mittlerweile hat der Konzern zahlreiche Rechner auf das leistungsfähigere Modell RTX 4080 aufgerüstet. Warteschlangen beim Gratis-Account Mit Grati-Account müssen Spieler bei Geforce Now mit langen Warteschlangen rechnen. Foto: Screenshot Nvidia In Europa betreibt Nvidia nach eigenen Angaben sechs Cloud-Gaming-Rechenzentren, so dass Latenzzeiten kein Thema sein sollten. Ein Wermutstropfen sind dagegen – zumindest beim kostenlosen Account “Gratis” – Warteschlangen. Waren wir im Rahmen der Gratis-Mitgliedschaft eingeloggt, befanden wir uns oft auf Position 100 der Warteliste oder schlechter. In der Praxis bedeutet dies dann Wartezeiten von rund zehn Minuten, bevor gespielt werden kann. Zu den Wartzeiten kommt beim Gratis-Account noch eine weitere Einschränkung hinzu: Eine Spiele-Session ist zeitlich auf eine Stunde begrenzt. Letztlich dürfte dieses Angebot höchstens Gelegenheitsspieler zufriedenstellen. Oder Sie nutzen es, um grundsätzlich zu testen, ob Gaming aus der Cloud für Sie in Farge kommt. Schnellere Zugriffszeiten ohne lange Warteschlange verspricht Nvidia im Rahmen einer “Performance“-Mitgliedschaft für 10,99 Euro im Monat. Zudem kann hier eine Session bis zu sechs Stunden dauern. Ferner wird eine Auflösung von bis zu 1440p offeriert, bei bis zu 60 Frames per second. Die Preise für Geforce Now. Foto: Geforce Now Maximale Leistung erhalten Bezieher des Ultimate-Abonnement für 21,99 Euro im Monat. Als Gegenwert verspricht Nvidia einen exklusiven Zugriff auf schnelle Server mit RTX-4080-Grafikarten. Diese Grafikpower ermöglicht Auflösungen von bis zu 4k mit 240 FPS. Spiele-Sessions dürfen bis zu acht Stunden dauern. Nvidia ist nur der Hoster Egal für welche Art der Mitgliedschaft Sie sich entscheiden, eine Besonderheit muss dem Spieler bei Geforce Now bewusst sein: Nividia tritt wirklich nur als reiner Plattform-Hoster auf und vermarktet keine Spiele selbst. Diese müssen in Games-Stores wie Steam, Ubisoft oder Epic Games Store gekauft werden, wozu wiederum ein eigener Account erforderlich. Die eigene Spiele-Bibliothek in diesen Shops kann wiederum direkt mit Geforce Now verknüpft werden. Die Verknüpfung hat zudem einen weiteren Vorteil. Bereits früher für den PC gekauft Spiele können ebenfalls mit Geforce Now genutzt werden, wenn Nvidia das Hosting unterstützt. Auf der anderen Seite können so auch Spiele, die eigentlich für das Cloud-Gaming gekauft wurden, nach Beendigung des Abos auch auf den PC heruntergeladen werden. Grafikqualität sticht Geforce Now wartet unter den Cloud-Gaming-Plattformen mit der besten Grafikqualität auf. Foto: Screenshot Nvidia Auch wenn viele der Spiele, die Sie mit diesem Dienst spielen können, erst gekauft werden müssen, bietet Geforce Now eine der besten Grafikqualitäten. Zudem ist die Kompatibilitätsliste für Spiele sehr umfangreich. Die Option der kostenlosen Mitgliedschaft erlaubt erst einmal ohne Verpflichtungen hineinzuschnuppern, um zumindest einige kostenlose Spiele wie Destiny 2 oder Fortnite auszuprobieren. Xbox Cloud Gaming – bestes Preis-Leistungs-Verhältnis Xbox Cloud Gaming. Foto: Screenshot Microsoft Darüber, welche der großen Spielemarken die beste Hardware herstellt, kann man sich sicherlich trefflich streiten. Allerdings interessiert die meisten Nutzer eher, welche Spiele sie wo und wann spielen können. Hier öffnet Xbox Cloud Gaming – derzeit offiziell noch im Beta-Stadium – die Türe zu über 350 Titeln aus der Cloud. Das Angebot reicht von Skyrim über Deep Rock Galactic und Boyfriend Dungeon bis hin zu Battlefield V. Es umfasst zudem Klassiker wie Age of Empires oder den Microsoft Flugsimulator. Große Auswahl Sieht man einmal von der Möglichkeit ab, Fortnite kostenlos spielen zu können, ist der Xbox Game Pass Ultimate die Eintrittskarte in die Welt des Cloud-Gaming. Für ihn verlangt Microsoft 17,99 Euro im Monat. Er ermöglicht den Zugriff auf die gesamte Xbox-Game-Pass-Spielesammlung, die sowohl beeindruckend ist als auch ständig erweitert wird. Controller erforderlich Die Eintrittskarte zum Cloud Gaming ist bei Microsoft der Xbox Game Pass Ultimate. Foto: Screenshot Microsoft Neben dem Game Pass benötigt der Spieler in spe noch einen Xbox-kompatiblen Spielecontroller. Die Cloud-Spiele sind nämlich in der Regel alle für die Nutzung mit Controller ausgelegt. Mit Tastatur oder Maus geht hier derzeit nichts. Das Spielen selbst kann via Browser oder App erfolgen. Unterstützt werden neben der Windows-, Apple- und Android-Welt auch ausgewählte Smart TVs. Noch unrunde Grafik Sieht man von diesem Manko ab, war die user experience insgesamt positiv. Die Spiele liefen ohne Ruckler oder sonstige Performance-Auffälligkeiten. Lediglich die Grafikqualität gibt Anlass zur Kritik. In der Regel setzen die Xbox-Cloud-Spiele einen Controller voraus. Foto: Screenshot Microsoft Zum einen störten teilweise Kompressionsartefakte, zum anderen reißt einen die Auflösung im Vergleich zur Geforce-Now-Plattform nicht vom Hocker. Zwar werden die Spiele laut Microsoft mit einer Auflösung von 1080p und 60 FPS gestreamt, doch wir hatten häufig den Eindruck eher vor einem 720p-Bild zu sitzen. Hier rächt sich eventuelle die zu starke Videokompression bei der Übertragung. Unter dem Strich läuft die Cloud-Plattform für eine Beta-Version sehr stabil. Wer also auf 4k-Auflösung verzichten kann und keine Spiele selbst kaufen will, findet mit Xbox Cloud Gaming eine interessante Alternative zu Geforce Now. Eine Kröte gibt es aber noch zu schlucken: Die Spielbibliothek ändert sich ständig. Das garantiert zwar Abwechslung, aber lieb gewonnene Spiele können von heute auf morgen aus dem Angebot verschwinden. Amazon Luna – Spielen in der Nische Amazon Luna. Foto: Screenshot Amazon Amazon Luna ist die hierzulande eher unbekannte Cloud-Spiele-Plattform des Versandhändlers. Während Amazon auf seinem Marketplace für andere eigene Produkte wie echo-Devices, Fire-TV, Kindle-Reader oder seine Fire-Tablets kräftig die Werbetrommel rührt, fristet die Gaming-Plattform Luna ihr Dasein eher im Verborgenen. Wer direkt in die Plattform einsteigen will, kann dies mit der URL https://luna.amazon.de tun. Alternativ lässt sich Cloud-Plattform auch über den deutschen Marketplace mit der Suchoption “Alle Kategorien” mit dem Suchbegriff “Luna” finden. Broswer und App Spielen im Browser bei Amazon Luna. Foto: Screenshot Amazon Gespielt werden kann im Browser auf Windows-PCs, Macs, Chromebooks und Android-Smartphones, sowie mit dem Safari-Browser auf iPhones und iPads. Für PCs und Macs gibt es zudem ein Luna-App zum Herunterladen. Mit Hilfe der App Amazon Luna lässt sich auf der Cloud-Gaming-Plattform auch auf Fire-TV-Devices sowie Fire-Tablets spielen. Offiziell gibt Amazon zwar an, dass sich Luna auch mit Tastatur und Maus spielen lässt. Unsere Erfahrungen zeigten jedoch, dass dies nur bei wenigen Spielen der Fall ist und ansonsten eine Spiele-Controller erforderlich ist. Virtuelle Controller Wer keinen Controller hat, kann bei Amazon Luna das Smartphone als virtuellen Controller nutzen. Foto: Screenshot Amazon Wer jetzt nicht gleich zig Euro in einen entsprechenden Controller (eine Liste kompatibler Controller ist hier zu finden) investieren will, kann sich auch mit einem virtuellen Controller behelfen. Ein App macht dabei aus dem Mobiltelefon einen Luna-Smartphone-Controller. Die entsprechende App ist in Google Play (Luna-Controller) und im Apple App Store zu finden. Bei unseren Versuchen ließ sich ein Android Smartphone so problemlos als Controller nutzen. Allerdings kommt trotz haptischen Feedbacks mit dem virtuellen Controller nicht das gleiche Spiel-Feeling auf wie mit einem richtigen Controller. Doch für erste Gehversuche auf der Luna-Plattform genügt dies allemal. Spielauswahl Die Plattform selbst bietet eine Auswahl an Retro- und familienfreundlichen Spielen. Wer also in Nostalgie eintauchen will oder mit der Familie spielen möchte, wird hier fündig. Wer dagegen eher aktuelle Spiele sucht, dürfte von Luna eher enttäuscht sein. Ohne weitere Abos abzuschließen, können Amazon-Prime-Mitglieder zwischen fünf Spielen auswählen. Dabei wechselt Amazon nach eigenen Angaben das Angebot regelmäßig. Darüber hinaus offeriert Amazon in Deutschland noch die Spielekanäle Luna+, Jackbox Games sowie Ubisoft+. Die einzelnen Channel Die Preise für die Spiele-Channel bei Amazon Luna. Foto: Screenshot Amazon Für Luna+ berechnet Amazon im Monat 9,99 Euro. Dafür erhält der Abonnent Zugriff auf eine Sammlung an Spielen aus Genres wie Actionspiele, Adventures, Indie-Spiele, Shooter, Rennspiele, und Spieleklassiker. Zum Zeitpunkt der Recherche umfasste der Kanal etwas über 100 Spiele. Jackbox Games umfasst für monatlich 4,99 Euro elf Boxen mit Partyspielen. Jede Box erhält dabei mehrere einfache Spiele. Dies können sowohl lokal vor Ort als auch online gespielt werden. Allerdings ist ein Großteil der Spiele in Englisch. Deutlich teurer ist dagegen der Ubisoft+-Kanal. Es kostet 17,99 Euro im Monat. Dafür erhält der Spieler den Zugriff auf knapp über 40 Ubisoft-Spiele. Darunter sind Titel wie Far Cry, Assassin’s Creed, Uno, Die Siedler, Watchdogs, Trackmania oder Monopoly. Andere Konten einbinden Wie andere Cloud-Gaming-Plattformen bietet auch Luna die Möglichkeit, andere Konten einzubinden, um bereits vorhandene Spiele via Cloud zu zocken. Unterstützt werden die Angebote von EPIC Games und Ubisoft. Darüber hinaus besteht die Option, ein Twitch- oder Discord-Konto mit Luna zu verknüpfen. User expierence In Sachen user expierence muss sich Amazon Luna vor Geforce Now und Xbox Cloud Gaming nicht verstecken, auch wenn die Plattform in Sachen Grafikleistung gerade mit Geforce Now nicht mithalten kann. An der Bedienung selbst gibt es nichts zu kritisieren – sie ist weitestgehend intuitiv und störende Ruckler oder Aussetzer konnten wir auch nicht feststellen. Das größte Manko der Luna-Gaming-Plattform ist in unseren Augen schlicht die Spieleauswahl. Die wäre uns keinen Cent wert. Aber zum Glück sind ja Geschmäcker verschieden. Playstation Plus – Aufsteiger mit Macken Startbildschirm der App PlayStation Plus. Foto: Screenshot PlayStation Plus Premium-Preise erwarten den Gamer bei unserem vierten Cloud-Gaming-Anbieter. Selbst wer nur mal kurz schnuppern will kommt bei Sony um einen Monatsbeitrag von 16,99 Euro für das Premium-Abo nicht herum. Damit ist der Einstieg in das Cloud Gaming bei Sony am teuersten. PlayStation Plus für den PC ist Sonys Nachfolger des inzwischen eingestellten PlayStation-Now-Dienstes. Zwar offeriert auch Sony mit Essential, Extra und Premium drei verschiedene Abo-Varianten, doch das Zocken in der Cloud ist nur mit der teuren Premium-Variante möglich. App erforderlich PlayStation Plus wartet mit einem breiten Fundus an Spielen auf. Foto: Screenshot PlayStation Plus Negativ fällt zudem auf, dass PC-Spieler extra die PlayStation-Plus-App benötigen. Spielen im Browser, wie bei den anderen Plattformen, ist nicht möglich. Hier merkt man, dass sich das Sony-Angebot primär an die Besitzer einer Playstation-Konsole richtet. Im Gegenzug erhalten die Premium- und Extra-Mitglieder Zugriff auf eine große Bibliothek an PS4- und PS5-Spielen. Zudem beinhaltet das Abo eine kuratierte Auswahl an Ubisoft+-Classics-Spielen beinhaltet. Gefühlte Beta-Version All dies kann aber nicht darüber hinwegtäuschen, dass in den Augen unsere PCWorld-Kollegen das Benutzererlebnis und die App-Benutzeroberfläche komplett überarbeitet werden müssen. Im Gegensatz zu Xbox Cloud Gaming benötige PlayStation Plus auf dem PC noch viel Feinschliff, wenn es darum geht, einen soliden PC-Dienst und eine solide Anwendung, von der Benutzeroberfläche bis zur Verbindungsstabilität anzubieten. So habe man leider immer wieder das Gefühl, dass sich der Service in der Beta-Phase befinde. Ohne stabiles, performantes Internet macht das Cloud Gaming wenig Spaß. Foto: Screenshot Nvidia Sollte es Sony gelingen, diese Probleme zu überwinden, dann hätte der Cloud-Dienst viel zu bieten. PlayStation-Besitzer, die bereits Premium-Mitglieder sind, sollten dagegen die PC-App auf jeden Fall ausprobieren. Fazit Unter dem Strich haben uns von den vier Cloud-Gaming-Plattformen zum Streamen Nvidia Geforce Now sowie Xbox Cloud Gaming am meisten zugesagt. An Geforce Now gefiel uns die möglich Grafik-Performance, die aus der Cloud geliefert wird, sowie die Möglichkeit zahlreiche bereits gekaufte Spiele auch unterwegs via Cloud nutzen zu können. Xbox Cloud konnte dagegen durch seine umfassende Spieleauswahl aus der Xbox-Game-Pass-Collection punkten. Dafür wären wir auch bereit, die teilweise störenden Kompressionsartefakte zu akzeptieren. In Sachen Usability gibt es auch an Amazon Luna nichts zu kritisieren, doch wir konnten uns mit dem Spieleangebot schlicht nicht anfreunden. PlayStation Plus ist für PC-Gamer schlicht ein No Go. Für Besitzer einer entsprechenden Konsole, die nur ab und an auf den PC zum Game Streaming wechseln, mag das wiederum ganz anders aussehen. 

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​ Spielen ohne teure Hardware? Das versprechen zumindest die Anbieter von Cloud-Gaming-Plattformen.
Foto: Anton27 – shutterstock.com

Sie möchten die aktuellsten Spieletitel zocken, haben aber keinen High-End-Computer? Oder Sie wollen unterwegs mal ein Game auf dem Notebook spielen? Dann könnte das Abonnement eines Cloud-Gaming-Dienstes für Sie interessant sein.

Mit Cloud-Gaming können Sie auch mit einer bescheidenen Computerausstattung die neuesten Spiele spielen. Was Sie neben einem Abo noch benötigen, haben wir in unserem Beitrag “Das brauchen Sie zum Spiele streamen” beschrieben.

Doch welche Cloud-Gaming-Plattform eignet sich nun am besten für das Spielvergnügen. Gemeinsam mit den Kollegen unserer Schwesterpublikation PCWorld haben wir die Abo-Dienste von Nvidia, Microsoft, Sony und Amazon genauer unter die Lupe genommen.

Update März 2025

Geforce Now mit Tagespässen

Nachdem Nvidia im Dezember 2023 mit Kapazitätsengpässen zu kämpfen hatte, ist jetzt auch wieder eine Neuanmeldung für einen Gratis-Account möglich. Neu im Angebot sind auch zwei Tagespässe für Nutzer, die sich nicht längerfristig binden wollen. Mit dem “Performance Day” für 4,39 Euro kann der User 24 Stunden lang die Features eines Performance-Accounts nutzen. Analog zur Ultimate-Mitgliedschaft ist ein “Ultimate Day” für 8,79 Euro erhältlich. Er erlaubt den Zugriff auf RTX-480-Server.

Microsoft Game Pass teurer

Microsofts Xbox Game Pass Ultimate kostet mittlerweile 17,99 Euro pro Monat. Offiziell ist die Cloud-Gaming-Plattform noch immer im Beta-Stadium.

Frühjahrsangebote

Mit Frühlingsangeboten, die bis zu 90 Prozent Rabatt beinhalten, lockt derzeit Amazon Luna. Das Angebot gilt für ausgewählte Spiele von GOG und Ubisoft und ist zeitlich begrenzt. Zum Spielen ist ein Abonnement erforderlich, das separat erhältlich ist.

Update Dezember 2023

Geforce – ein Opfer des eigenen Erfolgs?

Wie unten zu lesen, ist Geforce Now in unseren Augen der beste Cloud-Gaming-Dienst. Dieser Meinung scheinen auch zahlreiche Gamer zu sein, denn Nvidia hat nach eigenen Angaben für einige Abo-Mitgliedschaften einen Aufnahmestopp verhängt. Stand Dezember 2023 ist eine Neuanmeldung für einen Gratis-Account derzeit nicht möglich. Bestehende Accounts sind davon laut Nvidia nicht betroffen.

Ebenso ist derzeit das Buchen einer einmonatigen Priority- oder Ultimate-Mitgliedschaft nicht möglich. Hier erhält der Spieler in spe die Meldung “Ausverkauft. Wir fügen mehr Kapazität hinzu”. Priority- und Ultimate-Abos mit sechs Monaten Laufzeit können dagegen gebucht werden.

Geforce Now – Bester Cloud-Gaming-Dienst

Spieleauswahl bei Geforce Now.
Foto: Screenshot Nvidia

Wenn es um das beste Gesamterlebnis geht, dann ist GeForce Now von Nvidia unsere klare Empfehlung. Der Cloud-Dienst kann mit starker Rechenpower und Grafikleistung punkten. Zudem finden sich mehr als 1.500 unterstützte Spiele auf der Plattform. Gespielt werden kann im Browser oder per App. Ferner werden ausgewählte Smart TVs und Streaming-Devices unterstützt.

RTX-4080-Power aus der Cloud

Je nach gewählten Abo-Modell können die Games aus der Cloud mit einer Auflösung bis zu 4k bei bis zu 240 Frames per Second gespielt werden. Um diese Grafikleistung zu realisieren, verwendet Nvidia bislang in den Servern Grafikarten vom Typ Geforce RTX 4080. Mittlerweile hat der Konzern zahlreiche Rechner auf das leistungsfähigere Modell RTX 4080 aufgerüstet.

Warteschlangen beim Gratis-Account

Mit Grati-Account müssen Spieler bei Geforce Now mit langen Warteschlangen rechnen.
Foto: Screenshot Nvidia

In Europa betreibt Nvidia nach eigenen Angaben sechs Cloud-Gaming-Rechenzentren, so dass Latenzzeiten kein Thema sein sollten. Ein Wermutstropfen sind dagegen – zumindest beim kostenlosen Account “Gratis” – Warteschlangen. Waren wir im Rahmen der Gratis-Mitgliedschaft eingeloggt, befanden wir uns oft auf Position 100 der Warteliste oder schlechter. In der Praxis bedeutet dies dann Wartezeiten von rund zehn Minuten, bevor gespielt werden kann.

Zu den Wartzeiten kommt beim Gratis-Account noch eine weitere Einschränkung hinzu: Eine Spiele-Session ist zeitlich auf eine Stunde begrenzt. Letztlich dürfte dieses Angebot höchstens Gelegenheitsspieler zufriedenstellen. Oder Sie nutzen es, um grundsätzlich zu testen, ob Gaming aus der Cloud für Sie in Farge kommt.

Schnellere Zugriffszeiten ohne lange Warteschlange verspricht Nvidia im Rahmen einer “Performance“-Mitgliedschaft für 10,99 Euro im Monat. Zudem kann hier eine Session bis zu sechs Stunden dauern. Ferner wird eine Auflösung von bis zu 1440p offeriert, bei bis zu 60 Frames per second.

Die Preise für Geforce Now.
Foto: Geforce Now

Maximale Leistung erhalten Bezieher des Ultimate-Abonnement für 21,99 Euro im Monat. Als Gegenwert verspricht Nvidia einen exklusiven Zugriff auf schnelle Server mit RTX-4080-Grafikarten. Diese Grafikpower ermöglicht Auflösungen von bis zu 4k mit 240 FPS. Spiele-Sessions dürfen bis zu acht Stunden dauern.

Nvidia ist nur der Hoster

Egal für welche Art der Mitgliedschaft Sie sich entscheiden, eine Besonderheit muss dem Spieler bei Geforce Now bewusst sein: Nividia tritt wirklich nur als reiner Plattform-Hoster auf und vermarktet keine Spiele selbst. Diese müssen in Games-Stores wie Steam, Ubisoft oder Epic Games Store gekauft werden, wozu wiederum ein eigener Account erforderlich. Die eigene Spiele-Bibliothek in diesen Shops kann wiederum direkt mit Geforce Now verknüpft werden.

Die Verknüpfung hat zudem einen weiteren Vorteil. Bereits früher für den PC gekauft Spiele können ebenfalls mit Geforce Now genutzt werden, wenn Nvidia das Hosting unterstützt. Auf der anderen Seite können so auch Spiele, die eigentlich für das Cloud-Gaming gekauft wurden, nach Beendigung des Abos auch auf den PC heruntergeladen werden.

Grafikqualität sticht

Geforce Now wartet unter den Cloud-Gaming-Plattformen mit der besten Grafikqualität auf.
Foto: Screenshot Nvidia

Auch wenn viele der Spiele, die Sie mit diesem Dienst spielen können, erst gekauft werden müssen, bietet Geforce Now eine der besten Grafikqualitäten. Zudem ist die Kompatibilitätsliste für Spiele sehr umfangreich. Die Option der kostenlosen Mitgliedschaft erlaubt erst einmal ohne Verpflichtungen hineinzuschnuppern, um zumindest einige kostenlose Spiele wie Destiny 2 oder Fortnite auszuprobieren.

Xbox Cloud Gaming – bestes Preis-Leistungs-Verhältnis

Xbox Cloud Gaming.
Foto: Screenshot Microsoft

Darüber, welche der großen Spielemarken die beste Hardware herstellt, kann man sich sicherlich trefflich streiten. Allerdings interessiert die meisten Nutzer eher, welche Spiele sie wo und wann spielen können.

Hier öffnet Xbox Cloud Gaming – derzeit offiziell noch im Beta-Stadium – die Türe zu über 350 Titeln aus der Cloud. Das Angebot reicht von Skyrim über Deep Rock Galactic und Boyfriend Dungeon bis hin zu Battlefield V. Es umfasst zudem Klassiker wie Age of Empires oder den Microsoft Flugsimulator.

Große Auswahl

Sieht man einmal von der Möglichkeit ab, Fortnite kostenlos spielen zu können, ist der Xbox Game Pass Ultimate die Eintrittskarte in die Welt des Cloud-Gaming. Für ihn verlangt Microsoft 17,99 Euro im Monat. Er ermöglicht den Zugriff auf die gesamte Xbox-Game-Pass-Spielesammlung, die sowohl beeindruckend ist als auch ständig erweitert wird.

Controller erforderlich

Die Eintrittskarte zum Cloud Gaming ist bei Microsoft der Xbox Game Pass Ultimate.
Foto: Screenshot Microsoft

Neben dem Game Pass benötigt der Spieler in spe noch einen Xbox-kompatiblen Spielecontroller. Die Cloud-Spiele sind nämlich in der Regel alle für die Nutzung mit Controller ausgelegt. Mit Tastatur oder Maus geht hier derzeit nichts. Das Spielen selbst kann via Browser oder App erfolgen. Unterstützt werden neben der Windows-, Apple- und Android-Welt auch ausgewählte Smart TVs.

Noch unrunde Grafik

Sieht man von diesem Manko ab, war die user experience insgesamt positiv. Die Spiele liefen ohne Ruckler oder sonstige Performance-Auffälligkeiten. Lediglich die Grafikqualität gibt Anlass zur Kritik.

In der Regel setzen die Xbox-Cloud-Spiele einen Controller voraus.
Foto: Screenshot Microsoft

Zum einen störten teilweise Kompressionsartefakte, zum anderen reißt einen die Auflösung im Vergleich zur Geforce-Now-Plattform nicht vom Hocker. Zwar werden die Spiele laut Microsoft mit einer Auflösung von 1080p und 60 FPS gestreamt, doch wir hatten häufig den Eindruck eher vor einem 720p-Bild zu sitzen. Hier rächt sich eventuelle die zu starke Videokompression bei der Übertragung.

Unter dem Strich läuft die Cloud-Plattform für eine Beta-Version sehr stabil. Wer also auf 4k-Auflösung verzichten kann und keine Spiele selbst kaufen will, findet mit Xbox Cloud Gaming eine interessante Alternative zu Geforce Now. Eine Kröte gibt es aber noch zu schlucken: Die Spielbibliothek ändert sich ständig. Das garantiert zwar Abwechslung, aber lieb gewonnene Spiele können von heute auf morgen aus dem Angebot verschwinden.

Amazon Luna – Spielen in der Nische

Amazon Luna.
Foto: Screenshot Amazon

Amazon Luna ist die hierzulande eher unbekannte Cloud-Spiele-Plattform des Versandhändlers. Während Amazon auf seinem Marketplace für andere eigene Produkte wie echo-Devices, Fire-TV, Kindle-Reader oder seine Fire-Tablets kräftig die Werbetrommel rührt, fristet die Gaming-Plattform Luna ihr Dasein eher im Verborgenen.

Wer direkt in die Plattform einsteigen will, kann dies mit der URL https://luna.amazon.de tun. Alternativ lässt sich Cloud-Plattform auch über den deutschen Marketplace mit der Suchoption “Alle Kategorien” mit dem Suchbegriff “Luna” finden.

Broswer und App

Spielen im Browser bei Amazon Luna.
Foto: Screenshot Amazon

Gespielt werden kann im Browser auf Windows-PCs, Macs, Chromebooks und Android-Smartphones, sowie mit dem Safari-Browser auf iPhones und iPads. Für PCs und Macs gibt es zudem ein Luna-App zum Herunterladen. Mit Hilfe der App Amazon Luna lässt sich auf der Cloud-Gaming-Plattform auch auf Fire-TV-Devices sowie Fire-Tablets spielen.

Offiziell gibt Amazon zwar an, dass sich Luna auch mit Tastatur und Maus spielen lässt. Unsere Erfahrungen zeigten jedoch, dass dies nur bei wenigen Spielen der Fall ist und ansonsten eine Spiele-Controller erforderlich ist.

Virtuelle Controller

Wer keinen Controller hat, kann bei Amazon Luna das Smartphone als virtuellen Controller nutzen.
Foto: Screenshot Amazon

Wer jetzt nicht gleich zig Euro in einen entsprechenden Controller (eine Liste kompatibler Controller ist hier zu finden) investieren will, kann sich auch mit einem virtuellen Controller behelfen. Ein App macht dabei aus dem Mobiltelefon einen Luna-Smartphone-Controller.

Die entsprechende App ist in Google Play (Luna-Controller) und im Apple App Store zu finden. Bei unseren Versuchen ließ sich ein Android Smartphone so problemlos als Controller nutzen. Allerdings kommt trotz haptischen Feedbacks mit dem virtuellen Controller nicht das gleiche Spiel-Feeling auf wie mit einem richtigen Controller. Doch für erste Gehversuche auf der Luna-Plattform genügt dies allemal.

Spielauswahl

Die Plattform selbst bietet eine Auswahl an Retro- und familienfreundlichen Spielen. Wer also in Nostalgie eintauchen will oder mit der Familie spielen möchte, wird hier fündig. Wer dagegen eher aktuelle Spiele sucht, dürfte von Luna eher enttäuscht sein.

Ohne weitere Abos abzuschließen, können Amazon-Prime-Mitglieder zwischen fünf Spielen auswählen. Dabei wechselt Amazon nach eigenen Angaben das Angebot regelmäßig. Darüber hinaus offeriert Amazon in Deutschland noch die Spielekanäle Luna+, Jackbox Games sowie Ubisoft+.

Die einzelnen Channel

Die Preise für die Spiele-Channel bei Amazon Luna.
Foto: Screenshot Amazon

Für Luna+ berechnet Amazon im Monat 9,99 Euro. Dafür erhält der Abonnent Zugriff auf eine Sammlung an Spielen aus Genres wie Actionspiele, Adventures, Indie-Spiele, Shooter, Rennspiele, und Spieleklassiker. Zum Zeitpunkt der Recherche umfasste der Kanal etwas über 100 Spiele.

Jackbox Games umfasst für monatlich 4,99 Euro elf Boxen mit Partyspielen. Jede Box erhält dabei mehrere einfache Spiele. Dies können sowohl lokal vor Ort als auch online gespielt werden. Allerdings ist ein Großteil der Spiele in Englisch.

Deutlich teurer ist dagegen der Ubisoft+-Kanal. Es kostet 17,99 Euro im Monat. Dafür erhält der Spieler den Zugriff auf knapp über 40 Ubisoft-Spiele. Darunter sind Titel wie Far Cry, Assassin’s Creed, Uno, Die Siedler, Watchdogs, Trackmania oder Monopoly.

Andere Konten einbinden

Wie andere Cloud-Gaming-Plattformen bietet auch Luna die Möglichkeit, andere Konten einzubinden, um bereits vorhandene Spiele via Cloud zu zocken. Unterstützt werden die Angebote von EPIC Games und Ubisoft. Darüber hinaus besteht die Option, ein Twitch- oder Discord-Konto mit Luna zu verknüpfen.

User expierence

In Sachen user expierence muss sich Amazon Luna vor Geforce Now und Xbox Cloud Gaming nicht verstecken, auch wenn die Plattform in Sachen Grafikleistung gerade mit Geforce Now nicht mithalten kann.

An der Bedienung selbst gibt es nichts zu kritisieren – sie ist weitestgehend intuitiv und störende Ruckler oder Aussetzer konnten wir auch nicht feststellen. Das größte Manko der Luna-Gaming-Plattform ist in unseren Augen schlicht die Spieleauswahl. Die wäre uns keinen Cent wert. Aber zum Glück sind ja Geschmäcker verschieden.

Playstation Plus – Aufsteiger mit Macken

Startbildschirm der App PlayStation Plus.
Foto: Screenshot PlayStation Plus

Premium-Preise erwarten den Gamer bei unserem vierten Cloud-Gaming-Anbieter. Selbst wer nur mal kurz schnuppern will kommt bei Sony um einen Monatsbeitrag von 16,99 Euro für das Premium-Abo nicht herum. Damit ist der Einstieg in das Cloud Gaming bei Sony am teuersten.

PlayStation Plus für den PC ist Sonys Nachfolger des inzwischen eingestellten PlayStation-Now-Dienstes. Zwar offeriert auch Sony mit Essential, Extra und Premium drei verschiedene Abo-Varianten, doch das Zocken in der Cloud ist nur mit der teuren Premium-Variante möglich.

App erforderlich

PlayStation Plus wartet mit einem breiten Fundus an Spielen auf.
Foto: Screenshot PlayStation Plus

Negativ fällt zudem auf, dass PC-Spieler extra die PlayStation-Plus-App benötigen. Spielen im Browser, wie bei den anderen Plattformen, ist nicht möglich. Hier merkt man, dass sich das Sony-Angebot primär an die Besitzer einer Playstation-Konsole richtet.

Im Gegenzug erhalten die Premium- und Extra-Mitglieder Zugriff auf eine große Bibliothek an PS4- und PS5-Spielen. Zudem beinhaltet das Abo eine kuratierte Auswahl an Ubisoft+-Classics-Spielen beinhaltet.

Gefühlte Beta-Version

All dies kann aber nicht darüber hinwegtäuschen, dass in den Augen unsere PCWorld-Kollegen das Benutzererlebnis und die App-Benutzeroberfläche komplett überarbeitet werden müssen. Im Gegensatz zu Xbox Cloud Gaming benötige PlayStation Plus auf dem PC noch viel Feinschliff, wenn es darum geht, einen soliden PC-Dienst und eine solide Anwendung, von der Benutzeroberfläche bis zur Verbindungsstabilität anzubieten. So habe man leider immer wieder das Gefühl, dass sich der Service in der Beta-Phase befinde.

Ohne stabiles, performantes Internet macht das Cloud Gaming wenig Spaß.
Foto: Screenshot Nvidia

Sollte es Sony gelingen, diese Probleme zu überwinden, dann hätte der Cloud-Dienst viel zu bieten. PlayStation-Besitzer, die bereits Premium-Mitglieder sind, sollten dagegen die PC-App auf jeden Fall ausprobieren.

Fazit

Unter dem Strich haben uns von den vier Cloud-Gaming-Plattformen zum Streamen Nvidia Geforce Now sowie Xbox Cloud Gaming am meisten zugesagt. An Geforce Now gefiel uns die möglich Grafik-Performance, die aus der Cloud geliefert wird, sowie die Möglichkeit zahlreiche bereits gekaufte Spiele auch unterwegs via Cloud nutzen zu können.

Xbox Cloud konnte dagegen durch seine umfassende Spieleauswahl aus der Xbox-Game-Pass-Collection punkten. Dafür wären wir auch bereit, die teilweise störenden Kompressionsartefakte zu akzeptieren.

In Sachen Usability gibt es auch an Amazon Luna nichts zu kritisieren, doch wir konnten uns mit dem Spieleangebot schlicht nicht anfreunden. PlayStation Plus ist für PC-Gamer schlicht ein No Go. Für Besitzer einer entsprechenden Konsole, die nur ab und an auf den PC zum Game Streaming wechseln, mag das wiederum ganz anders aussehen.

Spiele aus der Cloud streamen: Die besten Cloud-Gaming-Dienste​ Weiterlesen »

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​

Allgemein

Der Lebenslauf stellt für Personaler noch immer das wichtigste Dokument einer Bewerbungsmappe dar. Darauf sollten Bewerber achten. Foto: Kittisophon – shutterstock.comWer sich auf einen neuen Job bewirbt, benötigt vielleicht nicht immer ein Anschreiben, aber ein Lebenslauf, auch Curriculum Vitae (CV) genannt, gehört in den meisten Fällen noch immer zu vollständigen Bewerbungsunterlagen. Allein schon deshalb, weil der Lebens­lauf das Dokument in der Bewerbungsmappe ist, das sich Personaler am ehesten anschauen – das bestätigt auch eine Studie von Stepstone. Lebenslauf: Grundlagen-TippsHeißt konkret: Wenn Sie sich auf eine neue Stelle bewerben möchten, müssen Sie einen Lebenslauf schreiben. Das ist zum Glück gar nicht so schwierig, wenn Sie dabei folgende Punkte beachten:Länge: Ein guter Lebenslauf ist kurz und klar strukturiert. Idealerweise ist er nicht länger als eine, in Ausnahmefällen zwei, Din-A-4 Seiten. Schriftart und -größe: Denken Sie immer daran, dass die HR-Abteilungen nicht viel Zeit haben. Machen Sie es ihnen daher so einfach wie möglich und entscheiden Sie sich für eine der gängigen Schriftarten und eine gut lesbare Schriftgröße. Mit Times New Roman oder Calibri in der Schriftgröße 12 machen Sie keinen Fehler. Fettungen: Besonders wichtige Punkte in Ihrem Lebenslauf sind die, die Sie für die ausgeschriebene Position qualifizieren und genau zum Unternehmen passen. Deswegen sollten Sie diese mit Fettungen hervorheben. So springen sie dem Personalverantwortlichen sofort ins Auge. Rechtschreibung: Dieser Punkt wird gerne übersehen. Schließlich schreiben die wenigsten Bewerber in ihrem Lebenslauf ganze Sätze. Das bedeutet aber nicht, dass sich keine Rechtschreib- oder Grammatikfehler einschleichen könnten. Kontrollieren Sie daher auch den Lebenslauf auf etwaige Ausrutscher. Lebenslauf schreiben: Aufbau und TabellenformWenn Sie ihren Lebenslauf schreiben, haben Sie dabei die Wahl zwischen der chronologischen und der umgekehrt chronologischen Variante. Da Personaler wenig Zeit haben und sofort sehen möchten, ob Sie die nötigen Fähigkeiten und Kenntnisse für die Stelle mitbringen, bietet sich in der Regel die umgekehrt chronologische Reihenfolge an. Denn dabei starten Sie mit der Position, die Sie aktuell ausüben. Und das ist in der Regel diejenige, die Sie für den neuen Job qualifiziert. Für Positionen im deutschsprachigen Raum nutzen Bewerber in vielen Fällen den tabellarischen Lebenslauf. Die einzelnen beruflichen Stationen werden bei dieser Art des Curriculum Vitae – der Name deutet es schon an – in Form einer Tabelle aufgeführt, was für größtmögliche Übersicht sorgt. Der tabellarische Lebenslauf besteht aus folgenden Elementen:Überschrift: Darf nicht vergessen werden. Der tabellarische Lebenslauf wird mit “Lebenslauf” oder “CV” überschrieben. Wenn Sie möchten, können Sie ihren Namen in die Überschrift mit aufnehmen, das erleichtert dem Personaler die Zuordnung. Sie können Ihren Namen aber auch erst im nächsten Punkt nennen.Persönliche Angaben: Nach der Überschrift folgen die persönlichen Daten. Ihr Name und die aktuelle Anschrift, das Geburtsdatum (optional mit Geburtsort) und vor allem die Kontaktmöglichkeiten über Telefon und E-Mail.Berufserfahrung: Für den Punkt Berufserfahrung sollten sich Bewerber viel Zeit lassen, denn dieser Abschnitt in ihrem Lebenslauf interessiert den Personaler besonders. Auf der linken Seite im tabellarischen Lebenslauf steht die Zeitangabe, also von wann bis wann Sie in der jeweiligen Position beschäftigt waren. Auf der rechten Seite die Jobbezeichnung und ihr Arbeitgeber. Darunter erklären Sie in kurzen und knappen Sätzen, welche Tätigkeiten in der Position zu ihrem Aufgabenfeld gehörten. Achtung: Schneiden Sie die Beschreibung möglichst genau auf das Unternehmen zu, bei dem Sie sich bewerben. Betonen Sie in ihrem Lebenslauf also genau diejenigen Dinge, die zu dem Unternehmen passen und konzentrieren Sie sich darauf. Schule, Ausbildung, Studium: Nun folgt Ihre schulische Laufbahn. Absolventen und Personen, die gerade eine Ausbildung abgeschlossen haben, dürfen hier etwas ausführlicher werden, wenn sie ihren Lebenslauf erstellen. Denn passende berufliche Stationen fehlen dann häufig. Versuchen Sie in diesem Fall Schwerpunkte in ihrer bisherigen schulischen und beruflichen Ausbildung zu setzen und stimmen Sie diese auf das Unternehmen ab. Praktika und ehrenamtliche Aktivitäten: Dieser Punkt eignet sich ebenfalls besonders für Bewerber mit wenig Berufserfahrung. Denn die können sie zum Teil ausgleichen, wenn sie während des Studiums relevante Praktika absolviert haben oder im Ehrenamt Fertig- und Fähigkeiten erworben haben, die für den Arbeitgeber interessant sein könnten. Kenntnisse: Im nächsten Abschnitt des Lebenslaufs führen Bewerber Sprach- und EDV-Kenntnisse, Weiterbildungen und zusätzliche Qualifikationen auf – natürlich nur solche, die zu dem anvisierten Job passen.Hobbys und Interessen: Idealerweise nennen Sie nun nicht die klassischen Hobbys wie Lesen, Radfahren oder Schwimmen, sondern führen Interessen an, mit denen Sie sich aus der Masse der Bewerber abheben. Unterschrift, Ort und Datum: Zum Abschluss wird der Lebenslauf unterschrieben und wie offizielle Dokumente mit Ort und Datum versehen. Achten Sie darauf, dass das Datum aktuell ist. Besonders dann, wenn Sie ihren Lebenslauf nicht für jede Bewerbung komplett neu erstellen, sondern Teile davon übernehmen. Ein veraltetes Datum ist ein echter Fauxpas, der Sie die Einladung zum Vorstellungsgespräch kosten könnte. Welche Angaben gehören nicht in den Lebenslauf?Was Bewerber im Lebenslauf aufführen sollten, variiert hängt von der Position ab, auf die sie sich bewerben. Auf der anderen Seite gibt es einige Dinge, die nicht mehr in den Lebenslauf gehören. Vor allem dann, wenn Sie eine Vorlage aus dem Netz verwenden, sollten Sie darauf achten, dass diese Angaben nicht aufgeführt sind. Denn das würde darauf hindeuten, dass Sie es mit einer vermutlich veralteten Vorlage zu tun haben: Beruf der Eltern: Glücklicherweise gehört diese Angabe heute nicht mehr in den Lebenslauf, denn sie führte dazu, dass einige Bewerber bevorzugt, andere benachteiligt wurden. Wenn die Eltern Akademiker sind vermittelt das bei dem Personaler ein andere Bild als wenn die Eltern nicht arbeiten. Die Gefahr, dass sich der Personaler von dieser Angabe beeinflussen lässt, kann man dadurch umgehen, indem man den Beruf der Eltern nicht nennt. Er sagt ohnehin nichts über die eigenen Fähigkeiten und Kenntnisse aus. Und darum sollte es doch letztendlich im Bewerbungsgespräch gehen. Religion: Im Allgemeinen Gleichbehandlungsgesetz (AGG) ist zu lesen, dass Niemand wegen u.a. seiner Religionszugehörigkeit benachteiligt oder bevorzugt werden darf. Da Menschen aber nun einmal nur Menschen sind und sich auch unbewusst beeinflussen lassen, sollten Bewerber die Angabe ihrer Religionszugehörigkeit erst gar nicht in ihrer Bewerbung nennen. Mit einer Ausnahme: Wenn Sie sich bei einem kirchlichen Träger bewerben, sollten Sie erwähnen, zu welcher Religionsgruppe Sie sich rechnen. Grundschule: Unter dem Punkt “Schulische Ausbildung” oder “Bildungsweg” (oder einer vergleichbaren Formulierung) die Grundschule nichts mehr zu suchen. Sie ahnen vermutlich schon, warum das so ist. Richtig, die Grundschule ist für den weiteren beruflichen Weg komplett irrelevant. Die Wahl der Schule wird schließlich zum Großteil davon bestimmt, wo man wohnt. Noch dazu sagen die ersten vier Jahre der Schulbildung nicht allzu viel darüber aus, welche Art von Bewerber der Personal vor sich hat. Allenfalls bei einem Schülerpraktikum ist es noch denkbar, die Grundschule mit aufzuführen. Hauptsächlich der Vollständigkeit halber, weil man als Schüler noch nicht so viele Stationen unter dem Punkt “Bildungsweg” aufzählen kann.Curriculum Vitae: Häufige Fragen Sprachkenntnisse im Lebenslauf: Wo gebe ich sie an?Sprachkenntnisse im Lebenslauf gehören zu dem generellen Punkt “Kenntnisse”. Je nach angestrebter Position können Sie die Sprachkenntnisse aber unter “Schule, Ausbildung und Studium” aufführen. Beispielsweise dann, wenn Sie sich als Fremdsprachenassistent bewerben.Lebenslauf unterschreiben: Macht man das (noch)?Es gibt keine Vorschrift, dass Bewerber den Lebenslauf unterschreiben müssten, da er kein offizielles Dokument mit bindendem Charakter, wie beispielsweise der Arbeitsvertrag, ist. Trotzdem sehen es die meisten Personaler gern, wenn der Bewerber seine persönliche Unterschrift unter das Dokument setzt. Es schadet also nicht. Lebenslauf: Worauf beim Foto zu achten istIst ein Foto im Lebenslauf Pflicht? Nein, nicht mehr. Wenn Sie möchten, können Sie aber trotzdem ein Bewerbungsfoto ihrem Lebenslauf beifügen. Achten Sie bei dem Foto darauf, dass Sie professionell wirken. Idealerweise lassen Sie das Foto bei einem Fotografen schießen, der sich mit Bewerbungen und der Branche auskennt. (pg) 

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​ Der Lebenslauf stellt für Personaler noch immer das wichtigste Dokument einer Bewerbungsmappe dar. Darauf sollten Bewerber achten.
Foto: Kittisophon – shutterstock.comWer sich auf einen neuen Job bewirbt, benötigt vielleicht nicht immer ein Anschreiben, aber ein Lebenslauf, auch Curriculum Vitae (CV) genannt, gehört in den meisten Fällen noch immer zu vollständigen Bewerbungsunterlagen. Allein schon deshalb, weil der Lebens­lauf das Dokument in der Bewerbungsmappe ist, das sich Personaler am ehesten anschauen – das bestätigt auch eine Studie von Stepstone. Lebenslauf: Grundlagen-TippsHeißt konkret: Wenn Sie sich auf eine neue Stelle bewerben möchten, müssen Sie einen Lebenslauf schreiben. Das ist zum Glück gar nicht so schwierig, wenn Sie dabei folgende Punkte beachten:Länge: Ein guter Lebenslauf ist kurz und klar strukturiert. Idealerweise ist er nicht länger als eine, in Ausnahmefällen zwei, Din-A-4 Seiten. Schriftart und -größe: Denken Sie immer daran, dass die HR-Abteilungen nicht viel Zeit haben. Machen Sie es ihnen daher so einfach wie möglich und entscheiden Sie sich für eine der gängigen Schriftarten und eine gut lesbare Schriftgröße. Mit Times New Roman oder Calibri in der Schriftgröße 12 machen Sie keinen Fehler. Fettungen: Besonders wichtige Punkte in Ihrem Lebenslauf sind die, die Sie für die ausgeschriebene Position qualifizieren und genau zum Unternehmen passen. Deswegen sollten Sie diese mit Fettungen hervorheben. So springen sie dem Personalverantwortlichen sofort ins Auge. Rechtschreibung: Dieser Punkt wird gerne übersehen. Schließlich schreiben die wenigsten Bewerber in ihrem Lebenslauf ganze Sätze. Das bedeutet aber nicht, dass sich keine Rechtschreib- oder Grammatikfehler einschleichen könnten. Kontrollieren Sie daher auch den Lebenslauf auf etwaige Ausrutscher. Lebenslauf schreiben: Aufbau und TabellenformWenn Sie ihren Lebenslauf schreiben, haben Sie dabei die Wahl zwischen der chronologischen und der umgekehrt chronologischen Variante. Da Personaler wenig Zeit haben und sofort sehen möchten, ob Sie die nötigen Fähigkeiten und Kenntnisse für die Stelle mitbringen, bietet sich in der Regel die umgekehrt chronologische Reihenfolge an. Denn dabei starten Sie mit der Position, die Sie aktuell ausüben. Und das ist in der Regel diejenige, die Sie für den neuen Job qualifiziert. Für Positionen im deutschsprachigen Raum nutzen Bewerber in vielen Fällen den tabellarischen Lebenslauf. Die einzelnen beruflichen Stationen werden bei dieser Art des Curriculum Vitae – der Name deutet es schon an – in Form einer Tabelle aufgeführt, was für größtmögliche Übersicht sorgt. Der tabellarische Lebenslauf besteht aus folgenden Elementen:Überschrift: Darf nicht vergessen werden. Der tabellarische Lebenslauf wird mit “Lebenslauf” oder “CV” überschrieben. Wenn Sie möchten, können Sie ihren Namen in die Überschrift mit aufnehmen, das erleichtert dem Personaler die Zuordnung. Sie können Ihren Namen aber auch erst im nächsten Punkt nennen.Persönliche Angaben: Nach der Überschrift folgen die persönlichen Daten. Ihr Name und die aktuelle Anschrift, das Geburtsdatum (optional mit Geburtsort) und vor allem die Kontaktmöglichkeiten über Telefon und E-Mail.Berufserfahrung: Für den Punkt Berufserfahrung sollten sich Bewerber viel Zeit lassen, denn dieser Abschnitt in ihrem Lebenslauf interessiert den Personaler besonders. Auf der linken Seite im tabellarischen Lebenslauf steht die Zeitangabe, also von wann bis wann Sie in der jeweiligen Position beschäftigt waren. Auf der rechten Seite die Jobbezeichnung und ihr Arbeitgeber. Darunter erklären Sie in kurzen und knappen Sätzen, welche Tätigkeiten in der Position zu ihrem Aufgabenfeld gehörten. Achtung: Schneiden Sie die Beschreibung möglichst genau auf das Unternehmen zu, bei dem Sie sich bewerben. Betonen Sie in ihrem Lebenslauf also genau diejenigen Dinge, die zu dem Unternehmen passen und konzentrieren Sie sich darauf. Schule, Ausbildung, Studium: Nun folgt Ihre schulische Laufbahn. Absolventen und Personen, die gerade eine Ausbildung abgeschlossen haben, dürfen hier etwas ausführlicher werden, wenn sie ihren Lebenslauf erstellen. Denn passende berufliche Stationen fehlen dann häufig. Versuchen Sie in diesem Fall Schwerpunkte in ihrer bisherigen schulischen und beruflichen Ausbildung zu setzen und stimmen Sie diese auf das Unternehmen ab. Praktika und ehrenamtliche Aktivitäten: Dieser Punkt eignet sich ebenfalls besonders für Bewerber mit wenig Berufserfahrung. Denn die können sie zum Teil ausgleichen, wenn sie während des Studiums relevante Praktika absolviert haben oder im Ehrenamt Fertig- und Fähigkeiten erworben haben, die für den Arbeitgeber interessant sein könnten. Kenntnisse: Im nächsten Abschnitt des Lebenslaufs führen Bewerber Sprach- und EDV-Kenntnisse, Weiterbildungen und zusätzliche Qualifikationen auf – natürlich nur solche, die zu dem anvisierten Job passen.Hobbys und Interessen: Idealerweise nennen Sie nun nicht die klassischen Hobbys wie Lesen, Radfahren oder Schwimmen, sondern führen Interessen an, mit denen Sie sich aus der Masse der Bewerber abheben. Unterschrift, Ort und Datum: Zum Abschluss wird der Lebenslauf unterschrieben und wie offizielle Dokumente mit Ort und Datum versehen. Achten Sie darauf, dass das Datum aktuell ist. Besonders dann, wenn Sie ihren Lebenslauf nicht für jede Bewerbung komplett neu erstellen, sondern Teile davon übernehmen. Ein veraltetes Datum ist ein echter Fauxpas, der Sie die Einladung zum Vorstellungsgespräch kosten könnte. Welche Angaben gehören nicht in den Lebenslauf?Was Bewerber im Lebenslauf aufführen sollten, variiert hängt von der Position ab, auf die sie sich bewerben. Auf der anderen Seite gibt es einige Dinge, die nicht mehr in den Lebenslauf gehören. Vor allem dann, wenn Sie eine Vorlage aus dem Netz verwenden, sollten Sie darauf achten, dass diese Angaben nicht aufgeführt sind. Denn das würde darauf hindeuten, dass Sie es mit einer vermutlich veralteten Vorlage zu tun haben: Beruf der Eltern: Glücklicherweise gehört diese Angabe heute nicht mehr in den Lebenslauf, denn sie führte dazu, dass einige Bewerber bevorzugt, andere benachteiligt wurden. Wenn die Eltern Akademiker sind vermittelt das bei dem Personaler ein andere Bild als wenn die Eltern nicht arbeiten. Die Gefahr, dass sich der Personaler von dieser Angabe beeinflussen lässt, kann man dadurch umgehen, indem man den Beruf der Eltern nicht nennt. Er sagt ohnehin nichts über die eigenen Fähigkeiten und Kenntnisse aus. Und darum sollte es doch letztendlich im Bewerbungsgespräch gehen. Religion: Im Allgemeinen Gleichbehandlungsgesetz (AGG) ist zu lesen, dass Niemand wegen u.a. seiner Religionszugehörigkeit benachteiligt oder bevorzugt werden darf. Da Menschen aber nun einmal nur Menschen sind und sich auch unbewusst beeinflussen lassen, sollten Bewerber die Angabe ihrer Religionszugehörigkeit erst gar nicht in ihrer Bewerbung nennen. Mit einer Ausnahme: Wenn Sie sich bei einem kirchlichen Träger bewerben, sollten Sie erwähnen, zu welcher Religionsgruppe Sie sich rechnen. Grundschule: Unter dem Punkt “Schulische Ausbildung” oder “Bildungsweg” (oder einer vergleichbaren Formulierung) die Grundschule nichts mehr zu suchen. Sie ahnen vermutlich schon, warum das so ist. Richtig, die Grundschule ist für den weiteren beruflichen Weg komplett irrelevant. Die Wahl der Schule wird schließlich zum Großteil davon bestimmt, wo man wohnt. Noch dazu sagen die ersten vier Jahre der Schulbildung nicht allzu viel darüber aus, welche Art von Bewerber der Personal vor sich hat. Allenfalls bei einem Schülerpraktikum ist es noch denkbar, die Grundschule mit aufzuführen. Hauptsächlich der Vollständigkeit halber, weil man als Schüler noch nicht so viele Stationen unter dem Punkt “Bildungsweg” aufzählen kann.Curriculum Vitae: Häufige Fragen Sprachkenntnisse im Lebenslauf: Wo gebe ich sie an?Sprachkenntnisse im Lebenslauf gehören zu dem generellen Punkt “Kenntnisse”. Je nach angestrebter Position können Sie die Sprachkenntnisse aber unter “Schule, Ausbildung und Studium” aufführen. Beispielsweise dann, wenn Sie sich als Fremdsprachenassistent bewerben.Lebenslauf unterschreiben: Macht man das (noch)?Es gibt keine Vorschrift, dass Bewerber den Lebenslauf unterschreiben müssten, da er kein offizielles Dokument mit bindendem Charakter, wie beispielsweise der Arbeitsvertrag, ist. Trotzdem sehen es die meisten Personaler gern, wenn der Bewerber seine persönliche Unterschrift unter das Dokument setzt. Es schadet also nicht. Lebenslauf: Worauf beim Foto zu achten istIst ein Foto im Lebenslauf Pflicht? Nein, nicht mehr. Wenn Sie möchten, können Sie aber trotzdem ein Bewerbungsfoto ihrem Lebenslauf beifügen. Achten Sie bei dem Foto darauf, dass Sie professionell wirken. Idealerweise lassen Sie das Foto bei einem Fotografen schießen, der sich mit Bewerbungen und der Branche auskennt. (pg)

Lebenslauf schreiben: So erstellen Sie ein Curriculum Vitae​ Weiterlesen »

Deutschland soll auf die digitale Überholspur​

Allgemein

Schluss mit dem digitalen Stillstand in Deutschland. Das will die neue Regierung  aus Union und SPD mit  ihrer im Koalitionsvertrag vereinbarten digitalpolitischen Agenda erreichen. In ihm haben sich die drei Parteien ehrgeizige Ziele gesetzt, um Deutschland  zu einem Vorreiter in der Digitalisierung und Staatsmodernisierung zu machen.  Der Fokus liegt dabei auf der digitalen Transformation und der Förderung des Rechenzentrumsstandorts Deutschland. Mit einer Vielzahl von Maßnahmen und Strategien soll das Land nicht nur technologisch, sondern auch wirtschaftlich und gesellschaftlich zukunftsfähig gemacht werden. Digitalisierung als Schlüssel zur Modernisierung Die Digitalpolitik der Koalition ist auf Souveränität, Innovation und gesellschaftlichen Fortschritt ausgerichtet. Ziel ist ein digital souveränes Deutschland, das digitale Abhängigkeiten reduziert und Schlüsseltechnologien wie Künstliche Intelligenz (KI), Cloud-Dienste und Open Source gezielt fördert. Die digitale Infrastruktur soll durch den flächendeckenden Glasfaserausbau (FTTH) und die Förderung von 5G sowie perspektivisch 6G gestärkt werden. Funklöcher sollen geschlossen und Förderprogramme dort eingesetzt werden, wo ein marktgetriebener Ausbau nicht möglich ist. Mehr Digitalisierung und weniger Bürokratie Ein zentraler Bestandteil der Digitalstrategie ist die Modernisierung der Verwaltung. Verwaltungsleistungen sollen vollständig digitalisiert und barrierefrei angeboten werden. Ferner sind Bürgerkontos und eine Deutschland-ID geplant, um den Zugang zu Behördendienstleistungen zu vereinfachen sowie nutzerfreundlicher zu gestalten. Verwaltungsprozesse sind künftig zunehmend antragslos und lebenslagenorientiert gestaltet, während Schriftformerfordernisse durch eine Generalklausel abgeschafft werden. Angehen will man auch die überfällige Registermodernisierung durch die Vernetzung von Bundesregistern und die Nutzung souveräner Cloudplattformen. Ein Datendoppelerhebungsverbot („Once-Only-Prinzip“) soll eingeführt werden, um die Effizienz in der Verwaltung zu steigern. Die Koalition plant zudem eine EUDI-Wallet einzuführen, wie es die EU in der eIDAS Verordnung bis November 2026 fordert. Es soll Identifikation, Authentifizierung und Zahlungen ermöglichen. Auch ein Ökosystem rund um die Wallet ist im Gespräch, um die Nutzung zu erweitern. ​ Zusätzlich sieht der Vertrag vor, Open Source und offene Schnittstellen gezielt voranzutreiben, um die digitale Souveränität zu stärken. Ein eigenständiges Digitalministerium ​ Neben diesen Projekten wollen die Partner auch die Digitalisierung und Staatsmodernisierung effektiv vorantreiben. Zuständig dafür ist künftig ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung, das von der CDU geleitet wird. Dieses Ministerium soll zentrale Aufgaben wie die Entwicklung eines interoperablen und europäisch anschlussfähigen Deutschland-Stacks, die umfassende Nutzung von Automatisierung und KI im Staat sowie die Förderung des Breitband- und Glasfaserausbaus übernehmen. Zukunftsstandort dank Rechenzentren Ein weiterer Schwerpunkt des Koalitionsvertrags ist, den Rechenzentrumsstandort Deutschland zu fördern. Die Koalition strebt an, Deutschland als Leuchtturm Europas für Rechenzentren zu etablieren. Hierzu will man Cluster, regionale und dezentrale Ansiedlungen unterstützen. Ferner wird der Aufbau von mindestens einer europäischen „AI-Gigafactory“ in Deutschland angestrebt. Besonders Ostdeutschland soll von einem beschleunigten Ausbau profitieren. Um den Anschluss von Rechenzentren an das Stromnetz zu erleichtern, ist eine Digitalisierungsoffensive bei den Stromnetzbetreibern geplant. Gleichzeitig werde man mehr Transparenz über Netzanschlusskapazitäten fördern. Hierbei stehen Klimaneutralität und Energieeffizienz im Vordergrund, so der Wille der Parteien. Die Abwärme aus Rechenzentren soll zudem in Fernwärmenetze eingespeist werden. Das Ganze erfolgt unter der Prämisse, mit praxisnahen Vorschriften den Ausbau der Netze zu erleichtern. Cyber-Sicherheit und Datenschutz Des Weiteren legt die Koalition in ihrem Papier großen Wert auf die IT-Sicherheit und den Schutz kritischer Infrastrukturen (KRITIS). Die Cyber-Sicherheitsstrategie soll weiterentwickelt sowie präventive Beratungsangebote für kleine und mittlere Unternehmen ausgebaut werden. Nicht vertrauenswürdige Anbieter will man rechtssicher ausschließen. Im Bereich Datenschutz soll die Aufsicht reformiert und beim Bundesdatenschutzbeauftragten gebündelt werden. Zudem sind unbürokratische Widerspruchslösungen im Gespräch, um die Nutzung staatlicher Serviceleistungen zu erleichtern. 

Deutschland soll auf die digitale Überholspur​ Schluss mit dem digitalen Stillstand in Deutschland. Das will die neue Regierung  aus Union und SPD mit  ihrer im Koalitionsvertrag vereinbarten digitalpolitischen Agenda erreichen.

In ihm haben sich die drei Parteien ehrgeizige Ziele gesetzt, um Deutschland  zu einem Vorreiter in der Digitalisierung und Staatsmodernisierung zu machen.  Der Fokus liegt dabei auf der digitalen Transformation und der Förderung des Rechenzentrumsstandorts Deutschland.

Mit einer Vielzahl von Maßnahmen und Strategien soll das Land nicht nur technologisch, sondern auch wirtschaftlich und gesellschaftlich zukunftsfähig gemacht werden.

Digitalisierung als Schlüssel zur Modernisierung

Die Digitalpolitik der Koalition ist auf Souveränität, Innovation und gesellschaftlichen Fortschritt ausgerichtet. Ziel ist ein digital souveränes Deutschland, das digitale Abhängigkeiten reduziert und Schlüsseltechnologien wie

Künstliche Intelligenz (KI),

Cloud-Dienste und

Open Source

gezielt fördert.

Die digitale Infrastruktur soll durch den flächendeckenden Glasfaserausbau (FTTH) und die Förderung von 5G sowie perspektivisch 6G gestärkt werden. Funklöcher sollen geschlossen und Förderprogramme dort eingesetzt werden, wo ein marktgetriebener Ausbau nicht möglich ist.

Mehr Digitalisierung und weniger Bürokratie

Ein zentraler Bestandteil der Digitalstrategie ist die Modernisierung der Verwaltung.

Verwaltungsleistungen sollen vollständig digitalisiert und barrierefrei angeboten werden.

Ferner sind Bürgerkontos und eine Deutschland-ID geplant, um den Zugang zu Behördendienstleistungen zu vereinfachen sowie nutzerfreundlicher zu gestalten.

Verwaltungsprozesse sind künftig zunehmend antragslos und lebenslagenorientiert gestaltet, während Schriftformerfordernisse durch eine Generalklausel abgeschafft werden.

Angehen will man auch die überfällige Registermodernisierung durch die Vernetzung von Bundesregistern und die Nutzung souveräner Cloudplattformen.

Ein Datendoppelerhebungsverbot („Once-Only-Prinzip“) soll eingeführt werden, um die Effizienz in der Verwaltung zu steigern.

Die Koalition plant zudem eine EUDI-Wallet einzuführen, wie es die EU in der eIDAS Verordnung bis November 2026 fordert. Es soll Identifikation, Authentifizierung und Zahlungen ermöglichen.

Auch ein Ökosystem rund um die Wallet ist im Gespräch, um die Nutzung zu erweitern. ​

Zusätzlich sieht der Vertrag vor, Open Source und offene Schnittstellen gezielt voranzutreiben, um die digitale Souveränität zu stärken.

Ein eigenständiges Digitalministerium ​

Neben diesen Projekten wollen die Partner auch die Digitalisierung und Staatsmodernisierung effektiv vorantreiben. Zuständig dafür ist künftig ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung, das von der CDU geleitet wird.

Dieses Ministerium soll zentrale Aufgaben wie

die Entwicklung eines interoperablen und europäisch anschlussfähigen Deutschland-Stacks,

die umfassende Nutzung von Automatisierung und KI im Staat sowie

die Förderung des Breitband- und Glasfaserausbaus

übernehmen.

Zukunftsstandort dank Rechenzentren

Ein weiterer Schwerpunkt des Koalitionsvertrags ist, den Rechenzentrumsstandort Deutschland zu fördern. Die Koalition strebt an, Deutschland als Leuchtturm Europas für Rechenzentren zu etablieren.

Hierzu will man Cluster, regionale und dezentrale Ansiedlungen unterstützen. Ferner wird der Aufbau von mindestens einer europäischen „AI-Gigafactory“ in Deutschland angestrebt. Besonders Ostdeutschland soll von einem beschleunigten Ausbau profitieren.

Um den Anschluss von Rechenzentren an das Stromnetz zu erleichtern, ist eine Digitalisierungsoffensive bei den Stromnetzbetreibern geplant. Gleichzeitig werde man mehr Transparenz über Netzanschlusskapazitäten fördern. Hierbei stehen Klimaneutralität und Energieeffizienz im Vordergrund, so der Wille der Parteien. Die Abwärme aus Rechenzentren soll zudem in Fernwärmenetze eingespeist werden. Das Ganze erfolgt unter der Prämisse, mit praxisnahen Vorschriften den Ausbau der Netze zu erleichtern.

Cyber-Sicherheit und Datenschutz

Des Weiteren legt die Koalition in ihrem Papier großen Wert auf die IT-Sicherheit und den Schutz kritischer Infrastrukturen (KRITIS). Die Cyber-Sicherheitsstrategie soll weiterentwickelt sowie präventive Beratungsangebote für kleine und mittlere Unternehmen ausgebaut werden. Nicht vertrauenswürdige Anbieter will man rechtssicher ausschließen.

Im Bereich Datenschutz soll die Aufsicht reformiert und beim Bundesdatenschutzbeauftragten gebündelt werden. Zudem sind unbürokratische Widerspruchslösungen im Gespräch, um die Nutzung staatlicher Serviceleistungen zu erleichtern.

Deutschland soll auf die digitale Überholspur​ Weiterlesen »

Nach oben scrollen
×