Computerhaus Quickborn

Dezember 2024

Finanzämtern droht der IT-Kollaps​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>In ihrem aktuellen Jahresbericht 2024 kritisieren die Prüfer des Bundesrechnungshofs massive IT-Probleme in den deutschen Finanzämtern. Bundesrechnungshof Deutschlandweit prüfen rund 12.400 Beschäftigte in den Finanzämtern der Republik die Besteuerung von Unternehmen. Verwendet wird dafür die Spezialsoftware BpA-Euro. Das Problem dabei: Die Anwendung ist über 20 Jahre alt und erfüllt nicht mehr alle technischen und fachlichen Anforderungen. Zu diesem Schluss kommt der Bundesrechnungshof in seinem Jahresbericht 2024.  Eine Lösung ist derzeit nicht in Sicht. Ein IT-Projekt, BpA-Euro technisch auf Vordermann zu bringen, sei im Jahr 2022 gescheitert, bemängeln die Rechnungsprüfer. Eine Ablösung des Programms sei frühestens für das Jahr 2027 vorgesehen. Die Betriebsprüfer der Finanzämter müssten deshalb noch mindestens drei Jahre auf neue Software warten.  Milliarden Euro verschwendet: IT-Projekt der Finanzverwaltung gerät zum Desaster Ein Risiko aus Sicht des Bundesrechnungshofs: Bereits im vergangenen Jahr habe man beanstandet, dass BpA-Euro ohne Notfallkonzept betrieben werde. Ein zweiseitiges Papier, das vom Bundesministerium der Finanzen (BMF) im Frühjahr 2024 als „Notfallvorsorgekonzept“ vorgelegt wurde, verdiene den Namen nicht. Es fehlten wesentliche Bestandteile wie eine Analyse möglicher Risiken, deren Eintrittshäufigkeit und die voraussichtliche Schadenshöhe, ein Plan für die Fortführung der Geschäfte sowie ein Wiederanlauf- und Wiederherstellungsplan.  Der Bundesrechnungshof warnt in diesem Zusammenhang vor nicht kalkulierbaren Schäden durch die zunehmende Fehleranfälligkeit der veralteten Software. Die Arbeit in der gesamten Betriebsprüfung sei durch die Risiken der veralteten Software und das fehlende Notfallkonzept gefährdet, heißt es im Bericht der Rechnungsprüfer. „Darunter leiden im Notfall auch die Ergebnisse der Betriebsprüfung. Das BMF konnte den möglichen finanziellen Schaden nicht beziffern.“  Notfallkonzept für BpA-Euro Fehlanzeige Die Betriebsprüfung braucht eine neue Software, fordert der Rechnungshof. Bis dahin müsse BpA-Euro funktionstüchtig bleiben und dafür brauche es umgehend ein tragfähiges Notfallkonzept. Ein solches zu formulieren, sei die Aufgabe des Finanzministeriums. Das scheint man in Berlin anders zu sehen. Dort verweist man auf Verantwortlichkeiten der Bundesländer und das Projekt KONSENS.  Doch wie so oft scheint es im IT-Getriebe zwischen Bund und Ländern gewaltig zu knirschen. Auch die „Koordinierte neue Software-Entwicklung der Steuerverwaltung“ (KONSENS) stand wiederholt in der Kritik. Seit den 1990er Jahren des vergangenen Jahrhunderts werkeln die Behörden deutschlandweit an einer einheitlichen Software für die Finanzämter – bislang erfolglos. Nachdem das Vorhaben „Föderal Integriertes Standardisiertes Computer unterstütztes Steuersystem“ (FISCUS) 2005 krachend gescheitert war, sollte KONSENS eine Lösung bringen.  Wenig Konsens bei KONSENS Der Plan: Die 16 Bundesländer und der Bund wollten gemeinsam eine einheitliche Software für die Steuerverwaltung entwickeln. Die Länder Baden-Württemberg, Bayern, Hessen, Niedersachsen, Nordrhein-Westfalen und der Bund sollten die Entwicklung federführend vorantreiben. Passiert ist trotz des 2007 in Kraft getretenen Verwaltungsabkommens KONSENS und des 2017 verabschiedeten KONSENS-Gesetzes wenig. Immer wieder wurden die Organisationsstrukturen des Projekts umgebaut – ohne konkrete Ergebnisse.  “Gerade in Zeiten der Krisenbewältigung mit erheblichen zusätzlichen Ausgaben muss der Bund seine Steuereinnahmen sichern”, hatte Kay Scheller, Präsident des Bundesrechnungshofs, schon vor Jahren angemahnt.Bundesrechnungshof Im Herbst 2022 zogen die Rechnungshöfe von Bund und Ländern eine vernichtende Bilanz des Megaprojekts. Nach 15 Jahren und Kosten in Höhe von 1,6 Milliarden Euro seien die Bemühungen in den Kernverfahren ohne Erfolg geblieben. Ob die bis 2026 eingeplanten weiteren 1,26 Milliarden Euro zum Gelingen des Vorhabens beitragen könnten, sei zweifelhaft. Mittlerweile gehen Beobachter davon aus, dass sich der Abschluss von KONSENS voraussichtlich bis 2029 verzögern werde.  Die Rechnungsprüfer kritisierten, dass die Planung und die operative Steuerung von KONSENS in der Vergangenheit nicht hinreichend zielgerichtet und nicht tragfähig waren. Probleme und Verzögerungen seien im Finanzministerium wiederholt vertuscht worden. Keine guten Nachrichten über ein IT-System, über das in Deutschland ein Steuervolumen von rund 700 Milliarden Euro verwaltet werden soll.     

Finanzämtern droht der IT-Kollaps​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Bundesrechnungshof.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>In ihrem aktuellen Jahresbericht 2024 kritisieren die Prüfer des Bundesrechnungshofs massive IT-Probleme in den deutschen Finanzämtern. Bundesrechnungshof

Deutschlandweit prüfen rund 12.400 Beschäftigte in den Finanzämtern der Republik die Besteuerung von Unternehmen. Verwendet wird dafür die Spezialsoftware BpA-Euro. Das Problem dabei: Die Anwendung ist über 20 Jahre alt und erfüllt nicht mehr alle technischen und fachlichen Anforderungen. Zu diesem Schluss kommt der Bundesrechnungshof in seinem Jahresbericht 2024. 

Eine Lösung ist derzeit nicht in Sicht. Ein IT-Projekt, BpA-Euro technisch auf Vordermann zu bringen, sei im Jahr 2022 gescheitert, bemängeln die Rechnungsprüfer. Eine Ablösung des Programms sei frühestens für das Jahr 2027 vorgesehen. Die Betriebsprüfer der Finanzämter müssten deshalb noch mindestens drei Jahre auf neue Software warten. 

Milliarden Euro verschwendet: IT-Projekt der Finanzverwaltung gerät zum Desaster

Ein Risiko aus Sicht des Bundesrechnungshofs: Bereits im vergangenen Jahr habe man beanstandet, dass BpA-Euro ohne Notfallkonzept betrieben werde. Ein zweiseitiges Papier, das vom Bundesministerium der Finanzen (BMF) im Frühjahr 2024 als „Notfallvorsorgekonzept“ vorgelegt wurde, verdiene den Namen nicht. Es fehlten wesentliche Bestandteile wie eine Analyse möglicher Risiken, deren Eintrittshäufigkeit und die voraussichtliche Schadenshöhe, ein Plan für die Fortführung der Geschäfte sowie ein Wiederanlauf- und Wiederherstellungsplan. 

Der Bundesrechnungshof warnt in diesem Zusammenhang vor nicht kalkulierbaren Schäden durch die zunehmende Fehleranfälligkeit der veralteten Software. Die Arbeit in der gesamten Betriebsprüfung sei durch die Risiken der veralteten Software und das fehlende Notfallkonzept gefährdet, heißt es im Bericht der Rechnungsprüfer. „Darunter leiden im Notfall auch die Ergebnisse der Betriebsprüfung. Das BMF konnte den möglichen finanziellen Schaden nicht beziffern.“ 

Notfallkonzept für BpA-Euro Fehlanzeige

Die Betriebsprüfung braucht eine neue Software, fordert der Rechnungshof. Bis dahin müsse BpA-Euro funktionstüchtig bleiben und dafür brauche es umgehend ein tragfähiges Notfallkonzept. Ein solches zu formulieren, sei die Aufgabe des Finanzministeriums. Das scheint man in Berlin anders zu sehen. Dort verweist man auf Verantwortlichkeiten der Bundesländer und das Projekt KONSENS. 

Doch wie so oft scheint es im IT-Getriebe zwischen Bund und Ländern gewaltig zu knirschen. Auch die „Koordinierte neue Software-Entwicklung der Steuerverwaltung“ (KONSENS) stand wiederholt in der Kritik. Seit den 1990er Jahren des vergangenen Jahrhunderts werkeln die Behörden deutschlandweit an einer einheitlichen Software für die Finanzämter – bislang erfolglos. Nachdem das Vorhaben „Föderal Integriertes Standardisiertes Computer unterstütztes Steuersystem“ (FISCUS) 2005 krachend gescheitert war, sollte KONSENS eine Lösung bringen. 

Wenig Konsens bei KONSENS

Der Plan: Die 16 Bundesländer und der Bund wollten gemeinsam eine einheitliche Software für die Steuerverwaltung entwickeln. Die Länder Baden-Württemberg, Bayern, Hessen, Niedersachsen, Nordrhein-Westfalen und der Bund sollten die Entwicklung federführend vorantreiben. Passiert ist trotz des 2007 in Kraft getretenen Verwaltungsabkommens KONSENS und des 2017 verabschiedeten KONSENS-Gesetzes wenig. Immer wieder wurden die Organisationsstrukturen des Projekts umgebaut – ohne konkrete Ergebnisse. 

“Gerade in Zeiten der Krisenbewältigung mit erheblichen zusätzlichen Ausgaben muss der Bund seine Steuereinnahmen sichern”, hatte Kay Scheller, Präsident des Bundesrechnungshofs, schon vor Jahren angemahnt.Bundesrechnungshof

Im Herbst 2022 zogen die Rechnungshöfe von Bund und Ländern eine vernichtende Bilanz des Megaprojekts. Nach 15 Jahren und Kosten in Höhe von 1,6 Milliarden Euro seien die Bemühungen in den Kernverfahren ohne Erfolg geblieben. Ob die bis 2026 eingeplanten weiteren 1,26 Milliarden Euro zum Gelingen des Vorhabens beitragen könnten, sei zweifelhaft. Mittlerweile gehen Beobachter davon aus, dass sich der Abschluss von KONSENS voraussichtlich bis 2029 verzögern werde. 

Die Rechnungsprüfer kritisierten, dass die Planung und die operative Steuerung von KONSENS in der Vergangenheit nicht hinreichend zielgerichtet und nicht tragfähig waren. Probleme und Verzögerungen seien im Finanzministerium wiederholt vertuscht worden. Keine guten Nachrichten über ein IT-System, über das in Deutschland ein Steuervolumen von rund 700 Milliarden Euro verwaltet werden soll.    

Finanzämtern droht der IT-Kollaps​ Weiterlesen »

IDC-Prognosen 2025: KI-Einsatz zwischen Herausforderungen und Chancen​

Allgemein

KI wird auch 2025 die entscheidende Figur im IT-Spiel bleiben.Shutterstock/Kenan Cemo Künstliche Intelligenz wird auch in Zukunft die Diskussionen unter IT-Entscheidern dominieren, doch das Geschehen bleibt nicht ausschließlich auf KI beschränkt. Themen wie Quantum Computing und über die Jahre aufgehäufte technische Schulden, aber auch die unternehmensweite Koordination der strategischen Investitionen gewinnen ebenfalls an Bedeutung. Obwohl die Menschen ganz offensichtlich unter einer gewissen KI-Müdigkeit leiden, bleibt das Thema Künstliche Intelligenz (KI) nach wie vor ein zentraler Aspekt in vielen Diskussionen der IT-Verantwortlichen. GenAI und andere Formen der KI dominieren die Gespräche auf CIO-Ebene. Gleichzeitig spielen externe Faktoren wie politische Wahlen, das Schwächeln bestimmter Branchen und die sich verändernde geopolitische Landschaft eine wesentliche Rolle, wenn wir in die IT-Zukunft blicken. Technologieinvestitionen im Wandel: Resilienz und Innovation als Schlüssel zum Erfolg Im Kontext von Technologieinvestitionen stehen zwei Kriterien ganz klar im Vordergrund: Konzentrieren Sie sich auf die Dinge, die Sie kontrollieren können, und bereiten Sie sich auf das Unerwartete vor. Es wird in den nächsten Monaten in erster Linie darum gehen, Resilienz aufzubauen und Innovationen voranzutreiben, um der Konkurrenz einen Schritt voraus zu sein und sich schnell neu auszurichten zu können. Grundsätzlich wird KI in allem, was wir als Verbraucher, Unternehmen oder Gesellschaft tun, präsent sein. Klar ist, dass KI in allen Bereichen unseres Lebens – sei es als Verbraucher, Unternehmen oder Gesellschaft – eine Rolle spielen wird. IDC taxiert das kumulierte Ausgabenvolumen rund um KI weltweit zwischen 2024 und 2030 auf 19,9 Billionen Dollar. Rückblick auf 2024: Trends und Herausforderungen in der IT Beschleunigtes Wachstum der IT-Ausgaben Die Divergenz zwischen IT-Ausgaben und BIP-Wachstum, die 2017 begann, hat sich in diesem Jahr weiter beschleunigt: Die IT-Ausgaben stiegen fünfmal schneller als das BIP. Dieser Trend wird voraussichtlich konstant positiv bleiben, angetrieben von Software-Infrastrukturen, insbesondere SaaS, wobei IaaS um mehr als 20 Prozent wächst. Herausforderungen bei Investitionen in KI Allein in der EMEA-Region haben die KI-Ausgaben 50 Milliarden Dollar erreicht und werden bis 2025 voraussichtlich um 35 Prozent steigen. Die größte Herausforderung im Jahr 2024 war es, die hohen Wachstumserwartungen auf Geschäftsebene zu erfüllen, während gleichzeitig die Investitionen in KI dramatisch zunahmen, jedoch die Renditen für viele Unternehmen begrenzt blieben. In der EMEA-Region bestätigten IDC-Umfragen, dass im Durchschnitt von 37 Proof-of-Concepts nur fünf in die Produktion übergegangen sind, von denen dann auch nur drei als erfolgreich eingestuft wurden. Diese Aktivitäten im Bereich der Innovation sind zunächst einmal positiv zu bewerten. Dennoch hören wir auch Stimmen, dass wir in Europa bei Thema KI nach wie vor zu langsam vorankommen. Trotz großer Investitionen in Zeit, Mühe und Geld bleibt die Rendite oft aus – ähnlich dem Hype um digitale Innovationen vor einigen Jahren. Bekannte Herausforderungen bleiben bestehen: Kosten und ROI, Kompetenzentwicklung, das Aufbrechen von Silos, strategische Ausrichtung und technische Schulden, die erst einmal abgebaut werden müssen. Strategien zur Wertschöpfung: Time to Value Erfahrungen von CxOs In den zurückliegenden Monaten haben wir zahlreiche Gespräche mit CxOs geführt, um zu verstehen, wie sie ihre KI-Strategien entwickeln. Ein spannendes Beispiel ist die Brauerei Carlsberg, hier gewährte uns CIO Michael Carstens interessante Einblicke. Das Unternehmen verfolgt eine duale Strategie, die in verschiedene Richtungen innerhalb der Unternehmenshierarchien zielt. Der Bottom-up-Ansatz ermutigt Early Adopters innerhalb des Unternehmens, mit KI-Tools zu experimentieren, was wiederum Innovation und Engagement fördert. Umgekehrt bietet der Top-down-Ansatz einen strukturierten Rahmen, der sich auf den Wert und spezifische Anwendungsfälle konzentriert, die mit den strategischen Zielen des Unternehmens übereinstimmen. Diese Doppelstrategie zielt darauf ab, Innovation mit strategischer Ausrichtung in Einklang zu bringen. Überwindung von Silos und Einbindung von Stakeholdern Um sicherzustellen, dass KI-Initiativen strategisch ausgerichtet sind, müssen Silos überwunden und wichtige Stakeholder funktionsübergreifend eingebunden werden. Wir prognostizieren, dass bis 2026 etwa 30 Prozent der großen Unternehmen in der EMEA-Region ihre Conversion Rates verdreifachen und die ROI-Fristen auf unter ein Jahr verkürzen werden, indem sie von abteilungsbezogener KI auf skalierbare, funktionsübergreifende KI-Anwendungen umsteigen. Wir erwarten, dass sich die durchschnittliche Time-to-Value von über 18 Monaten auf unter 12 Monate reduzieren wird. Die Rolle einheitlicher KI-Plattformen in Unternehmen Entwicklung von zertifizierten KI-Stacks Anbieter und Akteure des KI-Ökosystems bewegen sich in Richtung gemeinsam entwickelter zertifizierter Stacks und verwalteter Plattformen, um KI-Bereitstellungen zu beschleunigen und Risiken zu verringern. KI-Plattformen erleichtern die Entwicklung von Modellen und Anwendungen der Künstlichen Intelligenz, einschließlich intelligenter Assistenten, die menschliche kognitive Fähigkeiten nachahmen können. Zu den Technologiekomponenten von KI-Plattformen gehören maschinelles Lernen, Deep Learning, generative KI, Verarbeitung natürlicher Sprache und Textanalyse. Wettbewerbslandschaft und Fragmentierung im KI-Plattformmarkt Aktuell wird der Markt für KI-Plattformen von Unternehmen wie Microsoft, Palantir, OpenAI, Google und AWS angeführt, ist jedoch weiterhin sehr fragmentiert. Infrastrukturanbieter gehen strategische Partnerschaften ein, um in das Spiel einzusteigen. Auch Unternehmen, die sich als Technologieanbieter verstehen, wie Siemens und Bosch, denken zunehmend über ihre Plattformstrategien als potenzielles Produkt nach. Plattformen sind entscheidend, um Anwendungen, Daten, Prozesse und Workflows zu koordinieren und zu vereinheitlichen, wodurch eine echte Differenzierung für Betrieb und Innovation gefördert wird. Weiterhin starke Nachfrage nach KI-Plattformen Wir glauben, dass bis 2027 rund 35 Prozent der großen Unternehmen in EMEA einheitliche KI-Plattformen einsetzen werden, um ihre Skalierbarkeit und Differenzierung zu erhöhen. Das Ziel dabei: Ein langfristiges Umsatzwachstum zu erzielen, das doppelt so hoch ist wie der Marktdurchschnitt. Wenn Unternehmen auf ein einheitliches KI-Plattformmodell umstellen können, schaffen sie eine Grundlage, die Governance, KI-fähige Daten, Entwicklungs- und Bereitstellungstools sowie eine Infrastruktur umfasst. Eine solche Basis soll die Skalierung und den schnelleren Übergang vom POC zur Produktion ermöglichen und den Weg zur Wertschöpfung beschleunigen. Plattformmodelle unterstützen auch die Innovation, indem sie die Integration neuer und kleinerer Modelle in diesem schnelllebigen Bereich erleichtern, mit synthetischen Daten arbeiten können sowie außerdem Risiken mindern und die Beobachtbarkeit verbessern. Keine Daten, keine KI: Daten als Grundlage für Künstliche Intelligenz Bedeutung der Datenarchitektur In vielen Bereichen verspricht KI Potenzial für mehr Optimierung und Automatisierung. Klar ist jedoch auch, dass die Daten nicht auf magische Weise ohne die entsprechende Datenarchitektur dafür bereitstehen werden. Das IDC-Datenarchitekturmodell hilft Unternehmen, sich auf die Anforderungen eines intelligenten Unternehmens vorzubereiten, und bietet einen Rahmen, der alle Ebenen umfasst: Datenebene: Umfasst alle Arten von Daten, die verwaltet werden müssen – strukturierte, halbstrukturierte und unstrukturierte Daten. Diese Daten sind über verschiedene Regionen und Teile der Organisation verteilt und dynamisch, was ihre Aktualisierung und den Zugang angeht. Wahrscheinlich haben Unternehmen in Technologien wie Datenbanken, Data Warehouses und Data Lakes investiert, um diese Daten zu speichern, zu organisieren und zu verwalten. Datensteuerungsebene: Bezieht sich auf die Art und Weise, wie Daten zur Unterstützung verschiedener Geschäftsaktivitäten aufbereitet werden. Hier stellen Data Engineers den Kontext für die Daten her, und Governance-Techniken wie Datenintegrität werden zur Unterstützung von KI-Modellen angewendet. Datensyntheseebene: Hier werden die Daten für KI-Anwendungsfälle aufbereitet. Dies ist der Ort, an dem KI-Workflows wie Training, Tuning, Grounding und Inferencing stattfinden. Es handelt sich um Technologien, in die Unternehmen investieren müssen. Geschäftsaktivitätsebene: Hier finden Geschäftsaktionen wie Entscheidungsfindung, Optimierung, Veröffentlichung, Katalogisierung und Kommunikation als Ergebnisse der KI-gestützten Datenauswertung statt. In dieser Ebene spiegeln sich auch die breiteren Aktivitäten wider, die durch GenAI gefördert werden. Die entscheidende Rolle der Datensteuerung Die Datensteuerungsebene ist der Dreh- und Angelpunkt zwischen Daten sowie deren Synthese und ist somit entscheidend für die KI-Fähigkeit. Damit die Daten KI-fähig sind, ist es notwendig, über das herkömmliche Datenmanagement hinauszugehen, das sich lediglich auf Konsistenz und Integrität fokussiert. Wenn Unternehmen ihre Daten aus der Perspektive eines Produkts betrachten, erhalten sie Klarheit über die Maßnahmen, die erforderlich sind, um die Nutzung und das Management ihrer Daten zu optimieren und daraus geschäftlichen Mehrwert zu generieren. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> Viele Unternehmen haben sich in eine Form des Co-Pilot-Modells eingekauft, während nur sehr wenige bereit sind, in eigene LLMs zu investieren. Über die Hälfte der Unternehmen konzentrieren sich aus Gründen der Geschwindigkeit, Qualität und Kosten darauf, Daten zusammenzustellen und zu überlagern. Wir gehen davon aus, dass Unternehmen zunehmend von realen Daten auf synthetische Daten umsteigen. Dabei dürften Vorteile wie Verfügbarkeit, Vielfalt, Datenschutz, Skalierbarkeit und Kosteneffizienz die potenziellen Nachteile überwiegen. So erwarten wir bereits für 2025, dass 30 Prozent der großen Unternehmen in EMEA synthetische Daten zur Ausbildung von KI-Modellen nutzen. Dies könnte zudem die Übergangszeiten von KI-Anwendungsfällen vom POC zur Produktion um den Faktor vier verkürzen. Vertrauen aufbauen: Sicherheit und Transparenz in KI-Strategien Trust als Schlüsselfaktor Ein wichtiges Diskussionsthema im Bereich KI und Technologie ist der Aufbau einer verantwortungsbewussten und vertrauenswürdigen Strategie. Ein grundlegender Aspekt in Fragen des Vertrauens ist die Sicherheit. Es überrascht nicht, dass die Ausgaben für Security voraussichtlich von 60,4 Milliarden Dollar im Jahr 2024 auf 108,7 Milliarden Dollar im Jahr 2028 steigen werden. Unternehmen sehen sich mit der Herausforderung konfrontiert, das Vertrauen, das sie in ihren Organisationen und ihren KI-Anwendungen aufbauen, zu messen und die entsprechenden Ergebnisse auch ihren Stakeholdern und der Öffentlichkeit gegenüber zu kommunizieren. Trust Score: Messung des Vertrauens in Daten und KI-Anwendungen IDC prognostiziert, dass bis 2028 ein Fünftel der Unternehmen in EMEA einen überprüfbaren Vertrauenswert für ihre Datenhygiene einführen werden, um diesen extern zu kommunizieren, Investitionen zu generieren und damit die Einführung von KI zu fördern. Diese Idee haben wir kürzlich auf einer Veranstaltung mit der CISO-Community diskutiert. Alle Beteiligten waren sich einig, dass es herausfordernd, aber nicht unmöglich ist, einen solchen Trust Score zu etablieren. Ein Trust Score könnte sich wie ein Net Promoter Score darstellen oder eine Kennzahl, die Unternehmen heute verwenden, um die Breite ihres Engagements für verantwortungsvolle KI zu messen, einschließlich Transparenz, Ethik, Datenschutz sowie Vielfalt und Inklusion. Es ist entscheidend, ein umfassendes Bild des Vertrauens in die KI-Modelle zu schaffen, das insbesondere auch den externen Stakeholdern vermittelt wird. Der Trust Score wird voraussichtlich stark das strengere regulatorische Umfeld in Europa widerspiegeln. Es ist durchaus komplex, sich in diesem Dschungel aus Regeln und Vorschriften zurechtzufinden, dennoch könnten Unternehmen diese Regelwerke dazu nutzen, um KI-Risiken zu managen. Denn letztendlich dreht sich alles um das Risikomanagement. Künstliche Intelligenz und der Mensch: Auswirkungen auf die Arbeitswelt Die zentrale Frage für Mitarbeitende Die zentrale Frage für viele Menschen in der aufziehenden KI-Ära lautet: Was habe ich davon? Und auf welche Art und Weise werde ich davon betroffen sein? Eine weltweite Prognose von IDC besagt, dass durch die Einführung neuer KI-gestützter Arbeitsmodelle bis 2030 rund 95 Prozent der derzeitigen Fachbereichs- und IT-Jobrollen neu definiert oder sogar ganz abgeschafft werden. Ein praktisches Beispiel dafür, wie KI die Arbeitswelt beeinflusst, ist Secret Escapes, ein Online-Reiseunternehmen, das exklusive Hotelangebote zu stark reduzierten Preisen anbietet. Bei Secret Escapes kommen Self-Service-Agenten zum Einsatz, die den Kunden bei speziellen Buchungsanfragen oder zur Klärung von Fluginformationen helfen. Diese Agenten können einfache, oft wiederkehrende Fragen automatisch beantworten, wodurch die Bearbeitungszeit verkürzt und der Kundenservice insgesamt verbessert wird. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?utm_source=oembed”> Obwohl diese Implementierung einfach erscheinen mag, erfordert sie eine sorgfältige Planung, da es viele verschiedene Buchungsoptionen und Kundenanfragen gibt, die berücksichtigt werden müssen. Die Ergebnisse sind jedoch bemerkenswert: Durch den Einsatz dieser Agenten konnte Secret Escapes die durchschnittliche Anzahl der Kundenanfragen um 45 Prozent reduzieren – vorausgesetzt, die von den Kunden bereitgestellten Informationen sind korrekt. Das ist in einem dynamischen Umfeld nicht einfach und wenn es schief geht, wie wir zum Beispiel bei der Fluggesellschaft Delta Airlines gesehen haben, landet ein Unternehmen schnell in den Schlagzeilen. Klappt es dagegen, führt es zu einer höheren Kundenzufriedenheit, da die Nutzerinnen und Nutzer schneller die gewünschten Antworten erhalten. Varianten von Agenten in der Zukunft Zukünftig werden wir verschiedene Arten von Agenten sehen, die in unterschiedlichen Rollen agieren und eng mit den Mitarbeitenden in den Betrieben zusammenarbeiten. Je nach gewünschtem Ergebnis wird auch das Vertrauen, das den Daten und Modellen hinter den Agenten innewohnt, variieren – von einfachen Assistenten, die spezifische Aufgaben erledigen, bis hin zu autonomen Agenten oder Agentenflotten, die eigenständig Handlungen durchführen und gegebenenfalls sogar andere Menschen einstellen können. Wir erwarten, dass sich die Art und Weise, wie wir mit Anwendungen interagieren, ändert. Anstelle der traditionellen Interaktion mit Benutzeroberflächen wird der Fokus künftig auf einer natürlicheren Kommunikation mit Fragen und Antworten liegen. Angesichts der wachsenden Zahl von Agenten werden einheitliche und vernetzte Plattformen für deren Koordination in der Organisation entscheidend sein. Change Management als bedeutende Herausforderung Ein Aspekt, der oft vergessen wird, ist, dass die KI-Einführung eine nicht zu unterschätzende Change-Management-Übung darstellt. Unternehmen, die es schaffen, sich von ihren Mitbewerbern abzuheben, werden Programme aufsetzen, um ihre Mitarbeitenden zu schulen, Ängste abzubauen und Innovationen zu fördern, indem sie alle auf die KI-Reise mitnehmen. Hier gilt der internationale Pharmakonzern AstraZeneca als Best Practice. Wir glauben, dass bis 2026 vier von zehn der großen Unternehmen in EMEA, die kontinuierliches Lernen priorisieren, um Rollenwechsel aufgrund des KI-Einsatzes zu unterstützen, ihre Wettbewerber in Bezug auf Mitarbeiterproduktivität voraussichtlich um 60 Prozent übertreffen werden. Es geht hier darum, den Menschen und nicht Tools in den Vordergrund zu stellen, um die KI-Reise und den Mehrwert zu schaffen. Fazit: Die Zukunft von KI und technologiegetriebenen Veränderungen Technologisch wird es in Zukunft nicht nur um KI gehen. Denken Sie an Quantum Computing, Raumfahrttechnologie, 6G und viele weitere Bereiche. Die Cloud wird weiterhin sehr relevant bleiben, aber Unternehmen werden differenziert an die Workloads herangehen und verschiedene Deployment-Optionen wählen. Unternehmen müssen und sollten auch in Infrastruktur, Software und Dienstleistungen investieren, um sich von Grund auf zu modernisieren und neue Partnerschaften sowie Ökosysteme aufzubauen. KI wird dabei in vielerlei Hinsicht eine zentrale Rolle spielen. Das gilt auch für unser aller Leben. Wir können dem Fortschritt nicht entkommen, aber wir können ihn aktiv gestalten und uns darauf vorbereiten. Vor einiger Zeit haben wir mit Stefan Henkel, CIO bei Siemens Healthineers, gesprochen, der es treffend zusammenfasste: „Wir müssen unsere Mitarbeiter vorbereiten und schulen, Lernpfade schaffen und in die Zukunft führen – und die Zukunft wird rosig.“ 

IDC-Prognosen 2025: KI-Einsatz zwischen Herausforderungen und Chancen​ KI wird auch 2025 die entscheidende Figur im IT-Spiel bleiben.Shutterstock/Kenan Cemo

Künstliche Intelligenz wird auch in Zukunft die Diskussionen unter IT-Entscheidern dominieren, doch das Geschehen bleibt nicht ausschließlich auf KI beschränkt. Themen wie Quantum Computing und über die Jahre aufgehäufte technische Schulden, aber auch die unternehmensweite Koordination der strategischen Investitionen gewinnen ebenfalls an Bedeutung.

Obwohl die Menschen ganz offensichtlich unter einer gewissen KI-Müdigkeit leiden, bleibt das Thema Künstliche Intelligenz (KI) nach wie vor ein zentraler Aspekt in vielen Diskussionen der IT-Verantwortlichen. GenAI und andere Formen der KI dominieren die Gespräche auf CIO-Ebene. Gleichzeitig spielen externe Faktoren wie politische Wahlen, das Schwächeln bestimmter Branchen und die sich verändernde geopolitische Landschaft eine wesentliche Rolle, wenn wir in die IT-Zukunft blicken.

Technologieinvestitionen im Wandel: Resilienz und Innovation als Schlüssel zum Erfolg

Im Kontext von Technologieinvestitionen stehen zwei Kriterien ganz klar im Vordergrund:

Konzentrieren Sie sich auf die Dinge, die Sie kontrollieren können, und

bereiten Sie sich auf das Unerwartete vor.

Es wird in den nächsten Monaten in erster Linie darum gehen, Resilienz aufzubauen und Innovationen voranzutreiben, um der Konkurrenz einen Schritt voraus zu sein und sich schnell neu auszurichten zu können. Grundsätzlich wird KI in allem, was wir als Verbraucher, Unternehmen oder Gesellschaft tun, präsent sein. Klar ist, dass KI in allen Bereichen unseres Lebens – sei es als Verbraucher, Unternehmen oder Gesellschaft – eine Rolle spielen wird. IDC taxiert das kumulierte Ausgabenvolumen rund um KI weltweit zwischen 2024 und 2030 auf 19,9 Billionen Dollar.

Rückblick auf 2024: Trends und Herausforderungen in der IT

Beschleunigtes Wachstum der IT-Ausgaben

Die Divergenz zwischen IT-Ausgaben und BIP-Wachstum, die 2017 begann, hat sich in diesem Jahr weiter beschleunigt: Die IT-Ausgaben stiegen fünfmal schneller als das BIP. Dieser Trend wird voraussichtlich konstant positiv bleiben, angetrieben von Software-Infrastrukturen, insbesondere SaaS, wobei IaaS um mehr als 20 Prozent wächst.

Herausforderungen bei Investitionen in KI

Allein in der EMEA-Region haben die KI-Ausgaben 50 Milliarden Dollar erreicht und werden bis 2025 voraussichtlich um 35 Prozent steigen. Die größte Herausforderung im Jahr 2024 war es, die hohen Wachstumserwartungen auf Geschäftsebene zu erfüllen, während gleichzeitig die Investitionen in KI dramatisch zunahmen, jedoch die Renditen für viele Unternehmen begrenzt blieben.

In der EMEA-Region bestätigten IDC-Umfragen, dass im Durchschnitt von 37 Proof-of-Concepts nur fünf in die Produktion übergegangen sind, von denen dann auch nur drei als erfolgreich eingestuft wurden. Diese Aktivitäten im Bereich der Innovation sind zunächst einmal positiv zu bewerten. Dennoch hören wir auch Stimmen, dass wir in Europa bei Thema KI nach wie vor zu langsam vorankommen.

Trotz großer Investitionen in Zeit, Mühe und Geld bleibt die Rendite oft aus – ähnlich dem Hype um digitale Innovationen vor einigen Jahren. Bekannte Herausforderungen bleiben bestehen: Kosten und ROI, Kompetenzentwicklung, das Aufbrechen von Silos, strategische Ausrichtung und technische Schulden, die erst einmal abgebaut werden müssen.

Strategien zur Wertschöpfung: Time to Value

Erfahrungen von CxOs

In den zurückliegenden Monaten haben wir zahlreiche Gespräche mit CxOs geführt, um zu verstehen, wie sie ihre KI-Strategien entwickeln. Ein spannendes Beispiel ist die Brauerei Carlsberg, hier gewährte uns CIO Michael Carstens interessante Einblicke. Das Unternehmen verfolgt eine duale Strategie, die in verschiedene Richtungen innerhalb der Unternehmenshierarchien zielt.

Der Bottom-up-Ansatz ermutigt Early Adopters innerhalb des Unternehmens, mit KI-Tools zu experimentieren, was wiederum Innovation und Engagement fördert. Umgekehrt bietet der Top-down-Ansatz einen strukturierten Rahmen, der sich auf den Wert und spezifische Anwendungsfälle konzentriert, die mit den strategischen Zielen des Unternehmens übereinstimmen. Diese Doppelstrategie zielt darauf ab, Innovation mit strategischer Ausrichtung in Einklang zu bringen.

Überwindung von Silos und Einbindung von Stakeholdern

Um sicherzustellen, dass KI-Initiativen strategisch ausgerichtet sind, müssen Silos überwunden und wichtige Stakeholder funktionsübergreifend eingebunden werden. Wir prognostizieren, dass bis 2026 etwa 30 Prozent der großen Unternehmen in der EMEA-Region ihre Conversion Rates verdreifachen und die ROI-Fristen auf unter ein Jahr verkürzen werden, indem sie von abteilungsbezogener KI auf skalierbare, funktionsübergreifende KI-Anwendungen umsteigen. Wir erwarten, dass sich die durchschnittliche Time-to-Value von über 18 Monaten auf unter 12 Monate reduzieren wird.

Die Rolle einheitlicher KI-Plattformen in Unternehmen

Entwicklung von zertifizierten KI-Stacks

Anbieter und Akteure des KI-Ökosystems bewegen sich in Richtung gemeinsam entwickelter zertifizierter Stacks und verwalteter Plattformen, um KI-Bereitstellungen zu beschleunigen und Risiken zu verringern. KI-Plattformen erleichtern die Entwicklung von Modellen und Anwendungen der Künstlichen Intelligenz, einschließlich intelligenter Assistenten, die menschliche kognitive Fähigkeiten nachahmen können. Zu den Technologiekomponenten von KI-Plattformen gehören maschinelles Lernen, Deep Learning, generative KI, Verarbeitung natürlicher Sprache und Textanalyse.

Wettbewerbslandschaft und Fragmentierung im KI-Plattformmarkt

Aktuell wird der Markt für KI-Plattformen von Unternehmen wie Microsoft, Palantir, OpenAI, Google und AWS angeführt, ist jedoch weiterhin sehr fragmentiert. Infrastrukturanbieter gehen strategische Partnerschaften ein, um in das Spiel einzusteigen. Auch Unternehmen, die sich als Technologieanbieter verstehen, wie Siemens und Bosch, denken zunehmend über ihre Plattformstrategien als potenzielles Produkt nach. Plattformen sind entscheidend, um Anwendungen, Daten, Prozesse und Workflows zu koordinieren und zu vereinheitlichen, wodurch eine echte Differenzierung für Betrieb und Innovation gefördert wird.

Weiterhin starke Nachfrage nach KI-Plattformen

Wir glauben, dass bis 2027 rund 35 Prozent der großen Unternehmen in EMEA einheitliche KI-Plattformen einsetzen werden, um ihre Skalierbarkeit und Differenzierung zu erhöhen. Das Ziel dabei: Ein langfristiges Umsatzwachstum zu erzielen, das doppelt so hoch ist wie der Marktdurchschnitt.

Wenn Unternehmen auf ein einheitliches KI-Plattformmodell umstellen können, schaffen sie eine Grundlage, die Governance, KI-fähige Daten, Entwicklungs- und Bereitstellungstools sowie eine Infrastruktur umfasst. Eine solche Basis soll die Skalierung und den schnelleren Übergang vom POC zur Produktion ermöglichen und den Weg zur Wertschöpfung beschleunigen. Plattformmodelle unterstützen auch die Innovation, indem sie die Integration neuer und kleinerer Modelle in diesem schnelllebigen Bereich erleichtern, mit synthetischen Daten arbeiten können sowie außerdem Risiken mindern und die Beobachtbarkeit verbessern.

Keine Daten, keine KI: Daten als Grundlage für Künstliche Intelligenz

Bedeutung der Datenarchitektur

In vielen Bereichen verspricht KI Potenzial für mehr Optimierung und Automatisierung. Klar ist jedoch auch, dass die Daten nicht auf magische Weise ohne die entsprechende Datenarchitektur dafür bereitstehen werden. Das IDC-Datenarchitekturmodell hilft Unternehmen, sich auf die Anforderungen eines intelligenten Unternehmens vorzubereiten, und bietet einen Rahmen, der alle Ebenen umfasst:

Datenebene: Umfasst alle Arten von Daten, die verwaltet werden müssen – strukturierte, halbstrukturierte und unstrukturierte Daten. Diese Daten sind über verschiedene Regionen und Teile der Organisation verteilt und dynamisch, was ihre Aktualisierung und den Zugang angeht. Wahrscheinlich haben Unternehmen in Technologien wie Datenbanken, Data Warehouses und Data Lakes investiert, um diese Daten zu speichern, zu organisieren und zu verwalten.

Datensteuerungsebene: Bezieht sich auf die Art und Weise, wie Daten zur Unterstützung verschiedener Geschäftsaktivitäten aufbereitet werden. Hier stellen Data Engineers den Kontext für die Daten her, und Governance-Techniken wie Datenintegrität werden zur Unterstützung von KI-Modellen angewendet.

Datensyntheseebene: Hier werden die Daten für KI-Anwendungsfälle aufbereitet. Dies ist der Ort, an dem KI-Workflows wie Training, Tuning, Grounding und Inferencing stattfinden. Es handelt sich um Technologien, in die Unternehmen investieren müssen.

Geschäftsaktivitätsebene: Hier finden Geschäftsaktionen wie Entscheidungsfindung, Optimierung, Veröffentlichung, Katalogisierung und Kommunikation als Ergebnisse der KI-gestützten Datenauswertung statt. In dieser Ebene spiegeln sich auch die breiteren Aktivitäten wider, die durch GenAI gefördert werden.

Die entscheidende Rolle der Datensteuerung

Die Datensteuerungsebene ist der Dreh- und Angelpunkt zwischen Daten sowie deren Synthese und ist somit entscheidend für die KI-Fähigkeit. Damit die Daten KI-fähig sind, ist es notwendig, über das herkömmliche Datenmanagement hinauszugehen, das sich lediglich auf Konsistenz und Integrität fokussiert. Wenn Unternehmen ihre Daten aus der Perspektive eines Produkts betrachten, erhalten sie Klarheit über die Maßnahmen, die erforderlich sind, um die Nutzung und das Management ihrer Daten zu optimieren und daraus geschäftlichen Mehrwert zu generieren.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

Viele Unternehmen haben sich in eine Form des Co-Pilot-Modells eingekauft, während nur sehr wenige bereit sind, in eigene LLMs zu investieren. Über die Hälfte der Unternehmen konzentrieren sich aus Gründen der Geschwindigkeit, Qualität und Kosten darauf, Daten zusammenzustellen und zu überlagern.

Wir gehen davon aus, dass Unternehmen zunehmend von realen Daten auf synthetische Daten umsteigen. Dabei dürften Vorteile wie Verfügbarkeit, Vielfalt, Datenschutz, Skalierbarkeit und Kosteneffizienz die potenziellen Nachteile überwiegen. So erwarten wir bereits für 2025, dass 30 Prozent der großen Unternehmen in EMEA synthetische Daten zur Ausbildung von KI-Modellen nutzen. Dies könnte zudem die Übergangszeiten von KI-Anwendungsfällen vom POC zur Produktion um den Faktor vier verkürzen.

Vertrauen aufbauen: Sicherheit und Transparenz in KI-Strategien

Trust als Schlüsselfaktor

Ein wichtiges Diskussionsthema im Bereich KI und Technologie ist der Aufbau einer verantwortungsbewussten und vertrauenswürdigen Strategie. Ein grundlegender Aspekt in Fragen des Vertrauens ist die Sicherheit. Es überrascht nicht, dass die Ausgaben für Security voraussichtlich von 60,4 Milliarden Dollar im Jahr 2024 auf 108,7 Milliarden Dollar im Jahr 2028 steigen werden. Unternehmen sehen sich mit der Herausforderung konfrontiert, das Vertrauen, das sie in ihren Organisationen und ihren KI-Anwendungen aufbauen, zu messen und die entsprechenden Ergebnisse auch ihren Stakeholdern und der Öffentlichkeit gegenüber zu kommunizieren.

Trust Score: Messung des Vertrauens in Daten und KI-Anwendungen

IDC prognostiziert, dass bis 2028 ein Fünftel der Unternehmen in EMEA einen überprüfbaren Vertrauenswert für ihre Datenhygiene einführen werden, um diesen extern zu kommunizieren, Investitionen zu generieren und damit die Einführung von KI zu fördern. Diese Idee haben wir kürzlich auf einer Veranstaltung mit der CISO-Community diskutiert. Alle Beteiligten waren sich einig, dass es herausfordernd, aber nicht unmöglich ist, einen solchen Trust Score zu etablieren.

Ein Trust Score könnte sich wie ein Net Promoter Score darstellen oder eine Kennzahl, die Unternehmen heute verwenden, um die Breite ihres Engagements für verantwortungsvolle KI zu messen, einschließlich Transparenz, Ethik, Datenschutz sowie Vielfalt und Inklusion. Es ist entscheidend, ein umfassendes Bild des Vertrauens in die KI-Modelle zu schaffen, das insbesondere auch den externen Stakeholdern vermittelt wird.

Der Trust Score wird voraussichtlich stark das strengere regulatorische Umfeld in Europa widerspiegeln. Es ist durchaus komplex, sich in diesem Dschungel aus Regeln und Vorschriften zurechtzufinden, dennoch könnten Unternehmen diese Regelwerke dazu nutzen, um KI-Risiken zu managen. Denn letztendlich dreht sich alles um das Risikomanagement.

Künstliche Intelligenz und der Mensch: Auswirkungen auf die Arbeitswelt

Die zentrale Frage für Mitarbeitende

Die zentrale Frage für viele Menschen in der aufziehenden KI-Ära lautet: Was habe ich davon? Und auf welche Art und Weise werde ich davon betroffen sein? Eine weltweite Prognose von IDC besagt, dass durch die Einführung neuer KI-gestützter Arbeitsmodelle bis 2030 rund 95 Prozent der derzeitigen Fachbereichs- und IT-Jobrollen neu definiert oder sogar ganz abgeschafft werden.

Ein praktisches Beispiel dafür, wie KI die Arbeitswelt beeinflusst, ist Secret Escapes, ein Online-Reiseunternehmen, das exklusive Hotelangebote zu stark reduzierten Preisen anbietet. Bei Secret Escapes kommen Self-Service-Agenten zum Einsatz, die den Kunden bei speziellen Buchungsanfragen oder zur Klärung von Fluginformationen helfen. Diese Agenten können einfache, oft wiederkehrende Fragen automatisch beantworten, wodurch die Bearbeitungszeit verkürzt und der Kundenservice insgesamt verbessert wird.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?utm_source=oembed”>

Obwohl diese Implementierung einfach erscheinen mag, erfordert sie eine sorgfältige Planung, da es viele verschiedene Buchungsoptionen und Kundenanfragen gibt, die berücksichtigt werden müssen. Die Ergebnisse sind jedoch bemerkenswert: Durch den Einsatz dieser Agenten konnte Secret Escapes die durchschnittliche Anzahl der Kundenanfragen um 45 Prozent reduzieren – vorausgesetzt, die von den Kunden bereitgestellten Informationen sind korrekt.

Das ist in einem dynamischen Umfeld nicht einfach und wenn es schief geht, wie wir zum Beispiel bei der Fluggesellschaft Delta Airlines gesehen haben, landet ein Unternehmen schnell in den Schlagzeilen. Klappt es dagegen, führt es zu einer höheren Kundenzufriedenheit, da die Nutzerinnen und Nutzer schneller die gewünschten Antworten erhalten.

Varianten von Agenten in der Zukunft

Zukünftig werden wir verschiedene Arten von Agenten sehen, die in unterschiedlichen Rollen agieren und eng mit den Mitarbeitenden in den Betrieben zusammenarbeiten. Je nach gewünschtem Ergebnis wird auch das Vertrauen, das den Daten und Modellen hinter den Agenten innewohnt, variieren – von einfachen Assistenten, die spezifische Aufgaben erledigen, bis hin zu autonomen Agenten oder Agentenflotten, die eigenständig Handlungen durchführen und gegebenenfalls sogar andere Menschen einstellen können.

Wir erwarten, dass sich die Art und Weise, wie wir mit Anwendungen interagieren, ändert. Anstelle der traditionellen Interaktion mit Benutzeroberflächen wird der Fokus künftig auf einer natürlicheren Kommunikation mit Fragen und Antworten liegen. Angesichts der wachsenden Zahl von Agenten werden einheitliche und vernetzte Plattformen für deren Koordination in der Organisation entscheidend sein.

Change Management als bedeutende Herausforderung

Ein Aspekt, der oft vergessen wird, ist, dass die KI-Einführung eine nicht zu unterschätzende Change-Management-Übung darstellt. Unternehmen, die es schaffen, sich von ihren Mitbewerbern abzuheben, werden Programme aufsetzen, um ihre Mitarbeitenden zu schulen, Ängste abzubauen und Innovationen zu fördern, indem sie alle auf die KI-Reise mitnehmen. Hier gilt der internationale Pharmakonzern AstraZeneca als Best Practice.

Wir glauben, dass bis 2026 vier von zehn der großen Unternehmen in EMEA, die kontinuierliches Lernen priorisieren, um Rollenwechsel aufgrund des KI-Einsatzes zu unterstützen, ihre Wettbewerber in Bezug auf Mitarbeiterproduktivität voraussichtlich um 60 Prozent übertreffen werden. Es geht hier darum, den Menschen und nicht Tools in den Vordergrund zu stellen, um die KI-Reise und den Mehrwert zu schaffen.

Fazit: Die Zukunft von KI und technologiegetriebenen Veränderungen

Technologisch wird es in Zukunft nicht nur um KI gehen. Denken Sie an Quantum Computing, Raumfahrttechnologie, 6G und viele weitere Bereiche. Die Cloud wird weiterhin sehr relevant bleiben, aber Unternehmen werden differenziert an die Workloads herangehen und verschiedene Deployment-Optionen wählen. Unternehmen müssen und sollten auch in Infrastruktur, Software und Dienstleistungen investieren, um sich von Grund auf zu modernisieren und neue Partnerschaften sowie Ökosysteme aufzubauen. KI wird dabei in vielerlei Hinsicht eine zentrale Rolle spielen.

Das gilt auch für unser aller Leben. Wir können dem Fortschritt nicht entkommen, aber wir können ihn aktiv gestalten und uns darauf vorbereiten. Vor einiger Zeit haben wir mit Stefan Henkel, CIO bei Siemens Healthineers, gesprochen, der es treffend zusammenfasste: „Wir müssen unsere Mitarbeiter vorbereiten und schulen, Lernpfade schaffen und in die Zukunft führen – und die Zukunft wird rosig.“

IDC-Prognosen 2025: KI-Einsatz zwischen Herausforderungen und Chancen​ Weiterlesen »

Huawei: Vom ITK-Anbieter zum diversifizierten Konzern​

Allgemein

Huawei-Automodelle in einem Flagship-Store des Unternehmens. Hill Trumps Sanktionen 2019 und die Verbannung von Huawei-Equipment aus zahlreichen europäischen 5G-Netzen trafen den Konzern hart. Zumal im Zuge des 3G/UMTS-Ausbaus zu Beginn der 2000er Jahre Europa zu einem der wichtigsten Märkte für Huawei wurde. Statt die Flinte ins Korn zu werfen, handelte das Unternehmen nach dem Motto: Aus Sanktionen entstehen Innovationen. Innerhalb kurzer Zeit entwickelte man eigene Chips und baute gleichzeitig rund 3.000 Software-Tools – inklusive eigenem ERP-System – nach. Und für die eigenen Smartphones kreierte die Company das Betriebssystem HarmonyOS als Android-Alternative. Diversifizierung Und das Management traf noch eine andere wichtige Entscheidung. Der Konzern sollte sich diversifizieren, um die Abhängigkeit von einzelnen Marktsegmenten zu reduzieren. Aus dem einstigen ITK-Anbieter entstand in kürzester Zeit ein Unternehmen, das heute in diversifizierten Geschäftsfeldern aktiv ist: Consumer, Enterprise/ICT, Digital Power, Intelligent Automotive Solutions. Gerade in letzterem Bereich konnte sich Huawei innerhalb von vier Jahren eine bedeutende Rolle als Zulieferer und Innovator in der Automobilindustrie aufbauen. Komponenten, Design, Digitalisierung und Marketing gibt es aus einer Hand. Allerdings war, beziehungsweise ist das Engagement bislang primär auf den chinesischen Markt beschränkt. Digitales Ökosystem fürs Auto Diversifizierung: Neben der Android-Alternative HarmonyOS offeriert Huawei mit HarmonyOS-Automotive auch ein Betriebssystem für das Auto. Hill Dabei fokussiert sich Huawei auf die Punkte, die in den nächsten Jahren die eigentliche Wertschöpfung im Automobilbau versprechen: die Digitalisierung der Fahrzeuge. Damit verfolgt das Unternehmen genau die Linie, die unser Podcast-Gast Jay Latta bereits vor zwei Jahren im TechTalk von den deutschen Autobauern forderte: Den Wandel vom Blechbieger zur Softwareschmiede. Hierzu hat Huawei ein komplettes Ökosystem rund um das digitale Fahrzeug entwickelt, bestehend aus: Intelligent Vehicle Cloud, Intelligent Driving, Intelligent Cockpit, Intelligent Automotive Optics, Intelligent Connectivity, Intelligent Vehicle Control, Intelligent Electrification. Cloud-Dienste und eigenes OS Autonomes Fahren made by Huawei. Hill Über die Cloud sollen dabei Services wie ein Vehicle History Record (VHR), digitale Schlüssel oder Security Services realisiert werden. Den Kontakt vom Fahrzeug in die Cloud sollen dann Kommunikationsmodule aus dem eigenen Haus gewährleisten. Zur Steuerung der internen Fahrzeugvorgänge wurden mit dem Vehicle Control Operating System (VOS) und HarmonyOS-Automotive (HOS-A) eigene Betriebssystem geschrieben. VOS übernimmt dabei die Steuerung der Fahrkomponenten. Dazu zählt etwa – neben physischen Komponenten – auch Huawei XMOTION. Alles aus einer Hand Alles aus einer Hand. Das Portfolio reicht von der Software bis hin zu Kameras für das intelligente Fahren. Hill Hierbei handelt es sich um ein intelligentes, kollaboratives Kontrollsystem, das Parameter wie Beschleunigung, Rollrate, Fahrzeugneigung etc. überwacht. Um eine möglichst komfortable Fahrt zu gewährleisten, kann das System aktiv in die Steuerung von Komponenten wie etwa die Federung eingreifen. Im Cockpit selbst, also auf dem Armaturenbrett, gibt dagegen HarmonyOS-Automotive den Ton an. Es steuert die Head-Unit-Module, die diversen Displays oder das Infotainment-System. Zudem erfolgt darüber die Bedienung des Advanced Driving System (ADS), wie Huawei eigene Plattform für das autonome, beziehungsweise assistierte Fahren heißt. Intelligente Komponenten Neben der Software hat das Unternehmen noch zahlreiche andere Bauteile für das intelligente Fahrzeug im Portfolio. Dazu gehören etwa 4-D-Radar, LiDAR oder leistungsfähige Kameras für das intelligente Fahren. Auch Projektionsscheinwerfer finden die OEMs bei Huawei. Auch Projektionsscheinwerfer finden OEMs bei Huawei. Hill Sehr aktiv ist der Konzern auch in Sachen Elektroantrieb. Sieht man einmal von den Batterien ab, so offeriert Huawei alles, was zum Bau eines ePowertrain erforderlich ist. Seien es die Motoren, MCUs, Power Distribution Units (PDUs), Onboard Charger (OBCs) oder Hochspannungs-DCDC-Wandler. Drei Business-Modelle Dabei beschränkt sich das Engagement des Unternehmens in Sachen Elektrifizierung nicht auf das Fahrzeug selbst. Dank Synergieeffekte mit dem Geschäftsbereich Digital Power vermarket man zudem leistungsfähige Ladestationen, um so auch beim Aufbau der Ladeinfrastruktur für die E-Mobilität mitmischen zu können. In Sachen Qualitätsanmutung muss sich die Konkurrenz aus China nicht mehr verstecken. Hill Mit diesem Portfolio im Hintergrund, sieht Huawei drei Geschäftsmodelle für die Zusammenarbeit mit der Autoindustrie:  Im einfachsten Fall ist man lediglich ein Zulieferer von einzelnen Modulen. Im zweiten Fall steuert man Komponenten und Software dazu bei, um dem OEM die Realisierung individueller Lösungen zu ermöglichen. Im dritten Fall liefert man dem Hersteller im Rahmen der Harmony Intelligent Mobility Alliance (HIMA) das komplette digitale Innenleben eines Fahrzeugs aus einer Hand. Angriff auf die Luxusklasse Die Ergebnisse dieser Kooperationen im Rahmen der HIMA sind in China mittlerweile in etlichen Huawei-Flagship-Stores zu sehen – etwa das in Kooperation mit Chery entstandene Modell Luxeed. Aus der Zusammenarbeit mit der Beijing Automotive Group (BAIC) stammt die Luxuslimousine Stelato S9. Und die Partnerschaft mit der chinesischen Seres Group war die Geburtsstunde für die Marke Aito, deren aktuelles Modell der M9 ist. Huawei Luxuslimousine Stelato S9. Hill Dabei müssen sich die Modelle in Sachen Qualitätsanmutung nicht vor ihren Konkurrenten verstecken. Die Tage der chinesischen Hartplastikbomber sind vorbei. Vielmehr können jetzt die deutschen Premiumhersteller in Sachen Verarbeitungsqualität und Digitalisierung von den chinesischen Herstellern lernen. Das gilt auch in Sachen Autonomen Fahren, wie eine Versuchsfahrt durch den Stadtverkehr von Shenzhen zeigt. Und es kommt für die deutschen Autobauer noch schlimmer. 2025 will Huawei mit dem Maextro S800, der in einem Join Venture mit dem chinesischen Produzenten JAC-Motor gebaut wird, zum Angriff auf die mobile Luxusklasse blasen. Im Visier sind dabei Mercedes-Maybach und Rolls-Royce/BMW. 

Huawei: Vom ITK-Anbieter zum diversifizierten Konzern​ Huawei-Automodelle in einem Flagship-Store des Unternehmens.
Hill

Trumps Sanktionen 2019 und die Verbannung von Huawei-Equipment aus zahlreichen europäischen 5G-Netzen trafen den Konzern hart. Zumal im Zuge des 3G/UMTS-Ausbaus zu Beginn der 2000er Jahre Europa zu einem der wichtigsten Märkte für Huawei wurde.

Statt die Flinte ins Korn zu werfen, handelte das Unternehmen nach dem Motto: Aus Sanktionen entstehen Innovationen. Innerhalb kurzer Zeit entwickelte man eigene Chips und baute gleichzeitig rund 3.000 Software-Tools – inklusive eigenem ERP-System – nach. Und für die eigenen Smartphones kreierte die Company das Betriebssystem HarmonyOS als Android-Alternative.

Diversifizierung

Und das Management traf noch eine andere wichtige Entscheidung. Der Konzern sollte sich diversifizieren, um die Abhängigkeit von einzelnen Marktsegmenten zu reduzieren. Aus dem einstigen ITK-Anbieter entstand in kürzester Zeit ein Unternehmen, das heute in diversifizierten Geschäftsfeldern aktiv ist:

Consumer,

Enterprise/ICT,

Digital Power,

Intelligent Automotive Solutions.

Gerade in letzterem Bereich konnte sich Huawei innerhalb von vier Jahren eine bedeutende Rolle als Zulieferer und Innovator in der Automobilindustrie aufbauen. Komponenten, Design, Digitalisierung und Marketing gibt es aus einer Hand. Allerdings war, beziehungsweise ist das Engagement bislang primär auf den chinesischen Markt beschränkt.

Digitales Ökosystem fürs Auto

Diversifizierung: Neben der Android-Alternative HarmonyOS offeriert Huawei mit HarmonyOS-Automotive auch ein Betriebssystem für das Auto.
Hill

Dabei fokussiert sich Huawei auf die Punkte, die in den nächsten Jahren die eigentliche Wertschöpfung im Automobilbau versprechen: die Digitalisierung der Fahrzeuge. Damit verfolgt das Unternehmen genau die Linie, die unser Podcast-Gast Jay Latta bereits vor zwei Jahren im TechTalk von den deutschen Autobauern forderte: Den Wandel vom Blechbieger zur Softwareschmiede.

Hierzu hat Huawei ein komplettes Ökosystem rund um das digitale Fahrzeug entwickelt, bestehend aus:

Intelligent Vehicle Cloud,

Intelligent Driving,

Intelligent Cockpit,

Intelligent Automotive Optics,

Intelligent Connectivity,

Intelligent Vehicle Control,

Intelligent Electrification.

Cloud-Dienste und eigenes OS

Autonomes Fahren made by Huawei.
Hill

Über die Cloud sollen dabei Services wie ein Vehicle History Record (VHR), digitale Schlüssel oder Security Services realisiert werden. Den Kontakt vom Fahrzeug in die Cloud sollen dann Kommunikationsmodule aus dem eigenen Haus gewährleisten.

Zur Steuerung der internen Fahrzeugvorgänge wurden mit dem Vehicle Control Operating System (VOS) und HarmonyOS-Automotive (HOS-A) eigene Betriebssystem geschrieben. VOS übernimmt dabei die Steuerung der Fahrkomponenten. Dazu zählt etwa – neben physischen Komponenten – auch Huawei XMOTION.

Alles aus einer Hand

Alles aus einer Hand. Das Portfolio reicht von der Software bis hin zu Kameras für das intelligente Fahren.
Hill

Hierbei handelt es sich um ein intelligentes, kollaboratives Kontrollsystem, das Parameter wie Beschleunigung, Rollrate, Fahrzeugneigung etc. überwacht. Um eine möglichst komfortable Fahrt zu gewährleisten, kann das System aktiv in die Steuerung von Komponenten wie etwa die Federung eingreifen.

Im Cockpit selbst, also auf dem Armaturenbrett, gibt dagegen HarmonyOS-Automotive den Ton an. Es steuert die Head-Unit-Module, die diversen Displays oder das Infotainment-System. Zudem erfolgt darüber die Bedienung des Advanced Driving System (ADS), wie Huawei eigene Plattform für das autonome, beziehungsweise assistierte Fahren heißt.

Intelligente Komponenten

Neben der Software hat das Unternehmen noch zahlreiche andere Bauteile für das intelligente Fahrzeug im Portfolio. Dazu gehören etwa 4-D-Radar, LiDAR oder leistungsfähige Kameras für das intelligente Fahren. Auch Projektionsscheinwerfer finden die OEMs bei Huawei.

Auch Projektionsscheinwerfer finden OEMs bei Huawei.
Hill

Sehr aktiv ist der Konzern auch in Sachen Elektroantrieb. Sieht man einmal von den Batterien ab, so offeriert Huawei alles, was zum Bau eines ePowertrain erforderlich ist. Seien es die Motoren, MCUs, Power Distribution Units (PDUs), Onboard Charger (OBCs) oder Hochspannungs-DCDC-Wandler.

Drei Business-Modelle

Dabei beschränkt sich das Engagement des Unternehmens in Sachen Elektrifizierung nicht auf das Fahrzeug selbst. Dank Synergieeffekte mit dem Geschäftsbereich Digital Power vermarket man zudem leistungsfähige Ladestationen, um so auch beim Aufbau der Ladeinfrastruktur für die E-Mobilität mitmischen zu können.

In Sachen Qualitätsanmutung muss sich die Konkurrenz aus China nicht mehr verstecken.
Hill

Mit diesem Portfolio im Hintergrund, sieht Huawei drei Geschäftsmodelle für die Zusammenarbeit mit der Autoindustrie:

 Im einfachsten Fall ist man lediglich ein Zulieferer von einzelnen Modulen.

Im zweiten Fall steuert man Komponenten und Software dazu bei, um dem OEM die Realisierung individueller Lösungen zu ermöglichen.

Im dritten Fall liefert man dem Hersteller im Rahmen der Harmony Intelligent Mobility Alliance (HIMA) das komplette digitale Innenleben eines Fahrzeugs aus einer Hand.

Angriff auf die Luxusklasse

Die Ergebnisse dieser Kooperationen im Rahmen der HIMA sind in China mittlerweile in etlichen Huawei-Flagship-Stores zu sehen – etwa das in Kooperation mit Chery entstandene Modell Luxeed. Aus der Zusammenarbeit mit der Beijing Automotive Group (BAIC) stammt die Luxuslimousine Stelato S9. Und die Partnerschaft mit der chinesischen Seres Group war die Geburtsstunde für die Marke Aito, deren aktuelles Modell der M9 ist.

Huawei Luxuslimousine Stelato S9.
Hill

Dabei müssen sich die Modelle in Sachen Qualitätsanmutung nicht vor ihren Konkurrenten verstecken. Die Tage der chinesischen Hartplastikbomber sind vorbei. Vielmehr können jetzt die deutschen Premiumhersteller in Sachen Verarbeitungsqualität und Digitalisierung von den chinesischen Herstellern lernen. Das gilt auch in Sachen Autonomen Fahren, wie eine Versuchsfahrt durch den Stadtverkehr von Shenzhen zeigt.

Und es kommt für die deutschen Autobauer noch schlimmer. 2025 will Huawei mit dem Maextro S800, der in einem Join Venture mit dem chinesischen Produzenten JAC-Motor gebaut wird, zum Angriff auf die mobile Luxusklasse blasen. Im Visier sind dabei Mercedes-Maybach und Rolls-Royce/BMW.

Huawei: Vom ITK-Anbieter zum diversifizierten Konzern​ Weiterlesen »

So nutzt Asien KI​

Allgemein

Viele asiatische KI-Anwendungen basieren auf dem Foundation-Modell Qwen von Alibaba Cloud.LanKS/Shutterstock.com Was die großen US-Hyperscaler für die westliche Welt in Sachen KI sind, ist in Asien die Alibaba Cloud. Auf ihrer Basis entstehen zahlreiche neue KI-Anwendungen. Dabei reicht die Bandbreite von LLMs (Large Language Models) bis hin zu KI-gestützten Bildtechnologien, die Unternehmen helfen, kundenorientierter zu arbeiten. Wir stellen fünf Beispiele vor: Beauty-Beratung per KI Drunk Elephant, eine bekannte Hautpflegemarke, hat das Foundation-Modell Qwen-max von Alibaba Cloud in seinen Chatbot DRUNKGPT integriert, um personalisierte Hautpflegeempfehlungen zu bieten. Der KI-gesteuerte Assistent wird mit einer Wissensdatenbank zur Hautpflege trainiert, um maßgeschneiderte Ratschläge zu geben. Dazu nutzt DRUNKGPT Technologien wie Supervised Fine-Tuning (SFT) und Retrieval Augmented Generation (RAG). Auf diese Weise will man auf dem chinesischen Markt die Antworten auf Kundenanfragen optimieren und relevanter gestalten. KI-Ernährungsberater Ebenfalls auf Qwen-LLM in Verbindung mit RAG-Technologie setzt Haleon China. Das Unternehmen entwickelte einen spezialisierten KI-Ernährungsassistenten namens iNutrition. Diese Lösung bietet den chinesischen Verbrauchern personalisierte, auf ihre spezifischen Bedürfnisse abgestimmte Ernährungstipps. Durch die Integration von Qwen mit Haleons interner Wissensdatenbank soll iNutrition präzise und maßgeschneiderte Ratschläge zur Ernährung und Gesundheit liefern können. Damit soll sichergestellt werden, dass die Beratung den individuellen Bedürfnissen der Verbraucher entspricht. Fotografie 2.0 Pictureworks in Malaysia, ein führender Anbieter von Fotolösungen, verwendet KI, um die Flexibilität und Qualität von hochauflösenden Aufnahmen zu verbessern. Die digitalen Bildgebungslösungen des Unternehmens werden unter anderem in Themenparks, und Tourismusattraktionen eingesetzt, um das Besuchererlebnis durch persönliche Fotos zu verbessern. Dies wurde bislang an sieben führenden Touristenattraktionen in Asien umgesetzt. In einem Freizeitpark in Hongkong wurden bereits über 150.000 Fotos mit KI-Unterstützung geschossen. Durch die Verwendung von KI kann Pictureworks auf traditionelle Setups wie Green Screens verzichten. Reiseanbieter senkt Kosten um 45 Prozent Ein anderes Anwendungsbeispiel ist das 2019 gegründete Startup Atlas aus Singapur. Das Unternehmen offeriert B2B-Services für rund 50 globale Reiseanbieter und 150 Billigfluggesellschaften. Um einen 24/7-Kundensupport bieten zu können, hat das Unternehmen einen KI-gestützten Chatbot implementiert. Dieser beantwortet Anfragen zu Buchungsprozessen und Zahlungsoptionen. Durch Verwendung des Chatbots konnte Atlas seine Betriebskosten um 45 Prozent senken. Japanisches Startup setzt KI-Infrastruktur ein In Japan hat das Startup Lightblue, eine Initiative der Universität Tokio, die Qwen-Modelle von Alibaba Cloud genutzt, um japanische Sprachmodelle zu entwickeln. Diese LLMs verbessern die Genauigkeit der natürlichen Sprachverarbeitung (NLP) und sind speziell auf die Bedürfnisse der japanischen Sprache abgestimmt. Ferner nutzt das Startup KI zur Bildanalyse. 

So nutzt Asien KI​ Viele asiatische KI-Anwendungen basieren auf dem Foundation-Modell Qwen von Alibaba Cloud.LanKS/Shutterstock.com

Was die großen US-Hyperscaler für die westliche Welt in Sachen KI sind, ist in Asien die Alibaba Cloud. Auf ihrer Basis entstehen zahlreiche neue KI-Anwendungen.

Dabei reicht die Bandbreite von LLMs (Large Language Models) bis hin zu KI-gestützten Bildtechnologien, die Unternehmen helfen, kundenorientierter zu arbeiten. Wir stellen fünf Beispiele vor:

Beauty-Beratung per KI

Drunk Elephant, eine bekannte Hautpflegemarke, hat das Foundation-Modell Qwen-max von Alibaba Cloud in seinen Chatbot DRUNKGPT integriert, um personalisierte Hautpflegeempfehlungen zu bieten. Der KI-gesteuerte Assistent wird mit einer Wissensdatenbank zur Hautpflege trainiert, um maßgeschneiderte Ratschläge zu geben.

Dazu nutzt DRUNKGPT Technologien wie Supervised Fine-Tuning (SFT) und Retrieval Augmented Generation (RAG). Auf diese Weise will man auf dem chinesischen Markt die Antworten auf Kundenanfragen optimieren und relevanter gestalten.

KI-Ernährungsberater

Ebenfalls auf Qwen-LLM in Verbindung mit RAG-Technologie setzt Haleon China. Das Unternehmen entwickelte einen spezialisierten KI-Ernährungsassistenten namens iNutrition. Diese Lösung bietet den chinesischen Verbrauchern personalisierte, auf ihre spezifischen Bedürfnisse abgestimmte Ernährungstipps.

Durch die Integration von Qwen mit Haleons interner Wissensdatenbank soll iNutrition präzise und maßgeschneiderte Ratschläge zur Ernährung und Gesundheit liefern können. Damit soll sichergestellt werden, dass die Beratung den individuellen Bedürfnissen der Verbraucher entspricht.

Fotografie 2.0

Pictureworks in Malaysia, ein führender Anbieter von Fotolösungen, verwendet KI, um die Flexibilität und Qualität von hochauflösenden Aufnahmen zu verbessern. Die digitalen Bildgebungslösungen des Unternehmens werden unter anderem in Themenparks, und Tourismusattraktionen eingesetzt, um das Besuchererlebnis durch persönliche Fotos zu verbessern.

Dies wurde bislang an sieben führenden Touristenattraktionen in Asien umgesetzt. In einem Freizeitpark in Hongkong wurden bereits über 150.000 Fotos mit KI-Unterstützung geschossen. Durch die Verwendung von KI kann Pictureworks auf traditionelle Setups wie Green Screens verzichten.

Reiseanbieter senkt Kosten um 45 Prozent

Ein anderes Anwendungsbeispiel ist das 2019 gegründete Startup Atlas aus Singapur. Das Unternehmen offeriert B2B-Services für rund 50 globale Reiseanbieter und 150 Billigfluggesellschaften.

Um einen 24/7-Kundensupport bieten zu können, hat das Unternehmen einen KI-gestützten Chatbot implementiert. Dieser beantwortet Anfragen zu Buchungsprozessen und Zahlungsoptionen. Durch Verwendung des Chatbots konnte Atlas seine Betriebskosten um 45 Prozent senken.

Japanisches Startup setzt KI-Infrastruktur ein

In Japan hat das Startup Lightblue, eine Initiative der Universität Tokio, die Qwen-Modelle von Alibaba Cloud genutzt, um japanische Sprachmodelle zu entwickeln. Diese LLMs verbessern die Genauigkeit der natürlichen Sprachverarbeitung (NLP) und sind speziell auf die Bedürfnisse der japanischen Sprache abgestimmt. Ferner nutzt das Startup KI zur Bildanalyse.

So nutzt Asien KI​ Weiterlesen »

SAP-Anwendern fehlt KI-Knowhow​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=300%2C198&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=768%2C506&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1024%2C675&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1536%2C1012&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=2048%2C1350&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1058%2C697&quality=50&strip=all 1058w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=255%2C168&quality=50&strip=all 255w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=127%2C84&quality=50&strip=all 127w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=728%2C480&quality=50&strip=all 728w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=546%2C360&quality=50&strip=all 546w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=379%2C250&quality=50&strip=all 379w” width=”1024″ height=”675″ sizes=”(max-width: 1024px) 100vw, 1024px”>Am eigenen KI-Knowhow müsse man noch schrauben – das räumen viele SAP-Kunden ein.Besjunior / Shutterstock Das Thema KI scheint bei den SAP-Kundenunternehmen nur schwer Fuß fassen zu können. Nur wenige Anwenderinnen und Anwender schätzen sich selbst als Expertinnen und Experten auf diesem Gebiet ein. Das hat eine gemeinsame Umfrage der Deutschsprachigen SAP-Anwendergruppe (DSAG), der Americas‘ SAP Users‘ Group (ASUG) sowie der UK & Ireland SAP User Group (UKISUG) ergeben. Dazu wurden im August und September 2024 insgesamt rund 630 Unternehmen befragt, davon knapp 250 Teilnehmer aus der DACH-Region. Anwender kritisieren SAPs KI-Kurs Laut der Umfrage bescheinigen sich lediglich sieben Prozent der DSAG-Mitglieder Expertenwissen in Sachen KI. Bei Generative AI ist es gerade einmal ein Prozentpunkt mehr. Rund die Hälfte der Befragten gab an, derzeit einen Lernprozess in Sachen KI zu durchlaufen. Es bestehe ein großer Bedarf an entsprechenden Informationen, hieß es von Seiten der DSAG-Verantwortlichen. Entsprechend gefordert seien neben den Anwendern auch die Softwarehersteller sowie deren Partner.  Technischer Wandel überfordert viele SAP-Kunden Es verwundert daher nicht, dass gerade einmal sechs Prozent der befragten DSAG-Mitglieder KI in vielen Bereichen ihres Unternehmens nutzen. Gut jeder zehnte Betrieb erklärte, KI im Augenblick noch gar nicht einzusetzen. Insgesamt empfinden die Umfrageteilnehmenden den derzeitigen technologischen, gesellschaftlichen und wirtschaftlichen Wandel als herausfordernd. Nur elf Prozent der Befragten in der DACH-Region können eigenen Angaben zufolge mit dem Tempo des Wandels mühelos Schritt halten. Rund jeder Sechste kommt der Umfrage zufolge einigermaßen mit, während ein knappes Viertel einräumte, mit den Veränderungen nicht Schritt halten zu können.  DSAG fordert mehr Praxisbezug: GenAI-Strategie von SAP bleibt undurchsichtig Der DSAG-Vorstandsvorsitzende Jens Hungershausen spricht von einem interessanten Spannungsfeld zwischen Zurückhaltung und Fortschritt bei der KI-Implementierung in Unternehmen. „Die rasante Entwicklung von KI-Technologien kann für Unternehmen überwältigend sein. Zudem verfügen viele, insbesondere im Mittelstand, möglicherweise nicht über die notwendigen finanziellen Mittel, technische Infrastruktur oder Fachkräfte, um KI umfassend zu implementieren.“ DSAG Hungershausen äußerte sich erstaunt darüber, dass fast ein Drittel der Unternehmen noch keine offiziellen Pläne hinsichtlich der Nutzung von KI hat. „Vor dem Hintergrund des bereits länger anhaltenden Hypes habe ich damit gerechnet, dass mehr Unternehmen über das Diskussionsstadium hinaus wären“, sagt der DSAG-Chef. Gründe für die Zurückhaltung könnten laut Umfrage darin liegen, dass die Hälfte der Befragten die Auswahl der richtigen KI-Tools für die bestehenden Bedürfnisse als herausfordernd ansieht. Jeweils ein gutes Viertel befürchtet, dass es an den notwendigen Fähigkeiten fehle, um KI-Tools vollständig zu nutzen, beziehungsweise moniert, dass es nicht genügend hochwertige KI-Tools gäbe. Mit Pilotprojekten zumindest Anschluss halten Immerhin arbeitet knapp ein Drittel der von der DSAG befragten Betriebe derzeit an KI-Pilot-Projekten, ein weiteres Viertel denkt zumindest darüber nach. „Pilotprojekte sind ein Weg, um den Anschluss nicht zu verlieren“, ermuntert Hungershausen seine Kolleginnen und Kollegen, das KI-Thema anzupacken. Sie ermöglichten es Unternehmen, KI in einem kontrollierten Umfeld zu testen, ohne sich sofort umfassend zu verpflichten. Dies reduziere finanzielle und operative Risiken, so der DSAG-Chef. Gleichzeitig könnten Unternehmen damit wertvolle Erfahrungen sammeln, interne Kompetenzen aufbauen und die Technologie besser verstehen. DSAG Für die DSAG-Mitglieder geht es beim KI-Einsatz vor allem darum, interne Abläufe effizienter zu gestalten und bessere Einblicke in Daten zu gewinnen. Die Unterstützung strategischer Unternehmensentscheidungen durch KI spielt dagegen nur bei jedem fünften befragten Unternehmen eine Rolle. Unternehmen setzten zunächst auf bewährte Anwendungsfälle, indem sie bestehende Prozesse optimieren, um einen schnellen und eindeutig messbaren Mehrwert zu generieren, stellt Hungershausen fest. „Das ist in wirtschaftlich herausfordernden Zeiten nicht überraschend.“ Zudem erfordere die Entwicklung neuer Produkte oder kreativer Dienstleistungen mit KI zusätzliche Expertise, welche in vielen Unternehmen derzeit noch fehle. DSAG Gefordert sind beim KI-Einsatz aus Sicht der befragten SAP-Anwender auch noch andere Dinge. Dabei geht es vor allem um Transparenz und Klarheit über den Einsatzort und die Datenbasis der KI (95 Prozent), faire Preismodelle (89 Prozent) sowie eine nahtlose Integration der KI-Lösungen in bestehende Systeme (89 Prozent). Auf SAP bezogen, verlangen sieben von zehn Befragten, KI unabhängig vom Betriebsmodell betreiben zu können. „Die Flexibilität, unabhängig vom SAP-Betriebsmodell agieren zu können, ist vor dem Hintergrund entscheidend, dass SAP die Bereitstellung von Innovationen für S/4HANA langfristig bis 2040 zugesichert hat“, macht Hungershausen klar. „Was für die S/4HANA Private Cloud gilt, sollte auch für S/4HANA On-Premises mit identischem Leistungsumfang zur Verfügung stehen.“  Was für die S/4HANA Private Cloud gilt, sollte auch für S/4HANA On-Premises mit identischem Leistungsumfang zur Verfügung stehen, fordert DSAG-Chef Jens Hungershausen.DSAG Insgesamt scheint der zunehmende Einsatz von KI-Technologie bei den Befragten für gemischte Gefühle zu sorgen, lautet die aktuelle Bilanz der deutschen SAP-Anwendervertreter. Es herrsche Begeisterung darüber, dass KI helfen könne, Zeit zu sparen, aber gleichzeitig schwingen Bedenken hinsichtlich Sicherheit, Datenqualität und Governance mit. Viele der Befragten im DACH-Raum empfinden KI als überbewertet (57 Prozent), einige Wenige sind sogar der Meinung, dass das Potenzial von KI stark überschätzt werde (zwei Prozent). Allerdings glauben 37 Prozent der SAP-Anwender im DACH-Raum, dass KI ganze Branchen revolutionieren werde.  

SAP-Anwendern fehlt KI-Knowhow​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=300%2C198&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=768%2C506&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1024%2C675&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1536%2C1012&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=2048%2C1350&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=1058%2C697&quality=50&strip=all 1058w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=255%2C168&quality=50&strip=all 255w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=127%2C84&quality=50&strip=all 127w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=728%2C480&quality=50&strip=all 728w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=546%2C360&quality=50&strip=all 546w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_790790974.jpg?resize=379%2C250&quality=50&strip=all 379w” width=”1024″ height=”675″ sizes=”(max-width: 1024px) 100vw, 1024px”>Am eigenen KI-Knowhow müsse man noch schrauben – das räumen viele SAP-Kunden ein.Besjunior / Shutterstock

Das Thema KI scheint bei den SAP-Kundenunternehmen nur schwer Fuß fassen zu können. Nur wenige Anwenderinnen und Anwender schätzen sich selbst als Expertinnen und Experten auf diesem Gebiet ein. Das hat eine gemeinsame Umfrage der Deutschsprachigen SAP-Anwendergruppe (DSAG), der Americas‘ SAP Users‘ Group (ASUG) sowie der UK & Ireland SAP User Group (UKISUG) ergeben. Dazu wurden im August und September 2024 insgesamt rund 630 Unternehmen befragt, davon knapp 250 Teilnehmer aus der DACH-Region.

Anwender kritisieren SAPs KI-Kurs

Laut der Umfrage bescheinigen sich lediglich sieben Prozent der DSAG-Mitglieder Expertenwissen in Sachen KI. Bei Generative AI ist es gerade einmal ein Prozentpunkt mehr. Rund die Hälfte der Befragten gab an, derzeit einen Lernprozess in Sachen KI zu durchlaufen. Es bestehe ein großer Bedarf an entsprechenden Informationen, hieß es von Seiten der DSAG-Verantwortlichen. Entsprechend gefordert seien neben den Anwendern auch die Softwarehersteller sowie deren Partner. 

Technischer Wandel überfordert viele SAP-Kunden

Es verwundert daher nicht, dass gerade einmal sechs Prozent der befragten DSAG-Mitglieder KI in vielen Bereichen ihres Unternehmens nutzen. Gut jeder zehnte Betrieb erklärte, KI im Augenblick noch gar nicht einzusetzen. Insgesamt empfinden die Umfrageteilnehmenden den derzeitigen technologischen, gesellschaftlichen und wirtschaftlichen Wandel als herausfordernd. Nur elf Prozent der Befragten in der DACH-Region können eigenen Angaben zufolge mit dem Tempo des Wandels mühelos Schritt halten. Rund jeder Sechste kommt der Umfrage zufolge einigermaßen mit, während ein knappes Viertel einräumte, mit den Veränderungen nicht Schritt halten zu können. 

DSAG fordert mehr Praxisbezug: GenAI-Strategie von SAP bleibt undurchsichtig

Der DSAG-Vorstandsvorsitzende Jens Hungershausen spricht von einem interessanten Spannungsfeld zwischen Zurückhaltung und Fortschritt bei der KI-Implementierung in Unternehmen. „Die rasante Entwicklung von KI-Technologien kann für Unternehmen überwältigend sein. Zudem verfügen viele, insbesondere im Mittelstand, möglicherweise nicht über die notwendigen finanziellen Mittel, technische Infrastruktur oder Fachkräfte, um KI umfassend zu implementieren.“

DSAG

Hungershausen äußerte sich erstaunt darüber, dass fast ein Drittel der Unternehmen noch keine offiziellen Pläne hinsichtlich der Nutzung von KI hat. „Vor dem Hintergrund des bereits länger anhaltenden Hypes habe ich damit gerechnet, dass mehr Unternehmen über das Diskussionsstadium hinaus wären“, sagt der DSAG-Chef. Gründe für die Zurückhaltung könnten laut Umfrage darin liegen, dass die Hälfte der Befragten die Auswahl der richtigen KI-Tools für die bestehenden Bedürfnisse als herausfordernd ansieht. Jeweils ein gutes Viertel befürchtet, dass es an den notwendigen Fähigkeiten fehle, um KI-Tools vollständig zu nutzen, beziehungsweise moniert, dass es nicht genügend hochwertige KI-Tools gäbe.

Mit Pilotprojekten zumindest Anschluss halten

Immerhin arbeitet knapp ein Drittel der von der DSAG befragten Betriebe derzeit an KI-Pilot-Projekten, ein weiteres Viertel denkt zumindest darüber nach. „Pilotprojekte sind ein Weg, um den Anschluss nicht zu verlieren“, ermuntert Hungershausen seine Kolleginnen und Kollegen, das KI-Thema anzupacken. Sie ermöglichten es Unternehmen, KI in einem kontrollierten Umfeld zu testen, ohne sich sofort umfassend zu verpflichten. Dies reduziere finanzielle und operative Risiken, so der DSAG-Chef. Gleichzeitig könnten Unternehmen damit wertvolle Erfahrungen sammeln, interne Kompetenzen aufbauen und die Technologie besser verstehen.

DSAG

Für die DSAG-Mitglieder geht es beim KI-Einsatz vor allem darum, interne Abläufe effizienter zu gestalten und bessere Einblicke in Daten zu gewinnen. Die Unterstützung strategischer Unternehmensentscheidungen durch KI spielt dagegen nur bei jedem fünften befragten Unternehmen eine Rolle. Unternehmen setzten zunächst auf bewährte Anwendungsfälle, indem sie bestehende Prozesse optimieren, um einen schnellen und eindeutig messbaren Mehrwert zu generieren, stellt Hungershausen fest. „Das ist in wirtschaftlich herausfordernden Zeiten nicht überraschend.“ Zudem erfordere die Entwicklung neuer Produkte oder kreativer Dienstleistungen mit KI zusätzliche Expertise, welche in vielen Unternehmen derzeit noch fehle.

DSAG

Gefordert sind beim KI-Einsatz aus Sicht der befragten SAP-Anwender auch noch andere Dinge. Dabei geht es vor allem um Transparenz und Klarheit über den Einsatzort und die Datenbasis der KI (95 Prozent), faire Preismodelle (89 Prozent) sowie eine nahtlose Integration der KI-Lösungen in bestehende Systeme (89 Prozent). Auf SAP bezogen, verlangen sieben von zehn Befragten, KI unabhängig vom Betriebsmodell betreiben zu können. „Die Flexibilität, unabhängig vom SAP-Betriebsmodell agieren zu können, ist vor dem Hintergrund entscheidend, dass SAP die Bereitstellung von Innovationen für S/4HANA langfristig bis 2040 zugesichert hat“, macht Hungershausen klar. „Was für die S/4HANA Private Cloud gilt, sollte auch für S/4HANA On-Premises mit identischem Leistungsumfang zur Verfügung stehen.“ 

Was für die S/4HANA Private Cloud gilt, sollte auch für S/4HANA On-Premises mit identischem Leistungsumfang zur Verfügung stehen, fordert DSAG-Chef Jens Hungershausen.DSAG

Insgesamt scheint der zunehmende Einsatz von KI-Technologie bei den Befragten für gemischte Gefühle zu sorgen, lautet die aktuelle Bilanz der deutschen SAP-Anwendervertreter. Es herrsche Begeisterung darüber, dass KI helfen könne, Zeit zu sparen, aber gleichzeitig schwingen Bedenken hinsichtlich Sicherheit, Datenqualität und Governance mit. Viele der Befragten im DACH-Raum empfinden KI als überbewertet (57 Prozent), einige Wenige sind sogar der Meinung, dass das Potenzial von KI stark überschätzt werde (zwei Prozent). Allerdings glauben 37 Prozent der SAP-Anwender im DACH-Raum, dass KI ganze Branchen revolutionieren werde. 

SAP-Anwendern fehlt KI-Knowhow​ Weiterlesen »

Cloud-Migration kommt (noch) nicht in die Gänge​

Allgemein

loading=”lazy” width=”400px”>Obwohl viele Zeichen eigentlich auf einen verstärkten Cloud-Einsatz hindeuten, tun sich viele Unternehmen nach wie vor schwer mit der Migration.Vaclav Volrab – shutterstock.com Die Verlagerung von Applikationen in die Cloud ist eine wichtige Voraussetzung, um die digitale Transformation des Business entscheidend voranzubringen. Doch im Hinblick auf ihre Cloud-Migration drosseln Unternehmen aus Deutschland noch häufig das Tempo. Unternehmen zaghaft beim Weg in die Cloud Lediglich 38 Prozent der Befragten haben bislang mindestens ein Cloud-Migrationsprojekt initiiert und abgeschlossen. Ein Viertel plant entsprechende Projekte für das Jahr 2025 ein. Etwas mehr als ein Fünftel (21 Prozent) wollen den Weg in die Cloud erst in ein bis drei Jahren beschreiten. Auffallend: 44 Prozent der großen Unternehmen (mehr als 1000 Beschäftigte), also überdurchschnittlich viele, haben bereits mindestens ein Cloud-Migrationsprojekt umgesetzt. Zum Vergleich: Bei den kleineren Betrieben (weniger als 500 Beschäftigte) sind es lediglich 29 Prozent, eine Differenz von 15 Prozentpunkten. Das sind zentrale Ergebnisse der aktuellen Studie „Cloud-Migration 2025“, die CIO und COMPUTERWOCHE zusammen mit den Partnern T-Systems und Lufthansa Industry Solutions realisiert haben. An der Studie nahmen 346 Business- und IT-Entscheiderinnen und -entscheider auf C-Level-Ebene, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland teil. Bremsklotz fehlende Managementunterstützung Eventuell hängt die Zurückhaltung in Sachen Cloud-Migration auch damit zusammen, dass so ein Projekt eine breite Palette an technischen und organisatorischen Herausforderungen bereithält. Auf technischer Ebene betrifft das in erster Linie die IT-Infrastruktur (45 Prozent), den Datenschutz und die Compliance (37 Prozent) sowie die Datensicherheit inklusive Disaster-Recovery-Konzept (32 Prozent). Auf strategisch-organisatorischer Ebene kämpfen die Befragten besonders mit der Komplexität des Themas (38 Prozent) sowie der unzureichenden oder gar fehlenden Unterstützung durch das Management (31 Prozent). Bedenkt man, dass das Commitment des Managements bei einem strategischen Projekt wie der Cloud-Migration ein zentraler Erfolgsfaktor ist, verheißt das wenig Gutes. Darüber hinaus bremsen auch das (knapp bemessene) Budget und die lange Projektlaufzeiten (jeweils 27 Prozent) die Cloud-Journey aus. Eine nicht zu unterschätzende Herausforderung stellen die rechtlichen Anforderungen in Bezug auf den Datenschutz dar, die 37 Prozent der Befragten als „essenziell“ oder „sehr groß“ und weitere 27 Prozent als „groß“ bezeichnen. Auf strategisch-organisatorischer Ebene kämpfen die Befragten besonders mit der Komplexität des Themas. Research Services: Patrick Birnbreier Cloud-Projekte sollen Kosten senken Unternehmen, die ein oder mehrere Cloud-Migrationsprojekte umgesetzt haben, machen trotzdem Vieles richtig, denn sie sind in 78 Prozent der Fälle „sehr zufrieden“ (31 Prozent) oder „zufrieden“ (47 Prozent) mit dem Ergebnis. Nur drei Prozent zeigen sich „eher unzufrieden“, „unzufrieden“ oder „gar nicht zufrieden“. Eine Erklärung für die hohe Zufriedenheit könnte sein, dass 71 Prozent der Befragten die Cloud-Migration strategisch angehen, statt nach dem Prinzip „Einfach mal machen“ loszulaufen. Bei 42 Prozent ist der Einsatz von Cloud-Technologien zudem fester Bestandteil der IT-Strategie. Naturgemäß wird eine Cloud-Migration nicht um ihrer selbst willen umgesetzt, sondern es sind konkrete Erwartungen und Zielsetzungen daran geknüpft. Oberste Priorität hat bei 46 Prozent der Befragten das Cost-Cutting und damit die Senkung der IT-Ausgaben. Überdurchschnittlich hoch ist die Erwartung an Kostensenkungen bei den mittelgroßen Firmen (53 Prozent). Den kleineren Betrieben ist dieser Aspekt am wenigsten wichtig (39 Prozent). 42 Prozent erwarten, dass sich die IT-Sicherheit erhöht. Und immerhin 38 Prozent wollen den Digitalisierungsgrad mithilfe der Cloud erhöhen. Deutlich weniger wichtig ist den Unternehmen bei der Migration in die Cloud die Modernisierung der Anwendungslandschaft (31 Prozent), die Verbesserung von Compliance und Datenschutz (25 Prozent) und eine flexible Skalierbarkeit der IT-Lösungen (22 Prozent). Lieber „Lift-and Extend“ statt „Lift-and-Shift“ Die Studie förderte noch weitere bemerkenswerte und zum Teil überraschende Ergebnisse zu Tage. Geht es um die passende Methode für die Cloud-Migration, bevorzugen die meisten Befragten den „Lift-and-Extend-Ansatz“ (49 Prozent). Für 35 Prozent ist das „Lift-and-Reshape-Konzept“, also ein Replatforming, das Mittel der Wahl. Das könnte darauf hindeuten, dass vorhandene Anwendungen technologisch nicht up to date sind und eine Modernisierung benötigen. Dafür spricht auch, dass nur 24 Prozent den konservativer angelegten „Lift-and-Shift-Ansatz“ verfolgen, bei dem Anwendungen ohne Code-Modifikation und ohne Modernisierung in die „Wolke“ verlagert werden. Ab in die Cloud, aber lieber nicht per Lift-and-shift Aufschlussreich ist in diesem Zusammenhang, welche Anwendungen Unternehmen vorzugsweise in die Cloud hieven. Mit Abstand auf dem ersten Platz landen Lösungen für das Customer-Relationship-Management, CRM (45 Prozent), vor Business Intelligence (BI) / Data Analytics (38 Prozent), Enterprise Ressource Planning, ERP (33 Prozent), und Human Ressource Management, HRM (29 Prozent). Auf dem ersten Platz landen Lösungen für das Customer-Relationship-Management, CRM. Research Services: Patrick Birnbreier Mehr Roll-back-Projekte als gedacht Erstaunlich: Nicht einmal die Hälfte der Befragten (47 Prozent) verfolgen im Zuge der Cloud-Migration eine dedizierte Multi-Cloud-Strategie, unter anderem um einen möglichen Vendor-Lock-in zu vermeiden. Eine mögliche Erklärung dafür ist, dass nur 41 Prozent die Gefahr, sich an einen einzigen Cloud-Partner zu binden und von ihm abhängig zu sein als „sehr groß“ oder „groß“ einschätzen. Das belegt: Die mit einem Cloud-Vendor-Lock-in verbundenen Nachteile, etwa im Hinblick auf die Plattformunabhängigkeit und die Flexibilität des IT-Betriebs, werden eher als vernachlässigbar eingestuft. Obwohl ein Großteil der Unternehmen mit den Cloud-Migrationsprojekten zufrieden ist, hat ein Viertel der Befragten bereits Applikationen aus der Cloud durch ein Roll-back-Projekt in das eigene Data Center zurückgeholt. 28 Prozent der Befragten planen einen Roll-back im kommenden Jahr, 19 Prozent in absehbarer Zukunft. Die Gründe für die Rückführung von Anwendungen aus der Cloud dürften vielfältig sein. Eventuell wurden die Herausforderungen einer Cloud-Migration unterschätzt und erwartete Vorteile, zum Beispiel Kostensenkungen oder die Erhöhung der IT-Sicherheit und des Digitalisierungsgrades, blieben weitgehend aus. Auch schlechte Erfahrungen bei einem Vendor-Lock-in können Auslöser für einen Roll-back sein. Cloud-Migration – Nachhaltigkeit rückt in den Fokus Besonders interessant: Nachhaltigkeitskonzepte zur Senkung des Energieverbrauchs und des CO2-Ausstoßes wie GreenOps haben inzwischen vielerorts einen „sehr großen“ oder „großen“ Einfluss auf die Planung und Durchführung von Cloud-Migrationsprojekten. Das bestätigt etwas mehr als die Hälfte der Befragten (51 Prozent). 37 Prozent sagen, dass Sustainability „eher große“ Bedeutung bei Cloud-Projekten hat. Nur elf Prozent schätzen den Einfluss als „eher nicht groß“, „nicht groß“ oder „gar nicht groß“ ein. Green-IT-Prinzipien rücken somit auch bei Cloud-Projekten mehr und mehr in den Fokus. Das, genauso wie die Tatsache, dass über sieben von zehn Befragten das Budget für Ausgaben in Cloud-Technologie, Cloud-Services und Migrationsprojekte 2025 erhöhen, 19 Prozent sogar um mehr als zehn Prozent, ist zumindest eine gute Nachricht. Podcast Green Cloud: Mit Cloud Computing den Footprint senken? Die neue Studie “Cloud Migration 2025” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: T-Systems International GmbH, Lufthansa Industry Solutions GmbH & Co. KG Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 346 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 08. bis 15. Oktober 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Cloud-Migration kommt (noch) nicht in die Gänge​ loading=”lazy” width=”400px”>Obwohl viele Zeichen eigentlich auf einen verstärkten Cloud-Einsatz hindeuten, tun sich viele Unternehmen nach wie vor schwer mit der Migration.Vaclav Volrab – shutterstock.com

Die Verlagerung von Applikationen in die Cloud ist eine wichtige Voraussetzung, um die digitale Transformation des Business entscheidend voranzubringen. Doch im Hinblick auf ihre Cloud-Migration drosseln Unternehmen aus Deutschland noch häufig das Tempo.

Unternehmen zaghaft beim Weg in die Cloud

Lediglich 38 Prozent der Befragten haben bislang mindestens ein Cloud-Migrationsprojekt initiiert und abgeschlossen. Ein Viertel plant entsprechende Projekte für das Jahr 2025 ein. Etwas mehr als ein Fünftel (21 Prozent) wollen den Weg in die Cloud erst in ein bis drei Jahren beschreiten. Auffallend: 44 Prozent der großen Unternehmen (mehr als 1000 Beschäftigte), also überdurchschnittlich viele, haben bereits mindestens ein Cloud-Migrationsprojekt umgesetzt. Zum Vergleich: Bei den kleineren Betrieben (weniger als 500 Beschäftigte) sind es lediglich 29 Prozent, eine Differenz von 15 Prozentpunkten.

Das sind zentrale Ergebnisse der aktuellen Studie „Cloud-Migration 2025“, die CIO und COMPUTERWOCHE zusammen mit den Partnern T-Systems und Lufthansa Industry Solutions realisiert haben. An der Studie nahmen 346 Business- und IT-Entscheiderinnen und -entscheider auf C-Level-Ebene, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland teil.

Bremsklotz fehlende Managementunterstützung

Eventuell hängt die Zurückhaltung in Sachen Cloud-Migration auch damit zusammen, dass so ein Projekt eine breite Palette an technischen und organisatorischen Herausforderungen bereithält. Auf technischer Ebene betrifft das in erster Linie die IT-Infrastruktur (45 Prozent), den Datenschutz und die Compliance (37 Prozent) sowie die Datensicherheit inklusive Disaster-Recovery-Konzept (32 Prozent).

Auf strategisch-organisatorischer Ebene kämpfen die Befragten besonders mit der Komplexität des Themas (38 Prozent) sowie der unzureichenden oder gar fehlenden Unterstützung durch das Management (31 Prozent). Bedenkt man, dass das Commitment des Managements bei einem strategischen Projekt wie der Cloud-Migration ein zentraler Erfolgsfaktor ist, verheißt das wenig Gutes. Darüber hinaus bremsen auch das (knapp bemessene) Budget und die lange Projektlaufzeiten (jeweils 27 Prozent) die Cloud-Journey aus. Eine nicht zu unterschätzende Herausforderung stellen die rechtlichen Anforderungen in Bezug auf den Datenschutz dar, die 37 Prozent der Befragten als „essenziell“ oder „sehr groß“ und weitere 27 Prozent als „groß“ bezeichnen.

Auf strategisch-organisatorischer Ebene kämpfen die Befragten besonders mit der Komplexität des Themas.
Research Services: Patrick Birnbreier

Cloud-Projekte sollen Kosten senken

Unternehmen, die ein oder mehrere Cloud-Migrationsprojekte umgesetzt haben, machen trotzdem Vieles richtig, denn sie sind in 78 Prozent der Fälle „sehr zufrieden“ (31 Prozent) oder „zufrieden“ (47 Prozent) mit dem Ergebnis. Nur drei Prozent zeigen sich „eher unzufrieden“, „unzufrieden“ oder „gar nicht zufrieden“. Eine Erklärung für die hohe Zufriedenheit könnte sein, dass 71 Prozent der Befragten die Cloud-Migration strategisch angehen, statt nach dem Prinzip „Einfach mal machen“ loszulaufen. Bei 42 Prozent ist der Einsatz von Cloud-Technologien zudem fester Bestandteil der IT-Strategie.

Naturgemäß wird eine Cloud-Migration nicht um ihrer selbst willen umgesetzt, sondern es sind konkrete Erwartungen und Zielsetzungen daran geknüpft. Oberste Priorität hat bei 46 Prozent der Befragten das Cost-Cutting und damit die Senkung der IT-Ausgaben. Überdurchschnittlich hoch ist die Erwartung an Kostensenkungen bei den mittelgroßen Firmen (53 Prozent). Den kleineren Betrieben ist dieser Aspekt am wenigsten wichtig (39 Prozent). 42 Prozent erwarten, dass sich die IT-Sicherheit erhöht. Und immerhin 38 Prozent wollen den Digitalisierungsgrad mithilfe der Cloud erhöhen. Deutlich weniger wichtig ist den Unternehmen bei der Migration in die Cloud die Modernisierung der Anwendungslandschaft (31 Prozent), die Verbesserung von Compliance und Datenschutz (25 Prozent) und eine flexible Skalierbarkeit der IT-Lösungen (22 Prozent).

Lieber „Lift-and Extend“ statt „Lift-and-Shift“

Die Studie förderte noch weitere bemerkenswerte und zum Teil überraschende Ergebnisse zu Tage. Geht es um die passende Methode für die Cloud-Migration, bevorzugen die meisten Befragten den „Lift-and-Extend-Ansatz“ (49 Prozent). Für 35 Prozent ist das „Lift-and-Reshape-Konzept“, also ein Replatforming, das Mittel der Wahl. Das könnte darauf hindeuten, dass vorhandene Anwendungen technologisch nicht up to date sind und eine Modernisierung benötigen. Dafür spricht auch, dass nur 24 Prozent den konservativer angelegten „Lift-and-Shift-Ansatz“ verfolgen, bei dem Anwendungen ohne Code-Modifikation und ohne Modernisierung in die „Wolke“ verlagert werden.

Ab in die Cloud, aber lieber nicht per Lift-and-shift

Aufschlussreich ist in diesem Zusammenhang, welche Anwendungen Unternehmen vorzugsweise in die Cloud hieven. Mit Abstand auf dem ersten Platz landen Lösungen für das Customer-Relationship-Management, CRM (45 Prozent), vor Business Intelligence (BI) / Data Analytics (38 Prozent), Enterprise Ressource Planning, ERP (33 Prozent), und Human Ressource Management, HRM (29 Prozent).

Auf dem ersten Platz landen Lösungen für das Customer-Relationship-Management, CRM.
Research Services: Patrick Birnbreier

Mehr Roll-back-Projekte als gedacht

Erstaunlich: Nicht einmal die Hälfte der Befragten (47 Prozent) verfolgen im Zuge der Cloud-Migration eine dedizierte Multi-Cloud-Strategie, unter anderem um einen möglichen Vendor-Lock-in zu vermeiden. Eine mögliche Erklärung dafür ist, dass nur 41 Prozent die Gefahr, sich an einen einzigen Cloud-Partner zu binden und von ihm abhängig zu sein als „sehr groß“ oder „groß“ einschätzen. Das belegt: Die mit einem Cloud-Vendor-Lock-in verbundenen Nachteile, etwa im Hinblick auf die Plattformunabhängigkeit und die Flexibilität des IT-Betriebs, werden eher als vernachlässigbar eingestuft.

Obwohl ein Großteil der Unternehmen mit den Cloud-Migrationsprojekten zufrieden ist, hat ein Viertel der Befragten bereits Applikationen aus der Cloud durch ein Roll-back-Projekt in das eigene Data Center zurückgeholt. 28 Prozent der Befragten planen einen Roll-back im kommenden Jahr, 19 Prozent in absehbarer Zukunft. Die Gründe für die Rückführung von Anwendungen aus der Cloud dürften vielfältig sein. Eventuell wurden die Herausforderungen einer Cloud-Migration unterschätzt und erwartete Vorteile, zum Beispiel Kostensenkungen oder die Erhöhung der IT-Sicherheit und des Digitalisierungsgrades, blieben weitgehend aus. Auch schlechte Erfahrungen bei einem Vendor-Lock-in können Auslöser für einen Roll-back sein.

Cloud-Migration – Nachhaltigkeit rückt in den Fokus

Besonders interessant: Nachhaltigkeitskonzepte zur Senkung des Energieverbrauchs und des CO2-Ausstoßes wie GreenOps haben inzwischen vielerorts einen „sehr großen“ oder „großen“ Einfluss auf die Planung und Durchführung von Cloud-Migrationsprojekten. Das bestätigt etwas mehr als die Hälfte der Befragten (51 Prozent). 37 Prozent sagen, dass Sustainability „eher große“ Bedeutung bei Cloud-Projekten hat. Nur elf Prozent schätzen den Einfluss als „eher nicht groß“, „nicht groß“ oder „gar nicht groß“ ein. Green-IT-Prinzipien rücken somit auch bei Cloud-Projekten mehr und mehr in den Fokus. Das, genauso wie die Tatsache, dass über sieben von zehn Befragten das Budget für Ausgaben in Cloud-Technologie, Cloud-Services und Migrationsprojekte 2025 erhöhen, 19 Prozent sogar um mehr als zehn Prozent, ist zumindest eine gute Nachricht.

Podcast Green Cloud: Mit Cloud Computing den Footprint senken?

Die neue Studie “Cloud Migration 2025” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: T-Systems International GmbH, Lufthansa Industry Solutions GmbH & Co. KG

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 346 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 08. bis 15. Oktober 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Cloud-Migration kommt (noch) nicht in die Gänge​ Weiterlesen »

Singapur zeigt, wie man KI-Talente fördert​

Allgemein

loading=”lazy” width=”400px”>Singapur hat nicht nur Deutschland Einiges voraus, wenn es um KI-Talentförderung geht.Prasit Rodphan – shutterstock.com Die Forschungs- und Entwicklungsinitiative „AI Singapore“ wurde im Mai 2017 ins Leben gerufen. Das Förderprogramm für künstliche Intelligenz (KI) wird vollumfänglich von der Regierung Singapurs finanziert. Die Zielsetzungen bestehen darin, die Forschung im Bereich künstliche Intelligenz entscheidend voranzutreiben, die Einführung der Technologie in industriellen Branchen zu beschleunigen, sowie lokale Talente im Bereich künstliche Intelligenz zu fördern. Das übergreifende Ziel: Singapur zu einem globalen „AI Powerhouse“ zu machen. Die unterschiedlichen Aspekte dieser Mission wollen wir mit fünf verschiedenen Säulen adressieren. Mein Schwerpunkt liegt dabei auf Innovation, also insbesondere darauf, wie sich die Einführung von KI im industriellen Umfeld beschleunigen lässt. Dazu haben wir beispielsweise das „AI Apprenticeship Program“ (AIAP) zur Kompetenzentwicklung und die Online-Lernplattform „LearnAI“ ins Leben gerufen. Unser AIAP-Programm sieht vor, dass die Bewerber zunächst einen dreimonatigen Intensivkurs besuchen und sich anschließend an einem sechsmonatigen, echten KI-Projekt in Unternehmen beteiligen. Die Initiative konnte unter anderem auch die ehemalige Vizepräsidentin der EU-Kommission, Margrethe Vestager, überzeugen. Sie lobte AIAP im Rahmen eines Panels in New York und ermutigte dazu, sich ein Beispiel an unserem Modell zu nehmen – was uns sehr stolz gemacht und uns in unseren KI-Bestrebungen bekräftigt hat. In diesem Artikel möchte ich unsere bisherigen Erkenntnisse darüber teilen, was im Rahmen unseres KI-Förderprogramms funktioniert – aber auch, was nicht. Ich würde mich freuen, wenn unsere Initiative anderen Organisationen oder Ländern als Inspiration dienen kann. Wie Singapur KI-Fachkräfte generiert Mein erster Auftrag bestand zunächst darin, ein Team zusammenzustellen, um ganze einhundert KI-Projekte in Angriff zu nehmen. Dabei haben wir zunächst versucht, geeignete Mitarbeiter über traditionelle Stellenausschreibungen zu finden. Das brachte uns zwar circa 300 Bewerbungen ein, von denen viele auch nicht schlecht waren. Allerdings kamen nur zehn davon aus Singapur. Für ein staatlich gefördertes Programm war das zu wenig – mein Ziel waren eher 90 Prozent singapurische Bewerber. Die Lösung war unser AI Apprenticeship Program, das vor allem auf einer Gegebenheit fußte: Viele Menschen in Singapur befassen sich auf eigene Faust mit Programmiersprachen, Data Science, KI und Machine Learning. Diese Themen bewegen viele Menschen. Allerdings werden diese nicht von Unternehmen eingestellt, weil sie keine Berufserfahrung vorweisen können. Und genau diese Klientel wollen wir anziehen, um sie mit der richtigen Anleitung zu echten AI Engineers auszubilden. Entsprechend standen universitäre Qualifikationen oder ein akademischer Hintergrund an dieser Stelle nicht im Fokus. Stattdessen sollte AIAP möglichst vielen Menschen mit unterschiedlichem Background offenstehen. Die einzige Hürde für die Teilnahme bildete deshalb ein technisches Assessment. Dabei haben wir überprüft, ob die Bewerber in der Lage sind, die Tasks eines Junior KI-Engineers zu stemmen. Das ist unsere Grundvoraussetzung für die Teilnahme an AIAP. Dieser Ansatz führt zu einer Win-Win-Win-Situation: Die Auszubildenden können an realen Problemen arbeiten und ihre Lebensläufe aufwerten; Wir bekommen gute einheimische KI-Ingenieure, um unsere Projekte umzusetzen; Die beteiligten Unternehmen erhalten innerhalb von rund sieben Monaten ein neu entwickeltes KI-Modell oder -Produkt. Laurence Liew ist Director of AI Innovation bei “AI Singapore”.Laurence Liew Seit 2017 haben wir fast 180 KI-Projekte angestoßen – und mehr als 100 abgeschlossen. Außerdem haben wir bisher schon mehr als 400 singapurische KI-Engineers ausgebildet. Fast alle unserer Absolventen arbeiten heute in Unternehmen als KI-Berater, Manager oder Datenwissenschaftler. Es gibt meines Wissens kein anderes, ähnliches Programm in Singapur – oder auf der Welt – das mit einer Vermittlungsquote von nahezu 100 Prozent aufwarten kann. Mit AIAP Foundations haben wir zudem auf dem Erfolg der AIAP-Initiative aufgebaut: Für diese sechsmonatigen Online-Intensivkurse nutzen wir KI, um die Talententwicklung zu skalieren. Das funktioniert über Agenten, die die Mentoring- und Projekterfahrung des formellen AIAP authentisch replizieren. Dadurch fungieren sie als KI-Ingenieure, Projektmanager oder Berater, die durch eine virtuelle Ausbildung führen – inklusive individueller Anleitung und Feedback. AIAP Foundations fungiert damit als entscheidendes Sprungbrett zum formellen AIAP-Programm und ermöglicht einem erweiterten Personenkreis, grundlegende KI-Skills und -Erfahrungen zu erwerben. Ein Blueprint für KI-Talentförderung Natürlich haben wir im Laufe der Jahre auch viel darüber gelernt, wie wir unser KI-Schulungsprogramm optimieren können. Das diskutiere ich ausgiebig in meinem Buch „AI-First Nation“. Dieses soll Entscheidern und Führungskräften in Unternehmen eine Blaupause für ihre eigene KI-Transformation liefern. Fähige KI-Fachkräfte sind in der heutigen Welt für die nationale Wettbewerbsfähigkeit von entscheidender Bedeutung. „AI Singapore“ hat es sich zur Aufgabe gemacht, Interessierte mit den Skills und dem Knowhow auszustatten, das sie benötigen, um im KI-Zeitalter erfolgreich zu sein. Unsere wohl wichtigste Erkenntnis lautet: KI-Talente lassen sich fördern. Mein persönliches Ziel ist es, so viel wie möglich dazu beizutragen, dass möglichst viele Organisationen und auch Staaten ihre ungenutzten KI-Talent-Pools anzapfen. Ich bin davon überzeugt, dass unser Ansatz das Potenzial hat, die Entwicklung von KI-Fachkräften auf der ganzen Welt massiv voranzutreiben. Machen Sie sich gerne mit unserer Initiative und ihren begleitenden Programmen vertraut. Wir würden uns freuen, dazu beitragen zu können, eine Zukunft zu gestalten, in der KI der Allgemeinheit zugutekommt – und die zugehörigen Fachkräfte-Pipelines weltweit ausreichend befüllt sind. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Singapur zeigt, wie man KI-Talente fördert​ loading=”lazy” width=”400px”>Singapur hat nicht nur Deutschland Einiges voraus, wenn es um KI-Talentförderung geht.Prasit Rodphan – shutterstock.com

Die Forschungs- und Entwicklungsinitiative „AI Singapore“ wurde im Mai 2017 ins Leben gerufen. Das Förderprogramm für künstliche Intelligenz (KI) wird vollumfänglich von der Regierung Singapurs finanziert. Die Zielsetzungen bestehen darin,

die Forschung im Bereich künstliche Intelligenz entscheidend voranzutreiben,

die Einführung der Technologie in industriellen Branchen zu beschleunigen, sowie

lokale Talente im Bereich künstliche Intelligenz zu fördern.

Das übergreifende Ziel: Singapur zu einem globalen „AI Powerhouse“ zu machen. Die unterschiedlichen Aspekte dieser Mission wollen wir mit fünf verschiedenen Säulen adressieren. Mein Schwerpunkt liegt dabei auf Innovation, also insbesondere darauf, wie sich die Einführung von KI im industriellen Umfeld beschleunigen lässt. Dazu haben wir beispielsweise das „AI Apprenticeship Program“ (AIAP) zur Kompetenzentwicklung und die Online-Lernplattform „LearnAI“ ins Leben gerufen.

Unser AIAP-Programm sieht vor, dass die Bewerber zunächst einen dreimonatigen Intensivkurs besuchen und sich anschließend an einem sechsmonatigen, echten KI-Projekt in Unternehmen beteiligen. Die Initiative konnte unter anderem auch die ehemalige Vizepräsidentin der EU-Kommission, Margrethe Vestager, überzeugen. Sie lobte AIAP im Rahmen eines Panels in New York und ermutigte dazu, sich ein Beispiel an unserem Modell zu nehmen – was uns sehr stolz gemacht und uns in unseren KI-Bestrebungen bekräftigt hat.

In diesem Artikel möchte ich unsere bisherigen Erkenntnisse darüber teilen, was im Rahmen unseres KI-Förderprogramms funktioniert – aber auch, was nicht. Ich würde mich freuen, wenn unsere Initiative anderen Organisationen oder Ländern als Inspiration dienen kann.

Wie Singapur KI-Fachkräfte generiert

Mein erster Auftrag bestand zunächst darin, ein Team zusammenzustellen, um ganze einhundert KI-Projekte in Angriff zu nehmen. Dabei haben wir zunächst versucht, geeignete Mitarbeiter über traditionelle Stellenausschreibungen zu finden. Das brachte uns zwar circa 300 Bewerbungen ein, von denen viele auch nicht schlecht waren. Allerdings kamen nur zehn davon aus Singapur. Für ein staatlich gefördertes Programm war das zu wenig – mein Ziel waren eher 90 Prozent singapurische Bewerber.

Die Lösung war unser AI Apprenticeship Program, das vor allem auf einer Gegebenheit fußte: Viele Menschen in Singapur befassen sich auf eigene Faust mit Programmiersprachen, Data Science, KI und Machine Learning. Diese Themen bewegen viele Menschen. Allerdings werden diese nicht von Unternehmen eingestellt, weil sie keine Berufserfahrung vorweisen können. Und genau diese Klientel wollen wir anziehen, um sie mit der richtigen Anleitung zu echten AI Engineers auszubilden.

Entsprechend standen universitäre Qualifikationen oder ein akademischer Hintergrund an dieser Stelle nicht im Fokus. Stattdessen sollte AIAP möglichst vielen Menschen mit unterschiedlichem Background offenstehen. Die einzige Hürde für die Teilnahme bildete deshalb ein technisches Assessment. Dabei haben wir überprüft, ob die Bewerber in der Lage sind, die Tasks eines Junior KI-Engineers zu stemmen. Das ist unsere Grundvoraussetzung für die Teilnahme an AIAP. Dieser Ansatz führt zu einer Win-Win-Win-Situation:

Die Auszubildenden können an realen Problemen arbeiten und ihre Lebensläufe aufwerten;

Wir bekommen gute einheimische KI-Ingenieure, um unsere Projekte umzusetzen;

Die beteiligten Unternehmen erhalten innerhalb von rund sieben Monaten ein neu entwickeltes KI-Modell oder -Produkt.

Laurence Liew ist Director of AI Innovation bei “AI Singapore”.Laurence Liew

Seit 2017 haben wir fast 180 KI-Projekte angestoßen – und mehr als 100 abgeschlossen. Außerdem haben wir bisher schon mehr als 400 singapurische KI-Engineers ausgebildet. Fast alle unserer Absolventen arbeiten heute in Unternehmen als KI-Berater, Manager oder Datenwissenschaftler. Es gibt meines Wissens kein anderes, ähnliches Programm in Singapur – oder auf der Welt – das mit einer Vermittlungsquote von nahezu 100 Prozent aufwarten kann.

Mit AIAP Foundations haben wir zudem auf dem Erfolg der AIAP-Initiative aufgebaut: Für diese sechsmonatigen Online-Intensivkurse nutzen wir KI, um die Talententwicklung zu skalieren. Das funktioniert über Agenten, die die Mentoring- und Projekterfahrung des formellen AIAP authentisch replizieren. Dadurch fungieren sie als KI-Ingenieure, Projektmanager oder Berater, die durch eine virtuelle Ausbildung führen – inklusive individueller Anleitung und Feedback. AIAP Foundations fungiert damit als entscheidendes Sprungbrett zum formellen AIAP-Programm und ermöglicht einem erweiterten Personenkreis, grundlegende KI-Skills und -Erfahrungen zu erwerben.

Ein Blueprint für KI-Talentförderung

Natürlich haben wir im Laufe der Jahre auch viel darüber gelernt, wie wir unser KI-Schulungsprogramm optimieren können. Das diskutiere ich ausgiebig in meinem Buch „AI-First Nation“. Dieses soll Entscheidern und Führungskräften in Unternehmen eine Blaupause für ihre eigene KI-Transformation liefern. Fähige KI-Fachkräfte sind in der heutigen Welt für die nationale Wettbewerbsfähigkeit von entscheidender Bedeutung. „AI Singapore“ hat es sich zur Aufgabe gemacht, Interessierte mit den Skills und dem Knowhow auszustatten, das sie benötigen, um im KI-Zeitalter erfolgreich zu sein. Unsere wohl wichtigste Erkenntnis lautet: KI-Talente lassen sich fördern.

Mein persönliches Ziel ist es, so viel wie möglich dazu beizutragen, dass möglichst viele Organisationen und auch Staaten ihre ungenutzten KI-Talent-Pools anzapfen. Ich bin davon überzeugt, dass unser Ansatz das Potenzial hat, die Entwicklung von KI-Fachkräften auf der ganzen Welt massiv voranzutreiben. Machen Sie sich gerne mit unserer Initiative und ihren begleitenden Programmen vertraut. Wir würden uns freuen, dazu beitragen zu können, eine Zukunft zu gestalten, in der KI der Allgemeinheit zugutekommt – und die zugehörigen Fachkräfte-Pipelines weltweit ausreichend befüllt sind.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Singapur zeigt, wie man KI-Talente fördert​ Weiterlesen »

KI-generierte Fehlerberichte nerven Open-Source-Entwickler​

Allgemein

KI-generierte Fehlermeldungen wirken glaubwürdig, verschwenden jedoch wertvolle Zeit von freiwilligen Entwicklern und gefährden deren Engagement. Billion Photos/shutterstock.com Künstliche Intelligenz (KI) wird unser aller Leben bereichern und vereinfachen – so der einhellige Tenor vieler Technikfans und Befürworter. Wer das definitiv anders sieht, ist Seth Larson, Security Developer-in-Residence bei der Python Software Foundation. Der Entwickler macht seinem Unmut über von KI-Modellen generierte Meldungen von Software-Schwachstellen in einem Blogpost Luft. Diese hätten eine „neue Ära der schlampigen Sicherheitsberichte für Open Source“ eingeläutet. Larson räumt dabei ein, dass spammige, minderwertige Online-Inhalte zwar schon lange vor der Chatbot-Ära existierten. Dieses Problem hätte in der jüngeren Vergangenheit aber durch generative KI-Modelle eine neue Dimension erlangt: Mit Hilfe der neuen KI-Bots ließen sich jetzt Sicherheitsberichte in großer Stückzahl und mit relativ geringem Aufwand erstellen. Solche Berichte, insbesondere in Open-Source-Projekten wirkten zunächst einmal auch glaubwürdig. Ihre schiere Zahl und der damit verbundene Aufwand, sie zu lesen, einzuordnen und zu bewerten, sei jedoch ein gravierendes Problem. Insbesondere die Kommunikation mit den Einreichern könne sich als problematisch gestalten, so Larson. Endloser Ärger mit der KI Wie hartnäckig solche KI-Meldungen sein können, zeigt ein Fehlerbericht des Curl-Projekts, der am 8. Dezember veröffentlicht wurde. Dort kämpfte der Open-Source-Maintainer Daniel Stenberg fast ein Jahr, nachdem das Problem gemeldet wurde, immer noch mit einer Fehlermeldung. Stenberg verschwendet viel Zeit damit, sich mit einem Fehlereinreicher zu streiten, der möglicherweise teilweise oder sogar komplett automatisiert arbeitet. KI-generierte falsche Berichte belasten besonders Open-Source-Projekte, da deren Prüfer oft freiwillig arbeiten und ohnehin unter Zeitdruck stehen. Larson warnt, dass Maintainer durch die aufwändige Prüfung solcher Berichte entmutigt werden könnten, was ihre Motivation und ihr Engagement gefährdet. Er fordert die Open-Source-Gemeinschaft auf, frühzeitig Maßnahmen zu ergreifen, um diesen schädlichen Trend einzudämmen. Guter Wille sollte nicht strapaziert werden Larson äußert deshalb einen Wunsch: Fehlerjäger sollten sich weniger auf die Ergebnisse von maschinellen Assistenten verlassen. Hierdurch würden die Entwickler entlastet, die diese Projekte betreuen. Des Weiteren schlug er vor, solche maschinell erstellten Massen-Spamberichte wie bösartige Aktivitäten zu behandeln. Er begründet dies damit, bereits ähnliche Erfahrungen im Curl-Projekt gemacht zu haben. Gegenüber The Register erklärte der Security Developer, derzeit zwar weniger als zehn minderwertige KI-generierte Fehlerberichte pro Monat zu sehen. Diese geringe Zahl sei jedoch seiner Meinung nach ein Vorzeichen für ein immer größer werdendes Problem. Er warnt, dass andere Projekte bald ebenfalls von derartigen Berichten betroffen sein könnten. Menschen statt Maschinen Larson stellt konkrete Forderungen, wie sich die Open-Source-Sicherheit verbessern ließe. Er plädiert für grundlegende Veränderungen, mehr Normalisierung, Transparenz und Strategien zur Einbindung vertrauenswürdiger Personen, zum Beispiel durch finanzielle Unterstützung oder gespendete Arbeitszeit. Larson bittet zudem um von Menschen geprüfte und ohne KI erstellte Fehlerberichte, da KI-Systeme derzeit keinen Code wirklich verstehen. Nur so ließen sich die Entwickler effektiv unterstützen. 

KI-generierte Fehlerberichte nerven Open-Source-Entwickler​ KI-generierte Fehlermeldungen wirken glaubwürdig, verschwenden jedoch wertvolle Zeit von freiwilligen Entwicklern und gefährden deren Engagement.
Billion Photos/shutterstock.com

Künstliche Intelligenz (KI) wird unser aller Leben bereichern und vereinfachen – so der einhellige Tenor vieler Technikfans und Befürworter. Wer das definitiv anders sieht, ist Seth Larson, Security Developer-in-Residence bei der Python Software Foundation.

Der Entwickler macht seinem Unmut über von KI-Modellen generierte Meldungen von Software-Schwachstellen in einem Blogpost Luft. Diese hätten eine „neue Ära der schlampigen Sicherheitsberichte für Open Source“ eingeläutet.

Larson räumt dabei ein, dass spammige, minderwertige Online-Inhalte zwar schon lange vor der Chatbot-Ära existierten. Dieses Problem hätte in der jüngeren Vergangenheit aber durch generative KI-Modelle eine neue Dimension erlangt: Mit Hilfe der neuen KI-Bots ließen sich jetzt Sicherheitsberichte in großer Stückzahl und mit relativ geringem Aufwand erstellen.

Solche Berichte, insbesondere in Open-Source-Projekten wirkten zunächst einmal auch glaubwürdig. Ihre schiere Zahl und der damit verbundene Aufwand, sie zu lesen, einzuordnen und zu bewerten, sei jedoch ein gravierendes Problem. Insbesondere die Kommunikation mit den Einreichern könne sich als problematisch gestalten, so Larson.

Endloser Ärger mit der KI

Wie hartnäckig solche KI-Meldungen sein können, zeigt ein Fehlerbericht des Curl-Projekts, der am 8. Dezember veröffentlicht wurde. Dort kämpfte der Open-Source-Maintainer Daniel Stenberg fast ein Jahr, nachdem das Problem gemeldet wurde, immer noch mit einer Fehlermeldung. Stenberg verschwendet viel Zeit damit, sich mit einem Fehlereinreicher zu streiten, der möglicherweise teilweise oder sogar komplett automatisiert arbeitet.

KI-generierte falsche Berichte belasten besonders Open-Source-Projekte, da deren Prüfer oft freiwillig arbeiten und ohnehin unter Zeitdruck stehen. Larson warnt, dass Maintainer durch die aufwändige Prüfung solcher Berichte entmutigt werden könnten, was ihre Motivation und ihr Engagement gefährdet. Er fordert die Open-Source-Gemeinschaft auf, frühzeitig Maßnahmen zu ergreifen, um diesen schädlichen Trend einzudämmen.

Guter Wille sollte nicht strapaziert werden

Larson äußert deshalb einen Wunsch: Fehlerjäger sollten sich weniger auf die Ergebnisse von maschinellen Assistenten verlassen. Hierdurch würden die Entwickler entlastet, die diese Projekte betreuen. Des Weiteren schlug er vor, solche maschinell erstellten Massen-Spamberichte wie bösartige Aktivitäten zu behandeln. Er begründet dies damit, bereits ähnliche Erfahrungen im Curl-Projekt gemacht zu haben.

Gegenüber The Register erklärte der Security Developer, derzeit zwar weniger als zehn minderwertige KI-generierte Fehlerberichte pro Monat zu sehen. Diese geringe Zahl sei jedoch seiner Meinung nach ein Vorzeichen für ein immer größer werdendes Problem. Er warnt, dass andere Projekte bald ebenfalls von derartigen Berichten betroffen sein könnten.

Menschen statt Maschinen

Larson stellt konkrete Forderungen, wie sich die Open-Source-Sicherheit verbessern ließe. Er plädiert für

grundlegende Veränderungen,

mehr Normalisierung,

Transparenz und

Strategien zur Einbindung vertrauenswürdiger Personen, zum Beispiel durch finanzielle Unterstützung oder gespendete Arbeitszeit.

Larson bittet zudem um von Menschen geprüfte und ohne KI erstellte Fehlerberichte, da KI-Systeme derzeit keinen Code wirklich verstehen. Nur so ließen sich die Entwickler effektiv unterstützen.

KI-generierte Fehlerberichte nerven Open-Source-Entwickler​ Weiterlesen »

Intels Lunar Lake im Test: Vergessen Sie Qualcomm-Laptops​

Allgemein

Mark Hachman / IDG Ist Lunar Lake der Snapdragon-Killer von Intel? Intels Core Ultra Series 2 (Lunar Lake) wurde speziell mit dem Ziel entwickelt, einen niedrigen Stromverbrauch mit konkurrenzfähiger Leistung zu kombinieren. Das ist auch gelungen, obwohl der Core Ultra 7 258V-Chip, den ich getestet habe, immer noch weit hinter AMDs mobilen Ryzen-Prozessoren liegt. Doch Lunar Lake bietet auch eine unglaublich gute, Snapdragon-ähnliche Akkulaufzeit mit einer leistungsstarken, integrierten GPU. Diese ist in der Lage, die besten Spiele der letzten Jahre flüssig darzustellen. Intel hat uns ein Lunar Lake-betriebenes Asus Zenbook S14 Notebook zum Test zur Verfügung gestellt, das wir eine Woche lang getestet haben. Dabei wollten wir folgende Frage beantworten: Ist der AMD Ryzen AI 300, Intels Lunar Lake oder der Qualcomm Snapdragon X Elite der aktuell beste Laptop-Prozessor? Und wie schneidet Lunar Lake im Vergleich zu seinem Vorgänger Meteor Lake ab? Wir haben alle drei Chips durch eine Reihe von Benchmarks geschickt – mit separaten Tests im Netz- und im Akkubetrieb. Denn wir halten es für wichtig, dass Sie das maximale Leistungspotenzial dieser Laptop-Prozessoren kennen und dabei erfahren, wie viel Leistung verloren geht, wenn Ihr Laptop nicht an die Stromversorgung angeschlossen ist. Intel stellte Lunar Lake auf der Computex 2024 in Taiwan vor und versprach dort ein “kompromissloses Erlebnis”. Das Asus Zenbook S14 und andere Lunar Lake- und Ryzen AI 300-Laptops qualifizieren sich jetzt als Copilot+ PCs. Mark Hachman / IDG Lunar Lake: CPU-Leistung Ich habe alle unsere Testgeräte mit zwei synthetischen Benchmarks überprüft: Cinebench R23 und Cinebench 2024. Beide bringen die CPU des Laptops an ihre Grenzen, wobei zunächst alle verfügbaren Threads und alternativ nur ein einziger Thread verwendet werden. Der Unterschied zwischen R23 und Cinebench 2024 besteht darin, dass letzterer über eine spezielle ARM-Version verfügt, während die R23-Version über die Emulator-Software des Snapdragon ausgeführt wird, die X86-Anweisungen in ARM-Code übersetzt. Zwei Dinge fallen hier sofort auf: Wenn Sie für ARM programmierte Programme nutzen, verbessert sich die Leistung des Snapdragon erheblich, was ihn an die Spitze der Testkandidaten katapultiert. Dadurch wird Lunar Lake (Ultra 7 258V) in der Rangliste nach unten gedrängt. Sie werden aber auch feststellen, dass Intels älterer Meteor Lake (155H) besser abschneidet als der neuere Chip. Das zeigt mir, dass Intel primär die Akkulaufzeit und nicht die Leistung bei der Entwicklung im Fokus hatte. Laut unserer Schwesterseite Macworld erreichten das Macbook Pro und das Macbook Air 15, die beide den M3-Chip von Apple verwenden, eine Multithreading-Leistung von 693 bzw. 658 Punkten. Bei der Single-Core-Leistung wurde für beide Plattformen ein Wert von 141 ermittelt. Intels Lunar Lake ist demnach schneller, aber nicht bei der Single-Core-Leistung. Mark Hachman / IDG Mark Hachman / IDG Eine Anmerkung: Ich teste mit den Standard-Leistungseinstellungen, die Laptop-Hersteller zur Verfügung stellen, da mir dies realistischer erscheint. Das bedeutet, dass die Snapdragon-Tests mit den von Microsoft empfohlenen Einstellungen (den niedrigsten) durchgeführt wurden, während die Lunar Lake-Tests mit den mittleren Einstellungen (Balanced) ablaufen. Ich teste die Chips jedoch auch im Leistungsmodus. In diesem Fall verwende ich die Windows-Einstellungen für maximale Leistung und passe die Einstellungen des Asus-Laptops ebenfalls an diese Leistungseinstellungen an. Gelegentlich werden Sie Leistungswerte für den Akkubetrieb sehen, die besser sind als die mit angeschlossenem Netzteil. Das ist auf statistische Anomalien zurückzuführen, aber es kann auch einfach so passieren. Wir haben dies auch bei unseren Snapdragon- und Meteor Lake-Tests schon gesehen. Wenn Sie die Snapdragon-Leistungseinstellungen zum Vergleich heranziehen möchten, finden Sie diese in meinem Surface Pro (2024) Testbericht. Ich bin kein großer Fan der Geekbench-Suite, und zwar nur deshalb, weil sie im Hintergrund läuft, ohne dass man die echte Arbeitslast wirklich sieht. Es ist gleichzeitig ein beliebter Test, da er in kurzer Zeit ausgeführt werden kann. Auch hier gibt es eine spezielle ARM-Version, die das Surface Laptop 7 an die Spitze katapultiert. Ich habe die Ergebnisse hierarchisch nach dem Multithreading-CPU-Test geordnet und zum Vergleich den Test im Strombetrieb direkt über den Test im Akkubetrieb gestellt. Eine der Stärken des Snapdragon ist, wie gleichmäßig er arbeitet, egal ob im Akkubetrieb oder im Netzbetrieb. Geekbench zeigt erneut, wie stark die Leistung von Lunar Lake im Akkubetrieb abfällt. Doch das ist auch ein Hinweis auf etwas, zu dem wir später noch kommen werden: die hervorragende Leistung, die die integrierte GPU abliefert. Doch auch AMDs Ryzen-Chips bieten immer eine erstklassige Leistung. Mark Hachman / IDG Auch dem Office Productivity Benchmarks von Procyon mussten sich alle Kandidaten stellen. Ich bevorzuge die breite Palette an Anwendungen des PCMark 10 (von Office über CAD bis hin zu simulierten Videoanrufen), aber ARM-Prozessoren führen nicht all diese Tests konsistent aus. Diese Office-Benchmark-Tests sind aber weiterhin wichtig, denn sie zeigen, wie gut die Laptop-Chips in Microsoft Office, einschließlich Outlook, mit den realen Anwendungen selbst arbeiten. Glücklicherweise gibt es keinen großen Unterschied zwischen den verschiedenen Plattformen. Doch auch hier sehen Sie den Leistungsabfall des Core Ultra/Lunar Lake 258V, wenn Sie ihn im Akkubetrieb verwenden. Mark Hachman / IDG Dies wird in bestimmten Situationen zu einem echten Problem. Bei der Arbeit unterwegs arbeiten Sie selten gleichmäßig: Mal rufen Sie eine Webseite auf, dann folgt eine Lesepause, danach verfassen Sie eine E-Mail, trinken einen Schluck Kaffee, schauen auf Ihr Smartphone… Ihr Laptop ist entsprechend oft im Leerlauf. Aber wenn Sie ihn tatsächlich dazu auffordern, eine Anwendung zu starten, dann kann die neueste Generation mobiler Prozessoren nur schwer mithalten. In unseren jüngsten Tests des AMD Ryzen AI 300 haben wir unseren Handbrake-Test angepasst, um ihn fordernder zu gestalten. Handbrake transkodiert ein Video – in diesem Fall den Open-Source-Film “Tears of Steel” – und das ist ein rechenintensiver Prozess. Wie gut sich das Notebook selbst kühlen kann, spielt dabei eine Rolle, aber auch der Akku: Die Durchführung dieses Tests kann fast eine Stunde dauern, und selbst ein robuster Akku kann dabei schlapp machen. Ich konnte keine drei dieser Tests hintereinander durchführen, bevor der Akku leer war, was etwa drei Stunden fordernder Arbeit entspricht. Mark Hachman / IDG Lunar Lake: Grafik- und KI-Leistung Bis zu diesem Punkt erschien Intels Lunar Lake im Vergleich zur Konkurrenz nicht besonders beeindruckend. Aber jetzt wenden wir uns der integrierten GPU und der neuen Xe2-Grafik-Engine zu, die laut Intel später in einer zweiten diskreten GPU mit dem Codenamen Battlemage erscheinen wird. Angesichts der historischen Stärke von AMD bei GPUs ist Intels Wiederaufstieg etwas überraschend. Aber in zwei Tests – Time Spy, einem älteren Benchmark, der auf Desktop- und Mobil-Spiele ausgerichtet ist, und seinem Nachfolger Steel Nomad Light – glänzt Intels Lunar Lake. Mark Hachman / IDG Können Sie Fotos auch unterwegs bearbeiten? Puget Systems, ein Entwickler von Workstations, schreibt seine eigenen Benchmarks, um diese Frage zu beantworten. Der Test verwendet einen skriptgesteuerten Benchmark, um verschiedene Filter und Anpassungen auf Bilder anzuwenden, die in Adobe Photoshop geöffnet wurden. Daraus generiert das Programm dann eine Punktzahl. Hier liegen alle drei mobilen Plattformen dicht beieinander, was wahrscheinlich darauf hindeutet, dass alle drei für diese Aufgabe gut geeignet sind. Hier ist etwas zusätzlicher Kontext: Laut der PugetBench-Website erzielt ein AMD Ryzen 7 7800X3D Desktop-System mit einer GeForce RTX 3080 eine Punktzahl von 9.959. Das MSI Raider Notebook mit einem Intel Core i9-14900HX und einer Geforce RTX 4090 Laptop-GPU kommt ebenfalls auf eine Punktzahl von 9.959. Und ein Intel Core i7-9750H Desktop-PC mit einer Geforce GTX 1660 Ti schafft immerhin 4.549 Punkte. Mark Hachman / IDG Normalerweise führen wir keine Spiele-Benchmarks auf Geräten durch, die eigentlich als Produktivitätsrechner angesehen werden. Aber in diesem Fall hat uns Intel versichert, dass diese Geräte gut genug für einfache Spiele geeignet sind, insbesondere bei niedrigen Grafikeinstellungen. Das mussten wir ausprobieren! Normalerweise gelten 60 Bilder pro Sekunde als Minimum für gutes Gameplay – bei weniger kann das Spiel unangenehm stottern. In unserem Test haben wir “Shadow of the Tomb Raider” mit 1080p-Auflösung und niedrigen Einstellungen ausprobiert. Das betagtere Spiel lief dabei sehr gut und sah auch noch ansprechend aus. Alle unsere Spieltests wurden mit angeschlossenem Netzteil durchgeführt. Mark Hachman / IDG Nach seinem katastrophalen Start hat sich “Cyberpunk: 2077” wieder zu einem der besser spielbaren Spiele auf dem PC gemausert. Auch auf Lunar Lake läuft der Titel recht gut. Allerdings ist AMDs Ryzen immer noch besser dafür geeignet. Auch diese Tests wurden alle bei 1080p-Auflösung und mit niedrigen Einstellungen durchgeführt. Für den Ryzen-Prozessor war die Frame-Generierung aktiviert; bei den anderen beiden Chips wird dies nicht angeboten. Stattdessen bietet “Cyberpunk” eine XeSS-Auflösungsskalierung, die in Kombination mit dem Hochfahren der Windows- und Laptop-Einstellungen auf den Leistungsmodus eine spielbare Bildrate von etwa 65 Bildern pro Sekunde ermöglicht. Mark Hachman / IDG Schließlich kommen wir zur KI. Künstliche Intelligenz ist zu einem der heißesten Themen im Computerbereich geworden, obwohl die Entwickler den Markt noch nicht mit KI-Anwendungen überschwemmt haben, die lokal auf dem PC laufen. Das Update 24H2 für Windows 11 soll in dieser Hinsicht mehr ermöglichen, einschließlich generativer Kunst für Paint und Foto. Im Moment gibt es noch nicht allzu viele Benchmarks, die diese Leistung ausloten. Denken Sie daran, dass Intels Lunar Lake, AMDs Ryzen AI 300 (bis zu 50 TOPS) und Qualcomms Snapdragon X Elite Chips (45 TOPS) alle als Copilot PC-qualifiziert sind, auch wenn sie ihre neuen Funktionen nicht ohne ein Microsoft-Update erhalten werden. Intels Lunar Lake Chips bieten eine unterschiedliche Anzahl an TOPS; der Core Ultra 258V liefert beispielsweise 47 TOPS. Die Procyon-App von UL misst diese KI-Leistung, indem sie jeden Chip daraufhin testet, wie gut er verschiedene KI-Frameworks ausführt. Wie bei den Cinebench- oder 3DMark-Tests geht es darum, ein allgemeines Bild davon zu erhalten, wie schnell die Chips KI-Funktionen ausführen können. Mark Hachman / IDG Ich habe zwar kein Procyon-Ergebnis für den AMD Ryzen-Chip parat, aber der Test zeigt, dass sowohl Lunar Lake als auch der Snapdragon X Elite ziemlich gleichauf liegen; Intels Chip schneidet bei KI im Netzbetrieb besser ab, aber Qualcomm ist der bessere KI-Chip für unterwegs. Procyon bietet auch einen praktischeren Test an: die generative KI-Bilderzeugung, bei der KI verwendet wird, um eine Serie von acht Bildern zu erzeugen. Dieser Test läuft allerdings noch nicht auf ARM-Prozessoren. Ich habe zwei Tests durchgeführt, um die praktische Leistung der NPU zu verdeutlichen. Zuerst habe ich den Test verwendet, um eine Serie von 8 Bildern nur mit der NPU zu erstellen. Danach habe ich denselben Test mit der Unterstützung der integrierten GPU durchgeführt. Der Test verwendet ein 8-Bit-Ganzzahlmodell, das weniger komplexe Bilder erzeugt als ein Gleitkommamodell. Aber dafür sind die Bilder schnell erstellt: etwa 8 Sekunden pro Bild, wenn die NPU und die iGPU kombiniert werden. Mark Hachman / IDG Lunar Lake: Leistung und Akkulaufzeit Es ist einfach, die Akkulaufzeit eines Laptops zu vermessen. Aber bei diesem Chip wird es kompliziert. Wie lange Ihr Laptop durchhält, hängt stark von der Größe des Akkus ab und davon, wie groß und wie effizient der Bildschirm Ihres Laptops ist. Auch die Art des Bildschirms (IPS oder OLED) macht einen Unterschied. Wir vergleichen frühere Testergebnisse des Asus ZenBook S 16 (mit einem Ryzen AI 300-Chip und einem 78 Wattstunden-Akku), des 13,8 Zoll großen Surface Laptop 7. Edition (mit einem Snapdragon X Elite-Chip und einem 54 Wattstunden-Akku), des Asus Zenbook 14 OLED (mit einem Core Ultra Core 155H der ersten Generation und einem 75 Wattstunden-Akku) und des aktuellen Asus Zenbook OLED (mit seinem Lunar Lake-Chip und einem 73 Wattstunden-Akku) miteinander. Dafür lassen wir ein 4K-Video bei einer fest eingestellten Bildschirmhelligkeit in einer Schleife laufen, bis der Akku des Laptops leer ist. Das Lunar Lake-Notebook hat dabei 21 Stunden lang durchgehalten. Das Ergebnis simuliert damit einen Wochenend-Campingausflug oder eine längere Verkaufskonferenz. Es ist für die Einstufung der Laufzeit jedoch viel sinnvoller, den Laptop dabei auch ein wenig stärker zu beanspruchen, um eine echte Arbeitsumgebung zu simulieren. Der Procyon-Akkulaufzeittest von UL wechselt dafür von Office-Anwendung zu Office-Anwendung und führt dabei konkrete “Aufgaben” aus, um zu simulieren, dass Sie stundenlang an Ihrem Laptop arbeiten. Denken Sie daran, dass Meteor Lake-, Lunar Lake- und die Ryzen AI-Tests im “ausgeglichenen” Modus durchgeführt wurden, während der Snapdragon X Elite in seinem “empfohlenen” Energiesparmodus belassen wurde. Dabei kamen wir auf mindestens 10 Stunden Rechenleistung bei allen drei Konkurrenten. Das ist fantastisch! Intel Lunar Lake: 17 Stunden, 7 Minuten Qualcomm Snapdragon X Elite: 16 Stunden, 20 Minuten AMD Ryzen AI 300: 10 Stunden, 42 Minuten Intel Meteor Lake: 10 Stunden, 35 Minuten Welcher Laptop-Chip ist besser? Ältere Chip-Experten werden sich noch an Transmeta erinnern, ein Laptop-Prozessor-Startup, das seinen Befehlssatz von x86 übersetzen konnte, ähnlich wie ARM. Das Vermächtnis von Transmeta ist nicht so sehr das, was das Unternehmen erreicht hat, sondern das, wozu es Intel veranlasst hat: endlich den Laptop-Markt zu erobern und in den ersten Jahren des neuen Jahrhunderts einen konkurrenzfähigen Laptop-Prozessor zu entwickeln. Jetzt ist es wieder so weit. Intels erster Core Ultra, Meteor Lake, hat die Leistung zugunsten einer langen Akkulaufzeit reduziert; Lunar Lake hebt dies auf die nächste Stufe. Ist Intels Lunar Lake also ein Snapdragon-Killer? Nicht ganz. Was die Effizienz angeht, so spricht vieles dafür, dass der Snapdragon X Elite von Qualcomm immer noch der effizienteste Prozessor ist. Die Ryzen-Chips von AMD gewinnen aber bei vielen leistungsintensiven Aufgaben, aber darunter leidet im Gegenzug die Akkulaufzeit. Aber in gewisser Weise spielt das alles im Alltag keine Rolle. Ein paar Gramm mehr für den Akku machen den Vorteil von Qualcomm im Grunde “zunichte”, wie unser Test-Notebook von Asus beweist. Aber der Snapdragon ist ihm in verschiedenen Szenarien immer noch überlegen, außer bei Spielen. Hier verschaffen die anhaltenden Kompatibilitätsprobleme im Zusammenhang mit dem ARM-Befehlssatz und die beeindruckende 3D-Engine dem Core Ultra Series 2 einen soliden Vorteil. Alle Apps funktionieren auf Intel- und AMD-Rechnern, aber auf Snapdragon-Laptops kann es noch zu Problemen kommen, obwohl es Qualcomm schon gelungen ist, viele der beliebtesten Apps auf ARM zum Laufen zu bringen. Das Fazit ist, dass Intels Lunar Lake bei allen Aufgaben, die von der CPU abhängen, bestenfalls mittelmäßig gut ist. Sobald die GPU oder NPU ins Spiel kommen, wird es besser. Das Gleiche gilt für die Akkulaufzeit, hier kann Intel gut mit dem Snapdragon mithalten. Vor ein paar Jahren war es noch einfach, den “besten” Notebook-Chip zu bestimmen. Jetzt stellt sich die Frage, was für Sie das Beste ist. Und diese Frage ist nicht eindeutig zu beantworten: Mit Arrow Lake, der schon in den Startlöchern steht, könnte Intel noch einen echten Hochleistungsprozessor in der Hinterhand haben. Unsere Kaufberatung: Die besten Laptops aller Klassen: Premium, Budget, Gaming und 2-in-1 Wie wir Intels Lunar Lake getestet haben Dieser Test verwendet Benchmarks, die von mir, meinem Kollegen Gordon Mah Ung und anderen Laptop-Experten in aktuellen und früheren Tests zusammengestellt wurden. Ich habe mich auf die drei wichtigsten Chips dieser Generation konzentrieren: Intels Core Ultra Series 2/Lunar Lake, den Qualcomm Snapdragon X Elite und den AMD Ryzen AI 300. Der Laptop, den Intel und Asus zur Verfügung gestellt haben, enthält einen Core Ultra 7 258V. Dieser befindet sich etwa in der Mitte der Core Ultra Series 2-Chips, die Intel auf den Markt gebracht hat. Es ist ungewöhnlich, dass Intel uns nicht seinen Spitzenchip für Vergleichstests zur Verfügung stellt. Denn der Ultra 7 258V verfügt über vier leistungsstarke Kerne, vier stromsparende Kerne und einen Turbotakt von 4,8 Gigahertz. Alles in allem stehen nur acht Threads für die Verarbeitung von Aufgaben zur Verfügung. Das Schöne daran ist, dass Intel und Asus für den Vergleich zwischen den Chip-Generationen stets ähnliche Laptop-Modelle verwendet haben, insbesondere das Asus Zenbook 14 OLED, in dem sowohl die Lunar Lake- als auch die frühere Generation der Meteor Lake Core Ultra-Prozessoren verbaut sind. AMD nutzte das Asus Zenbook S 16 als Debütplattform für den Ryzen AI 300. Auf der Qualcomm-Seite habe ich zwar das Microsoft Surface Pro (2024) getestet, aber ich habe mir auch das Surface Laptop 7 geschnappt und einige zusätzliche Benchmarks damit durchgeführt. Das ist ein fairerer Vergleich für Qualcomm. Bei bestimmten Benchmarks habe ich aus logistischen Gründen ein MSI Prestige 16 AI Evo mit einem identischen Meteor Lake-Chip verwendet. (PC-Welt) 

Intels Lunar Lake im Test: Vergessen Sie Qualcomm-Laptops​ Mark Hachman / IDG

Ist Lunar Lake der Snapdragon-Killer von Intel? Intels Core Ultra Series 2 (Lunar Lake) wurde speziell mit dem Ziel entwickelt, einen niedrigen Stromverbrauch mit konkurrenzfähiger Leistung zu kombinieren. Das ist auch gelungen, obwohl der Core Ultra 7 258V-Chip, den ich getestet habe, immer noch weit hinter AMDs mobilen Ryzen-Prozessoren liegt.

Doch Lunar Lake bietet auch eine unglaublich gute, Snapdragon-ähnliche Akkulaufzeit mit einer leistungsstarken, integrierten GPU. Diese ist in der Lage, die besten Spiele der letzten Jahre flüssig darzustellen.

Intel hat uns ein Lunar Lake-betriebenes Asus Zenbook S14 Notebook zum Test zur Verfügung gestellt, das wir eine Woche lang getestet haben. Dabei wollten wir folgende Frage beantworten: Ist der AMD Ryzen AI 300, Intels Lunar Lake oder der Qualcomm Snapdragon X Elite der aktuell beste Laptop-Prozessor? Und wie schneidet Lunar Lake im Vergleich zu seinem Vorgänger Meteor Lake ab?

Wir haben alle drei Chips durch eine Reihe von Benchmarks geschickt – mit separaten Tests im Netz- und im Akkubetrieb. Denn wir halten es für wichtig, dass Sie das maximale Leistungspotenzial dieser Laptop-Prozessoren kennen und dabei erfahren, wie viel Leistung verloren geht, wenn Ihr Laptop nicht an die Stromversorgung angeschlossen ist.

Intel stellte Lunar Lake auf der Computex 2024 in Taiwan vor und versprach dort ein “kompromissloses Erlebnis”. Das Asus Zenbook S14 und andere Lunar Lake- und Ryzen AI 300-Laptops qualifizieren sich jetzt als Copilot+ PCs.

Mark Hachman / IDG

Lunar Lake: CPU-Leistung

Ich habe alle unsere Testgeräte mit zwei synthetischen Benchmarks überprüft: Cinebench R23 und Cinebench 2024. Beide bringen die CPU des Laptops an ihre Grenzen, wobei zunächst alle verfügbaren Threads und alternativ nur ein einziger Thread verwendet werden. Der Unterschied zwischen R23 und Cinebench 2024 besteht darin, dass letzterer über eine spezielle ARM-Version verfügt, während die R23-Version über die Emulator-Software des Snapdragon ausgeführt wird, die X86-Anweisungen in ARM-Code übersetzt.

Zwei Dinge fallen hier sofort auf: Wenn Sie für ARM programmierte Programme nutzen, verbessert sich die Leistung des Snapdragon erheblich, was ihn an die Spitze der Testkandidaten katapultiert. Dadurch wird Lunar Lake (Ultra 7 258V) in der Rangliste nach unten gedrängt. Sie werden aber auch feststellen, dass Intels älterer Meteor Lake (155H) besser abschneidet als der neuere Chip. Das zeigt mir, dass Intel primär die Akkulaufzeit und nicht die Leistung bei der Entwicklung im Fokus hatte.

Laut unserer Schwesterseite Macworld erreichten das Macbook Pro und das Macbook Air 15, die beide den M3-Chip von Apple verwenden, eine Multithreading-Leistung von 693 bzw. 658 Punkten. Bei der Single-Core-Leistung wurde für beide Plattformen ein Wert von 141 ermittelt. Intels Lunar Lake ist demnach schneller, aber nicht bei der Single-Core-Leistung.

Mark Hachman / IDG

Mark Hachman / IDG

Eine Anmerkung: Ich teste mit den Standard-Leistungseinstellungen, die Laptop-Hersteller zur Verfügung stellen, da mir dies realistischer erscheint. Das bedeutet, dass die Snapdragon-Tests mit den von Microsoft empfohlenen Einstellungen (den niedrigsten) durchgeführt wurden, während die Lunar Lake-Tests mit den mittleren Einstellungen (Balanced) ablaufen.

Ich teste die Chips jedoch auch im Leistungsmodus. In diesem Fall verwende ich die Windows-Einstellungen für maximale Leistung und passe die Einstellungen des Asus-Laptops ebenfalls an diese Leistungseinstellungen an.

Gelegentlich werden Sie Leistungswerte für den Akkubetrieb sehen, die besser sind als die mit angeschlossenem Netzteil. Das ist auf statistische Anomalien zurückzuführen, aber es kann auch einfach so passieren. Wir haben dies auch bei unseren Snapdragon- und Meteor Lake-Tests schon gesehen.

Wenn Sie die Snapdragon-Leistungseinstellungen zum Vergleich heranziehen möchten, finden Sie diese in meinem Surface Pro (2024) Testbericht.

Ich bin kein großer Fan der Geekbench-Suite, und zwar nur deshalb, weil sie im Hintergrund läuft, ohne dass man die echte Arbeitslast wirklich sieht. Es ist gleichzeitig ein beliebter Test, da er in kurzer Zeit ausgeführt werden kann. Auch hier gibt es eine spezielle ARM-Version, die das Surface Laptop 7 an die Spitze katapultiert. Ich habe die Ergebnisse hierarchisch nach dem Multithreading-CPU-Test geordnet und zum Vergleich den Test im Strombetrieb direkt über den Test im Akkubetrieb gestellt.

Eine der Stärken des Snapdragon ist, wie gleichmäßig er arbeitet, egal ob im Akkubetrieb oder im Netzbetrieb. Geekbench zeigt erneut, wie stark die Leistung von Lunar Lake im Akkubetrieb abfällt. Doch das ist auch ein Hinweis auf etwas, zu dem wir später noch kommen werden: die hervorragende Leistung, die die integrierte GPU abliefert. Doch auch AMDs Ryzen-Chips bieten immer eine erstklassige Leistung.

Mark Hachman / IDG

Auch dem Office Productivity Benchmarks von Procyon mussten sich alle Kandidaten stellen. Ich bevorzuge die breite Palette an Anwendungen des PCMark 10 (von Office über CAD bis hin zu simulierten Videoanrufen), aber ARM-Prozessoren führen nicht all diese Tests konsistent aus. Diese Office-Benchmark-Tests sind aber weiterhin wichtig, denn sie zeigen, wie gut die Laptop-Chips in Microsoft Office, einschließlich Outlook, mit den realen Anwendungen selbst arbeiten.

Glücklicherweise gibt es keinen großen Unterschied zwischen den verschiedenen Plattformen. Doch auch hier sehen Sie den Leistungsabfall des Core Ultra/Lunar Lake 258V, wenn Sie ihn im Akkubetrieb verwenden.

Mark Hachman / IDG

Dies wird in bestimmten Situationen zu einem echten Problem.

Bei der Arbeit unterwegs arbeiten Sie selten gleichmäßig: Mal rufen Sie eine Webseite auf, dann folgt eine Lesepause, danach verfassen Sie eine E-Mail, trinken einen Schluck Kaffee, schauen auf Ihr Smartphone… Ihr Laptop ist entsprechend oft im Leerlauf. Aber wenn Sie ihn tatsächlich dazu auffordern, eine Anwendung zu starten, dann kann die neueste Generation mobiler Prozessoren nur schwer mithalten.

In unseren jüngsten Tests des AMD Ryzen AI 300 haben wir unseren Handbrake-Test angepasst, um ihn fordernder zu gestalten. Handbrake transkodiert ein Video – in diesem Fall den Open-Source-Film “Tears of Steel” – und das ist ein rechenintensiver Prozess.

Wie gut sich das Notebook selbst kühlen kann, spielt dabei eine Rolle, aber auch der Akku: Die Durchführung dieses Tests kann fast eine Stunde dauern, und selbst ein robuster Akku kann dabei schlapp machen. Ich konnte keine drei dieser Tests hintereinander durchführen, bevor der Akku leer war, was etwa drei Stunden fordernder Arbeit entspricht.

Mark Hachman / IDG

Lunar Lake: Grafik- und KI-Leistung

Bis zu diesem Punkt erschien Intels Lunar Lake im Vergleich zur Konkurrenz nicht besonders beeindruckend. Aber jetzt wenden wir uns der integrierten GPU und der neuen Xe2-Grafik-Engine zu, die laut Intel später in einer zweiten diskreten GPU mit dem Codenamen Battlemage erscheinen wird.

Angesichts der historischen Stärke von AMD bei GPUs ist Intels Wiederaufstieg etwas überraschend. Aber in zwei Tests – Time Spy, einem älteren Benchmark, der auf Desktop- und Mobil-Spiele ausgerichtet ist, und seinem Nachfolger Steel Nomad Light – glänzt Intels Lunar Lake.

Mark Hachman / IDG

Können Sie Fotos auch unterwegs bearbeiten? Puget Systems, ein Entwickler von Workstations, schreibt seine eigenen Benchmarks, um diese Frage zu beantworten. Der Test verwendet einen skriptgesteuerten Benchmark, um verschiedene Filter und Anpassungen auf Bilder anzuwenden, die in Adobe Photoshop geöffnet wurden. Daraus generiert das Programm dann eine Punktzahl.

Hier liegen alle drei mobilen Plattformen dicht beieinander, was wahrscheinlich darauf hindeutet, dass alle drei für diese Aufgabe gut geeignet sind. Hier ist etwas zusätzlicher Kontext: Laut der PugetBench-Website erzielt ein AMD Ryzen 7 7800X3D Desktop-System mit einer GeForce RTX 3080 eine Punktzahl von 9.959. Das MSI Raider Notebook mit einem Intel Core i9-14900HX und einer Geforce RTX 4090 Laptop-GPU kommt ebenfalls auf eine Punktzahl von 9.959. Und ein Intel Core i7-9750H Desktop-PC mit einer Geforce GTX 1660 Ti schafft immerhin 4.549 Punkte.

Mark Hachman / IDG

Normalerweise führen wir keine Spiele-Benchmarks auf Geräten durch, die eigentlich als Produktivitätsrechner angesehen werden. Aber in diesem Fall hat uns Intel versichert, dass diese Geräte gut genug für einfache Spiele geeignet sind, insbesondere bei niedrigen Grafikeinstellungen. Das mussten wir ausprobieren!

Normalerweise gelten 60 Bilder pro Sekunde als Minimum für gutes Gameplay – bei weniger kann das Spiel unangenehm stottern. In unserem Test haben wir “Shadow of the Tomb Raider” mit 1080p-Auflösung und niedrigen Einstellungen ausprobiert. Das betagtere Spiel lief dabei sehr gut und sah auch noch ansprechend aus. Alle unsere Spieltests wurden mit angeschlossenem Netzteil durchgeführt.

Mark Hachman / IDG

Nach seinem katastrophalen Start hat sich “Cyberpunk: 2077” wieder zu einem der besser spielbaren Spiele auf dem PC gemausert. Auch auf Lunar Lake läuft der Titel recht gut. Allerdings ist AMDs Ryzen immer noch besser dafür geeignet. Auch diese Tests wurden alle bei 1080p-Auflösung und mit niedrigen Einstellungen durchgeführt. Für den Ryzen-Prozessor war die Frame-Generierung aktiviert; bei den anderen beiden Chips wird dies nicht angeboten.

Stattdessen bietet “Cyberpunk” eine XeSS-Auflösungsskalierung, die in Kombination mit dem Hochfahren der Windows- und Laptop-Einstellungen auf den Leistungsmodus eine spielbare Bildrate von etwa 65 Bildern pro Sekunde ermöglicht.

Mark Hachman / IDG

Schließlich kommen wir zur KI. Künstliche Intelligenz ist zu einem der heißesten Themen im Computerbereich geworden, obwohl die Entwickler den Markt noch nicht mit KI-Anwendungen überschwemmt haben, die lokal auf dem PC laufen. Das Update 24H2 für Windows 11 soll in dieser Hinsicht mehr ermöglichen, einschließlich generativer Kunst für Paint und Foto.

Im Moment gibt es noch nicht allzu viele Benchmarks, die diese Leistung ausloten. Denken Sie daran, dass Intels Lunar Lake, AMDs Ryzen AI 300 (bis zu 50 TOPS) und Qualcomms Snapdragon X Elite Chips (45 TOPS) alle als Copilot PC-qualifiziert sind, auch wenn sie ihre neuen Funktionen nicht ohne ein Microsoft-Update erhalten werden. Intels Lunar Lake Chips bieten eine unterschiedliche Anzahl an TOPS; der Core Ultra 258V liefert beispielsweise 47 TOPS.

Die Procyon-App von UL misst diese KI-Leistung, indem sie jeden Chip daraufhin testet, wie gut er verschiedene KI-Frameworks ausführt. Wie bei den Cinebench- oder 3DMark-Tests geht es darum, ein allgemeines Bild davon zu erhalten, wie schnell die Chips KI-Funktionen ausführen können.

Mark Hachman / IDG

Ich habe zwar kein Procyon-Ergebnis für den AMD Ryzen-Chip parat, aber der Test zeigt, dass sowohl Lunar Lake als auch der Snapdragon X Elite ziemlich gleichauf liegen; Intels Chip schneidet bei KI im Netzbetrieb besser ab, aber Qualcomm ist der bessere KI-Chip für unterwegs.

Procyon bietet auch einen praktischeren Test an: die generative KI-Bilderzeugung, bei der KI verwendet wird, um eine Serie von acht Bildern zu erzeugen. Dieser Test läuft allerdings noch nicht auf ARM-Prozessoren. Ich habe zwei Tests durchgeführt, um die praktische Leistung der NPU zu verdeutlichen. Zuerst habe ich den Test verwendet, um eine Serie von 8 Bildern nur mit der NPU zu erstellen. Danach habe ich denselben Test mit der Unterstützung der integrierten GPU durchgeführt.

Der Test verwendet ein 8-Bit-Ganzzahlmodell, das weniger komplexe Bilder erzeugt als ein Gleitkommamodell. Aber dafür sind die Bilder schnell erstellt: etwa 8 Sekunden pro Bild, wenn die NPU und die iGPU kombiniert werden.

Mark Hachman / IDG

Lunar Lake: Leistung und Akkulaufzeit

Es ist einfach, die Akkulaufzeit eines Laptops zu vermessen. Aber bei diesem Chip wird es kompliziert. Wie lange Ihr Laptop durchhält, hängt stark von der Größe des Akkus ab und davon, wie groß und wie effizient der Bildschirm Ihres Laptops ist. Auch die Art des Bildschirms (IPS oder OLED) macht einen Unterschied.

Wir vergleichen frühere Testergebnisse des Asus ZenBook S 16 (mit einem Ryzen AI 300-Chip und einem 78 Wattstunden-Akku), des 13,8 Zoll großen Surface Laptop 7. Edition (mit einem Snapdragon X Elite-Chip und einem 54 Wattstunden-Akku), des Asus Zenbook 14 OLED (mit einem Core Ultra Core 155H der ersten Generation und einem 75 Wattstunden-Akku) und des aktuellen Asus Zenbook OLED (mit seinem Lunar Lake-Chip und einem 73 Wattstunden-Akku) miteinander.

Dafür lassen wir ein 4K-Video bei einer fest eingestellten Bildschirmhelligkeit in einer Schleife laufen, bis der Akku des Laptops leer ist. Das Lunar Lake-Notebook hat dabei 21 Stunden lang durchgehalten. Das Ergebnis simuliert damit einen Wochenend-Campingausflug oder eine längere Verkaufskonferenz.

Es ist für die Einstufung der Laufzeit jedoch viel sinnvoller, den Laptop dabei auch ein wenig stärker zu beanspruchen, um eine echte Arbeitsumgebung zu simulieren. Der Procyon-Akkulaufzeittest von UL wechselt dafür von Office-Anwendung zu Office-Anwendung und führt dabei konkrete “Aufgaben” aus, um zu simulieren, dass Sie stundenlang an Ihrem Laptop arbeiten.

Denken Sie daran, dass Meteor Lake-, Lunar Lake- und die Ryzen AI-Tests im “ausgeglichenen” Modus durchgeführt wurden, während der Snapdragon X Elite in seinem “empfohlenen” Energiesparmodus belassen wurde. Dabei kamen wir auf mindestens 10 Stunden Rechenleistung bei allen drei Konkurrenten. Das ist fantastisch!

Intel Lunar Lake: 17 Stunden, 7 Minuten

Qualcomm Snapdragon X Elite: 16 Stunden, 20 Minuten

AMD Ryzen AI 300: 10 Stunden, 42 Minuten

Intel Meteor Lake: 10 Stunden, 35 Minuten

Welcher Laptop-Chip ist besser?

Ältere Chip-Experten werden sich noch an Transmeta erinnern, ein Laptop-Prozessor-Startup, das seinen Befehlssatz von x86 übersetzen konnte, ähnlich wie ARM. Das Vermächtnis von Transmeta ist nicht so sehr das, was das Unternehmen erreicht hat, sondern das, wozu es Intel veranlasst hat: endlich den Laptop-Markt zu erobern und in den ersten Jahren des neuen Jahrhunderts einen konkurrenzfähigen Laptop-Prozessor zu entwickeln.

Jetzt ist es wieder so weit. Intels erster Core Ultra, Meteor Lake, hat die Leistung zugunsten einer langen Akkulaufzeit reduziert; Lunar Lake hebt dies auf die nächste Stufe.

Ist Intels Lunar Lake also ein Snapdragon-Killer? Nicht ganz. Was die Effizienz angeht, so spricht vieles dafür, dass der Snapdragon X Elite von Qualcomm immer noch der effizienteste Prozessor ist. Die Ryzen-Chips von AMD gewinnen aber bei vielen leistungsintensiven Aufgaben, aber darunter leidet im Gegenzug die Akkulaufzeit.

Aber in gewisser Weise spielt das alles im Alltag keine Rolle. Ein paar Gramm mehr für den Akku machen den Vorteil von Qualcomm im Grunde “zunichte”, wie unser Test-Notebook von Asus beweist. Aber der Snapdragon ist ihm in verschiedenen Szenarien immer noch überlegen, außer bei Spielen. Hier verschaffen die anhaltenden Kompatibilitätsprobleme im Zusammenhang mit dem ARM-Befehlssatz und die beeindruckende 3D-Engine dem Core Ultra Series 2 einen soliden Vorteil.

Alle Apps funktionieren auf Intel- und AMD-Rechnern, aber auf Snapdragon-Laptops kann es noch zu Problemen kommen, obwohl es Qualcomm schon gelungen ist, viele der beliebtesten Apps auf ARM zum Laufen zu bringen.

Das Fazit ist, dass Intels Lunar Lake bei allen Aufgaben, die von der CPU abhängen, bestenfalls mittelmäßig gut ist. Sobald die GPU oder NPU ins Spiel kommen, wird es besser. Das Gleiche gilt für die Akkulaufzeit, hier kann Intel gut mit dem Snapdragon mithalten.

Vor ein paar Jahren war es noch einfach, den “besten” Notebook-Chip zu bestimmen. Jetzt stellt sich die Frage, was für Sie das Beste ist. Und diese Frage ist nicht eindeutig zu beantworten: Mit Arrow Lake, der schon in den Startlöchern steht, könnte Intel noch einen echten Hochleistungsprozessor in der Hinterhand haben.

Unsere Kaufberatung: Die besten Laptops aller Klassen: Premium, Budget, Gaming und 2-in-1

Wie wir Intels Lunar Lake getestet haben

Dieser Test verwendet Benchmarks, die von mir, meinem Kollegen Gordon Mah Ung und anderen Laptop-Experten in aktuellen und früheren Tests zusammengestellt wurden. Ich habe mich auf die drei wichtigsten Chips dieser Generation konzentrieren: Intels Core Ultra Series 2/Lunar Lake, den Qualcomm Snapdragon X Elite und den AMD Ryzen AI 300.

Der Laptop, den Intel und Asus zur Verfügung gestellt haben, enthält einen Core Ultra 7 258V. Dieser befindet sich etwa in der Mitte der Core Ultra Series 2-Chips, die Intel auf den Markt gebracht hat. Es ist ungewöhnlich, dass Intel uns nicht seinen Spitzenchip für Vergleichstests zur Verfügung stellt. Denn der Ultra 7 258V verfügt über vier leistungsstarke Kerne, vier stromsparende Kerne und einen Turbotakt von 4,8 Gigahertz. Alles in allem stehen nur acht Threads für die Verarbeitung von Aufgaben zur Verfügung.

Das Schöne daran ist, dass Intel und Asus für den Vergleich zwischen den Chip-Generationen stets ähnliche Laptop-Modelle verwendet haben, insbesondere das Asus Zenbook 14 OLED, in dem sowohl die Lunar Lake- als auch die frühere Generation der Meteor Lake Core Ultra-Prozessoren verbaut sind. AMD nutzte das Asus Zenbook S 16 als Debütplattform für den Ryzen AI 300.

Auf der Qualcomm-Seite habe ich zwar das Microsoft Surface Pro (2024) getestet, aber ich habe mir auch das Surface Laptop 7 geschnappt und einige zusätzliche Benchmarks damit durchgeführt. Das ist ein fairerer Vergleich für Qualcomm. Bei bestimmten Benchmarks habe ich aus logistischen Gründen ein MSI Prestige 16 AI Evo mit einem identischen Meteor Lake-Chip verwendet.

(PC-Welt)

Intels Lunar Lake im Test: Vergessen Sie Qualcomm-Laptops​ Weiterlesen »

Mac Mini M4 Pro im Test: Erstaunlich klein und unglaublich leistungsstark​

Allgemein

Foundry Auf einen Blick Pro Winzig und leise Anständige Auswahl an Anschlüssen für einen so kleinen PC Tolle Leistung Kontra Hohe Upgrade-Preise Keine USB-A-Anschlüsse Ungünstige Platzierung des Netzschalters Fazit Apples neuer Mac Mini wäre auch in der geschrumpften Form eine Empfehlung, denn die M4-Prozessoren liefern eine großartige Leistung zu einem vernünftigen Preis. Aber das ändert sich in dem Moment, sobald Sie eine bessere Ausstattung benötigen und Apples irre Aufpreise bezahlen sollen. Der Mac Mini ist klein, das haben wir bereits auf Fotos und Videos von Apple gesehen. Doch als ich ihn dann aus der Verpackung nahm, war ich überrascht, wie klein er wirklich ist. In diesem mächtigen kleinen Mikrocomputer stecken der neue M4-Prozessor von Apple, 16 GB RAM und eine 256 GB SSD. Die Leistung und das Preis-Leistungs-Verhältnis der Basiskonfiguration für nur 699 Euro sind ziemlich gut. Der Mac Mini M4 ist ein Desktop-Computer, der dem durchschnittlichen Benutzer jahrelang gute Dienste leisten wird – und das zu einem sehr günstigen Preis. Aber wenn Sie sich ansehen, was Sie für ein wenig mehr Leistung brauchen, dann geht die Gleichung nicht mehr auf. Apple hat seine Preisstruktur für Arbeitsspeicher oder Speicherplatz seit Jahren nicht geändert und das fällt mit einem besseren Basismodell noch mehr auf. Höhere RAM-Konfigurationen sind schockierend teuer. Zusätzlicher Speicherplatz kostet ein kleines Vermögen. So kommen Sie sehr schnell zu einer Konfiguration, die gar kein gutes Preis-Leistungs-Verhältnis mehr bietet. Neben der Basisversion haben wir noch die Version des Mac Mini getestet, die mit dem Prozessor M4 Pro ausgestattet ist, einer aufgemotzten Version mit mehr CPU-Kernen, doppelter GPU-Leistung, mehr als der doppelten Speicherbandbreite und mehr. Auch dieser Mac Mini M4 Pro ist mit seinem Startpreis von 1.649 Euro ein anständiges Angebot, aber dank Apples irrer Upgrade-Preise wird er schnell teurer. Wenn Sie einen großartigen Mac-Desktop wollen, sollte der neue Mac Mini M4 ganz oben auf Ihrer Liste stehen, aber nur in bestimmten Konfigurationen. Mac Mini M4: Prozessor und Upgrades Das Basismodell des Mac Mini enthält einen M4 (mit 10-Core-CPU und 10-Core-GPU), 16 GB RAM und 256 GB SSD für 699 Euro. Sie benötigen dazu noch einen Monitor, eine Tastatur und eine Maus oder ein Trackpad, falls noch nicht vorhanden. So wird es zu einem System, das Ihnen jahrelang gute Dienste bei alltäglichen Arbeiten leisten wird. Für 1.649 Euro können Sie den Mac Mini M4 Pro kaufen, wenn auch nur mit einer abgespeckten Version des Chips mit 12 CPU-Kernen (statt 14) und 16 GPU-Kernen (statt 20). Immerhin bekommen Sie dann gleich 24 GB RAM und eine 512 GB große SSD. Diese beiden Einstiegskonfigurationen sind von respektablem Wert, vor allem, weil Apple endlich eingesehen hat, dass 8 GB Arbeitsspeicher zu wenig sind und keinen Mac mehr mit weniger als 16 GB RAM verkauft. Aber wie bei allen Apple-Produkten können Sie nach dem Kauf weder RAM noch Speicherplatz hinzufügen, ssodassIhnen nichts anderes übrig bleibt, als Apples Preise für Upgrades zu schlucken. Und diese Preise sind, offen gesagt, unverschämt hoch. Möchten Sie vom abgespeckten M4 Pro auf die Vollversion mit 14 CPU-Kernen und 20 GPU-Kernen umsteigen? Das kostet 230 Euro extra. Wechseln Sie von 16 GB RAM im Basismodell auf 24 GB? Auch 230 Euro. Möchten Sie stattdessen 32 GB? Das sind dann schon 460 Euro mehr. Der Sprung von einer 256 GB SSD auf 512 GB kostet 230 Euro. Wenn Sie auf 1 TB aufsteigen möchten, kostet das 460 Euro. Apples Preise für RAM und Flash-Speicher sind obszön, sie liegen um ein Vielfaches höher als die Kosten für die Teile oder gleichwertige Produkte im Einzelhandel. Hier ein Beispiel für eine 2 TB fassende SSD, die zum Zeitpunkt der Erstellung dieses Artikels 140 Euro kostet und eine vergleichbare Leistung wie der interne Speicher von Apple bietet. Sehen Sie sich das an: Der Mac Mini M4 der Einstiegsklasse mit 16 GB RAM und 256 GB Speicherplatz kostet 699 Euro. Die Aufrüstung auf 32 GB RAM und 512 GB SSD kostet zusätzlich 690 Euro. Die Upgrade-Preise von Apple sind so verrückt, dass Sie für den Preis von zusätzlichen 16 GB RAM und 256 GB SSD einen ganzen zweiten Mac Mini mit der gleichen Menge an RAM und Speicherplatz kaufen können, plus Prozessor, Ethernet, Gehäuse und den gesamten Rest des Computers! Als Testgerät hat und Apple eine Konfiguration überlassen, die nahe dem Maximum liegt. Es handelt sich um einen 14/20-Core M4 Pro ( 230 Euro) mit 48 GB RAM ( 460 Euro), einer 1 TB SSD ( 230 Euro) und 10-Gigabit-Ethernet (115 Euro). Die Gesamtsumme beträgt 2.684 Euro, etwa 300 Euro mehr als der Mac Studio der Einstiegsklasse kostet, der noch über einen M2 Max verfügt. M4 Mac Mini: Klein aber oho Der neue Mac Mini misst nur 12,7 Zentimeter im Quadrat und ist 5 Zentimeter hoch. Das ist weniger als ein Viertel des Volumens des Mac Studio, der nicht gerade ein großer Computer ist. Er hat mehr Gemeinsamkeiten mit dem Apple TV 4K (9,3 Zentimeter im Quadrat und 3,1 Zentimeter hoch). Auf der Vorderseite finden Sie einen Kopfhöreranschluss und zwei USB-C-Anschlüsse. Auf der Rückseite befinden sich Ethernet, HDMI 2.1 und drei weitere Thunderbolt/USB-C-Anschlüsse (Thunderbolt 4 wird vom M4 unterstützt, Thunderbolt 5 vom M4 Pro). Es gibt keine USB-A-Anschlüsse und keinen SD-Kartenleser. Foundry Trotz der winzigen Größe ist das Netzteil integriert, weshalb Sie kein großes Netzteil in die Wand stecken oder mehrere Stecker auf einer Steckdosenleiste unterbringen müssen. Die Auswahl an Anschlüssen ist für einen so kleinen Computer gut, auch wenn der völlige Verzicht auf USB-A mehr als nur ein wenig ärgerlich ist. Viele moderne Geräte, von drahtlosen Dongles für Mäuse und Controller bis hin zu Audioschnittstellen und Mikrofonen, verwenden immer noch USB-A. Und wenn Sie jemals Daten auf einem USB-Stick erhalten, ist die Wahrscheinlichkeit groß, dass es sich um USB-A handelt. Sie werden Ihren Mac Mini mit einem erschwinglichen USB-C-Hub ergänzen wollen. Foundry Die Einschalttaste ist an der Unterseite der hinteren linken Ecke angebracht, die durch die Lüftererhöhung von Ihrem Schreibtisch abgehoben ist. Die Lücke ist nicht groß genug für die meisten Finger, ssodassSie Ihren Mac Mini ein wenig anheben müssen, um die Einschalttaste zu drücken. Das ist nicht ideal, aber auch kein Grund zur Beunruhigung. Wir denken, dass die meisten Benutzer ihre Desktop-Macs eher in den Ruhezustand versetzen, als sie komplett auszuschalten. Die geringe Größe lässt nicht viel Platz für eine aktive Kühlung, aber Apples einzigartige Luftstromlösung funktioniert gut. Die Luft wird über eine Lüftungsöffnung an der erhöhten Unterseite des Macs angesaugt, zirkuliert und dann über die gleiche kleine Erhöhung und wird dort auch wieder an der hinteren Seite abgeleitet. Bei alltäglichen Aufgaben ist der Mac Mini praktisch geräuschlos. Foundry Bei langen Videocodierungsaufgaben oder beim Spielen von High-End-3D-Spielen dreht der Lüfter auf und wird recht hörbar. Ich sollte anmerken, dass ich alle Tests mit dem Mac im Hochleistungsmodus (nur beim Mac Mini M4 Pro verfügbar) durchgeführt habe, um die maximale Leistung zu erreichen. Dadurch kann der Lüfter höher aufdrehen, wodurch das System bei längerer intensiver Arbeit kühler bleibt, allerdings auf Kosten einer gewissen Geräuschentwicklung. Mac Mini M4 Pro: Leistung und Effizienz Ich bin beeindruckt von der Leistung des M4-Pro-Chips. Für einen so winzigen und energieeffizienten Prozessor sind die Benchmark-Ergebnisse ziemlich gut. Der M4-Basisprozessor ist für einen Computer unter 1.000 Euro extrem leistungsfähig, und der M4 Pro kann mit Computern im Bereich von 1.800 Euro mithalten. Auch die Speicherleistung ist großartig. Wir vergleichen ihn mit dem Basis-M4 (in einem iMac, obwohl der Mac Mini in etwa die gleiche Leistung erbringen sollte), dem neuesten High-End-Mac-Mini (mit einem M2 Pro) und dem Mac Studio mit einem M2 Max in der Konfiguration mit 38 GPU-Kernen und 32 GB RAM. Das ist der andere Mac-Desktop-Computer, dessen Preis in etwa mit dem unseres Testsystems übereinstimmt (2.859 Euro mit 1 TB SSD). Geekbench 6 Beginnen wir mit dem beliebten Standby-Test Geekbench 6. Es ist klar, dass die CPU-Kerne von Apple in den letzten Jahren eine starke Entwicklung genommen haben und liefern einige der besten Geekbench-Ergebnisse, die Sie finden können. Dieser Single-Core-Wert übertrifft jede Intel- oder AMD-CPU auf dem Markt bei weitem. Und mit nur 14 Kernen liefert er immer noch einen Multi-Core-Score von über 22.000. Das liegt in der gleichen Größenordnung wie der M2 Ultra (24 Kerne) oder der neueste Intel Core i9 (mit 24 Kernen). Der Geekbench 6 Compute Benchmark verwendet die GPU für Rechenaufgaben, die nicht mit 3D-Grafikrendering zusammenhängen, wie Hintergrundunschärfe, Gesichtserkennung und Simulation von Teilchenphysik. Die 20-Kern-GPU des M4 Pro zeigt eine gute Verbesserung gegenüber dem M2 Pro, aber sie kann nicht mit der 38-Kern-GPU des M2 Max mithalten. Sie liegt in etwa auf dem Niveau einer älteren, diskreten Notebook-GPU der Mittelklasse wie einer Radeon 6600M oder einer Geforce RTX 2060. Cinebench 2024 Cinebench führt High-End-Rendering durch, wie es in TV oder Film verwendet wird, und kann komplett auf der CPU oder mit der GPU ausgeführt werden. Wir sehen, dass der neue M4-CPU-Kern hier wieder seine Leistung zeigt, mit einem Single-Core-Ergebnis, das weit über dem der besten Intel- und AMD-Chips liegt, und einem Multi-Core-Ergebnis, das dem von Intel- und AMD-Chips mit 16 oder mehr Kernen entspricht. Alle diese Chips verbrauchen viel mehr Strom. Der GPU-Score von über 9.000 übertrifft das M2 Max sogar mit weniger GPU-Kernen – das ist neuen Funktionen wie Mesh-Shadern und Raytracing-Beschleunigung zu verdanken. Das ist ungefähr die gleiche Leistung wie eine Geforce RTX 3060 Ti oder eine Radeon RX 6800. Handbrake 1.8.2 Der Handbrake Video-Encoder ist eine gute Möglichkeit, die CPU-Leistung von Anwendungen zur Medienerstellung zu testen. Wir kodieren das 4K-Video von Tears of Steel in 1080p H.265 und verwenden dazu sowohl einen CPU-basierten x265-Encoder als auch den “videotoolbox”-Encoder, der die spezielle Videokodierungs-Hardware von Apple nutzt. In beiden Fällen sehen wir einen schönen großen Sprung gegenüber dem Basis-M4 und den früheren Desktop-Macs von Apple. Er ist fast doppelt so schnell wie der letzte Mac Mini mit M2 Pro und übertrifft sogar den M2 Max im Mac Studio. iMovie Export Wir führen auch einen kurzen Exporttest mit Apples eigener Videobearbeitungs-Software iMovie durch, die in der Regel gut für neue Macs optimiert ist. Wir exportieren ein 4K-Heimvideoprojekt sowohl mit ProRes- als auch mit High-Export-Einstellungen. Der M2 Max hat bei der Erstellung der H.264-Datei mit den Einstellungen “Hoch” die Nase vorn, was vielleicht daran liegt, dass er über zwei Videokodiermodule verfügt. Obwohl die M4 Pro nur eine Videokodierungs-Engine hat, kann sie die M2 Max beim Exportieren in ProRes überflügeln. Spiele-Benchmarks Es gibt zahlreiche Gründe, warum ein Mac nicht die erste Wahl für Spiele sein sollte, aber sie sind fähige (wenn auch teure) Spielemaschinen. Die verbesserte CPU und Speicherbandbreite machen einen großen Unterschied bei Civilization VI. Rise of the Tomb Raider läuft dank der größeren GPU immer noch besser auf dem M2 Max, aber die neuere und effizientere GPU des M4 Pro liegt nicht weit zurück. Dieses Leistungsniveau liegt etwas unter dem, was Sie von einem 1.000-Euro-Gaming-PC erwarten können. Blackmagic Festplattengeschwindigkeit Zum Schluss noch eine kurze Überprüfung der SSD-Leistung mit dem Blackmagic Disk Speed Test. Wir sehen, dass das Basismodell M4 iMac nur halb so schnell ist wie der Mac Mini, der mit anderen High-End-Mac-Desktops mithält. Bei einigen Macs verwendet die 256-GB-Konfiguration einen einzelnen NAND-Chip und verfügt daher über die halbe SSD-Schnittstellenbreite, was zu einer geringeren Leistung führt. Bei unserem M4 iMac handelt es sich jedoch um ein 1-TB-Modell. Es ist also möglich, dass alle regulären Systeme nur die halbe SSD-Leistung haben, während die M4 Pro- oder M4 Max-basierten Systeme schneller sind. Unabhängig davon hat Apple die SSD-Leistung seit der M2-Generation nicht verbessert. Sollten Sie einen Mac Mini M4 kaufen? Mir gefällt der neue Mac Mini sehr gut. So sehr ich mir auch wünsche, dass er nur einen einzigen USB-A-Anschluss hätte und ich die Platzierung des Netzschalters für ein Eigentor halte, bin ich doch beeindruckt von seiner kompakten Statur, dem leisen Betrieb und der hervorragenden Leistung. Jetzt, wo Apple alle Macs mit mindestens 16 GB Arbeitsspeicher ausliefert, ist der Mac Mini M4 der Einstiegsklasse mit 699 Euro ein ziemlich gutes Angebot. Das gilt auch für das Basismodell M4 Pro, das mit 24 GB RAM und einer 512 GB SSD ausgestattet ist und 1.649 Euro kostet. Doch es verdeutlicht auch die irrsinnigen Upgrade-Preise von Apple. Die meisten Menschen werden mehr als 256 GB benötigen, und ein Upgrade auf 512 GB kostet geradezu geizige 230 Euro. Wenn Sie Ihren Computer tatsächlich ein paar Jahre lang nutzen möchten, empfehlen wir Ihnen ein Upgrade auf 1 TB (oder 2 TB beim Mac Mini M4 Pro), das 460 Euro kostet. Ein Upgrade des Arbeitsspeichers kann auch nicht schaden, und zwar für 230 Euro, wenn Sie von 16 GB auf 24 GB aufrüsten, oder für 460 Euro, wenn Sie auf 32 GB aufrüsten. Das sind 230 Euro für jede 8 GB RAM, und das ist unverschämt. Für das M4-Pro-Modell kostet der Sprung von 24 GB auf 48 GB 460 Euro und das 64-GB-Upgrade 690 Euro. (Fragen Sie mich nicht, warum Sie für 460 Euro 24 GB RAM im M4 Pro-Modell, aber 16 GB im Standardmodell bekommen). Das sind nicht nur “Apple-Premium”-Preise, das ist willkürliche und räuberische Unternehmensgier vom Feinsten. Sie haben keine Alternative, also zahlen Sie den fünffachen Preis. Der Mac Mini M4 ist ein großartiger Computer zu einem großartigen Preis – solange Sie nicht die Upgrades kaufen. (Macwelt) 

Mac Mini M4 Pro im Test: Erstaunlich klein und unglaublich leistungsstark​ Foundry

Auf einen Blick

Pro

Winzig und leise

Anständige Auswahl an Anschlüssen für einen so kleinen PC

Tolle Leistung

Kontra

Hohe Upgrade-Preise

Keine USB-A-Anschlüsse

Ungünstige Platzierung des Netzschalters

Fazit

Apples neuer Mac Mini wäre auch in der geschrumpften Form eine Empfehlung, denn die M4-Prozessoren liefern eine großartige Leistung zu einem vernünftigen Preis. Aber das ändert sich in dem Moment, sobald Sie eine bessere Ausstattung benötigen und Apples irre Aufpreise bezahlen sollen.

Der Mac Mini ist klein, das haben wir bereits auf Fotos und Videos von Apple gesehen. Doch als ich ihn dann aus der Verpackung nahm, war ich überrascht, wie klein er wirklich ist.

In diesem mächtigen kleinen Mikrocomputer stecken der neue M4-Prozessor von Apple, 16 GB RAM und eine 256 GB SSD. Die Leistung und das Preis-Leistungs-Verhältnis der Basiskonfiguration für nur 699 Euro sind ziemlich gut. Der Mac Mini M4 ist ein Desktop-Computer, der dem durchschnittlichen Benutzer jahrelang gute Dienste leisten wird – und das zu einem sehr günstigen Preis.

Aber wenn Sie sich ansehen, was Sie für ein wenig mehr Leistung brauchen, dann geht die Gleichung nicht mehr auf. Apple hat seine Preisstruktur für Arbeitsspeicher oder Speicherplatz seit Jahren nicht geändert und das fällt mit einem besseren Basismodell noch mehr auf. Höhere RAM-Konfigurationen sind schockierend teuer. Zusätzlicher Speicherplatz kostet ein kleines Vermögen. So kommen Sie sehr schnell zu einer Konfiguration, die gar kein gutes Preis-Leistungs-Verhältnis mehr bietet.

Neben der Basisversion haben wir noch die Version des Mac Mini getestet, die mit dem Prozessor M4 Pro ausgestattet ist, einer aufgemotzten Version mit mehr CPU-Kernen, doppelter GPU-Leistung, mehr als der doppelten Speicherbandbreite und mehr. Auch dieser Mac Mini M4 Pro ist mit seinem Startpreis von 1.649 Euro ein anständiges Angebot, aber dank Apples irrer Upgrade-Preise wird er schnell teurer.

Wenn Sie einen großartigen Mac-Desktop wollen, sollte der neue Mac Mini M4 ganz oben auf Ihrer Liste stehen, aber nur in bestimmten Konfigurationen.

Mac Mini M4: Prozessor und Upgrades

Das Basismodell des Mac Mini enthält einen M4 (mit 10-Core-CPU und 10-Core-GPU), 16 GB RAM und 256 GB SSD für 699 Euro. Sie benötigen dazu noch einen Monitor, eine Tastatur und eine Maus oder ein Trackpad, falls noch nicht vorhanden. So wird es zu einem System, das Ihnen jahrelang gute Dienste bei alltäglichen Arbeiten leisten wird.

Für 1.649 Euro können Sie den Mac Mini M4 Pro kaufen, wenn auch nur mit einer abgespeckten Version des Chips mit 12 CPU-Kernen (statt 14) und 16 GPU-Kernen (statt 20). Immerhin bekommen Sie dann gleich 24 GB RAM und eine 512 GB große SSD.

Diese beiden Einstiegskonfigurationen sind von respektablem Wert, vor allem, weil Apple endlich eingesehen hat, dass 8 GB Arbeitsspeicher zu wenig sind und keinen Mac mehr mit weniger als 16 GB RAM verkauft. Aber wie bei allen Apple-Produkten können Sie nach dem Kauf weder RAM noch Speicherplatz hinzufügen, ssodassIhnen nichts anderes übrig bleibt, als Apples Preise für Upgrades zu schlucken. Und diese Preise sind, offen gesagt, unverschämt hoch.

Möchten Sie vom abgespeckten M4 Pro auf die Vollversion mit 14 CPU-Kernen und 20 GPU-Kernen umsteigen? Das kostet 230 Euro extra.

Wechseln Sie von 16 GB RAM im Basismodell auf 24 GB? Auch 230 Euro. Möchten Sie stattdessen 32 GB? Das sind dann schon 460 Euro mehr. Der Sprung von einer 256 GB SSD auf 512 GB kostet 230 Euro. Wenn Sie auf 1 TB aufsteigen möchten, kostet das 460 Euro. Apples Preise für RAM und Flash-Speicher sind obszön, sie liegen um ein Vielfaches höher als die Kosten für die Teile oder gleichwertige Produkte im Einzelhandel. Hier ein Beispiel für eine 2 TB fassende SSD, die zum Zeitpunkt der Erstellung dieses Artikels 140 Euro kostet und eine vergleichbare Leistung wie der interne Speicher von Apple bietet.

Sehen Sie sich das an: Der Mac Mini M4 der Einstiegsklasse mit 16 GB RAM und 256 GB Speicherplatz kostet 699 Euro. Die Aufrüstung auf 32 GB RAM und 512 GB SSD kostet zusätzlich 690 Euro. Die Upgrade-Preise von Apple sind so verrückt, dass Sie für den Preis von zusätzlichen 16 GB RAM und 256 GB SSD einen ganzen zweiten Mac Mini mit der gleichen Menge an RAM und Speicherplatz kaufen können, plus Prozessor, Ethernet, Gehäuse und den gesamten Rest des Computers!

Als Testgerät hat und Apple eine Konfiguration überlassen, die nahe dem Maximum liegt. Es handelt sich um einen 14/20-Core M4 Pro ( 230 Euro) mit 48 GB RAM ( 460 Euro), einer 1 TB SSD ( 230 Euro) und 10-Gigabit-Ethernet (115 Euro). Die Gesamtsumme beträgt 2.684 Euro, etwa 300 Euro mehr als der Mac Studio der Einstiegsklasse kostet, der noch über einen M2 Max verfügt.

M4 Mac Mini: Klein aber oho

Der neue Mac Mini misst nur 12,7 Zentimeter im Quadrat und ist 5 Zentimeter hoch. Das ist weniger als ein Viertel des Volumens des Mac Studio, der nicht gerade ein großer Computer ist. Er hat mehr Gemeinsamkeiten mit dem Apple TV 4K (9,3 Zentimeter im Quadrat und 3,1 Zentimeter hoch).

Auf der Vorderseite finden Sie einen Kopfhöreranschluss und zwei USB-C-Anschlüsse. Auf der Rückseite befinden sich Ethernet, HDMI 2.1 und drei weitere Thunderbolt/USB-C-Anschlüsse (Thunderbolt 4 wird vom M4 unterstützt, Thunderbolt 5 vom M4 Pro). Es gibt keine USB-A-Anschlüsse und keinen SD-Kartenleser.

Foundry

Trotz der winzigen Größe ist das Netzteil integriert, weshalb Sie kein großes Netzteil in die Wand stecken oder mehrere Stecker auf einer Steckdosenleiste unterbringen müssen.

Die Auswahl an Anschlüssen ist für einen so kleinen Computer gut, auch wenn der völlige Verzicht auf USB-A mehr als nur ein wenig ärgerlich ist. Viele moderne Geräte, von drahtlosen Dongles für Mäuse und Controller bis hin zu Audioschnittstellen und Mikrofonen, verwenden immer noch USB-A. Und wenn Sie jemals Daten auf einem USB-Stick erhalten, ist die Wahrscheinlichkeit groß, dass es sich um USB-A handelt. Sie werden Ihren Mac Mini mit einem erschwinglichen USB-C-Hub ergänzen wollen.

Foundry

Die Einschalttaste ist an der Unterseite der hinteren linken Ecke angebracht, die durch die Lüftererhöhung von Ihrem Schreibtisch abgehoben ist. Die Lücke ist nicht groß genug für die meisten Finger, ssodassSie Ihren Mac Mini ein wenig anheben müssen, um die Einschalttaste zu drücken. Das ist nicht ideal, aber auch kein Grund zur Beunruhigung. Wir denken, dass die meisten Benutzer ihre Desktop-Macs eher in den Ruhezustand versetzen, als sie komplett auszuschalten.

Die geringe Größe lässt nicht viel Platz für eine aktive Kühlung, aber Apples einzigartige Luftstromlösung funktioniert gut. Die Luft wird über eine Lüftungsöffnung an der erhöhten Unterseite des Macs angesaugt, zirkuliert und dann über die gleiche kleine Erhöhung und wird dort auch wieder an der hinteren Seite abgeleitet. Bei alltäglichen Aufgaben ist der Mac Mini praktisch geräuschlos.

Foundry

Bei langen Videocodierungsaufgaben oder beim Spielen von High-End-3D-Spielen dreht der Lüfter auf und wird recht hörbar. Ich sollte anmerken, dass ich alle Tests mit dem Mac im Hochleistungsmodus (nur beim Mac Mini M4 Pro verfügbar) durchgeführt habe, um die maximale Leistung zu erreichen. Dadurch kann der Lüfter höher aufdrehen, wodurch das System bei längerer intensiver Arbeit kühler bleibt, allerdings auf Kosten einer gewissen Geräuschentwicklung.

Mac Mini M4 Pro: Leistung und Effizienz

Ich bin beeindruckt von der Leistung des M4-Pro-Chips. Für einen so winzigen und energieeffizienten Prozessor sind die Benchmark-Ergebnisse ziemlich gut. Der M4-Basisprozessor ist für einen Computer unter 1.000 Euro extrem leistungsfähig, und der M4 Pro kann mit Computern im Bereich von 1.800 Euro mithalten. Auch die Speicherleistung ist großartig.

Wir vergleichen ihn mit dem Basis-M4 (in einem iMac, obwohl der Mac Mini in etwa die gleiche Leistung erbringen sollte), dem neuesten High-End-Mac-Mini (mit einem M2 Pro) und dem Mac Studio mit einem M2 Max in der Konfiguration mit 38 GPU-Kernen und 32 GB RAM. Das ist der andere Mac-Desktop-Computer, dessen Preis in etwa mit dem unseres Testsystems übereinstimmt (2.859 Euro mit 1 TB SSD).

Geekbench 6

Beginnen wir mit dem beliebten Standby-Test Geekbench 6. Es ist klar, dass die CPU-Kerne von Apple in den letzten Jahren eine starke Entwicklung genommen haben und liefern einige der besten Geekbench-Ergebnisse, die Sie finden können. Dieser Single-Core-Wert übertrifft jede Intel- oder AMD-CPU auf dem Markt bei weitem. Und mit nur 14 Kernen liefert er immer noch einen Multi-Core-Score von über 22.000. Das liegt in der gleichen Größenordnung wie der M2 Ultra (24 Kerne) oder der neueste Intel Core i9 (mit 24 Kernen).

Der Geekbench 6 Compute Benchmark verwendet die GPU für Rechenaufgaben, die nicht mit 3D-Grafikrendering zusammenhängen, wie Hintergrundunschärfe, Gesichtserkennung und Simulation von Teilchenphysik. Die 20-Kern-GPU des M4 Pro zeigt eine gute Verbesserung gegenüber dem M2 Pro, aber sie kann nicht mit der 38-Kern-GPU des M2 Max mithalten. Sie liegt in etwa auf dem Niveau einer älteren, diskreten Notebook-GPU der Mittelklasse wie einer Radeon 6600M oder einer Geforce RTX 2060.

Cinebench 2024

Cinebench führt High-End-Rendering durch, wie es in TV oder Film verwendet wird, und kann komplett auf der CPU oder mit der GPU ausgeführt werden. Wir sehen, dass der neue M4-CPU-Kern hier wieder seine Leistung zeigt, mit einem Single-Core-Ergebnis, das weit über dem der besten Intel- und AMD-Chips liegt, und einem Multi-Core-Ergebnis, das dem von Intel- und AMD-Chips mit 16 oder mehr Kernen entspricht. Alle diese Chips verbrauchen viel mehr Strom.

Der GPU-Score von über 9.000 übertrifft das M2 Max sogar mit weniger GPU-Kernen – das ist neuen Funktionen wie Mesh-Shadern und Raytracing-Beschleunigung zu verdanken. Das ist ungefähr die gleiche Leistung wie eine Geforce RTX 3060 Ti oder eine Radeon RX 6800.

Handbrake 1.8.2

Der Handbrake Video-Encoder ist eine gute Möglichkeit, die CPU-Leistung von Anwendungen zur Medienerstellung zu testen. Wir kodieren das 4K-Video von Tears of Steel in 1080p H.265 und verwenden dazu sowohl einen CPU-basierten x265-Encoder als auch den “videotoolbox”-Encoder, der die spezielle Videokodierungs-Hardware von Apple nutzt.

In beiden Fällen sehen wir einen schönen großen Sprung gegenüber dem Basis-M4 und den früheren Desktop-Macs von Apple. Er ist fast doppelt so schnell wie der letzte Mac Mini mit M2 Pro und übertrifft sogar den M2 Max im Mac Studio.

iMovie Export

Wir führen auch einen kurzen Exporttest mit Apples eigener Videobearbeitungs-Software iMovie durch, die in der Regel gut für neue Macs optimiert ist. Wir exportieren ein 4K-Heimvideoprojekt sowohl mit ProRes- als auch mit High-Export-Einstellungen.

Der M2 Max hat bei der Erstellung der H.264-Datei mit den Einstellungen “Hoch” die Nase vorn, was vielleicht daran liegt, dass er über zwei Videokodiermodule verfügt. Obwohl die M4 Pro nur eine Videokodierungs-Engine hat, kann sie die M2 Max beim Exportieren in ProRes überflügeln.

Spiele-Benchmarks

Es gibt zahlreiche Gründe, warum ein Mac nicht die erste Wahl für Spiele sein sollte, aber sie sind fähige (wenn auch teure) Spielemaschinen. Die verbesserte CPU und Speicherbandbreite machen einen großen Unterschied bei Civilization VI. Rise of the Tomb Raider läuft dank der größeren GPU immer noch besser auf dem M2 Max, aber die neuere und effizientere GPU des M4 Pro liegt nicht weit zurück. Dieses Leistungsniveau liegt etwas unter dem, was Sie von einem 1.000-Euro-Gaming-PC erwarten können.

Blackmagic Festplattengeschwindigkeit

Zum Schluss noch eine kurze Überprüfung der SSD-Leistung mit dem Blackmagic Disk Speed Test. Wir sehen, dass das Basismodell M4 iMac nur halb so schnell ist wie der Mac Mini, der mit anderen High-End-Mac-Desktops mithält. Bei einigen Macs verwendet die 256-GB-Konfiguration einen einzelnen NAND-Chip und verfügt daher über die halbe SSD-Schnittstellenbreite, was zu einer geringeren Leistung führt.

Bei unserem M4 iMac handelt es sich jedoch um ein 1-TB-Modell. Es ist also möglich, dass alle regulären Systeme nur die halbe SSD-Leistung haben, während die M4 Pro- oder M4 Max-basierten Systeme schneller sind.

Unabhängig davon hat Apple die SSD-Leistung seit der M2-Generation nicht verbessert.

Sollten Sie einen Mac Mini M4 kaufen?

Mir gefällt der neue Mac Mini sehr gut. So sehr ich mir auch wünsche, dass er nur einen einzigen USB-A-Anschluss hätte und ich die Platzierung des Netzschalters für ein Eigentor halte, bin ich doch beeindruckt von seiner kompakten Statur, dem leisen Betrieb und der hervorragenden Leistung.

Jetzt, wo Apple alle Macs mit mindestens 16 GB Arbeitsspeicher ausliefert, ist der Mac Mini M4 der Einstiegsklasse mit 699 Euro ein ziemlich gutes Angebot. Das gilt auch für das Basismodell M4 Pro, das mit 24 GB RAM und einer 512 GB SSD ausgestattet ist und 1.649 Euro kostet.

Doch es verdeutlicht auch die irrsinnigen Upgrade-Preise von Apple. Die meisten Menschen werden mehr als 256 GB benötigen, und ein Upgrade auf 512 GB kostet geradezu geizige 230 Euro. Wenn Sie Ihren Computer tatsächlich ein paar Jahre lang nutzen möchten, empfehlen wir Ihnen ein Upgrade auf 1 TB (oder 2 TB beim Mac Mini M4 Pro), das 460 Euro kostet.

Ein Upgrade des Arbeitsspeichers kann auch nicht schaden, und zwar für 230 Euro, wenn Sie von 16 GB auf 24 GB aufrüsten, oder für 460 Euro, wenn Sie auf 32 GB aufrüsten. Das sind 230 Euro für jede 8 GB RAM, und das ist unverschämt.

Für das M4-Pro-Modell kostet der Sprung von 24 GB auf 48 GB 460 Euro und das 64-GB-Upgrade 690 Euro. (Fragen Sie mich nicht, warum Sie für 460 Euro 24 GB RAM im M4 Pro-Modell, aber 16 GB im Standardmodell bekommen). Das sind nicht nur “Apple-Premium”-Preise, das ist willkürliche und räuberische Unternehmensgier vom Feinsten. Sie haben keine Alternative, also zahlen Sie den fünffachen Preis.

Der Mac Mini M4 ist ein großartiger Computer zu einem großartigen Preis – solange Sie nicht die Upgrades kaufen.

(Macwelt)

Mac Mini M4 Pro im Test: Erstaunlich klein und unglaublich leistungsstark​ Weiterlesen »

Was ist Doomscrolling?​

Allgemein

Ergehen auch Sie sich regelmäßig in Doomscrolling-Sessions? Lesen Sie, warum Sie das abstellen sollten – und wie Sie das bewerkstelligen. Foto: Rroselavy – shutterstock.comViele von uns sind “Doomscroller”, ohne sich dessen bewusst zu sein. Schließlich handelt es sich um ein Nutzungsmuster, das im digitalen Zeitalter immer häufiger auftritt und diverse negative Konsequenzen für die mentale Gesundheit nach sich ziehen kann, wie auch wissenschaftliche Forschungsergebnisse untermauern.Dieser Artikel verrät Ihnen, wie sich Doomscrolling definiert, welche Folgen es haben kann und welche Maßnahmen Sie ergreifen können, um sich nicht in den psychischen Untergang zu scrollen.Doomscrolling – DefinitionDoomscrolling beschreibt den exzessiven Konsum negativer Nachrichten- beziehungsweise Medieninhalte. Die mentale Beanspruchung nimmt dabei solche Ausmaße an, dass Gefühle entstehen wie:Angst,Stress,Hilflosigkeit,Hoffnungslosigkeit oderVerzweiflung.Damit hören die potenziellen negativen Folgen für die psychische Gesundheit nicht auf: Ein ständiger Strom negativer Nachrichten und Bilder kann auch den Schlafrhythmus stören und zu emotionaler Erschöpfung führen.Aktiviert und gesteuert wird dieses Nutzungsmuster oft durch eine Kombination verschiedener Faktoren – in erster Linie das Belohnungssystem des menschlichen Gehirns und den sogenannten “Negativity Bias“. Letzterer sorgt dafür, dass unser Gehirn negative Informationen priorisiert und sich eher an diese erinnert (im Vergleich zu positiv besetzten Informationen). Dass die Algorithmen von sozialen Medien und Nachrichtenportalen ebenfalls dazu neigen, negative Inhalte zu priorisieren, weil die mehr Engagement und Klicks generieren, ist alles andere als zuträglich. Doomscrolling-FolgenDoomscrolling kann sich in vielfacher Hinsicht negativ auf Ihre geistige Gesundheit sowie Ihr emotionales und unter Umständen auch körperliches Wohlbefinden auswirken. Zu den wichtigsten Folgen exzessiver Doomscrolling-Sessions zählen:zunehmende Angst- und Stressgefühle,Depressionen,Schlaflosigkeit und Schlafstörungen,Produktivitäts- und Konzentrationsabfall, sowiemögliche langfristige Auswirkungen auf die körperliche Gesundheit.Doomscrolling verhindernUm die durch Doomscrolling drohenden Gefahren abzuwenden, stehen Ihnen diverse Maßnahmen zur Verfügung – die oberste Maßgabe ist dabei jedoch: Konsumieren Sie Medieninhalte bewusst und stellen Sie dabei Ihr mentales Wohlbefinden in den Vordergrund:Schränken Sie die Zeit ein, die Sie auf sozialen Medien und Nachrichtenportalen verbringen;Diversifizieren Sie Ihre Medienquellen und binden Sie solche mit inspirierenden, bildenden oder positiv unterhaltsamen Inhalten ein;Vermeiden Sie, Nachrichten und Medieninhalte kurz vor dem Schlafengehen zu konsumieren – setzen Sie stattdessen lieber auf ein Buch, ein Bad oder Meditation;Minimieren Sie die Versuchungen und deaktivieren Sie Benachrichtigungsfunktionen von Apps und Webseiten;Beschäftigen Sie sich mit Aktivitäten, die nachweislich das geistige Wohlbefinden fördern – etwa Sport oder einem anderen Hobby. https://twitter.com/GinaGoesOutside/status/1324523202559774720?ref_src=twsrc%5Etfw (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation PC World. 

Was ist Doomscrolling?​ Ergehen auch Sie sich regelmäßig in Doomscrolling-Sessions? Lesen Sie, warum Sie das abstellen sollten – und wie Sie das bewerkstelligen.
Foto: Rroselavy – shutterstock.comViele von uns sind “Doomscroller”, ohne sich dessen bewusst zu sein. Schließlich handelt es sich um ein Nutzungsmuster, das im digitalen Zeitalter immer häufiger auftritt und diverse negative Konsequenzen für die mentale Gesundheit nach sich ziehen kann, wie auch wissenschaftliche Forschungsergebnisse untermauern.Dieser Artikel verrät Ihnen, wie sich Doomscrolling definiert, welche Folgen es haben kann und welche Maßnahmen Sie ergreifen können, um sich nicht in den psychischen Untergang zu scrollen.Doomscrolling – DefinitionDoomscrolling beschreibt den exzessiven Konsum negativer Nachrichten- beziehungsweise Medieninhalte. Die mentale Beanspruchung nimmt dabei solche Ausmaße an, dass Gefühle entstehen wie:Angst,Stress,Hilflosigkeit,Hoffnungslosigkeit oderVerzweiflung.Damit hören die potenziellen negativen Folgen für die psychische Gesundheit nicht auf: Ein ständiger Strom negativer Nachrichten und Bilder kann auch den Schlafrhythmus stören und zu emotionaler Erschöpfung führen.Aktiviert und gesteuert wird dieses Nutzungsmuster oft durch eine Kombination verschiedener Faktoren – in erster Linie das Belohnungssystem des menschlichen Gehirns und den sogenannten “Negativity Bias“. Letzterer sorgt dafür, dass unser Gehirn negative Informationen priorisiert und sich eher an diese erinnert (im Vergleich zu positiv besetzten Informationen). Dass die Algorithmen von sozialen Medien und Nachrichtenportalen ebenfalls dazu neigen, negative Inhalte zu priorisieren, weil die mehr Engagement und Klicks generieren, ist alles andere als zuträglich.

Doomscrolling-FolgenDoomscrolling kann sich in vielfacher Hinsicht negativ auf Ihre geistige Gesundheit sowie Ihr emotionales und unter Umständen auch körperliches Wohlbefinden auswirken. Zu den wichtigsten Folgen exzessiver Doomscrolling-Sessions zählen:zunehmende Angst- und Stressgefühle,Depressionen,Schlaflosigkeit und Schlafstörungen,Produktivitäts- und Konzentrationsabfall, sowiemögliche langfristige Auswirkungen auf die körperliche Gesundheit.Doomscrolling verhindernUm die durch Doomscrolling drohenden Gefahren abzuwenden, stehen Ihnen diverse Maßnahmen zur Verfügung – die oberste Maßgabe ist dabei jedoch: Konsumieren Sie Medieninhalte bewusst und stellen Sie dabei Ihr mentales Wohlbefinden in den Vordergrund:Schränken Sie die Zeit ein, die Sie auf sozialen Medien und Nachrichtenportalen verbringen;Diversifizieren Sie Ihre Medienquellen und binden Sie solche mit inspirierenden, bildenden oder positiv unterhaltsamen Inhalten ein;Vermeiden Sie, Nachrichten und Medieninhalte kurz vor dem Schlafengehen zu konsumieren – setzen Sie stattdessen lieber auf ein Buch, ein Bad oder Meditation;Minimieren Sie die Versuchungen und deaktivieren Sie Benachrichtigungsfunktionen von Apps und Webseiten;Beschäftigen Sie sich mit Aktivitäten, die nachweislich das geistige Wohlbefinden fördern – etwa Sport oder einem anderen Hobby.

https://twitter.com/GinaGoesOutside/status/1324523202559774720?ref_src=twsrc%5Etfw

(fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation PC World.

Was ist Doomscrolling?​ Weiterlesen »

Apples Magic Keyboard mit USB-C im Test​

Allgemein

IDG Auf einen Blick Pro Gute Unterstützung von Apple-Geräten Touch-ID ermöglicht einfache Anmeldungen und Bezahlvorgänge Tippgefühl entspricht Macbook-Tastaturen Gutes Design Versionen mit und ohne Touch-ID oder Zifferntasten Kontra Keine Höheneinstellung Der geringe Tastenhub ist nicht jedermanns Geschmack Hoher Preis Fazit Die aktuellen Apple-Tastaturen sind besonders für Mac-Anwender empfehlenswert, vordergründig wegen der praktischen Touch-ID-Funktion, die im Alltag einen echten Mehrwert bietet und ein starkes Argument für ein Upgrade ist. Das Tippgefühl entspricht dem auf den Macbook-Tastaturen von Apple – allerdings ist der kurze Tastenhub nicht jedermanns Sache. Ein weiterer Kaufgrund ist das elegante Design, das perfekt zu einem Mac Mini, Mac Studio oder Macbook passt. Leider fehlt jedoch die Möglichkeit, die Höhe und Neigung der Tastatur individuell anzupassen. Apple-Tastaturen hatten schon immer einen besonderen Ruf und gelten als äußerst langlebig – manche Mac-Nutzer sollen sogar noch mit einer Apple Extended Tastatur von 1987 arbeiten. So lange werden die aktuellen Bluetooth-Tastaturen allein wegen des Akkus wohl nicht durchhalten, doch das Magic Keyboard aus Cupertino bleibt ein Muster an Robustheit und elegantem Design. Diese Kombination hat aber ihren Preis – und der ist nicht gerade gering. In unserem Test stand uns das neue Apple Magic Keyboard mit Touch-ID und Ziffernblock zur Verfügung, für das Apple ab 199 Euro verlangt. 199 Euro kostet aber nur die Version mit weißen Tasten, das Modell mit schicken schwarzen Tasten kostet fast schon unverschämte 20 Euro mehr. Drei Versionen sind aktuell im Angebot: Ein großes Modell mit Touch-ID und Ziffernblock, ein kompaktes ohne Ziffernblock aber Touch-ID und ein kompaktes Modell ohne Touch-ID. Neu ist am neuen Magic Keyboard eigentlich nur der Wechsel von Lightning zu USB-C. Die Umstellung zu USB-C ist sicher kein Grund zum Neukauf, auch optisch und beim Funktionsumfang hat sich gegenüber dem Ende 2021 vorgestellten Vorgänger nichts geändert. Die Version mit Lightning würde ich aber wohl nicht mehr kaufen. Diese Abkehr von Lightning betrifft auch die beiden Peripheriegeräte Magic Trackpad und Magic Mouse, auch diese beiden Geräte verkauft Apple nun mit der von der EU erwünschten USB-C-Schnittstelle. Apple verspricht wie beim Vorgänger eine Akku-Laufzeit von etwa einem Monat. IDG Touch-ID ist den Aufpreis wert Touch-ID mag auf den ersten Blick wie ein teurer Luxus wirken – schließlich schlägt die Version des Magic Keyboard mit Fingerabdrucksensor 50 Euro mehr zu Buche als das Basis-Modell ohne Ziffernblock für bereits stattliche 119 Euro. Doch der praktische Nutzen dieser Funktion wird oft unterschätzt. Wer sie erst einmal ausprobiert hat, möchte sie schon nach kurzer Zeit nicht mehr missen. In der aktuellen Onlinewelt müssen Sie sich schließlich ständig irgendwo autorisieren oder per Passwort anmelden. Der in der Spezialtaste integrierte Fingerabdrucksensor funktioniert dabei so simpel und schnell, wie Sie es von einem iPad oder Macbook mit Touch-ID kennen. Öffnen Sie eine Webseite mit Passwortsperre oder müssen Sie sich am Mac anmelden – all diese Funktionen lassen sich mit der kleinen Touch-ID-Taste intuitiv aufrufen. Ein Drücken genügt und die Anmeldung an der Webseite ist getätigt oder das Gerät entsperrt. Auch das schnelle Sperren eines Macs – etwa im Großraumbüro – ist durch Antippen der Taste möglich. Wie beim iPad und alten iPhones müssen Sie Ihren Fingerabdruck allerdings zuerst registrieren. Am Mac erfolgt dies über eine automatisch startende Assistenzfunktion oder die Systemeinstellung “Touch ID & Passwort”. Hier können Sie separat festlegen, ob Sie die Taste für Apple Pay, Store-Einkäufe, Passwort-Eingabe und auch Benutzerwechsel verwenden wollen. Tastengefühl wie bei einem Macbook Die Tastatur ist ausgezeichnet und eignet sich gut für Vielschreiber. Ihr Tippgefühl ähnelt aber sehr stark Apples Macbook-Tastaturen und ist ideal, wenn Sie mehrere Apple-Geräte besitzen. Sie haben dann immer eine ähnliche Haptik beim Tippen. Nicht ohne Grund bietet Apple schließlich ein großes Touchpad als Maus-Ersatz – Sie können dann auch auf dem Desktop die Vorteile eines Trackpads nutzen. Wenn Sie ein Fan mechanischer Tastaturen sind, wird das Magic Keyboard von Apple vermutlich Ihren Geschmack nicht treffen. Der flache Tastenhub, ähnlich wie bei einem Macbook, fühlt sich für langjährige Nutzer herkömmlicher Tastaturen mit hohen Tasten oft ungewohnt an. Zusätzlich könnte die fehlende Verstellbarkeit des Tastaturwinkels irritieren: Anders als viele Modelle mit ausklappbaren Füßchen oder Leisten zur Neigungsanpassung, bietet das Magic Keyboard keine Möglichkeit zur individuellen Anpassung. Es ist zwar leicht angeschrägt – vorn 0,41 cm hoch, hinten 1,09 cm – bleibt jedoch fix in dieser Position. Ein Nachteil des Konzepts: Schon das Abstecken einer Taste, was bei anderen Tastaturen kein Problem ist, kann schnell zu Beschädigungen führen. Positiv fällt dagegen der geringe Platzbedarf auf. Selbst die größte der drei Apple-Tastaturen ist noch deutlich flacher und schmaler als die meisten Standard-Tastaturen. Auch die Lautstärke hält sich im Rahmen, vordergründig im Vergleich mit einer mechanischen Tastatur ist das Geräusch der Tasten für Mitbewohner und Kollegen recht dezent. Ob Sie eine Version mit Ziffernblock benötigen, müssen Sie aber selbst entscheiden. Auch für diese Funktion zahlen Sie schließlich einen satten Aufpreis. Funktionen Über die Jahre hat Apple seine Tastaturen leicht verändert, primär die obere Tastenleiste wurde bei der Einführung des Vorgängers überarbeitet. Das 2021 eingeführte Magic Keyboard bekam damals abgerundete Ecktasten und neue Funktionstasten F4-F6, die den Funktionen “Spotlight”, “Diktat/Siri” und “Nicht stören” zugeordnet werden. Mit 369 Gramm ist die Version mit Ziffernblock nicht sehr schwer, aber trotzdem robust und solide. Für unterwegs ist selbstverständlich die Version ohne Ziffernblock sinnvoller, die nur 243 Gramm wiegt – nebenbei deutlich weniger als eine iPad-Tastaturhülle von Apple. Neu ist seitdem auch, dass die Unterseite aus Aluminium besteht. Eine nur per Kabel angeschlossene Tastatur ist nicht mehr im Angebot – wenn Sie auch die Bluetooth-Tastaturen per Kabel mit einem Mac verbinden können. Das kann notwendig sein, wenn es Probleme mit dem Pairing oder dem Akku gibt oder Sie beim Booten eines Intel-Macs eine Boot-Option aufrufen wollen. Bei ARM-Macs gibt es dies nicht mehr, hier halten Sie einfach die Einschalttaste lange gedrückt. Was man ebenfalls noch erwähnen sollte: Kaufen Sie einen iMac, erhalten Sie (selbstverständlich) eine Maus und eine Tastatur in der Farbe des iMacs. Bei einem iMac M4 also wahlweise mit Tasten und einer Unterseite in Blau, Lila, Pink, Orange, Gelb, Grün oder Silber. Je nach iMac Modell bekommt die Tastatur eine zusätzliche Touch-ID-Funktion, gegen Aufpreis auch einen Ziffernblock. Die günstigen iMac-Modelle mit zwei Anschlüssen erhalten das günstigere Modell mit einer simpleren Sperrtaste, die teureren iMacs das teurere Modell mit Touch-ID. Kurios: Diese farbigen Tastaturen – es sind achtzehn (!) unterschiedliche Modelle – sind nicht frei im Handel erhältlich. Ich vermute, Apple ist der logistische Aufwand einfach zu groß. Kompatibilität Natürlich muss niemand eine Tastatur von Apple kaufen, Sie können so gut wie jedes Keyboard an einem Mac nutzen. Zumindest ein Modell mit Mac-Tasten würde ich aber empfehlen. Bei einer Apple-Tastatur haben Sie immer eine etwas bessere Kompatibilität zu erwarten. Die Tastaturen werden dank Apples firmeneigenem Bluetooth-Chip besonders zuverlässig erkannt und unterstützen neben Funktionen wie Touch-ID viele Spezialfunktionen wie das Aufrufen von Siri, Mission Control oder das Steuern von Medien. Umgekehrt können Sie die Tastatur auch an einem Windows-Rechner oder Android-Gerät verwenden, allerdings gibt es hier einige Probleme mit der Tastenbelegung. Die Tastaturen arbeiten außerdem hervorragend mit einem iPad und iPhone zusammen, sogar die Vision Pro wird unterstützt. Gerade als Ergänzung zu einem iPad ist ein leichtes und kompaktes Magic Keyboard sehr interessant – nicht ohne Grund gibt es für das kompakte Modell viele Schutzhüllen für die mobile Nutzung. Ältere Macs hat Apple dagegen weniger im Blickfeld. Alle Funktionen werden offiziell nur bei Macs ab macOS 15.1 mit Apple-Chip unterstützt, also einem iMac oder Macbook ab 2019 und dem Mac Mini 2018. Die wichtigsten Funktionstasten des Magic Keyboard Helligkeit (F1, F2): Mit diesen Tasten können Sie die Helligkeit des Bildschirms erhöhen oder verringern. Mission Control (F3): Mit dieser Taste öffnen Sie Mission Control, eine Übersichtsfunktion. Spotlight-Suche (F4): Mit der Taste öffnet sich Spotlight und Sie können Suchen starten. Diktat/Siri (F5): Diese Taste startet das Mikro und Sie können mit längerem Druck auch Siri starten. Nicht stören (F6) Mit “Nicht stören” wird die gleichnamige Option gestartet und Mitteilungen werden nicht mehr eingeblendet. Medien (F7, F8, F9): Die drei Medientasten ermöglichen das Steuern von Musik, Video oder auch Diashows. Stummschalten (F10): Stummschalten wird durch diese Taste aktiviert Lautstärke (F11, F12): Mit diesen Tasten erhöhen und vermindern Sie die Lautstärke. (Macwelt) 

Apples Magic Keyboard mit USB-C im Test​ IDG

Auf einen Blick

Pro

Gute Unterstützung von Apple-Geräten

Touch-ID ermöglicht einfache Anmeldungen und Bezahlvorgänge

Tippgefühl entspricht Macbook-Tastaturen

Gutes Design

Versionen mit und ohne Touch-ID oder Zifferntasten

Kontra

Keine Höheneinstellung

Der geringe Tastenhub ist nicht jedermanns Geschmack

Hoher Preis

Fazit

Die aktuellen Apple-Tastaturen sind besonders für Mac-Anwender empfehlenswert, vordergründig wegen der praktischen Touch-ID-Funktion, die im Alltag einen echten Mehrwert bietet und ein starkes Argument für ein Upgrade ist. Das Tippgefühl entspricht dem auf den Macbook-Tastaturen von Apple – allerdings ist der kurze Tastenhub nicht jedermanns Sache. Ein weiterer Kaufgrund ist das elegante Design, das perfekt zu einem Mac Mini, Mac Studio oder Macbook passt. Leider fehlt jedoch die Möglichkeit, die Höhe und Neigung der Tastatur individuell anzupassen.

Apple-Tastaturen hatten schon immer einen besonderen Ruf und gelten als äußerst langlebig – manche Mac-Nutzer sollen sogar noch mit einer Apple Extended Tastatur von 1987 arbeiten. So lange werden die aktuellen Bluetooth-Tastaturen allein wegen des Akkus wohl nicht durchhalten, doch das Magic Keyboard aus Cupertino bleibt ein Muster an Robustheit und elegantem Design. Diese Kombination hat aber ihren Preis – und der ist nicht gerade gering.

In unserem Test stand uns das neue Apple Magic Keyboard mit Touch-ID und Ziffernblock zur Verfügung, für das Apple ab 199 Euro verlangt. 199 Euro kostet aber nur die Version mit weißen Tasten, das Modell mit schicken schwarzen Tasten kostet fast schon unverschämte 20 Euro mehr. Drei Versionen sind aktuell im Angebot: Ein großes Modell mit Touch-ID und Ziffernblock, ein kompaktes ohne Ziffernblock aber Touch-ID und ein kompaktes Modell ohne Touch-ID.

Neu ist am neuen Magic Keyboard eigentlich nur der Wechsel von Lightning zu USB-C. Die Umstellung zu USB-C ist sicher kein Grund zum Neukauf, auch optisch und beim Funktionsumfang hat sich gegenüber dem Ende 2021 vorgestellten Vorgänger nichts geändert. Die Version mit Lightning würde ich aber wohl nicht mehr kaufen.

Diese Abkehr von Lightning betrifft auch die beiden Peripheriegeräte Magic Trackpad und Magic Mouse, auch diese beiden Geräte verkauft Apple nun mit der von der EU erwünschten USB-C-Schnittstelle. Apple verspricht wie beim Vorgänger eine Akku-Laufzeit von etwa einem Monat.

IDG

Touch-ID ist den Aufpreis wert

Touch-ID mag auf den ersten Blick wie ein teurer Luxus wirken – schließlich schlägt die Version des Magic Keyboard mit Fingerabdrucksensor 50 Euro mehr zu Buche als das Basis-Modell ohne Ziffernblock für bereits stattliche 119 Euro. Doch der praktische Nutzen dieser Funktion wird oft unterschätzt. Wer sie erst einmal ausprobiert hat, möchte sie schon nach kurzer Zeit nicht mehr missen.

In der aktuellen Onlinewelt müssen Sie sich schließlich ständig irgendwo autorisieren oder per Passwort anmelden. Der in der Spezialtaste integrierte Fingerabdrucksensor funktioniert dabei so simpel und schnell, wie Sie es von einem iPad oder Macbook mit Touch-ID kennen.

Öffnen Sie eine Webseite mit Passwortsperre oder müssen Sie sich am Mac anmelden – all diese Funktionen lassen sich mit der kleinen Touch-ID-Taste intuitiv aufrufen. Ein Drücken genügt und die Anmeldung an der Webseite ist getätigt oder das Gerät entsperrt. Auch das schnelle Sperren eines Macs – etwa im Großraumbüro – ist durch Antippen der Taste möglich.

Wie beim iPad und alten iPhones müssen Sie Ihren Fingerabdruck allerdings zuerst registrieren. Am Mac erfolgt dies über eine automatisch startende Assistenzfunktion oder die Systemeinstellung “Touch ID & Passwort”. Hier können Sie separat festlegen, ob Sie die Taste für Apple Pay, Store-Einkäufe, Passwort-Eingabe und auch Benutzerwechsel verwenden wollen.

Tastengefühl wie bei einem Macbook

Die Tastatur ist ausgezeichnet und eignet sich gut für Vielschreiber. Ihr Tippgefühl ähnelt aber sehr stark Apples Macbook-Tastaturen und ist ideal, wenn Sie mehrere Apple-Geräte besitzen. Sie haben dann immer eine ähnliche Haptik beim Tippen. Nicht ohne Grund bietet Apple schließlich ein großes Touchpad als Maus-Ersatz – Sie können dann auch auf dem Desktop die Vorteile eines Trackpads nutzen.

Wenn Sie ein Fan mechanischer Tastaturen sind, wird das Magic Keyboard von Apple vermutlich Ihren Geschmack nicht treffen. Der flache Tastenhub, ähnlich wie bei einem Macbook, fühlt sich für langjährige Nutzer herkömmlicher Tastaturen mit hohen Tasten oft ungewohnt an.

Zusätzlich könnte die fehlende Verstellbarkeit des Tastaturwinkels irritieren: Anders als viele Modelle mit ausklappbaren Füßchen oder Leisten zur Neigungsanpassung, bietet das Magic Keyboard keine Möglichkeit zur individuellen Anpassung. Es ist zwar leicht angeschrägt – vorn 0,41 cm hoch, hinten 1,09 cm – bleibt jedoch fix in dieser Position.

Ein Nachteil des Konzepts: Schon das Abstecken einer Taste, was bei anderen Tastaturen kein Problem ist, kann schnell zu Beschädigungen führen. Positiv fällt dagegen der geringe Platzbedarf auf. Selbst die größte der drei Apple-Tastaturen ist noch deutlich flacher und schmaler als die meisten Standard-Tastaturen.

Auch die Lautstärke hält sich im Rahmen, vordergründig im Vergleich mit einer mechanischen Tastatur ist das Geräusch der Tasten für Mitbewohner und Kollegen recht dezent. Ob Sie eine Version mit Ziffernblock benötigen, müssen Sie aber selbst entscheiden. Auch für diese Funktion zahlen Sie schließlich einen satten Aufpreis.

Funktionen

Über die Jahre hat Apple seine Tastaturen leicht verändert, primär die obere Tastenleiste wurde bei der Einführung des Vorgängers überarbeitet. Das 2021 eingeführte Magic Keyboard bekam damals abgerundete Ecktasten und neue Funktionstasten F4-F6, die den Funktionen “Spotlight”, “Diktat/Siri” und “Nicht stören” zugeordnet werden.

Mit 369 Gramm ist die Version mit Ziffernblock nicht sehr schwer, aber trotzdem robust und solide. Für unterwegs ist selbstverständlich die Version ohne Ziffernblock sinnvoller, die nur 243 Gramm wiegt – nebenbei deutlich weniger als eine iPad-Tastaturhülle von Apple.

Neu ist seitdem auch, dass die Unterseite aus Aluminium besteht. Eine nur per Kabel angeschlossene Tastatur ist nicht mehr im Angebot – wenn Sie auch die Bluetooth-Tastaturen per Kabel mit einem Mac verbinden können. Das kann notwendig sein, wenn es Probleme mit dem Pairing oder dem Akku gibt oder Sie beim Booten eines Intel-Macs eine Boot-Option aufrufen wollen. Bei ARM-Macs gibt es dies nicht mehr, hier halten Sie einfach die Einschalttaste lange gedrückt.

Was man ebenfalls noch erwähnen sollte: Kaufen Sie einen iMac, erhalten Sie (selbstverständlich) eine Maus und eine Tastatur in der Farbe des iMacs. Bei einem iMac M4 also wahlweise mit Tasten und einer Unterseite in Blau, Lila, Pink, Orange, Gelb, Grün oder Silber. Je nach iMac Modell bekommt die Tastatur eine zusätzliche Touch-ID-Funktion, gegen Aufpreis auch einen Ziffernblock.

Die günstigen iMac-Modelle mit zwei Anschlüssen erhalten das günstigere Modell mit einer simpleren Sperrtaste, die teureren iMacs das teurere Modell mit Touch-ID. Kurios: Diese farbigen Tastaturen – es sind achtzehn (!) unterschiedliche Modelle – sind nicht frei im Handel erhältlich. Ich vermute, Apple ist der logistische Aufwand einfach zu groß.

Kompatibilität

Natürlich muss niemand eine Tastatur von Apple kaufen, Sie können so gut wie jedes Keyboard an einem Mac nutzen. Zumindest ein Modell mit Mac-Tasten würde ich aber empfehlen.

Bei einer Apple-Tastatur haben Sie immer eine etwas bessere Kompatibilität zu erwarten. Die Tastaturen werden dank Apples firmeneigenem Bluetooth-Chip besonders zuverlässig erkannt und unterstützen neben Funktionen wie Touch-ID viele Spezialfunktionen wie das Aufrufen von Siri, Mission Control oder das Steuern von Medien.

Umgekehrt können Sie die Tastatur auch an einem Windows-Rechner oder Android-Gerät verwenden, allerdings gibt es hier einige Probleme mit der Tastenbelegung.

Die Tastaturen arbeiten außerdem hervorragend mit einem iPad und iPhone zusammen, sogar die Vision Pro wird unterstützt. Gerade als Ergänzung zu einem iPad ist ein leichtes und kompaktes Magic Keyboard sehr interessant – nicht ohne Grund gibt es für das kompakte Modell viele Schutzhüllen für die mobile Nutzung.

Ältere Macs hat Apple dagegen weniger im Blickfeld. Alle Funktionen werden offiziell nur bei Macs ab macOS 15.1 mit Apple-Chip unterstützt, also einem iMac oder Macbook ab 2019 und dem Mac Mini 2018.

Die wichtigsten Funktionstasten des Magic Keyboard

Helligkeit (F1, F2): Mit diesen Tasten können Sie die Helligkeit des Bildschirms erhöhen oder verringern.

Mission Control (F3): Mit dieser Taste öffnen Sie Mission Control, eine Übersichtsfunktion.

Spotlight-Suche (F4): Mit der Taste öffnet sich Spotlight und Sie können Suchen starten.

Diktat/Siri (F5): Diese Taste startet das Mikro und Sie können mit längerem Druck auch Siri starten.

Nicht stören (F6) Mit “Nicht stören” wird die gleichnamige Option gestartet und Mitteilungen werden nicht mehr eingeblendet.

Medien (F7, F8, F9): Die drei Medientasten ermöglichen das Steuern von Musik, Video oder auch Diashows.

Stummschalten (F10): Stummschalten wird durch diese Taste aktiviert

Lautstärke (F11, F12): Mit diesen Tasten erhöhen und vermindern Sie die Lautstärke.

(Macwelt)

Apples Magic Keyboard mit USB-C im Test​ Weiterlesen »

Die besten Security-Apps für Android-Smartphones​

Allgemein

Tero Vesalainen / Shutterstock.com Immer neue Gefahren tauchen für Android-Smartphones auf. Beispielsweise Spyloan: Diese Malware infizierte Millionen Android-Geräte über Google Play und die Hacker rufen mitunter sogar ihre Opfer an. Damit das Smartphone dauerhaft geschützt bleibt, stellen wir unverzichtbare Sicherheits-Apps für Android vor. 1. Virenscanner: Ein Muss für Experimentierfreudige Darum ist die App unverzichtbar: Ein Virenscanner für das Smartphone ist unverzichtbar. Die gute Nachricht. Android-Geräte haben bereits einen Virenscanner an Bord. Er heißt Google Play Protect und überprüft alle Apps aus dem Google Play Store, bevor sie auf dem Smartphone installiert werden. Außerdem scannt Google Play Protect in regelmäßigen Abständen alle bereits auf dem Gerät installierten Apps und überprüft auch solche, die Sie nicht aus dem offiziellen Play Store heruntergeladen haben. Für einen guten Basisschutz sorgt Google Play Protect. Ein Virenscanner in Android, der alle neuen und vorhandenen Apps auf Malware überprüft. Wer viele Apps installiert, sollte aber aufrüsten.IDG Empfehlung: Die Frage ist nun: Reichen die Bordmittel von Android aus, um mich vor feindlichen Apps zu schützen? Antwort: Das kommt darauf an. Wenn Sie nur Apps aus dem offiziellen App Store von Google laden und davon auch nur wenige, dafür aber bekannte Apps, reicht der Schutz der Bordmittel aus. Vor allem, wenn man sich vor der Installation der App die Informationen im App Store genau anschaut: Wie viele Downloads hat die App, wer ist der Hersteller, welche Bewertungen hat die App? Wenn Sie aber experimentierfreudig sind, oft viele Apps, etwa Systemtools oder Spiele, aus dem App Store herunterladen oder diese auch außerhalb des Stores beziehen (Sideloading), dann ist eine zusätzliche Antiviren-App sehr empfehlenswert. Passende Antivirus-Apps finden Sie in Test: Die besten Antivirus-Programme für Android. In diesem Fall empfehlen wir die App Bitdefender Antivirus. Sie ist kostenlos und zeigt in Tests seit Jahren eine sehr gute Virenerkennung. Hinweis: Die App Bitdefender Antivirus ist zwar kostenlos, dafür macht sie laufend Werbung für kostenpflichtige Zusatzfunktionen, etwa für den eigenen VPN-Dienst und für die kostenpflichtige App Bitdefender Mobile Security. Sie können diese Werbung ignorieren, wenn Sie nur den hier empfohlenen Virenscanner nutzen möchten. Den kostenpflichtigen Zusatzschutz benötigen Sie nicht unbedingt. 2. VPN: Sichere Verbindung in jedem WLAN Darum ist die App unverzichtbar: Wer öffentliche WLANs nutzt, sollte unbedingt auch eine VPN-App auf seinem Smartphone haben. Denn sobald man sich in ein fremdes WLAN einwählt, besteht die Gefahr, dass die eigenen Daten beim Surfen ausspioniert werden. Hier stellen wir die besten VPN-Apps für Android vor: Zwar sind die meisten Verbindungen vom Handy ins Internet verschlüsselt und können vom WLAN-Router nicht so einfach abgehört werden. Aber erstens sind nicht alle Verbindungen verschlüsselt, und zweitens können auch viele geschützte Daten über einen Man-in-the-Middle-Angriff ausspioniert werden. Empfehlung: Empfehlenswerte VPN-Anbieter sind Nord VPN, Ghost VPN und Proton VPN. Alle drei Dienste locken immer wieder mit Sonderangeboten. Die Preise liegen zwischen 2 und 5 Euro pro Monat bei einer Laufzeit von einem Jahr. Schauen Sie, welcher Dienst gerade das beste Angebot hat. Lesetipp: Die besten kostenlosen Cleaner-Apps für Android 2024 Vergessen Sie aber nicht, rechtzeitig zu kündigen. Wenn sich das Abo automatisch verlängert, zahlt man meist den teureren Standardpreis. Wer eine teure Internet-Security-Suite zum Beispiel für den PC nutzt, sollte schauen, ob diese auch eine VPN-App für das Smartphone im Paket hat. Alternative: Wer konsequent die Mobilfunkverbindung seines Providers nutzt und öffentliche WLANs ignoriert, kann auf eine VPN-Verbindung verzichten. Dank großzügiger Datenvolumen von 10 GB und mehr pro Monat ist das für viele Nutzer, die keine Videostreams aus dem Netz ziehen, tatsächlich eine brauchbare Alternative. Sie suchen eine VPN-Lösung für den PC? Kein Problem, hier werden Sie fündig: 3. Passwort-Safe: Komfortabler und sicherer Der Passwortmanager Bitwarden ist Open Source, kostenlos und einfach zu bedienen. Er ist für alle Betriebssysteme verfügbar und bietet Onlinesafes in der Europäischen Union.IDG Darum ist die App unverzichtbar: Für jeden Dienst muss man sich ein neues, kompliziertes Passwort merken. Im Kopf kann das niemand behalten. Auf Zetteln oder in Tabellen kann man sie zwar verwalten, aber das ist umständlich und fehleranfällig. Wesentlich einfacher, bequemer und ausreichend sicher geht es mit Passwortmanagern. Wichtig ist, dass der Passwortmanager sowohl auf dem PC als auch auf dem Smartphone funktioniert und die Passwörter zwischen den Geräten synchronisiert. Für Nutzer von Google Chrome geschieht dies auf Wunsch automatisch. Denn sowohl in den Browser für den PC als auch in Android ist ein Passwortmanager integriert. Dieser ist jedoch oft umständlich zu bedienen und bietet kaum Zusatzfunktionen. Wir können ihn nur bedingt empfehlen. Empfehlung: Das Open-Source-Tool Bitwarden bietet kostenlos eine gute Benutzerführung und hohe Sicherheit. Der Tresor wird auf Ihrem Gerät verschlüsselt und erst dann im Internet gespeichert. 4. Authenticator: Zwei-Faktor-Schutz für Log-ins Darum ist die App unverzichtbar: Ein Authenticator ist eine App für die Zwei-Faktor-Authentifizierung (2FA). Sie spuckt Einmalcodes aus, die man beim Einloggen als zweiten Faktor nach der Eingabe von Benutzername und Passwort übermitteln muss. Wichtige Accounts sollten unbedingt mit 2FA geschützt werden. Der zweite Faktor kann ein Passkey oder ein Einmalpasswort sein, das Sie mit einer Authenticator-App generieren. Ein Muss für jedes Smartphone. Schützen Sie wichtige Konten mit einer Zwei-Faktor- Authentifizierung. Das nötige Einmalpasswort generiert beispielsweise die Anwendung Microsoft Authenticator.IDG Empfehlung: Der Microsoft Authenticator arbeitet zuverlässig und mit ausreichend vielen Funktionen. Auch die Bedienung geht in Ordnung. Man tippt auf das Plus oben rechts. Nun stehen drei Optionen zur Auswahl. Die ersten beiden fügen Microsoft-Konten zur App hinzu, die dritte ist für alle anderen Log-ins gedacht. Ein Tipp auf die dritte Option startet die Handy-Kamera. Damit lässt sich der QR-Code scannen, den das Konto, zum Beispiel Amazon oder GMX, bei der 2FA-Einrichtung anzeigt. Tipp: Achten Sie bei der Auswahl einer Authenticator-App darauf, dass sie gespeicherte Konten umziehen kann. Das ist wichtig, wenn Sie ein neues Handy kaufen. Fehlt diese Funktion, müssen alle gespeicherten 2FA-Konten auf dem neuen Smartphone neu eingerichtet werden – was meist nur funktioniert, wenn das alte Gerät noch verfügbar ist. Der Microsoft Authenticator sichert die eingerichteten Konten als Backup in der Cloud. Von dort lassen sie sich auch auf einem neuen Gerät wiederherstellen. Alternative: Wer Open-Source-Software bevorzugt, sollte sich die App Aegis Authenticator ansehen. Sie bietet aktuelle Sicherheitsfunktionen und ermöglicht den Export der eingerichteten Konten auf ein neues Handy. 5. Datenschutz-Browser: Surfen ohne Spione Darum ist die App unverzichtbar: Wer Wert auf seine Privatsphäre legt, ist mit dem Standard-Browser unter Android, Google Chrome, schlecht beraten. Der Browser Firefox Klar kommt mit einer reduzierten Benutzeroberfläche und ist ganz auf den Schutz der Privatsphäre ausgelegt. Ein Tipp auf das Mülleimer- Symbol lässt Cookies, Verlauf und Daten verschwinden.IDG Empfehlung: Ein Browser mit gutem Datenschutz ist Firefox. Das gilt für den Desktop genauso wie für das Smartphone. Alternative: Testen Sie den Browser Firefox Klar. Er kommt mit einer reduzierten Benutzeroberfläche und verzichtet auf einige Funktionen, bietet aber alles für einen sehr guten Datenschutz. Wer privat kurz im Internet recherchieren möchte, kann Firefox Klar als gute Ergänzung zum Standard-Browser nutzen. Ein Tipp auf das Mülleimer-Symbol – und Firefox Klar löscht sofort Verlauf, Passwörter und Cookies. Die Datenschutzeinstellungen sind so ausgelegt, dass alle Webseiten funktionieren sollten. Sie können sie aber noch deutlich verschärfen. Tippen Sie auf „Menü-Symbol –› Einstellungen –› Datenschutz & Sicherheit“. Hier können Sie alle Einstellungen bis auf die letzte aktivieren oder auf die höchste Stufe stellen. Probleme kann allerdings die Einstellung „Javascript blockieren“ bereiten. Viele anspruchsvolle Webseiten funktionieren ohne Javascript nicht oder nicht richtig. In der Praxis hat es sich meist nicht bewährt, Javascript generell zu verbieten. Am besten experimentieren Sie ein wenig mit den Einstellungen. 6. Sicherheits-Backup: Schutz vor Datenverlust Darum ist die App unverzichtbar: Eine Datensicherung schützt Sie für den Fall, dass Sie Ihr Smartphone verlieren oder es Ihnen gestohlen wird. Dann ist zwar die Hardware weg, aber zumindest die Daten sind noch da. Tatsächlich bietet Android keine vollständige Sicherung des Geräts. Es gibt zwar eine Übertragungsfunktion beim Wechsel auf ein neues Handy, diese funktioniert aber nur, wenn das alte Gerät noch vorhanden ist. Trotzdem lohnt es sich, alle verfügbaren Backup-Funktionen zu aktivieren, um wenigstens das zu sicheren, was Android möglich macht. Backup: Aktivieren Sie das Google-Backup in der Einstellungen-App über „System –› Backup –› Google One Backup“. Unter dem Menüpunkt sehen Sie, was Android alles sichert. Was noch fehlt, sind Backups Ihrer Chattools wie Whatsapp. Diese müssen Sie jeweils in den Apps aktivieren. Empfehlung: Sichern Sie Ihre Daten und Apps lokal auf Ihrem PC. Dazu benötigen Sie die App und das Windows-Tool My Phone Explorer. Eine ausführliche Anleitung für eine solche Sicherung finden Sie im Artikel: Smartphone-Daten auf dem PC sichern – so geht’s Apropos verlorenes Smartphone: Prüfen Sie, ob auf Ihrem Gerät die Funktion „Mein Gerät finden“ aktiviert ist. Diese finden Sie in der Einstellungen-App unter „Datenschutz & Sicherheit –› Gerätesuche“. Mit etwas Glück können Sie so Ihr Smartphone über die Adresse google.com/android/find im Browser wiederfinden. 7. Samio: KI-Chatbot deckt Phishingangriffe auf Der KI-basierte Chatbot Scamio von Bitdefender hilft weiter, wenn Sie sich nicht sicher sind, ob es sich bei einer E-Mail oder Chatnachricht um einen Phishing-Angriff handelt. Dem Bitdefender-Chatbot Scamio in Whatsapp kann man einen Screenshot einer verdächtigen Mail zeigen. Er sagt einem dann, ob es sich um eine Phishing-Mail handelt.IDG Scamio lässt sich als Kontakt in Whatsapp hinzufügen und dann als Chatpartner nutzen. Einfach einen Screenshot der verdächtigen Nachricht in seinen Chat laden und fragen, ob sie echt ist. Der Bot führt eine Analyse durch, bei der er sowohl bekannte Phishing-Muster als auch weiche Kriterien wie typische Formulierungen von Cyberkriminellen untersucht. Die Bewertung, die Scamio am Ende abgibt, basiert auf einer Kombination dieser Faktoren. Sie erfahren, ob es sich mit hoher Wahrscheinlichkeit um Betrug handelt oder ob die E-Mail tatsächlich von einem legitimen Absender stammt. Notfall-Infos Neben den technischen Sicherheits-Apps bietet Android auch Funktionen für die persönliche Sicherheit. Hilfreich können hier die Notfall-Infos sein. Hinterlegen Sie medizinische Informationen wie Allergien, Blutgruppe oder benötigte Medikamente in den Notfall-Infos. Diese lassen sich zum Beispiel von Rettungskräften einsehen, ohne dass Sie das Handy entsperren müssen. Auch Kontaktdaten von Angehörigen lassen sich hinterlegen. So geht’s: Einstellungen-App starten und auf „Notfälle und Sicherheit“ tippen. Tragen Sie Ihre Daten unter „Medizinische Daten“ und „Notfallkontakte“ ein und legen Sie unter „Einstellungen ändern“ fest, dass die Daten auch bei gesperrtem Bildschirm angezeigt werden dürfen. Der Browser Firefox Klar kommt mit einer reduzierten Benutzeroberfläche und ist ganz auf den Schutz der Privatsphäre ausgelegt. Ein Tipp auf das Mülleimer- Symbol lässt Cookies, Verlauf und Daten verschwinden.IDG Kontrolle: Sperren Sie Ihr Smartphone und wischen Sie dann vom unteren Rand nach oben. Eventuell müssen Sie vorher noch einmal die Einschalttaste drücken. Es erscheint die Schaltfläche „Notfall“. Ein Tipp darauf führt zu „Notfallinformationen anzeigen“. Bei Samsung-Smartphones werden diese Daten über die Telefon-App gespeichert. Bei älteren Geräten fehlt diese Funktion. (PC-Welt) 

Die besten Security-Apps für Android-Smartphones​ Tero Vesalainen / Shutterstock.com

Immer neue Gefahren tauchen für Android-Smartphones auf. Beispielsweise Spyloan: Diese Malware infizierte Millionen Android-Geräte über Google Play und die Hacker rufen mitunter sogar ihre Opfer an. Damit das Smartphone dauerhaft geschützt bleibt, stellen wir unverzichtbare Sicherheits-Apps für Android vor.

1. Virenscanner: Ein Muss für Experimentierfreudige

Darum ist die App unverzichtbar: Ein Virenscanner für das Smartphone ist unverzichtbar. Die gute Nachricht. Android-Geräte haben bereits einen Virenscanner an Bord. Er heißt Google Play Protect und überprüft alle Apps aus dem Google Play Store, bevor sie auf dem Smartphone installiert werden.

Außerdem scannt Google Play Protect in regelmäßigen Abständen alle bereits auf dem Gerät installierten Apps und überprüft auch solche, die Sie nicht aus dem offiziellen Play Store heruntergeladen haben.

Für einen guten Basisschutz sorgt Google Play Protect. Ein Virenscanner in Android, der alle neuen und vorhandenen Apps auf Malware überprüft. Wer viele Apps installiert, sollte aber aufrüsten.IDG

Empfehlung: Die Frage ist nun: Reichen die Bordmittel von Android aus, um mich vor feindlichen Apps zu schützen?

Antwort: Das kommt darauf an. Wenn Sie nur Apps aus dem offiziellen App Store von Google laden und davon auch nur wenige, dafür aber bekannte Apps, reicht der Schutz der Bordmittel aus.

Vor allem, wenn man sich vor der Installation der App die Informationen im App Store genau anschaut: Wie viele Downloads hat die App, wer ist der Hersteller, welche Bewertungen hat die App?

Wenn Sie aber experimentierfreudig sind, oft viele Apps, etwa Systemtools oder Spiele, aus dem App Store herunterladen oder diese auch außerhalb des Stores beziehen (Sideloading), dann ist eine zusätzliche Antiviren-App sehr empfehlenswert. Passende Antivirus-Apps finden Sie in Test: Die besten Antivirus-Programme für Android.

In diesem Fall empfehlen wir die App Bitdefender Antivirus. Sie ist kostenlos und zeigt in Tests seit Jahren eine sehr gute Virenerkennung.

Hinweis: Die App Bitdefender Antivirus ist zwar kostenlos, dafür macht sie laufend Werbung für kostenpflichtige Zusatzfunktionen, etwa für den eigenen VPN-Dienst und für die kostenpflichtige App Bitdefender Mobile Security.

Sie können diese Werbung ignorieren, wenn Sie nur den hier empfohlenen Virenscanner nutzen möchten. Den kostenpflichtigen Zusatzschutz benötigen Sie nicht unbedingt.

2. VPN: Sichere Verbindung in jedem WLAN

Darum ist die App unverzichtbar: Wer öffentliche WLANs nutzt, sollte unbedingt auch eine VPN-App auf seinem Smartphone haben. Denn sobald man sich in ein fremdes WLAN einwählt, besteht die Gefahr, dass die eigenen Daten beim Surfen ausspioniert werden. Hier stellen wir die besten VPN-Apps für Android vor:

Zwar sind die meisten Verbindungen vom Handy ins Internet verschlüsselt und können vom WLAN-Router nicht so einfach abgehört werden. Aber erstens sind nicht alle Verbindungen verschlüsselt, und zweitens können auch viele geschützte Daten über einen Man-in-the-Middle-Angriff ausspioniert werden.

Empfehlung: Empfehlenswerte VPN-Anbieter sind Nord VPN, Ghost VPN und Proton VPN.

Alle drei Dienste locken immer wieder mit Sonderangeboten. Die Preise liegen zwischen 2 und 5 Euro pro Monat bei einer Laufzeit von einem Jahr. Schauen Sie, welcher Dienst gerade das beste Angebot hat.

Lesetipp: Die besten kostenlosen Cleaner-Apps für Android 2024

Vergessen Sie aber nicht, rechtzeitig zu kündigen. Wenn sich das Abo automatisch verlängert, zahlt man meist den teureren Standardpreis. Wer eine teure Internet-Security-Suite zum Beispiel für den PC nutzt, sollte schauen, ob diese auch eine VPN-App für das Smartphone im Paket hat.

Alternative: Wer konsequent die Mobilfunkverbindung seines Providers nutzt und öffentliche WLANs ignoriert, kann auf eine VPN-Verbindung verzichten. Dank großzügiger Datenvolumen von 10 GB und mehr pro Monat ist das für viele Nutzer, die keine Videostreams aus dem Netz ziehen, tatsächlich eine brauchbare Alternative.

Sie suchen eine VPN-Lösung für den PC? Kein Problem, hier werden Sie fündig:

3. Passwort-Safe: Komfortabler und sicherer

Der Passwortmanager Bitwarden ist Open Source, kostenlos und einfach zu bedienen. Er ist für alle Betriebssysteme verfügbar und bietet Onlinesafes in der Europäischen Union.IDG

Darum ist die App unverzichtbar: Für jeden Dienst muss man sich ein neues, kompliziertes Passwort merken. Im Kopf kann das niemand behalten. Auf Zetteln oder in Tabellen kann man sie zwar verwalten, aber das ist umständlich und fehleranfällig.

Wesentlich einfacher, bequemer und ausreichend sicher geht es mit Passwortmanagern. Wichtig ist, dass der Passwortmanager sowohl auf dem PC als auch auf dem Smartphone funktioniert und die Passwörter zwischen den Geräten synchronisiert.

Für Nutzer von Google Chrome geschieht dies auf Wunsch automatisch. Denn sowohl in den Browser für den PC als auch in Android ist ein Passwortmanager integriert. Dieser ist jedoch oft umständlich zu bedienen und bietet kaum Zusatzfunktionen. Wir können ihn nur bedingt empfehlen.

Empfehlung: Das Open-Source-Tool Bitwarden bietet kostenlos eine gute Benutzerführung und hohe Sicherheit. Der Tresor wird auf Ihrem Gerät verschlüsselt und erst dann im Internet gespeichert.

4. Authenticator: Zwei-Faktor-Schutz für Log-ins

Darum ist die App unverzichtbar: Ein Authenticator ist eine App für die Zwei-Faktor-Authentifizierung (2FA). Sie spuckt Einmalcodes aus, die man beim Einloggen als zweiten Faktor nach der Eingabe von Benutzername und Passwort übermitteln muss.

Wichtige Accounts sollten unbedingt mit 2FA geschützt werden. Der zweite Faktor kann ein Passkey oder ein Einmalpasswort sein, das Sie mit einer Authenticator-App generieren. Ein Muss für jedes Smartphone.

Schützen Sie wichtige Konten mit einer Zwei-Faktor- Authentifizierung. Das nötige Einmalpasswort generiert beispielsweise die Anwendung Microsoft Authenticator.IDG

Empfehlung: Der Microsoft Authenticator arbeitet zuverlässig und mit ausreichend vielen Funktionen.

Auch die Bedienung geht in Ordnung. Man tippt auf das Plus oben rechts. Nun stehen drei Optionen zur Auswahl.

Die ersten beiden fügen Microsoft-Konten zur App hinzu, die dritte ist für alle anderen Log-ins gedacht. Ein Tipp auf die dritte Option startet die Handy-Kamera. Damit lässt sich der QR-Code scannen, den das Konto, zum Beispiel Amazon oder GMX, bei der 2FA-Einrichtung anzeigt.

Tipp: Achten Sie bei der Auswahl einer Authenticator-App darauf, dass sie gespeicherte Konten umziehen kann. Das ist wichtig, wenn Sie ein neues Handy kaufen. Fehlt diese Funktion, müssen alle gespeicherten 2FA-Konten auf dem neuen Smartphone neu eingerichtet werden – was meist nur funktioniert, wenn das alte Gerät noch verfügbar ist.

Der Microsoft Authenticator sichert die eingerichteten Konten als Backup in der Cloud. Von dort lassen sie sich auch auf einem neuen Gerät wiederherstellen.

Alternative: Wer Open-Source-Software bevorzugt, sollte sich die App Aegis Authenticator ansehen. Sie bietet aktuelle Sicherheitsfunktionen und ermöglicht den Export der eingerichteten Konten auf ein neues Handy.

5. Datenschutz-Browser: Surfen ohne Spione

Darum ist die App unverzichtbar: Wer Wert auf seine Privatsphäre legt, ist mit dem Standard-Browser unter Android, Google Chrome, schlecht beraten.

Der Browser Firefox Klar kommt mit einer reduzierten Benutzeroberfläche und ist ganz auf den Schutz der Privatsphäre ausgelegt. Ein Tipp auf das Mülleimer- Symbol lässt Cookies, Verlauf und Daten verschwinden.IDG

Empfehlung: Ein Browser mit gutem Datenschutz ist Firefox. Das gilt für den Desktop genauso wie für das Smartphone. Alternative: Testen Sie den Browser Firefox Klar. Er kommt mit einer reduzierten Benutzeroberfläche und verzichtet auf einige Funktionen, bietet aber alles für einen sehr guten Datenschutz.

Wer privat kurz im Internet recherchieren möchte, kann Firefox Klar als gute Ergänzung zum Standard-Browser nutzen. Ein Tipp auf das Mülleimer-Symbol – und Firefox Klar löscht sofort Verlauf, Passwörter und Cookies.

Die Datenschutzeinstellungen sind so ausgelegt, dass alle Webseiten funktionieren sollten. Sie können sie aber noch deutlich verschärfen. Tippen Sie auf „Menü-Symbol –› Einstellungen –› Datenschutz & Sicherheit“.

Hier können Sie alle Einstellungen bis auf die letzte aktivieren oder auf die höchste Stufe stellen. Probleme kann allerdings die Einstellung „Javascript blockieren“ bereiten. Viele anspruchsvolle Webseiten funktionieren ohne Javascript nicht oder nicht richtig.

In der Praxis hat es sich meist nicht bewährt, Javascript generell zu verbieten. Am besten experimentieren Sie ein wenig mit den Einstellungen.

6. Sicherheits-Backup: Schutz vor Datenverlust

Darum ist die App unverzichtbar: Eine Datensicherung schützt Sie für den Fall, dass Sie Ihr Smartphone verlieren oder es Ihnen gestohlen wird. Dann ist zwar die Hardware weg, aber zumindest die Daten sind noch da.

Tatsächlich bietet Android keine vollständige Sicherung des Geräts. Es gibt zwar eine Übertragungsfunktion beim Wechsel auf ein neues Handy, diese funktioniert aber nur, wenn das alte Gerät noch vorhanden ist. Trotzdem lohnt es sich, alle verfügbaren Backup-Funktionen zu aktivieren, um wenigstens das zu sicheren, was Android möglich macht.

Backup: Aktivieren Sie das Google-Backup in der Einstellungen-App über „System –› Backup –› Google One Backup“. Unter dem Menüpunkt sehen Sie, was Android alles sichert. Was noch fehlt, sind Backups Ihrer Chattools wie Whatsapp. Diese müssen Sie jeweils in den Apps aktivieren.

Empfehlung: Sichern Sie Ihre Daten und Apps lokal auf Ihrem PC. Dazu benötigen Sie die App und das Windows-Tool My Phone Explorer. Eine ausführliche Anleitung für eine solche Sicherung finden Sie im Artikel: Smartphone-Daten auf dem PC sichern – so geht’s

Apropos verlorenes Smartphone: Prüfen Sie, ob auf Ihrem Gerät die Funktion „Mein Gerät finden“ aktiviert ist. Diese finden Sie in der Einstellungen-App unter „Datenschutz & Sicherheit –› Gerätesuche“. Mit etwas Glück können Sie so Ihr Smartphone über die Adresse google.com/android/find im Browser wiederfinden.

7. Samio: KI-Chatbot deckt Phishingangriffe auf

Der KI-basierte Chatbot Scamio von Bitdefender hilft weiter, wenn Sie sich nicht sicher sind, ob es sich bei einer E-Mail oder Chatnachricht um einen Phishing-Angriff handelt.

Dem Bitdefender-Chatbot Scamio in Whatsapp kann man einen Screenshot einer verdächtigen Mail zeigen. Er sagt einem dann, ob es sich um eine Phishing-Mail handelt.IDG

Scamio lässt sich als Kontakt in Whatsapp hinzufügen und dann als Chatpartner nutzen. Einfach einen Screenshot der verdächtigen Nachricht in seinen Chat laden und fragen, ob sie echt ist.

Der Bot führt eine Analyse durch, bei der er sowohl bekannte Phishing-Muster als auch weiche Kriterien wie typische Formulierungen von Cyberkriminellen untersucht.

Die Bewertung, die Scamio am Ende abgibt, basiert auf einer Kombination dieser Faktoren. Sie erfahren, ob es sich mit hoher Wahrscheinlichkeit um Betrug handelt oder ob die E-Mail tatsächlich von einem legitimen Absender stammt.

Notfall-Infos

Neben den technischen Sicherheits-Apps bietet Android auch Funktionen für die persönliche Sicherheit.

Hilfreich können hier die Notfall-Infos sein. Hinterlegen Sie medizinische Informationen wie Allergien, Blutgruppe oder benötigte Medikamente in den Notfall-Infos. Diese lassen sich zum Beispiel von Rettungskräften einsehen, ohne dass Sie das Handy entsperren müssen. Auch Kontaktdaten von Angehörigen lassen sich hinterlegen.

So geht’s: Einstellungen-App starten und auf „Notfälle und Sicherheit“ tippen. Tragen Sie Ihre Daten unter „Medizinische Daten“ und „Notfallkontakte“ ein und legen Sie unter „Einstellungen ändern“ fest, dass die Daten auch bei gesperrtem Bildschirm angezeigt werden dürfen.

Der Browser Firefox Klar kommt mit einer reduzierten Benutzeroberfläche und ist ganz auf den Schutz der Privatsphäre ausgelegt. Ein Tipp auf das Mülleimer- Symbol lässt Cookies, Verlauf und Daten verschwinden.IDG

Kontrolle: Sperren Sie Ihr Smartphone und wischen Sie dann vom unteren Rand nach oben. Eventuell müssen Sie vorher noch einmal die Einschalttaste drücken. Es erscheint die Schaltfläche „Notfall“. Ein Tipp darauf führt zu „Notfallinformationen anzeigen“.

Bei Samsung-Smartphones werden diese Daten über die Telefon-App gespeichert. Bei älteren Geräten fehlt diese Funktion.

(PC-Welt)

Die besten Security-Apps für Android-Smartphones​ Weiterlesen »

Mitarbeiterakzeptanz stärken: Firmen brauchen dringend eine KI-Kultur​

Allgemein

Um die Akzeptanz der Belegschaft für die künstliche Intelligenz zu stärken, ist es wichtig, neben der Bereitstellung der entsprechenden Tools auch eine gesamtheitliche KI-Kultur mit Schulungen zu schaffen. Foto: wenich_mit – shutterstock.comDie schnelle Entwicklung und Verbreitung künstlicher Intelligenz (KI) verändert die Art und Weise, wie wir arbeiten, lernen und kommunizieren. Um in dieser neuen Ära erfolgreich zu sein, müssen sich Organisationen und Arbeitnehmer anpassen und neue Fähigkeiten und Denkweisen entwickeln. Doch wie können wir uns konkret auf diesen Paradigmenwechsel vorbereiten? Wie können wir die Chancen nutzen, die uns die KI bietet?Im vergangenen Jahr haben viele von uns erste Erfahrungen mit generativer KI gemacht. Im Jahr 2024 wird sie nun Teil der täglichen Arbeitsrealität. So hat sich die Nutzung von generativer KI in den letzten sechs Monaten nahezu verdoppelt. Und Mitarbeiterinnen und Mitarbeiter experimentieren fleißig damit – sie nutzen frei verfügbare Angebote, um ihre Aufgaben schneller, besser und kreativer zu erfüllen. Auf LinkedIn verzeichnen wir einen signifikanten Anstieg von Fachkräften, die KI-Fähigkeiten zu ihren Profilen hinzufügen, und die meisten Führungskräfte sagen, dass sie niemanden ohne KI-Fähigkeiten einstellen würden. Während sich Führungskräfte darüber einig sind, dass KI für ihr Unternehmen unerlässlich ist, glauben allerdings viele, dass es ihrem Unternehmen an einem Plan und einer Vision mangelt, um von KI wirklich zu profitieren. Der Druck, einen sofortigen Return on Investment vorzuweisen, lähmt einige, selbst angesichts der Unausweichlichkeit von KI.Das KI-Potenzial voll ausschöpfen Sowohl für Mitarbeiter als auch für Führungskräfte besteht die Herausforderung nun darin, über eine reine Experimentierphase hinauszugehen und generative KI in den Arbeitsalltag zu implementieren. Von Power Usern, also denjenigen, die KI bereits umfänglich nutzen, wissen wir, dass ihnen die Technologie enorme Vorteile bringt. Sie hilft, ihre Arbeitslast überschaubarer zu machen (92 Prozent), kreativer zu denken (92 Prozent) und sich auf ihre wichtigsten Aufgaben konzentrieren zu können (93 Prozent). Das zeigt der von LinkedIn und Microsoft kürzlich gemeinsam veröffentlichte Work Trend Index 2024. Um auch den Rest der Belegschaft in dieser Entwicklung mitzunehmen, müssen Unternehmen das Thema strategisch durchdacht angehen und Investitionen an der richtigen Stelle tätigen. Zudem sollten sie hinterfragen, welche KI-Kompetenzen in welchem Bereich wichtig sind. In einigen Sektoren geht es vermutlich vornehmlich um technische und analytische Fähigkeiten. In anderen vielleicht auch um kreative, soziale und emotionale Kompetenzen. Soft Skills sind gefragter denn jeEine aktuelle Datenauswertung von LinkedIn zeigt, dass vor allem Soft Skills trotz oder gerade aufgrund des wachsenden Einflusses von KI auf die Arbeitswelt immer wichtiger werden. Zutiefst menschliche Fähigkeiten wie Kommunikation, Teamwork oder Führungskompetenzen sind besonders gefragt. Arbeitgeber sollten bei der Einführung von KI deshalb beides tun: in KI-Tools und -Fähigkeiten investieren und gleichzeitig ihre Mitarbeitenden bei der Entwicklung von Soft Skills unterstützen. Um eine rundum “KI-fähige” Belegschaft aufzubauen, ist es neben der Bereitstellung der entsprechenden Tools notwendig, das Thema gesamtheitlich zu betrachten und eine KI-Kultur zu schaffen, in der der Arbeitgeber Mitarbeitende für die Möglichkeiten der KI sensibilisiert und schult. Ob über Online-Kurse, Webinare, KI-fokussierte Mitarbeiter-Events – welche Formate sich am besten eignen, mag abhängig vom jeweiligen Betrieb sein. Wichtig ist, dass das Thema kein “Bottom-up-Movement” ist, sondern von oben herab betrieben wird. So müssen wir im ersten Schritt analysieren, welche Kompetenzen und Rollen durch KI entstehen oder verstärkt werden – und welche Aufgaben KI für uns übernehmen kann. Neue KI-Berufsbilder wie KI-Ingenieure, Datenwissenschaftler, KI-Trainer, KI-Ethiker oder KI-Strategen entstehen und Arbeitgeber müssen verstehen, wie sie diese Rollen für ihre Teams gewinnen und einbauen. Hier kann es sinnvoll sein, die interne Mobilität im eigenen Unternehmen durch gezielten Kompetenzaufbau im Bereich KI zu fördern. KI verbessert die Vielfalt im UnternehmenDarüber hinaus bietet uns die KI die Möglichkeit, eine integrative, vielfältigere und gerechtere Arbeitswelt zu schaffen. Wir müssen jetzt erkunden, wie die KI dazu beitragen kann, Barrieren und Vorurteile abzubauen, die den Zugang zu Bildung, Beschäftigung und Entwicklungsmöglichkeiten für verschiedene Gruppen von Menschen einschränken. Mit der richtigen Vorgehensweise hat KI das Potenzial, die Vielfalt und Inklusion in Organisationen zu fördern und die Chancengleichheit und soziale Mobilität nachhaltig zu verbessern.Gleichzeitig müssen wir uns der ethischen Verantwortung bewusst sein, die mit der Nutzung und dem Einsatz von KI verbunden ist. Es ist wichtig, ein klares Verständnis von potenziellen Verzerrungseffekten und Vorurteilen zu haben, die durch generative KI entstehen können – und bei jeder Verwendung dieser Tools einen kritischen Blick auf die Ergebnisse zu werfen. All diese Punkte sind wichtig, um das eigene Unternehmen und die Belegschaft für eine Arbeitswelt mit KI fit zu machen. Aber der entscheidende Punkt ist der Zeitpunkt unseres Handelns. Denn: Wir dürfen nicht warten. Die Zukunft der Arbeit ist bereits hier und nur diejenigen, die das Thema zur Priorität machen und tiefgreifend erkunden, können schnell Wettbewerbsvorteile für sich entwickeln. Die KI stellt eine enorme Chance dar, um die Arbeitswelt zu verbessern – wenn wir sie richtig nutzen.Künstliche Intelligenz: Tipps zur Entwicklung neuer KI-ProjekteWie Sie Mitarbeiter für Künstliche Intelligenz begeisternIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. Wie Sie Mitarbeiter für Künstliche Intelligenz begeistern Foto: Runa0410 – shutterstock.comIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. 1. Sichere Trainingsumgebung bereitstellenMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.1. Sichere Trainingsumgebung bereitstellen Foto: Alexander Supertramp – shutterstock.comMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.2. Benchmarking vorhandener FähigkeitenPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.2. Benchmarking vorhandener Fähigkeiten Foto: Jirsak – shutterstock.comPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.3. Interne Experten einbeziehenNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 3. Interne Experten einbeziehen Foto: SuPatMaN – shutterstock.comNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 4. Umfassende Beteiligung anstrebenErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.4. Umfassende Beteiligung anstreben Foto: fotogestoeber – shutterstock.comErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen. 

Mitarbeiterakzeptanz stärken: Firmen brauchen dringend eine KI-Kultur​ Um die Akzeptanz der Belegschaft für die künstliche Intelligenz zu stärken, ist es wichtig, neben der Bereitstellung der entsprechenden Tools auch eine gesamtheitliche KI-Kultur mit Schulungen zu schaffen.
Foto: wenich_mit – shutterstock.comDie schnelle Entwicklung und Verbreitung künstlicher Intelligenz (KI) verändert die Art und Weise, wie wir arbeiten, lernen und kommunizieren. Um in dieser neuen Ära erfolgreich zu sein, müssen sich Organisationen und Arbeitnehmer anpassen und neue Fähigkeiten und Denkweisen entwickeln. Doch wie können wir uns konkret auf diesen Paradigmenwechsel vorbereiten? Wie können wir die Chancen nutzen, die uns die KI bietet?Im vergangenen Jahr haben viele von uns erste Erfahrungen mit generativer KI gemacht. Im Jahr 2024 wird sie nun Teil der täglichen Arbeitsrealität. So hat sich die Nutzung von generativer KI in den letzten sechs Monaten nahezu verdoppelt. Und Mitarbeiterinnen und Mitarbeiter experimentieren fleißig damit – sie nutzen frei verfügbare Angebote, um ihre Aufgaben schneller, besser und kreativer zu erfüllen. Auf LinkedIn verzeichnen wir einen signifikanten Anstieg von Fachkräften, die KI-Fähigkeiten zu ihren Profilen hinzufügen, und die meisten Führungskräfte sagen, dass sie niemanden ohne KI-Fähigkeiten einstellen würden. Während sich Führungskräfte darüber einig sind, dass KI für ihr Unternehmen unerlässlich ist, glauben allerdings viele, dass es ihrem Unternehmen an einem Plan und einer Vision mangelt, um von KI wirklich zu profitieren. Der Druck, einen sofortigen Return on Investment vorzuweisen, lähmt einige, selbst angesichts der Unausweichlichkeit von KI.Das KI-Potenzial voll ausschöpfen Sowohl für Mitarbeiter als auch für Führungskräfte besteht die Herausforderung nun darin, über eine reine Experimentierphase hinauszugehen und generative KI in den Arbeitsalltag zu implementieren. Von Power Usern, also denjenigen, die KI bereits umfänglich nutzen, wissen wir, dass ihnen die Technologie enorme Vorteile bringt. Sie hilft, ihre Arbeitslast überschaubarer zu machen (92 Prozent), kreativer zu denken (92 Prozent) und sich auf ihre wichtigsten Aufgaben konzentrieren zu können (93 Prozent). Das zeigt der von LinkedIn und Microsoft kürzlich gemeinsam veröffentlichte Work Trend Index 2024. Um auch den Rest der Belegschaft in dieser Entwicklung mitzunehmen, müssen Unternehmen das Thema strategisch durchdacht angehen und Investitionen an der richtigen Stelle tätigen. Zudem sollten sie hinterfragen, welche KI-Kompetenzen in welchem Bereich wichtig sind. In einigen Sektoren geht es vermutlich vornehmlich um technische und analytische Fähigkeiten. In anderen vielleicht auch um kreative, soziale und emotionale Kompetenzen. Soft Skills sind gefragter denn jeEine aktuelle Datenauswertung von LinkedIn zeigt, dass vor allem Soft Skills trotz oder gerade aufgrund des wachsenden Einflusses von KI auf die Arbeitswelt immer wichtiger werden. Zutiefst menschliche Fähigkeiten wie Kommunikation, Teamwork oder Führungskompetenzen sind besonders gefragt. Arbeitgeber sollten bei der Einführung von KI deshalb beides tun: in KI-Tools und -Fähigkeiten investieren und gleichzeitig ihre Mitarbeitenden bei der Entwicklung von Soft Skills unterstützen. Um eine rundum “KI-fähige” Belegschaft aufzubauen, ist es neben der Bereitstellung der entsprechenden Tools notwendig, das Thema gesamtheitlich zu betrachten und eine KI-Kultur zu schaffen, in der der Arbeitgeber Mitarbeitende für die Möglichkeiten der KI sensibilisiert und schult. Ob über Online-Kurse, Webinare, KI-fokussierte Mitarbeiter-Events – welche Formate sich am besten eignen, mag abhängig vom jeweiligen Betrieb sein. Wichtig ist, dass das Thema kein “Bottom-up-Movement” ist, sondern von oben herab betrieben wird. So müssen wir im ersten Schritt analysieren, welche Kompetenzen und Rollen durch KI entstehen oder verstärkt werden – und welche Aufgaben KI für uns übernehmen kann. Neue KI-Berufsbilder wie KI-Ingenieure, Datenwissenschaftler, KI-Trainer, KI-Ethiker oder KI-Strategen entstehen und Arbeitgeber müssen verstehen, wie sie diese Rollen für ihre Teams gewinnen und einbauen. Hier kann es sinnvoll sein, die interne Mobilität im eigenen Unternehmen durch gezielten Kompetenzaufbau im Bereich KI zu fördern. KI verbessert die Vielfalt im UnternehmenDarüber hinaus bietet uns die KI die Möglichkeit, eine integrative, vielfältigere und gerechtere Arbeitswelt zu schaffen. Wir müssen jetzt erkunden, wie die KI dazu beitragen kann, Barrieren und Vorurteile abzubauen, die den Zugang zu Bildung, Beschäftigung und Entwicklungsmöglichkeiten für verschiedene Gruppen von Menschen einschränken. Mit der richtigen Vorgehensweise hat KI das Potenzial, die Vielfalt und Inklusion in Organisationen zu fördern und die Chancengleichheit und soziale Mobilität nachhaltig zu verbessern.Gleichzeitig müssen wir uns der ethischen Verantwortung bewusst sein, die mit der Nutzung und dem Einsatz von KI verbunden ist. Es ist wichtig, ein klares Verständnis von potenziellen Verzerrungseffekten und Vorurteilen zu haben, die durch generative KI entstehen können – und bei jeder Verwendung dieser Tools einen kritischen Blick auf die Ergebnisse zu werfen. All diese Punkte sind wichtig, um das eigene Unternehmen und die Belegschaft für eine Arbeitswelt mit KI fit zu machen. Aber der entscheidende Punkt ist der Zeitpunkt unseres Handelns. Denn: Wir dürfen nicht warten. Die Zukunft der Arbeit ist bereits hier und nur diejenigen, die das Thema zur Priorität machen und tiefgreifend erkunden, können schnell Wettbewerbsvorteile für sich entwickeln. Die KI stellt eine enorme Chance dar, um die Arbeitswelt zu verbessern – wenn wir sie richtig nutzen.Künstliche Intelligenz: Tipps zur Entwicklung neuer KI-ProjekteWie Sie Mitarbeiter für Künstliche Intelligenz begeisternIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. Wie Sie Mitarbeiter für Künstliche Intelligenz begeistern
Foto: Runa0410 – shutterstock.comIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. 1. Sichere Trainingsumgebung bereitstellenMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.1. Sichere Trainingsumgebung bereitstellen
Foto: Alexander Supertramp – shutterstock.comMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.2. Benchmarking vorhandener FähigkeitenPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.2. Benchmarking vorhandener Fähigkeiten
Foto: Jirsak – shutterstock.comPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.3. Interne Experten einbeziehenNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 3. Interne Experten einbeziehen
Foto: SuPatMaN – shutterstock.comNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 4. Umfassende Beteiligung anstrebenErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.4. Umfassende Beteiligung anstreben
Foto: fotogestoeber – shutterstock.comErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.

Mitarbeiterakzeptanz stärken: Firmen brauchen dringend eine KI-Kultur​ Weiterlesen »

Openwashing – die neue Masche der KI-Anbieter​

Allgemein

„An der Stelle könnte es noch ein bisschen mehr ‚Openness‘ vertragen.“alexfan32 | shutterstock.com Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her. Die Praxis, die eigene „Openness“ herauszustellen, dabei aber parallel kritische Komponenten Cloud-basierter KI-Angebote proprietär zu halten, hat inzwischen auch einen eigenen Namen: „Openwashing“. Das Gebaren schlägt in dieselbe Kerbe wie Cloud- und KI-Washing. Was auf den ersten Blick „demokratisch“ und „gemeinschaftlich“ erscheint, ist in der Praxis nur eine ausgefeilte Marketingstrategie der Tech-Giganten, um die Kontrolle aufrechtzuerhalten und die Macht zu konzentrieren (auf sich selbst, versteht sich).   Openwashing in der Praxis Openwashing ist vor allem ein Cloud-Problem: Die meisten der vermeintlich offenen KI-Modelle werden von großen Cloud-Anbietern angeboten. Die stellen ihre KI-Modelle zwar als „offen zugänglich“ dar. Kritische Aspekte der Systeme wie Datensätze, Infrastrukturen, Trainingsmethoden oder Frameworks unterliegen jedoch strenger Geheimhaltung und bleiben proprietär. Die genannten Elemente sind jedoch alles andere als nebensächlich. Sie bestimmen darüber, wie gut sich KI-Lösungen skalieren lassen und wie viel Innovationspotenzial sie bieten. Eine Folge ist, dass die Anwender, die in einem solchen, vermeintlich „offenen“ Ökosystem Lösungen auf ihre jeweiligen Bedürfnisse anpassen, beziehungsweise erweitern möchten, zur Kasse gebeten werden. Ein Paradebeispiel dafür sind Large Language Models (LLMs), die mit „Permissive Licenses“ ausgestattet sind. Diese Lizenzen erlauben im Regelfall, dass jeder Nutzer die Modelle nutzen oder anpassen kann. Parallel wird dabei jedoch häufig der Zugriff auf vollständige Trainingsdatensätze oder die Rechenleistung, die nötig ist, um die Modelle von Grund auf neu zu erstellen, ausgeschlossen. Ähnlich verhält es sich beim Blick auf die Reusability – eine weitere Säule der „Openness“: Die Konzerne gestatten zwar den Zugriff auf ihre KI-Modelle über APIs, verknüpfen diese aber mit proprietären Ökosystemen. Das eröffnet ein gewisses, kalkuliertes Maß an Wiederverwendbarkeit – das die Wertschöpfung der Cloud-Giganten maximiert und parallel den Wettbewerb einschränkt. Beispiel OpenAI: Die GPT-Modelle sind offen zugänglich, aber ihre Integrationen sind immer an bestimmte Web-Clients, Wartungsbibliotheken und (hauseigene) Applikationen gebunden. Ein Entwickler-Kollege hat es vor kurzem folgendermaßen ausgedrückt: „Das Zeug ist so offen wie ein Banktresor.“ Und selbst KI-Modelle mit großzügiger Lizenzierung, wie beispielsweise Metas Llama 3, sind mit restriktiven Bedingungen verknüpft, die die Einsatz- und Anpassungsmöglichkeiten limitieren. Auch beim arbeitsintensiven Prozess der Datenkuratierung, -kennzeichnung und -moderation mauern, respektive verschleiern die Tech-Riesen gerne und halten kritische Datensätze in Silos. Eine Replikation ist so nahezu ausgeschlossen. Diese selektive Transparenz sorgt dafür, dass kleinere Organisationen von den Ökosystemen der Cloud-Riesen abhängig bleiben, was das Machtgefälle zementiert. Wirklich transparente, offene KI würde hingegen bedeuten: öffentlich zu dokumentieren, wie die Modelle entwickelt, trainiert, verfeinert und eingesetzt werden. vollständigen Zugang zu den Datensätzen, Architekturen und Entscheidungsprozessen zu gewähren, die mit Blick auf KI-Modelle eine entscheidende Rolle spielen. Die meisten Tech-Konzerne können von einem solchen Maß an Transparenz nur träumen. Sie erzeugen durch die selektive, teilweise Freigabe ihrer KI-Modelle lediglich eine Illusion von Offenheit. Was heißt das für Anwenderunternehmen? Wenn Anbieter behaupten, offene KI-Modelle anzubieten, sollten Führungskräfte und Entscheider von Anwenderunternehmen nicht davor zurückschrecken, genauer nachzufragen: Wie genau und in welchem Umfang lässt sich das Modell modifizieren? Wo ist die vollständige Dokumentation zu finden? Wie sieht die Lizenz im Detail aus? Lassen Sie sich also nicht vom Hype um vermeintlich offene Standards mitreißen. Konzentrieren Sie sich stattdessen darauf, wie KI-Tools und -Services (innerhalb ihrer jeweiligen Grenzen) Ihr Unternehmen voranbringen können. Und denken Sie immer an den zugegebenermaßen etwas abgedroschenen Spruch: Wenn etwas zu schön klingt, um wahr zu sein, ist es das im Regelfall auch. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Openwashing – die neue Masche der KI-Anbieter​ „An der Stelle könnte es noch ein bisschen mehr ‚Openness‘ vertragen.“alexfan32 | shutterstock.com

Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.

Die Praxis, die eigene „Openness“ herauszustellen, dabei aber parallel kritische Komponenten Cloud-basierter KI-Angebote proprietär zu halten, hat inzwischen auch einen eigenen Namen: „Openwashing“. Das Gebaren schlägt in dieselbe Kerbe wie Cloud- und KI-Washing. Was auf den ersten Blick „demokratisch“ und „gemeinschaftlich“ erscheint, ist in der Praxis nur eine ausgefeilte Marketingstrategie der Tech-Giganten, um die Kontrolle aufrechtzuerhalten und die Macht zu konzentrieren (auf sich selbst, versteht sich).  

Openwashing in der Praxis

Openwashing ist vor allem ein Cloud-Problem: Die meisten der vermeintlich offenen KI-Modelle werden von großen Cloud-Anbietern angeboten. Die stellen ihre KI-Modelle zwar als „offen zugänglich“ dar. Kritische Aspekte der Systeme wie Datensätze, Infrastrukturen, Trainingsmethoden oder Frameworks unterliegen jedoch strenger Geheimhaltung und bleiben proprietär. Die genannten Elemente sind jedoch alles andere als nebensächlich. Sie bestimmen darüber, wie gut sich KI-Lösungen skalieren lassen und wie viel Innovationspotenzial sie bieten. Eine Folge ist, dass die Anwender, die in einem solchen, vermeintlich „offenen“ Ökosystem Lösungen auf ihre jeweiligen Bedürfnisse anpassen, beziehungsweise erweitern möchten, zur Kasse gebeten werden.

Ein Paradebeispiel dafür sind Large Language Models (LLMs), die mit „Permissive Licenses“ ausgestattet sind. Diese Lizenzen erlauben im Regelfall, dass jeder Nutzer die Modelle nutzen oder anpassen kann. Parallel wird dabei jedoch häufig der Zugriff auf vollständige Trainingsdatensätze oder die Rechenleistung, die nötig ist, um die Modelle von Grund auf neu zu erstellen, ausgeschlossen. Ähnlich verhält es sich beim Blick auf die Reusability – eine weitere Säule der „Openness“: Die Konzerne gestatten zwar den Zugriff auf ihre KI-Modelle über APIs, verknüpfen diese aber mit proprietären Ökosystemen. Das eröffnet ein gewisses, kalkuliertes Maß an Wiederverwendbarkeit – das die Wertschöpfung der Cloud-Giganten maximiert und parallel den Wettbewerb einschränkt. Beispiel OpenAI: Die GPT-Modelle sind offen zugänglich, aber ihre Integrationen sind immer an bestimmte Web-Clients, Wartungsbibliotheken und (hauseigene) Applikationen gebunden. Ein Entwickler-Kollege hat es vor kurzem folgendermaßen ausgedrückt: „Das Zeug ist so offen wie ein Banktresor.“

Und selbst KI-Modelle mit großzügiger Lizenzierung, wie beispielsweise Metas Llama 3, sind mit restriktiven Bedingungen verknüpft, die die Einsatz- und Anpassungsmöglichkeiten limitieren. Auch beim arbeitsintensiven Prozess der Datenkuratierung, -kennzeichnung und -moderation mauern, respektive verschleiern die Tech-Riesen gerne und halten kritische Datensätze in Silos. Eine Replikation ist so nahezu ausgeschlossen. Diese selektive Transparenz sorgt dafür, dass kleinere Organisationen von den Ökosystemen der Cloud-Riesen abhängig bleiben, was das Machtgefälle zementiert.

Wirklich transparente, offene KI würde hingegen bedeuten:

öffentlich zu dokumentieren, wie die Modelle entwickelt, trainiert, verfeinert und eingesetzt werden.

vollständigen Zugang zu den Datensätzen, Architekturen und Entscheidungsprozessen zu gewähren, die mit Blick auf KI-Modelle eine entscheidende Rolle spielen.

Die meisten Tech-Konzerne können von einem solchen Maß an Transparenz nur träumen. Sie erzeugen durch die selektive, teilweise Freigabe ihrer KI-Modelle lediglich eine Illusion von Offenheit.

Was heißt das für Anwenderunternehmen?

Wenn Anbieter behaupten, offene KI-Modelle anzubieten, sollten Führungskräfte und Entscheider von Anwenderunternehmen nicht davor zurückschrecken, genauer nachzufragen:

Wie genau und in welchem Umfang lässt sich das Modell modifizieren?

Wo ist die vollständige Dokumentation zu finden?

Wie sieht die Lizenz im Detail aus?

Lassen Sie sich also nicht vom Hype um vermeintlich offene Standards mitreißen. Konzentrieren Sie sich stattdessen darauf, wie KI-Tools und -Services (innerhalb ihrer jeweiligen Grenzen) Ihr Unternehmen voranbringen können.

Und denken Sie immer an den zugegebenermaßen etwas abgedroschenen Spruch: Wenn etwas zu schön klingt, um wahr zu sein, ist es das im Regelfall auch. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Openwashing – die neue Masche der KI-Anbieter​ Weiterlesen »

Ratgeber Projekt-Management: 20 Eigenschaften, die gute Projektmanager auszeichnen​

Allgemein

Was hebt hervorragende Projektmanager vom Durchschnitt ab? Softskills, interne Vernetzung und Machtinstinkt sind wichtig – aber das reicht noch nicht aus. Foto: A Lot Of People – shutterstock.com Die Skills, die erfolgreiche Projektmanager (PMs) mitbringen müssen, sind vielfältig und wirken teils widersprüchlich – weshalb echte Projektprofis eher selten sind. Die besten PMs bringen gleichermaßen geschäftliche, organisatorische und technische Fähigkeiten mit und darüber hinaus überragende Softskills. Das Project Management Institute (PMI) hat mit seinem Talentdreieck versucht zu verdeutlichen, worauf es ankommt. Wichtig sind demnach technisches Projektmanagement, also Wissen um Methoden und Vorgehensweisen; Leadership (Führungsqualitäten) und Business-Orientierung (strategisches und geschäftliches Management). Jeder dieser drei Bereiche ist mit hohen Anforderungen verbunden. Projektmanager müssen wissen, wie sie den Umfang eines Projekts abstecken, die benötigten Ressourcen festlegen und deren Einsatz planen. In Sachen Leadership ist neben der Führungsarbeit das Stakeholder-Management wichtig. Und auf der geschäftlichen Ebene ist beispielsweise sicherzustellen, das Projekt- und Unternehmensziele stets im Einklang bleiben. Die Liste der laut PMI wünschenswerten Qualifikationen ist lang. Dennoch sagen erfahrene Projektleiter, dass die dort aufgeführten Fähigkeiten noch nicht ausreichen, wenn ein Projektmanager seine Rolle nach den höchsten Anforderungen ausfüllen will. Welche Eigenschaften zeichnen also besonders effektive Projektmanager aus? Lesen Sie über die Persönlichkeitsmerkmale und Fähigkeiten, die für Erfolg unerlässlich sind. 1. Strategische Führungsqualitäten Die besten Projektmanager beherrschen ihr Handwerk aus dem Effeff und bringen darüber hinaus strategische Führungsqualitäten mit. Diese sind wichtig, weil es immer wieder zu Situationen kommen kann, in denen Entscheidungen spontan und zum Besten des Unternehmens gefällt werden müssen. Projektleiter, die beispielsweise rechtliche Hürden zeitnah aus dem Weg räumen können oder bei Ressourcenengpässen in der Lage sind, entfernte Arbeitsteams flexibel einzubinden, sind im Vorteil. Sie haben das große Ganze im Blick und bringen ihre Detailziele mit der strategischen Marschroute des Unternehmens in Einklang. 2. Außergewöhnliche organisatorische Fähigkeiten Erstklassige Projektmanager sind bestens organisiert – das ist klar. “Hier geht es aber nicht nur darum, einen Plan zu erstellen und sich dann daran zu halten”, sagt Hema Tatineni von CopperPoint Insurance. Sie müssten vielmehr verstehen, wie ihr Projektplan und ihre Ressourcen mit anderen Vorgängen im Unternehmen verflochten sind und welche gegenseitigen Abhängigkeiten daraus entstehen. Gut zu organisieren, heißt auch, Pläne und Ressourcen anpassen zu können. “Es ist einfach zu sagen: ‘So sieht mein Plan aus, wir arbeiten ihn jetzt ab’”, sagt Tatineni. “Die Probleme entstehen dann, wenn Aufgaben verschoben werden. Das wirkt sich auf andere vor- und nachgelagerte Arbeiten aus, weil es zwischen den Projekten Verbindungen gibt.” Für die Managerin bedeutet gut organisiert zu sein, gegenseitige Abhängigkeiten zu erkennen und den eigenen Plan schnell erneuern zu können, wenn etwas vorfällt. 3. Flexibilität Hocheffektive PMs sind besonders flexibel. Sie lassen sich nicht aus dem Konzept bringen, wenn Projektpläne angepasst werden müssen – das kommt bekanntlich in der modernen digitalen Welt häufig vor. “Gute Projektverantwortliche sind so anpassungsfähig, dass sie sagen können: ‘Es gibt da etwas, das jetzt eine höhere Priorität hat. Also ändern wir unseren Kurs’”, sagt Tatineni. 4. Ressourcen im Blick Die besten PMs wissen, ob das verfügbare Personal ausreicht und die Menschen optimal eingesetzt werden. “Die meisten Mitarbeitenden stehen immer unter Zeitdruck”, beobachtet Barry Cousins, Analyst der Info-Tech Research Group. “Praktisch alle sagen, dass sie für geplante Vorhaben zu wenig Zeit zur Verfügung haben.” Projektmanager sollten die Angaben der Mitarbeitenden richtig einschätzen und deren einzubringenden Stunden vorhersagen können. Gelingt das, fällt die Planung und das Festlegen von Terminen leichter. “Clevere Projektmanager haben ein unmittelbares, implizites Bewusstsein für die verfügbaren Kapazitäten um sie herum. Sie erkennen sofort, wenn ihre Projekte mangels Ressourcen in Schieflage geraten könnten”, fügt Cousin hinzu. Außerdem würden sie von der Unternehmensleitung eher gehört als andere, weil sie Defizite exakt quantifizieren könnten. 5. Stakeholder-Management PMs sind darauf angewiesen, mit verschiedenen Repräsentanten unterschiedlicher Unternehmensbereiche zusammenzuarbeiten. Es ist erfolgskritisch, diese Beziehungen gut zu managen. Manche Stakeholder sind beispielsweise eher risikoscheu und stehen Veränderungen tendenziell ablehnend gegenüber. Oder sie neigen zu Panik, wenn Widerstände oder Probleme auftreten. Deshalb müssen Projektchefs Einfühlungsvermögen mitbringen. Ihre Kommunikation, aber auch ihre Planungen und Schulungen sollten sie so gestalten, dass die Standpunkte aller Beteiligten adäquat berücksichtigt werden. 6. Machtinstinkt Projektmanager müssen die Machtverhältnisse in einer Organisation kennen. Egal, ob sie es mit zehn IT-Architekten zu tun haben, die jeweils einen Teil der IT-Umgebung kontrollieren, oder mit zehn Führungskräften, die für verschiedene Unternehmensbereiche zuständig sind: PMs müssen wissen, wer in welchen Bereichen die Ansagen macht. “Ein kluger Projektmanager gibt diesen Leuten den Freiraum, den sie brauchen”, sagt Cousins. Dabei ist es hilfreich, den Einfluss dieser Personen genau einschätzen zu können und zu wissen, wer genügend Autorität besitzt, um die anderen dazu zu bringen, sich hinter das Projekt zu stellen. Mit anderen Worten: Gute Projektmanager sind bis in die Führungsebene vernetzt und haben dort Fürsprecher. 7. Tool-Auswahl PMs verwenden unterschiedliche Methoden, um ein Vorhaben voranzutreiben, Risiken zu kontrollieren und den Fortschritt zu messen. Dazu brauchen sie Softwaretools. Jedes Werkzeug hat seine Vor- und Nachteile, und je nach Situationen kann mal das eine, mal das andere Produkt die bessere Wahl sein. Entscheidend ist, dass Projektverantwortliche auf dem Laufenden sind und das Angebot kennen. Auch an der Toolauswahl kann sich entscheiden, wie schnell Fortschritte erzielt und Ziele erreicht werden. 8. Übersinnliche Begabung … … brauchen Projektmanager zwar nicht, aber sie sollten schon ein wenig um die Ecke sehen und mögliche Szenarien und Verläufe abschätzen können. So können sie etwa einen Notfallplan entwickeln oder zusätzliche Ressourcen bereitstellen, um in schwierigen Phasen auf Kurs zu bleiben. Wissen die Verantwortlichen frühzeitig, wenn ein Meilenstein verpasst zu werden droht, haben sie Zeit gegenzusteuern und nötigenfalls das Management vorzubereiten. 9. Anerkennung zollen Gute Projektmanager nutzen das Wissen und die Fähigkeiten ihrer Teams und scheuen sich nicht, das auch zum Ausdruck zu bringen. Ganz sicher erliegen sie dabei aber nicht der Versuchung, sich mit fremden Federn zu schmücken. Im Gegenteil: Sie zollen bereitwillig Anerkennung für gute Arbeit – im Team und auch gegenüber anderen Stakeholdern und dem Management. 10. Motivation statt Druck In Projekten arbeiten Menschen aus verschiedenen Unternehmensbereichen zusammen, für die Projektleiter oft keine direkte Führungsverantwortung haben. Doch letztlich entscheidet der inhaltliche Beitrag aller Beteiligten über Erfolg und Misserfolg. Deshalb brauchen PMs besondere Motivationsfähigkeiten, sie müssen begeistern können. Es gilt, Stakeholder, Sponsoren und Mitarbeitende immer wieder davon zu überzeugen, ein Vorhaben voranzubringen, auch wenn sich Umfang und Zielsetzung ändern oder Hindernisse auftreten sollten. Die Fähigkeit zu motivieren, setzt voraus, dass der Projektmanager allen Beteiligten Respekt entgegenbringt. Dabei muss er sicher sein, dass das Projekt sinnvoll ist und trotz zu erwartender Schwierigkeiten und Rückschläge einen Mehrwert bieten wird. 11. Überzeugung Erstklassige PMs glauben an ihre Aufgabe und begleiten ein Projekt von der Initiierung bis zum Abschluss – oft sogar darüber hinaus. Dieses Verantwortungsgefühl trägt entscheidend dazu bei, gute Ergebnisse zu erzielen. Dazu müssen die Verantwortlichen tief in alle professionellen Aspekte des Projekts eingebunden und nahe an den Mitarbeitenden sein. 12. Lernen aus Fehlern Nobody is perfect, nicht alles in einem Projekt wird ablaufen wie geplant. Deshalb müssen Projektmanager mit Fehlern rechnen und mit Rückschlägen umgehen können. Alphatiere, die immer Recht haben wollen und ihre Fehler nicht erkennen, können auch nicht daraus lernen. “Integrität, Entschlussfreudigkeit, ein gutes Urteilsvermögen, Visionskraft und Vertrauen in die eigene Kompetenz” – das sind wichtige Merkmale guter Projektmanager, sagt Paul Dillon, Gründer von Dillon Consulting Services. 13. Effektiv kommunizieren Gute Projektmanager sind Kommunikatoren. Das bedeutet nicht nur, dass sie hervorragende Moderatoren, Redner oder Autoren sind, sondern auch, dass sie zuhören können. Die besten Manager sind aktive Zuhörer. Sie verstehen nicht nur, was gesagt wird, sondern können es auch direkt in jeweiligen Kontext einordnen. Sie hören sich die Ansichten anderer genau an und berücksichtigen deren Erfahrungen und Kenntnisse. So verschaffen sie sich immer wieder ein vollständiges Bild des Geschehens und können Konflikten vorbeugen, Risiken verringern und die Wahrscheinlichkeit des Projekterfolgs erhöhen. 14. Ein Gemeinschaftsgefühl schaffen Hervorragende PMs können Menschen für sich einnehmen. Das ist auch deshalb wichtig, weil sie meist ein Team führen, dass ihnen hierarchisch nicht unterstellt ist. Die Mitglieder haben konkurrierende Aufgaben und Prioritäten, manchmal auch ein abweichendes Verständnis von den Projektzielen. Es liegt also in der Verantwortung des Projektleiters dafür zu sorgen, dass alle an einem Strang ziehen und wissen, wohin es gehen soll. Dazu ist es wichtig, ein Gemeinschaftsgefühl zu erzeugen, damit alle bereit sind, auf das erklärte Ziel hinzuarbeiten. Das kann zum Beispiel bedeuten, dass der Projektleiter für sein Team Beziehungen mit anderen Unternehmensbereichen knüpft, um Prozesse zu beschleunigen oder mögliche Hindernisse zu umschiffen. Engagiert er sich offensiv für sein Projekt, wird das im Team und auch außerhalb positiv wahrgenommen. 15. Beziehungen pflegen Die besten PMs schaffen es, ein gutes Verhältnis zu allen Mitarbeitenden im Team aufzubauen – auch in kurzlebigen Projekten. Sie wissen, dass dies ein Schlüssel zum Erfolg ist. “Ist das Verhältnis untereinander gut, entsteht ein gemeinsames Verständnis”, erklärt IT-Projektmanagerin Krista Phillips. Das setzt voraus, dass man alle an den wichtigsten Informationen teilhaben lässt, die sich auf das Vorhaben auswirken können. Gelingt es, gute Beziehungen aufzubauen, wird es einfacher Unterstützung in schwierigen Situationen zu bekommen, außerdem werden die Mitarbeiter dann auch die Extrameile gehen und gegebenenfalls auch mal eine Zusatzschicht einlegen, um erfolgreich zu sein. 16. Das Team vorbereiten und mitreißen Wer eine Reise unternimmt, will vorher wissen, wohin es geht und was ihn auf dem Weg möglicherweise erwartet. Das ist bei Projektteams nicht anders. Erfahrene Projektmanager werden ihr Team auf diese Reise vorbereiten. Sie legen nicht nur Meilensteine und Zeitpläne fest, sondern beschreiben auch, wo Herausforderungen warten, wo das Team voraussichtlich auf zusätzliche Unterstützung angewiesen sein wird, wann gefeiert werden kann und vieles mehr. Die Projektverantwortlichen sollten also alle Vorbereitungen treffen, um genau beschreiben zu können, was vor dem Team liegt. 17. Erfahrung Das Ansehen von Projektmanagern steigt oft mit ihrer Erfahrung. Die meisten Situationen, die in einem Projektverlauf auftreten können, sind den alten Hasen schon bekannt, ebenso Schwierigkeiten und Widerstände. Haben sich die PMs den Ruf eines gestandenen Projektprofis erst einmal erarbeitet, können sie das als Vorteil nutzen. Mit dem Verweis auf frühere Erfolge finden sie schneller Mitstreiter für ihre Vorhaben und können Menschen mit dem Verweis auf ihre Erfahrung Sicherheit geben. 18. Change-Management Veränderungen sind für viele Menschen ein Störfaktor im betrieblichen Alltag, auch das Projektmanagement leidet darunter. Umso wichtiger ist es, dass Verantwortliche auf den Change vorbereiten und ihre Pläne so gestalten, dass genügend Spielraum für den Wandel vorhanden ist. PMs sollten auch erkennen, wann es sinnvoll ist, mit Experten für Change-Management zusammenzuarbeiten. Die Mitarbeitenden müssen die Chance bekommen, sich an Veränderungen anzupassen und auf einen neuen Status quo vorzubereiten. 19. Ausgeglichenheit Die besten Projektmanager zeigen auch unter Druck keine Anzeichen von Panik, Wut oder Verzweiflung. Sie bewahren einen kühlen Kopf. Probleme können immer auftreten, auch bei gut geplanten Vorhaben. Vor Rückschlägen sind auch hochqualifizierte Projektleiter niemals sicher. Deshalb ist es wichtig, jemanden an der Spitze zu haben, der rational agiert und selbst in stressigen Projektphasen locker bleibt. 20. Die Grauzone aushalten Gute Projektmanager unterscheiden sich auch darin von schlechten, dass sie es ertragen, in einer Grauzone zu arbeiten. In den meisten Vorhaben, unabhängig von Art, Branche, Größe oder Komplexität, gibt es externe Zwänge, Komplexität, Einschränkungen, Konflikte und Unklarheiten. Verantwortliche müssen erkennen, wann ein Projekt in Schwierigkeiten gerät und was diese verursacht. Sie dürfen sich durch Verzögerungen, Budgetkürzungen oder Krisen nicht aus der Ruhe bringen lassen. Dazu brauchen PMs fachliche und menschliche Kompetenz gleichermaßen. Schaffen sie es, mit unklaren Rahmenbedingungen fertig zu werden und in der Grauzone zu arbeiten, sind sie besonders effektiv. (hv) 15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.1. Unklare Arbeitslast Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.2. Undefinierte Erwartungen Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.3. Fehlende Management-Unterstützung Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.4. Methodik nach Schema F Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.5. Überlastete Mitarbeiter Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.6. Ungeteiltes Herrschaftswissen Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.7. Unklare Entscheidungsfindung Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.8. Fehlende Software Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.9. Gefahr des Ausuferns Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.10. Nicht “Nein” sagen können Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.11. Mangelnder Zusammenhalt Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.12. Vergessener Arbeitsalltag Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.13. Zu häufige Meetings Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.14. Gut genug ist nicht immer gut Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15. Nicht aus Fehlern lernen Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.15 Fehler beim Projektmanagement Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Ratgeber Projekt-Management: 20 Eigenschaften, die gute Projektmanager auszeichnen​ Was hebt hervorragende Projektmanager vom Durchschnitt ab? Softskills, interne Vernetzung und Machtinstinkt sind wichtig – aber das reicht noch nicht aus.
Foto: A Lot Of People – shutterstock.com

Die Skills, die erfolgreiche Projektmanager (PMs) mitbringen müssen, sind vielfältig und wirken teils widersprüchlich – weshalb echte Projektprofis eher selten sind. Die besten PMs bringen gleichermaßen geschäftliche, organisatorische und technische Fähigkeiten mit und darüber hinaus überragende Softskills.

Das Project Management Institute (PMI) hat mit seinem Talentdreieck versucht zu verdeutlichen, worauf es ankommt. Wichtig sind demnach

technisches Projektmanagement, also Wissen um Methoden und Vorgehensweisen;

Leadership (Führungsqualitäten) und

Business-Orientierung (strategisches und geschäftliches Management).

Jeder dieser drei Bereiche ist mit hohen Anforderungen verbunden. Projektmanager müssen wissen, wie sie den Umfang eines Projekts abstecken, die benötigten Ressourcen festlegen und deren Einsatz planen. In Sachen Leadership ist neben der Führungsarbeit das Stakeholder-Management wichtig. Und auf der geschäftlichen Ebene ist beispielsweise sicherzustellen, das Projekt- und Unternehmensziele stets im Einklang bleiben.

Die Liste der laut PMI wünschenswerten Qualifikationen ist lang. Dennoch sagen erfahrene Projektleiter, dass die dort aufgeführten Fähigkeiten noch nicht ausreichen, wenn ein Projektmanager seine Rolle nach den höchsten Anforderungen ausfüllen will.

Welche Eigenschaften zeichnen also besonders effektive Projektmanager aus? Lesen Sie über die Persönlichkeitsmerkmale und Fähigkeiten, die für Erfolg unerlässlich sind.

1. Strategische Führungsqualitäten

Die besten Projektmanager beherrschen ihr Handwerk aus dem Effeff und bringen darüber hinaus strategische Führungsqualitäten mit. Diese sind wichtig, weil es immer wieder zu Situationen kommen kann, in denen Entscheidungen spontan und zum Besten des Unternehmens gefällt werden müssen. Projektleiter, die beispielsweise rechtliche Hürden zeitnah aus dem Weg räumen können oder bei Ressourcenengpässen in der Lage sind, entfernte Arbeitsteams flexibel einzubinden, sind im Vorteil. Sie haben das große Ganze im Blick und bringen ihre Detailziele mit der strategischen Marschroute des Unternehmens in Einklang.

2. Außergewöhnliche organisatorische Fähigkeiten

Erstklassige Projektmanager sind bestens organisiert – das ist klar. “Hier geht es aber nicht nur darum, einen Plan zu erstellen und sich dann daran zu halten”, sagt Hema Tatineni von CopperPoint Insurance. Sie müssten vielmehr verstehen, wie ihr Projektplan und ihre Ressourcen mit anderen Vorgängen im Unternehmen verflochten sind und welche gegenseitigen Abhängigkeiten daraus entstehen. Gut zu organisieren, heißt auch, Pläne und Ressourcen anpassen zu können.

“Es ist einfach zu sagen: ‘So sieht mein Plan aus, wir arbeiten ihn jetzt ab’”, sagt Tatineni. “Die Probleme entstehen dann, wenn Aufgaben verschoben werden. Das wirkt sich auf andere vor- und nachgelagerte Arbeiten aus, weil es zwischen den Projekten Verbindungen gibt.” Für die Managerin bedeutet gut organisiert zu sein, gegenseitige Abhängigkeiten zu erkennen und den eigenen Plan schnell erneuern zu können, wenn etwas vorfällt.

3. Flexibilität

Hocheffektive PMs sind besonders flexibel. Sie lassen sich nicht aus dem Konzept bringen, wenn Projektpläne angepasst werden müssen – das kommt bekanntlich in der modernen digitalen Welt häufig vor. “Gute Projektverantwortliche sind so anpassungsfähig, dass sie sagen können: ‘Es gibt da etwas, das jetzt eine höhere Priorität hat. Also ändern wir unseren Kurs’”, sagt Tatineni.

4. Ressourcen im Blick

Die besten PMs wissen, ob das verfügbare Personal ausreicht und die Menschen optimal eingesetzt werden. “Die meisten Mitarbeitenden stehen immer unter Zeitdruck”, beobachtet Barry Cousins, Analyst der Info-Tech Research Group. “Praktisch alle sagen, dass sie für geplante Vorhaben zu wenig Zeit zur Verfügung haben.” Projektmanager sollten die Angaben der Mitarbeitenden richtig einschätzen und deren einzubringenden Stunden vorhersagen können. Gelingt das, fällt die Planung und das Festlegen von Terminen leichter.

“Clevere Projektmanager haben ein unmittelbares, implizites Bewusstsein für die verfügbaren Kapazitäten um sie herum. Sie erkennen sofort, wenn ihre Projekte mangels Ressourcen in Schieflage geraten könnten”, fügt Cousin hinzu. Außerdem würden sie von der Unternehmensleitung eher gehört als andere, weil sie Defizite exakt quantifizieren könnten.

5. Stakeholder-Management

PMs sind darauf angewiesen, mit verschiedenen Repräsentanten unterschiedlicher Unternehmensbereiche zusammenzuarbeiten. Es ist erfolgskritisch, diese Beziehungen gut zu managen. Manche Stakeholder sind beispielsweise eher risikoscheu und stehen Veränderungen tendenziell ablehnend gegenüber. Oder sie neigen zu Panik, wenn Widerstände oder Probleme auftreten. Deshalb müssen Projektchefs Einfühlungsvermögen mitbringen. Ihre Kommunikation, aber auch ihre Planungen und Schulungen sollten sie so gestalten, dass die Standpunkte aller Beteiligten adäquat berücksichtigt werden.

6. Machtinstinkt

Projektmanager müssen die Machtverhältnisse in einer Organisation kennen. Egal, ob sie es mit zehn IT-Architekten zu tun haben, die jeweils einen Teil der IT-Umgebung kontrollieren, oder mit zehn Führungskräften, die für verschiedene Unternehmensbereiche zuständig sind: PMs müssen wissen, wer in welchen Bereichen die Ansagen macht.

“Ein kluger Projektmanager gibt diesen Leuten den Freiraum, den sie brauchen”, sagt Cousins. Dabei ist es hilfreich, den Einfluss dieser Personen genau einschätzen zu können und zu wissen, wer genügend Autorität besitzt, um die anderen dazu zu bringen, sich hinter das Projekt zu stellen. Mit anderen Worten: Gute Projektmanager sind bis in die Führungsebene vernetzt und haben dort Fürsprecher.

7. Tool-Auswahl

PMs verwenden unterschiedliche Methoden, um ein Vorhaben voranzutreiben, Risiken zu kontrollieren und den Fortschritt zu messen. Dazu brauchen sie Softwaretools. Jedes Werkzeug hat seine Vor- und Nachteile, und je nach Situationen kann mal das eine, mal das andere Produkt die bessere Wahl sein. Entscheidend ist, dass Projektverantwortliche auf dem Laufenden sind und das Angebot kennen. Auch an der Toolauswahl kann sich entscheiden, wie schnell Fortschritte erzielt und Ziele erreicht werden.

8. Übersinnliche Begabung …

… brauchen Projektmanager zwar nicht, aber sie sollten schon ein wenig um die Ecke sehen und mögliche Szenarien und Verläufe abschätzen können. So können sie etwa einen Notfallplan entwickeln oder zusätzliche Ressourcen bereitstellen, um in schwierigen Phasen auf Kurs zu bleiben. Wissen die Verantwortlichen frühzeitig, wenn ein Meilenstein verpasst zu werden droht, haben sie Zeit gegenzusteuern und nötigenfalls das Management vorzubereiten.

9. Anerkennung zollen

Gute Projektmanager nutzen das Wissen und die Fähigkeiten ihrer Teams und scheuen sich nicht, das auch zum Ausdruck zu bringen. Ganz sicher erliegen sie dabei aber nicht der Versuchung, sich mit fremden Federn zu schmücken. Im Gegenteil: Sie zollen bereitwillig Anerkennung für gute Arbeit – im Team und auch gegenüber anderen Stakeholdern und dem Management.

10. Motivation statt Druck

In Projekten arbeiten Menschen aus verschiedenen Unternehmensbereichen zusammen, für die Projektleiter oft keine direkte Führungsverantwortung haben. Doch letztlich entscheidet der inhaltliche Beitrag aller Beteiligten über Erfolg und Misserfolg. Deshalb brauchen PMs besondere Motivationsfähigkeiten, sie müssen begeistern können.

Es gilt, Stakeholder, Sponsoren und Mitarbeitende immer wieder davon zu überzeugen, ein Vorhaben voranzubringen, auch wenn sich Umfang und Zielsetzung ändern oder Hindernisse auftreten sollten. Die Fähigkeit zu motivieren, setzt voraus, dass der Projektmanager allen Beteiligten Respekt entgegenbringt. Dabei muss er sicher sein, dass das Projekt sinnvoll ist und trotz zu erwartender Schwierigkeiten und Rückschläge einen Mehrwert bieten wird.

11. Überzeugung

Erstklassige PMs glauben an ihre Aufgabe und begleiten ein Projekt von der Initiierung bis zum Abschluss – oft sogar darüber hinaus. Dieses Verantwortungsgefühl trägt entscheidend dazu bei, gute Ergebnisse zu erzielen. Dazu müssen die Verantwortlichen tief in alle professionellen Aspekte des Projekts eingebunden und nahe an den Mitarbeitenden sein.

12. Lernen aus Fehlern

Nobody is perfect, nicht alles in einem Projekt wird ablaufen wie geplant. Deshalb müssen Projektmanager mit Fehlern rechnen und mit Rückschlägen umgehen können. Alphatiere, die immer Recht haben wollen und ihre Fehler nicht erkennen, können auch nicht daraus lernen. “Integrität, Entschlussfreudigkeit, ein gutes Urteilsvermögen, Visionskraft und Vertrauen in die eigene Kompetenz” – das sind wichtige Merkmale guter Projektmanager, sagt Paul Dillon, Gründer von Dillon Consulting Services.

13. Effektiv kommunizieren

Gute Projektmanager sind Kommunikatoren. Das bedeutet nicht nur, dass sie hervorragende Moderatoren, Redner oder Autoren sind, sondern auch, dass sie zuhören können. Die besten Manager sind aktive Zuhörer. Sie verstehen nicht nur, was gesagt wird, sondern können es auch direkt in jeweiligen Kontext einordnen.

Sie hören sich die Ansichten anderer genau an und berücksichtigen deren Erfahrungen und Kenntnisse. So verschaffen sie sich immer wieder ein vollständiges Bild des Geschehens und können Konflikten vorbeugen, Risiken verringern und die Wahrscheinlichkeit des Projekterfolgs erhöhen.

14. Ein Gemeinschaftsgefühl schaffen

Hervorragende PMs können Menschen für sich einnehmen. Das ist auch deshalb wichtig, weil sie meist ein Team führen, dass ihnen hierarchisch nicht unterstellt ist. Die Mitglieder haben konkurrierende Aufgaben und Prioritäten, manchmal auch ein abweichendes Verständnis von den Projektzielen. Es liegt also in der Verantwortung des Projektleiters dafür zu sorgen, dass alle an einem Strang ziehen und wissen, wohin es gehen soll.

Dazu ist es wichtig, ein Gemeinschaftsgefühl zu erzeugen, damit alle bereit sind, auf das erklärte Ziel hinzuarbeiten. Das kann zum Beispiel bedeuten, dass der Projektleiter für sein Team Beziehungen mit anderen Unternehmensbereichen knüpft, um Prozesse zu beschleunigen oder mögliche Hindernisse zu umschiffen. Engagiert er sich offensiv für sein Projekt, wird das im Team und auch außerhalb positiv wahrgenommen.

15. Beziehungen pflegen

Die besten PMs schaffen es, ein gutes Verhältnis zu allen Mitarbeitenden im Team aufzubauen – auch in kurzlebigen Projekten. Sie wissen, dass dies ein Schlüssel zum Erfolg ist. “Ist das Verhältnis untereinander gut, entsteht ein gemeinsames Verständnis”, erklärt IT-Projektmanagerin Krista Phillips. Das setzt voraus, dass man alle an den wichtigsten Informationen teilhaben lässt, die sich auf das Vorhaben auswirken können. Gelingt es, gute Beziehungen aufzubauen, wird es einfacher Unterstützung in schwierigen Situationen zu bekommen, außerdem werden die Mitarbeiter dann auch die Extrameile gehen und gegebenenfalls auch mal eine Zusatzschicht einlegen, um erfolgreich zu sein.

16. Das Team vorbereiten und mitreißen

Wer eine Reise unternimmt, will vorher wissen, wohin es geht und was ihn auf dem Weg möglicherweise erwartet. Das ist bei Projektteams nicht anders. Erfahrene Projektmanager werden ihr Team auf diese Reise vorbereiten. Sie legen nicht nur Meilensteine und Zeitpläne fest, sondern beschreiben auch, wo Herausforderungen warten, wo das Team voraussichtlich auf zusätzliche Unterstützung angewiesen sein wird, wann gefeiert werden kann und vieles mehr. Die Projektverantwortlichen sollten also alle Vorbereitungen treffen, um genau beschreiben zu können, was vor dem Team liegt.

17. Erfahrung

Das Ansehen von Projektmanagern steigt oft mit ihrer Erfahrung. Die meisten Situationen, die in einem Projektverlauf auftreten können, sind den alten Hasen schon bekannt, ebenso Schwierigkeiten und Widerstände. Haben sich die PMs den Ruf eines gestandenen Projektprofis erst einmal erarbeitet, können sie das als Vorteil nutzen. Mit dem Verweis auf frühere Erfolge finden sie schneller Mitstreiter für ihre Vorhaben und können Menschen mit dem Verweis auf ihre Erfahrung Sicherheit geben.

18. Change-Management

Veränderungen sind für viele Menschen ein Störfaktor im betrieblichen Alltag, auch das Projektmanagement leidet darunter. Umso wichtiger ist es, dass Verantwortliche auf den Change vorbereiten und ihre Pläne so gestalten, dass genügend Spielraum für den Wandel vorhanden ist. PMs sollten auch erkennen, wann es sinnvoll ist, mit Experten für Change-Management zusammenzuarbeiten. Die Mitarbeitenden müssen die Chance bekommen, sich an Veränderungen anzupassen und auf einen neuen Status quo vorzubereiten.

19. Ausgeglichenheit

Die besten Projektmanager zeigen auch unter Druck keine Anzeichen von Panik, Wut oder Verzweiflung. Sie bewahren einen kühlen Kopf. Probleme können immer auftreten, auch bei gut geplanten Vorhaben. Vor Rückschlägen sind auch hochqualifizierte Projektleiter niemals sicher. Deshalb ist es wichtig, jemanden an der Spitze zu haben, der rational agiert und selbst in stressigen Projektphasen locker bleibt.

20. Die Grauzone aushalten

Gute Projektmanager unterscheiden sich auch darin von schlechten, dass sie es ertragen, in einer Grauzone zu arbeiten. In den meisten Vorhaben, unabhängig von Art, Branche, Größe oder Komplexität, gibt es externe Zwänge, Komplexität, Einschränkungen, Konflikte und Unklarheiten. Verantwortliche müssen erkennen, wann ein Projekt in Schwierigkeiten gerät und was diese verursacht. Sie dürfen sich durch Verzögerungen, Budgetkürzungen oder Krisen nicht aus der Ruhe bringen lassen. Dazu brauchen PMs fachliche und menschliche Kompetenz gleichermaßen. Schaffen sie es, mit unklaren Rahmenbedingungen fertig zu werden und in der Grauzone zu arbeiten, sind sie besonders effektiv. (hv)

15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.1. Unklare Arbeitslast
Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.2. Undefinierte Erwartungen
Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.3. Fehlende Management-Unterstützung
Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.4. Methodik nach Schema F
Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.5. Überlastete Mitarbeiter
Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.6. Ungeteiltes Herrschaftswissen
Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.7. Unklare Entscheidungsfindung
Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.8. Fehlende Software
Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.9. Gefahr des Ausuferns
Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.10. Nicht “Nein” sagen können
Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.11. Mangelnder Zusammenhalt
Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.12. Vergessener Arbeitsalltag
Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.13. Zu häufige Meetings
Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.14. Gut genug ist nicht immer gut
Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15. Nicht aus Fehlern lernen
Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.15 Fehler beim Projektmanagement
Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Ratgeber Projekt-Management: 20 Eigenschaften, die gute Projektmanager auszeichnen​ Weiterlesen »

Positive Leadership: Mitarbeiter brauchen Halt, Orientierung und Förderung​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?quality=50&strip=all 2488w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ein empathischer Führungsstil liegt auch im Eigeninteresse von Führungskräften. Nur wenn sie die Arbeitsmotivation ihrer Mitarbeiter hochzuhalten, können sie ihre Zielvorgaben erreichen.Butsaya – shutterstock.com Aktuell läuft in vielen Unternehmen etwas schief. Die wirtschaftlichen Rahmenbedingungen sind zurzeit in den meisten Branchen eher schlecht – aus den allgemein bekannten Gründen. Die Kosten steigen. Der Innovationsdruck ist hoch. Und die Erträge? Sie weisen nicht die erforderliche Höhe auf. Also wäre aktuell in vielen Betrieben, salopp formuliert, ein „Zusammenkneifen der Po-Backen“ und gemeinsames Aktiv-werden nötig, um die Herausforderungen zu meistern und wieder in die Erfolgsspur zu gelangen.  Die betriebliche Realität ist häufig eine andere. Statt gemeinsam nach Lösungen zu suchen, fragen sich die Mitarbeiter oft eher depressiv oder auch schon resignativ: „Was kommt da noch auf uns zu?“. Das heißt, ihnen fehlt der positive Blick in die Zukunft, der Energien freisetzt und Menschen aktiviert.    Mitarbeiter wünschen sich mehr Führung Entsprechend wichtig wäre im Moment Führung zu zeigen – und zwar eine Führung, die   den Mitarbeitern Halt und Orientierung gibt,  ihnen trotz aller Widrigkeiten einen möglichen Weg in die Zukunft weist und   ihnen die Zuversicht vermittelt „Gemeinsam schaffen wir es, wenn …“.  Eine solche Führung vermissen viele Mitarbeiter. Darauf weisen unter anderem die Ergebnisse der Gallup-Studie hin: Ihr zufolge sind nur noch die Hälfte der Mitarbeiter mit ihrem Management zufrieden. Und nahezu ebenso viele erwägen einen Arbeitgeberwechsel im kommenden Jahr. Auch dies sind Indizien dafür, dass in der modernen, von rascher Veränderung und sinkender Planbarkeit geprägten Arbeitswelt ein Führungsstil nötig wäre, der andere Akzente als bisher setzt.   Nicht missverstehen: Dies soll kein Führungskräfte-Bashing sein. Viele Chefs arbeiten seit Jahren an der Belastungsgrenze – auch weil ihnen selbst oft die nötige Führung fehlt. Zudem sind nicht wenige von ihnen, zumindest gefühlt, spätestens seit dem Ausbruch der Corona-Pandemie mit einem permanenten Krisenmanagement beschäftigt.   Deshalb verlieren sie nicht selten ihre Kernaufgabe aus dem Blick, nämlich das Führen ihrer Mitarbeiter – speziell, wenn diese weitgehend im Homeoffice arbeiten. Dabei ist und bleibt dies die Kernaufgabe von Führung, denn: Ohne hochmotivierte Mitarbeiter können Führungskräfte, die ihnen als Bereichs- oder Abteilungsleiter vorgegebenen Ziele nicht erreichen. Also sollte es in ihrem Eigeninteresse liegen, die Arbeitsmotivation ihrer Mitarbeiter hochzuhalten.  Führungskräfte sind oft überfordert Der Befund, dass sich viele Führungskräfte zu wenig Zeit für das Führen ihrer Mitarbeiter nehmen, ist nicht neu. Dies war, solange in den Unternehmen weitgehend ein „Business as usual“ herrschte, ein eher peripheres Problem, denn in ihnen wussten zumindest die eingearbeiteten Mitarbeiter, was wann, wie, warum und wozu zu tun ist.   Heute hingegen, also in einer Zeit, in der sich die Rahmenbedingungen des wirtschaftlichen Handelns immer schneller wandeln und die Unternehmen ihre Strategien immer häufiger überdenken müssen, sollten Führungskräfte mehr Zeit in die Aufgabe Mitarbeiterführung investieren. Sie müssen zudem ihre Leader-Funktion stärker wahrnehmen, die darauf abzielt,   ihren Mitarbeitern, Wege in die Zukunft aufzuzeigen, und   in ihrem Umfeld ein Milieu zu schaffen, in dem sich ihre Mitarbeiter wohl fühlen, weshalb sie sich auch für das Erreichen der Unternehmensziele engagieren.    Warum Positive Leadership? Genau dieses Ziel verfolgt der Positive-Leadership-Ansatz. Er zielt darauf ab, in den Unternehmen eine von wechselseitigem Vertrauen und Optimismus geprägte, resiliente und leistungsstarke Arbeitsumgebung zu schaffen, die zu einer erhöhten Innovationsbereitschaft und -kraft führt.   Dieser Führungsansatz basiert auf dem PERMA-Modell (siehe Kasten) des US-Amerikaners Martin Seligmann, der als Begründer der Positiven Psychologie gilt. Auf ihm aufbauend entwickelte der Wiener Wirtschaftspsychologe Markus Ebner für den Führungsbereich das sogenannte PERMA-Lead-Modell. Ihm zufolge ist eine Kernfunktion von Führung, in ihrem Umfeld ein Milieu zu kreieren, das:  positive Emotionen ermöglicht,   individuelles Engagement anregt und fördert,   tragfähige Beziehungen entstehen beziehungsweise wachsen lässt,   den Mitarbeitern den Sinn ihres Tuns vermittelt und   die hierbei erzielten Erfolge für sie sicht- und erfahrbar macht.  Dabei lautet ein übergeordnetes Ziel, das Wohlbefinden der Mitarbeiter und somit ihre Identifikation mit ihrer Arbeit zu stärken, so dass sie auch eigeninitiativ danach streben, ihre Performance zu erhöhen und sich die hierfür erforderlichen Fähigkeiten anzueignen, was mittelfristig auch zu einer Entlastung der Führungskräfte führt.   Untersuchungen belegen, dass ein Positive Leadership gemäß dem PERMA-Lead unter anderem folgende positive Wirkungen hat:   Stressreduktion,  weniger krankheitsbedingte Fehltage,  eine gesteigerte Resilienz,   eine erhöhte Kreativität und Innovationskraft sowie  eine Steigerung der Produktivität/Effizienz und Kundenorientierung.     Hoffnung treibt die Menschen an Trotz dieser positiven Befunde haben wir die fünf Dimensionen des PERMA-Lead-Modells um zwei weitere ergänzt: nämlich Hoffnung und Achtsamkeit. Aus folgendem Grund:  Aktuell befinden sich viele Führungskräfte aufgrund solcher Faktoren wie Fachkräftemangel, eines (zumindest gefühlt) permanenten Krisenmanagements, eines stets wachsenden Change- und Lernbedarfs in einem mehr oder minder ausgeprägten Erschöpfungszustand. Und:  Nicht wenige verlieren die Zuversicht, dass sich an der als belastend oder teilweise bedrohlich empfundenen Ist-Situation etwas nachhaltig ändert, sich also das Blatt – aus ihrer Sicht – wieder zum Guten wendet.   Dies hindert sie daran, ihre Leader-Funktion effektiv wahrzunehmen, denn hierfür ist auch die Zuversicht nötig: „Wir schaffen das, wenn …“. Deshalb spielt die Hoffnung unter den positiven Emotionen eine Sonderrolle. Denn anders als Emotionen wie Freude, Dankbarkeit oder Stolz ist sie stets zukunftsorientiert.   Hoffnung bezeichnet das – gerade in schwierigen Situationen – so wichtige Erwartungsgefühl, dass positive Veränderungen erreicht und Herausforderungen gemeistert werden können. Hoffnung ist der Motor, der Menschen dazu bringt, aktiv zu werden, weil sie daran glauben, mit ihrem Tun etwas bewirken zu können. Deshalb ist es auch eine Führungsaufgabe, die Hoffnung der Mitarbeiter zu stärken.  Dies können Führungskräfte unter anderem, indem sie  ihren Mitarbeitern vor Augen führen, welche Herausforderungen sie in der Vergangenheit schon gemeistert haben, von denen sie zunächst glaubten „Ich schaffe …“ oder „Wir schaffen das nicht“ oder   ihnen Beispiele und Strategien präsentieren, wie andere Personen oder Organisationen ähnliche „Krisen“ bewältigt haben, oder   ihnen vor Augen führen, welche Ressourcen ihnen zur Verfügung stehen, die ihnen helfen, die Herausforderungen zu meistern.  Dies können Führungskräfte aber nur glaubhaft und effektiv, wenn sie selbst einen positiven Zukunftsblick haben und dies auch ausstrahlen. Des Weiteren, wenn sie in einem lebendigen Dialog mit ihren Mitarbeitern stehen und deshalb wissen, was diese gerade zum Aufrechterhalten ihrer Zuversicht und Handlungsfähigkeit brauchen.    srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?quality=50&strip=all 5616w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mitarbeiter können nur dann positiv und optimistisch in die Zukunft sehen, wenn Führungskräfte in ihrem Auftreten selbst Zuversicht ausstrahlen. Minerva Studio – shutterstock.com Achtsam sein auch für das eigene Befinden Dies setzt wiederum eine hohe Achtsamkeit voraus – und zwar eine Achtsamkeit bezüglich  des Befindens der eigenen Person,  des Befindens des jeweiligen Gegenübers sowie   den Erfordernissen der jeweiligen Situation.  Eine hohe Achtsamkeit für das eigene Befinden der Führungskraft ist nötig, weil dieses sich automatisch auf das Verhalten und Wirken im Mitarbeiterkontakt auswirkt. So können zum Beispiel Führungskräfte, die sich am Rande eines Burnouts bewegen, nicht die nötige Energie ausstrahlen, die es zur Aktivierung der Mitarbeiter braucht.   Ebenso wenig können sie, wenn sie selbst nicht an den Erfolg gewisser Lösungen glauben, ihre Mitarbeiter dazu motivieren, sich für deren Umsetzung zu engagieren. Folglich müssen Führungskräfte in der Lage sein, Engpässe beim Wahrnehmen ihrer Führungs- und Leader-Funktion bei sich selbst zu erkennen und geeignete Gegenmaßnahmen zu ergreifen.   Ähnliches gilt bezogen auf ihre Mitarbeiter, denn diese reagieren teils verschieden auf dieselbe Situation. So denken zum Beispiel manche Menschen, wenn sie vor einer neuen Herausforderung stehen, unmittelbar „Das kann ich nicht!“. Andere hingegen denken dann zwar auch zunächst „Ups, was kommt da auf mich zu“; doch dann gelangen sie zur Überzeugung „Irgendwie schaffe ich das schon, auch wenn ich jetzt noch nicht weiß wie“. Entsprechend unterschiedlich muss das Führungs- und Unterstützungsverhalten ihrer Vorgesetzten sein.  Manager zu einem solchen Führungsverhalten zu befähigen, ist das Ziel des Positive-Leadership-Ansatzes. Dabei lautet das übergeordnete Ziel: Den Unternehmen sollen die Führungskräfte und (Mitarbeiter-)Teams zur Verfügung stehen, die sie zum Erreichen ihrer Ziele in einer von rascher Veränderung geprägten Welt brauchen.  

Positive Leadership: Mitarbeiter brauchen Halt, Orientierung und Förderung​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?quality=50&strip=all 2488w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Herz.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ein empathischer Führungsstil liegt auch im Eigeninteresse von Führungskräften. Nur wenn sie die Arbeitsmotivation ihrer Mitarbeiter hochzuhalten, können sie ihre Zielvorgaben erreichen.Butsaya – shutterstock.com

Aktuell läuft in vielen Unternehmen etwas schief. Die wirtschaftlichen Rahmenbedingungen sind zurzeit in den meisten Branchen eher schlecht – aus den allgemein bekannten Gründen. Die Kosten steigen. Der Innovationsdruck ist hoch. Und die Erträge? Sie weisen nicht die erforderliche Höhe auf. Also wäre aktuell in vielen Betrieben, salopp formuliert, ein „Zusammenkneifen der Po-Backen“ und gemeinsames Aktiv-werden nötig, um die Herausforderungen zu meistern und wieder in die Erfolgsspur zu gelangen. 

Die betriebliche Realität ist häufig eine andere. Statt gemeinsam nach Lösungen zu suchen, fragen sich die Mitarbeiter oft eher depressiv oder auch schon resignativ: „Was kommt da noch auf uns zu?“. Das heißt, ihnen fehlt der positive Blick in die Zukunft, der Energien freisetzt und Menschen aktiviert. 

 

Mitarbeiter wünschen sich mehr Führung

Entsprechend wichtig wäre im Moment Führung zu zeigen – und zwar eine Führung, die  

den Mitarbeitern Halt und Orientierung gibt, 

ihnen trotz aller Widrigkeiten einen möglichen Weg in die Zukunft weist und  

ihnen die Zuversicht vermittelt „Gemeinsam schaffen wir es, wenn …“. 

Eine solche Führung vermissen viele Mitarbeiter. Darauf weisen unter anderem die Ergebnisse der Gallup-Studie hin: Ihr zufolge sind nur noch die Hälfte der Mitarbeiter mit ihrem Management zufrieden. Und nahezu ebenso viele erwägen einen Arbeitgeberwechsel im kommenden Jahr. Auch dies sind Indizien dafür, dass in der modernen, von rascher Veränderung und sinkender Planbarkeit geprägten Arbeitswelt ein Führungsstil nötig wäre, der andere Akzente als bisher setzt.  

Nicht missverstehen: Dies soll kein Führungskräfte-Bashing sein. Viele Chefs arbeiten seit Jahren an der Belastungsgrenze – auch weil ihnen selbst oft die nötige Führung fehlt. Zudem sind nicht wenige von ihnen, zumindest gefühlt, spätestens seit dem Ausbruch der Corona-Pandemie mit einem permanenten Krisenmanagement beschäftigt.  

Deshalb verlieren sie nicht selten ihre Kernaufgabe aus dem Blick, nämlich das Führen ihrer Mitarbeiter – speziell, wenn diese weitgehend im Homeoffice arbeiten. Dabei ist und bleibt dies die Kernaufgabe von Führung, denn: Ohne hochmotivierte Mitarbeiter können Führungskräfte, die ihnen als Bereichs- oder Abteilungsleiter vorgegebenen Ziele nicht erreichen. Also sollte es in ihrem Eigeninteresse liegen, die Arbeitsmotivation ihrer Mitarbeiter hochzuhalten. 

Führungskräfte sind oft überfordert

Der Befund, dass sich viele Führungskräfte zu wenig Zeit für das Führen ihrer Mitarbeiter nehmen, ist nicht neu. Dies war, solange in den Unternehmen weitgehend ein „Business as usual“ herrschte, ein eher peripheres Problem, denn in ihnen wussten zumindest die eingearbeiteten Mitarbeiter, was wann, wie, warum und wozu zu tun ist.  

Heute hingegen, also in einer Zeit, in der sich die Rahmenbedingungen des wirtschaftlichen Handelns immer schneller wandeln und die Unternehmen ihre Strategien immer häufiger überdenken müssen, sollten Führungskräfte mehr Zeit in die Aufgabe Mitarbeiterführung investieren. Sie müssen zudem ihre Leader-Funktion stärker wahrnehmen, die darauf abzielt,  

ihren Mitarbeitern, Wege in die Zukunft aufzuzeigen, und  

in ihrem Umfeld ein Milieu zu schaffen, in dem sich ihre Mitarbeiter wohl fühlen, weshalb sie sich auch für das Erreichen der Unternehmensziele engagieren. 

 

Warum Positive Leadership?

Genau dieses Ziel verfolgt der Positive-Leadership-Ansatz. Er zielt darauf ab, in den Unternehmen eine von wechselseitigem Vertrauen und Optimismus geprägte, resiliente und leistungsstarke Arbeitsumgebung zu schaffen, die zu einer erhöhten Innovationsbereitschaft und -kraft führt.  

Dieser Führungsansatz basiert auf dem PERMA-Modell (siehe Kasten) des US-Amerikaners Martin Seligmann, der als Begründer der Positiven Psychologie gilt. Auf ihm aufbauend entwickelte der Wiener Wirtschaftspsychologe Markus Ebner für den Führungsbereich das sogenannte PERMA-Lead-Modell. Ihm zufolge ist eine Kernfunktion von Führung, in ihrem Umfeld ein Milieu zu kreieren, das: 

positive Emotionen ermöglicht,  

individuelles Engagement anregt und fördert,  

tragfähige Beziehungen entstehen beziehungsweise wachsen lässt,  

den Mitarbeitern den Sinn ihres Tuns vermittelt und  

die hierbei erzielten Erfolge für sie sicht- und erfahrbar macht. 

Dabei lautet ein übergeordnetes Ziel, das Wohlbefinden der Mitarbeiter und somit ihre Identifikation mit ihrer Arbeit zu stärken, so dass sie auch eigeninitiativ danach streben, ihre Performance zu erhöhen und sich die hierfür erforderlichen Fähigkeiten anzueignen, was mittelfristig auch zu einer Entlastung der Führungskräfte führt.  

Untersuchungen belegen, dass ein Positive Leadership gemäß dem PERMA-Lead unter anderem folgende positive Wirkungen hat:  

Stressreduktion, 

weniger krankheitsbedingte Fehltage, 

eine gesteigerte Resilienz, 

 eine erhöhte Kreativität und Innovationskraft sowie 

eine Steigerung der Produktivität/Effizienz und Kundenorientierung. 

  

Hoffnung treibt die Menschen an

Trotz dieser positiven Befunde haben wir die fünf Dimensionen des PERMA-Lead-Modells um zwei weitere ergänzt: nämlich Hoffnung und Achtsamkeit. Aus folgendem Grund: 

Aktuell befinden sich viele Führungskräfte aufgrund solcher Faktoren wie Fachkräftemangel, eines (zumindest gefühlt) permanenten Krisenmanagements, eines stets wachsenden Change- und Lernbedarfs in einem mehr oder minder ausgeprägten Erschöpfungszustand. Und: 

Nicht wenige verlieren die Zuversicht, dass sich an der als belastend oder teilweise bedrohlich empfundenen Ist-Situation etwas nachhaltig ändert, sich also das Blatt – aus ihrer Sicht – wieder zum Guten wendet.  

Dies hindert sie daran, ihre Leader-Funktion effektiv wahrzunehmen, denn hierfür ist auch die Zuversicht nötig: „Wir schaffen das, wenn …“. Deshalb spielt die Hoffnung unter den positiven Emotionen eine Sonderrolle. Denn anders als Emotionen wie Freude, Dankbarkeit oder Stolz ist sie stets zukunftsorientiert.  

Hoffnung bezeichnet das – gerade in schwierigen Situationen – so wichtige Erwartungsgefühl, dass positive Veränderungen erreicht und Herausforderungen gemeistert werden können. Hoffnung ist der Motor, der Menschen dazu bringt, aktiv zu werden, weil sie daran glauben, mit ihrem Tun etwas bewirken zu können. Deshalb ist es auch eine Führungsaufgabe, die Hoffnung der Mitarbeiter zu stärken. 

Dies können Führungskräfte unter anderem, indem sie 

ihren Mitarbeitern vor Augen führen, welche Herausforderungen sie in der Vergangenheit schon gemeistert haben, von denen sie zunächst glaubten „Ich schaffe …“ oder „Wir schaffen das nicht“ oder  

ihnen Beispiele und Strategien präsentieren, wie andere Personen oder Organisationen ähnliche „Krisen“ bewältigt haben, oder  

ihnen vor Augen führen, welche Ressourcen ihnen zur Verfügung stehen, die ihnen helfen, die Herausforderungen zu meistern. 

Dies können Führungskräfte aber nur glaubhaft und effektiv, wenn sie selbst einen positiven Zukunftsblick haben und dies auch ausstrahlen. Des Weiteren, wenn sie in einem lebendigen Dialog mit ihren Mitarbeitern stehen und deshalb wissen, was diese gerade zum Aufrechterhalten ihrer Zuversicht und Handlungsfähigkeit brauchen. 

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?quality=50&strip=all 5616w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Optimismus.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mitarbeiter können nur dann positiv und optimistisch in die Zukunft sehen, wenn Führungskräfte in ihrem Auftreten selbst Zuversicht ausstrahlen. Minerva Studio – shutterstock.com

Achtsam sein auch für das eigene Befinden

Dies setzt wiederum eine hohe Achtsamkeit voraus – und zwar eine Achtsamkeit bezüglich 

des Befindens der eigenen Person, 

des Befindens des jeweiligen Gegenübers sowie  

den Erfordernissen der jeweiligen Situation. 

Eine hohe Achtsamkeit für das eigene Befinden der Führungskraft ist nötig, weil dieses sich automatisch auf das Verhalten und Wirken im Mitarbeiterkontakt auswirkt. So können zum Beispiel Führungskräfte, die sich am Rande eines Burnouts bewegen, nicht die nötige Energie ausstrahlen, die es zur Aktivierung der Mitarbeiter braucht.  

Ebenso wenig können sie, wenn sie selbst nicht an den Erfolg gewisser Lösungen glauben, ihre Mitarbeiter dazu motivieren, sich für deren Umsetzung zu engagieren. Folglich müssen Führungskräfte in der Lage sein, Engpässe beim Wahrnehmen ihrer Führungs- und Leader-Funktion bei sich selbst zu erkennen und geeignete Gegenmaßnahmen zu ergreifen.  

Ähnliches gilt bezogen auf ihre Mitarbeiter, denn diese reagieren teils verschieden auf dieselbe Situation. So denken zum Beispiel manche Menschen, wenn sie vor einer neuen Herausforderung stehen, unmittelbar „Das kann ich nicht!“. Andere hingegen denken dann zwar auch zunächst „Ups, was kommt da auf mich zu“; doch dann gelangen sie zur Überzeugung „Irgendwie schaffe ich das schon, auch wenn ich jetzt noch nicht weiß wie“. Entsprechend unterschiedlich muss das Führungs- und Unterstützungsverhalten ihrer Vorgesetzten sein. 

Manager zu einem solchen Führungsverhalten zu befähigen, ist das Ziel des Positive-Leadership-Ansatzes. Dabei lautet das übergeordnete Ziel: Den Unternehmen sollen die Führungskräfte und (Mitarbeiter-)Teams zur Verfügung stehen, die sie zum Erreichen ihrer Ziele in einer von rascher Veränderung geprägten Welt brauchen. 

Positive Leadership: Mitarbeiter brauchen Halt, Orientierung und Förderung​ Weiterlesen »

Mitarbeiter sind schlecht auf 2025 vorbereitet​

Allgemein

Aus- und Weiterbildung hilft Mitarbeitern nicht nur, sich auf künftige Herausforderungen vorzubereiten, sie sorgt auch für mehr Selbstvertrauen und Kollegialität. Gorodenkoff / Shutterstock Nichts ist so beständig wie der Wandel. Was schon zu Lebzeiten des zitierten Heraklit von Ephesus vor gut 2.500 Jahren galt, gilt mit Sicherheit auch für das kommende Jahr: Angesichts des rasanten technologischen Fortschritts und der bevorstehenden neuen US-Präsidentschaft sowie anderer geopolitischer und wirtschaftlicher Entwicklungen wird sich die Arbeit im Jahr 2025 weiter verändern. Allerdings, so ergab eine Untersuchung des Schulungsanbieters Skillsoft in den USA, Großbritannien und Deutschland, wurden nur knapp die Hälfte (48 Prozent) der Befragten über die strategischen Ziele und Prioritäten ihres Unternehmens für das kommende Jahr informiert. Von diesen sind sich wiederum nur 40 Prozent ihrer Rolle beim Erreichen dieser Ziele bewusst. Nur ein Drittel glaubt, über die dafür notwendigen Fähigkeiten zu verfügen. Höher, schneller, weiter… Den Befragten zufolge liegen die wichtigsten Prioritäten ihrer Unternehmen für 2025 darin, die betriebliche Effizienz zu verbessern (48 Prozent), den Umsatz zu steigern (46 Prozent), und das Kundenerlebnis zu verbessern (39 Prozent). Am unteren Ende der Prioritätenskala rangieren der Untersuchung zufolge dagegen Punkte wie die Verbesserung des Datenschutzes und der Sicherheitspraktiken (17 Prozent), das Schließen von Qualifikationslücken (19 Prozent) und die Verbesserung von Führung und Management (19 Prozent). Ziele und Prioritäten klar kommunizieren Da die Mitarbeiter das Gefühl haben, dass es ihnen an Entwicklungsmöglichkeiten mangelt, erwarten die meisten, dass das Anwerben und Halten von Talenten die größte Herausforderung für ihr Unternehmen im nächsten Jahr sein wird. Die Steigerung von Umsatz, Effizienz und Kundenzufriedenheit sollte zweifellos zu den Prioritäten eines Unternehmens gehören,, kommentiert Ciara Harrington, Chief People Officer bei Skillsoft, die Ergebnisse. Um dies zu erreichen, müssten Führungskräfte jedoch die Bedeutung der Kompetenzentwicklung hervorheben und sie in die strategischen Kernziele des Unternehmens integrieren, um sicherzustellen, dass sich die Fähigkeiten der Mitarbeiter parallel zu den Geschäftsanforderungen entwickeln. “Durch die Schaffung einer soliden Talentbasis mit Hilfe von Schulungen und einen kohärenten strategischen Kommunikationsplan sind die Mitarbeiter besser darauf vorbereitet, sich anzupassen, innovativ zu sein und zum langfristigen Erfolg ihres Unternehmens beizutragen”, so Harrington. Dies deckt sich mit den Ergebnissen der Skillsoft-Studie „Workplace Preparedness and Challenges“. Dort gaben nur 23 Prozent der Befragten an, dass sie sich sehr gut auf die künftigen Herausforderungen am Arbeitsplatz vorbereitet fühlen. Ein Fünftel der Befragten nannte den Mangel an Aus- und Weiterbildungsmöglichkeiten als größte berufliche Herausforderung des vergangenen Jahres. Um sich besser vorbereitet zu fühlen, wünschten sich die Befragten vor allem: personalisierte, rollenbasierte Schulungsmöglichkeiten, häufigere und aktuellere Schulungen, sowie Zugang zu Mentoring und Coaching. Über die Vorbereitung hinaus gaben die Befragten an, dass sie nach der Schulung bessere Beziehungen zu ihren Kollegen hatten, mehr Selbstvertrauen bei der Bewältigung neuer Herausforderungen besaßen und ihre Kreativität und Problemlösungsfähigkeiten gestiegen waren. „Der Zugang zu Schulungen und neuen Technologien fördert das lebenslange Lernen und die Anpassungsfähigkeit und versetzt die Beschäftigten in die Lage, künftige Herausforderungen zu meistern“, erklärt Harrington. 

Mitarbeiter sind schlecht auf 2025 vorbereitet​ Aus- und Weiterbildung hilft Mitarbeitern nicht nur, sich auf künftige Herausforderungen vorzubereiten, sie sorgt auch für mehr Selbstvertrauen und Kollegialität. Gorodenkoff / Shutterstock

Nichts ist so beständig wie der Wandel. Was schon zu Lebzeiten des zitierten Heraklit von Ephesus vor gut 2.500 Jahren galt, gilt mit Sicherheit auch für das kommende Jahr: Angesichts des rasanten technologischen Fortschritts und der bevorstehenden neuen US-Präsidentschaft sowie anderer geopolitischer und wirtschaftlicher Entwicklungen wird sich die Arbeit im Jahr 2025 weiter verändern.

Allerdings, so ergab eine Untersuchung des Schulungsanbieters Skillsoft in den USA, Großbritannien und Deutschland, wurden nur knapp die Hälfte (48 Prozent) der Befragten über die strategischen Ziele und Prioritäten ihres Unternehmens für das kommende Jahr informiert. Von diesen sind sich wiederum nur 40 Prozent ihrer Rolle beim Erreichen dieser Ziele bewusst. Nur ein Drittel glaubt, über die dafür notwendigen Fähigkeiten zu verfügen.

Höher, schneller, weiter…

Den Befragten zufolge liegen die wichtigsten Prioritäten ihrer Unternehmen für 2025 darin,

die betriebliche Effizienz zu verbessern (48 Prozent),

den Umsatz zu steigern (46 Prozent), und

das Kundenerlebnis zu verbessern (39 Prozent).

Am unteren Ende der Prioritätenskala rangieren der Untersuchung zufolge dagegen Punkte wie

die Verbesserung des Datenschutzes und der Sicherheitspraktiken (17 Prozent),

das Schließen von Qualifikationslücken (19 Prozent) und

die Verbesserung von Führung und Management (19 Prozent).

Ziele und Prioritäten klar kommunizieren

Da die Mitarbeiter das Gefühl haben, dass es ihnen an Entwicklungsmöglichkeiten mangelt, erwarten die meisten, dass das Anwerben und Halten von Talenten die größte Herausforderung für ihr Unternehmen im nächsten Jahr sein wird.

Die Steigerung von Umsatz, Effizienz und Kundenzufriedenheit sollte zweifellos zu den Prioritäten eines Unternehmens gehören,, kommentiert Ciara Harrington, Chief People Officer bei Skillsoft, die Ergebnisse. Um dies zu erreichen, müssten Führungskräfte jedoch die Bedeutung der Kompetenzentwicklung hervorheben und sie in die strategischen Kernziele des Unternehmens integrieren, um sicherzustellen, dass sich die Fähigkeiten der Mitarbeiter parallel zu den Geschäftsanforderungen entwickeln. “Durch die Schaffung einer soliden Talentbasis mit Hilfe von Schulungen und einen kohärenten strategischen Kommunikationsplan sind die Mitarbeiter besser darauf vorbereitet, sich anzupassen, innovativ zu sein und zum langfristigen Erfolg ihres Unternehmens beizutragen”, so Harrington.

Dies deckt sich mit den Ergebnissen der Skillsoft-Studie „Workplace Preparedness and Challenges“. Dort gaben nur 23 Prozent der Befragten an, dass sie sich sehr gut auf die künftigen Herausforderungen am Arbeitsplatz vorbereitet fühlen. Ein Fünftel der Befragten nannte den Mangel an Aus- und Weiterbildungsmöglichkeiten als größte berufliche Herausforderung des vergangenen Jahres.

Um sich besser vorbereitet zu fühlen, wünschten sich die Befragten vor allem:

personalisierte, rollenbasierte Schulungsmöglichkeiten,

häufigere und aktuellere Schulungen, sowie

Zugang zu Mentoring und Coaching.

Über die Vorbereitung hinaus gaben die Befragten an, dass sie nach der Schulung bessere Beziehungen zu ihren Kollegen hatten, mehr Selbstvertrauen bei der Bewältigung neuer Herausforderungen besaßen und ihre Kreativität und Problemlösungsfähigkeiten gestiegen waren.

„Der Zugang zu Schulungen und neuen Technologien fördert das lebenslange Lernen und die Anpassungsfähigkeit und versetzt die Beschäftigten in die Lage, künftige Herausforderungen zu meistern“, erklärt Harrington.

Mitarbeiter sind schlecht auf 2025 vorbereitet​ Weiterlesen »

Wie Arbeitgeber Entwickler für sich begeistern​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?quality=50&strip=all 6718w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Softwareentwickler legen Wert darauf, dass der Arbeitgeber ihnen nicht nur in Sachen Arbeitsort und Arbeitszeit Vertrauen schenkt, sondern auch eine gewisse Entscheidungsautonomie zubilligt, die natürlich im Einklang mit den Unternehmens- und Projektzielen stehen muss. ViDI Studio – Shutterstock 2357747375 Softwareentwickler sind begehrt. Wer in diesem Beruf große Erfahrung hat und aktuell gefragte Qualifikationen mitbringt, kann sich seinen Job frei aussuchen. Das macht es für Unternehmen notwendig, sich als attraktiver Arbeitgeber zu positionieren. Sie müssen darauf achten, „entwicklerfreundlich“ zu sein, denn die Softwareentwicklung ist kein klassischer 9-to-5-Job. Eine dafür ideale Arbeitsumgebung steht auf drei Säulen: Autonomie, Zusammenarbeit und Agilität.   Autonomie: Die Grundlage für Innovation Autonomie ist das wesentliche Element eines Unternehmens, das eine entwicklerfreundliche Arbeitsumgebung schaffen will, indem es den Handlungsspielraum und die Eigenverantwortung von Mitarbeitenden erweitert. Es kann damit sehr leicht das kreative Potenzial fördern sowie die Motivation und das Verantwortungsbewusstsein erhöhen.    Deshalb ist neben Maßnahmen wie Vertrauensarbeitsort und -zeit vor allem Entscheidungsautonomie wichtig. Das bedeutet, dass jeder einzelne Mitarbeitende wichtige Entscheidungen treffen kann, ohne dabei in einem hierarchischen System stecken zu bleiben.   Wer eine gute Idee für eine neue Funktion in der Software hat, wer glaubt, eine ertragreiche Marktlücke entdeckt zu haben, wer einen neuen Algorithmus erproben will – der kann dies einfach tun. Wichtig sind nur zwei grundlegende Voraussetzungen:   Erstens muss der Projektvorschlag mit den Unternehmenszielen und -strategien im Einklang stehen.   Zweitens muss er mit allen Stakeholdern besprochen werden und in diesen Konsultationen ihre Zustimmung erhalten.   Der Umfang der Konsultation richtet sich dabei nach der Tragweite der Entscheidung. Je wichtiger eine Entscheidung, desto umfassender muss die Abstimmung sein. Diese Praxis fördert fundierte Entscheidungen, bei denen vielfältige Perspektiven einzubeziehen sind. Transparenz spielt hierbei eine wesentliche Rolle: Entscheidungen sind zu dokumentieren und klar zu kommunizieren, um Nachvollziehbarkeit zu gewährleisten. Dies vermeidet Missverständnisse und schafft eine offene Kommunikationskultur.   Daran zeigt sich, dass Autonomie nicht Anarchie bedeutet, willkürliche Entscheidungen verbieten sich. Der Entscheidungsweg ist auch nicht unbedingt einfacher als in herkömmlichen Hierarchien. Es kommt zunächst darauf an, die wichtigsten Stakeholder zu überzeugen.   Der große Vorteil dieser Vorgehensweise: Wer die Idee hat, treibt sie als eigenes Projekt voran und überzeugt alle Leute, die davon betroffen sind. Auf der anderen Seite stellt die Überprüfung des Projektes durch Stakeholder sicher, dass alle Perspektiven in den Entscheidungsprozess einfließen.       Zusammenarbeit: Übergreifende Kooperation als Erfolgsfaktor Neben der Autonomie spielt die Zusammenarbeit eine zentrale Rolle bei der Gestaltung einer optimalen Arbeitsumgebung für Entwickler. Denn sie arbeiten selten isoliert. Vielmehr profitieren sie von der Expertise und den Perspektiven anderer Teammitglieder. Moderne Organisationen setzen deshalb auf übergreifende und internationale Teams, um komplexe Probleme effizienter und ganzheitlicher zu lösen.   Solche Teams werden manchmal als Value Creation Teams (Wertschöpfungsteams) bezeichnet und bestehen aus Mitgliedern unterschiedlicher Landesgesellschaften, Abteilungen und Disziplinen. Das sorgt für ein breites Spektrum an Fachwissen und Fähigkeiten, um innovative Lösungen zu entwickeln.   Von diesen internationalen Teams profitieren besonders globale Unternehmen, in denen Entwickler aus unterschiedlichen Kulturen aufeinanderstoßen, etwa nach einem M&A-Prozess. Hier benötigen die Entwickler Raum für die Zusammenarbeit, um eigene Prozesse zu adaptieren oder das Beste aus den zwei Welten zusammenzubringen.      Verbindung zweier Arbeitskulturen Ein Beispiel für die Integration eines internationalen Teams ist die Akquisition des israelischen Startups Rookout durch Dynatrace. Das Ziel dieser Übernahme war es, die bestehende Infrastruktur um leistungsfähige Debugging– und Observability-Funktionen für Entwickler zu erweitern und dadurch eine Entwicklungsumgebung zu schaffen, die auf die Ansprüche globaler, Cloud-nativer Anwendungen angepasst ist.   Bei der Übernahme war es entscheidend, das israelische Team in die bestehenden Strukturen einzubinden, ohne dessen Autonomie und kreative Arbeitsweise zu beeinträchtigen. Dies erreichte das Management, indem es gezielt Schnittstellen schuf, an denen das Rookout-Team eigenverantwortlich agieren konnte, während es gleichzeitig Zugang zu Ressourcen und Unterstützung erhielt, die für eine nahtlose Zusammenarbeit mit den globalen Entwickler- und IT-Teams erforderlich waren.   Zentrale Tools und Kommunikationsplattformen wurden so angepasst, dass das Rookout-Team seine Arbeitsprozesse weitgehend beibehalten konnte, während klar definierte Koordinationspunkte dafür sorgten, dass deren Fachwissen unmittelbar in die Gesamtstrategie einfloss.   Dieses hybride Integrationsmodell ermöglichte es, die Innovationskraft und Agilität des Rookout-Teams zu bewahren und zugleich die Stärken der bestehenden Entwicklungsinfrastruktur optimal zu nutzen. So entstand ein Umfeld, in dem das Management Autonomie und Teamwork gezielt förderte, was sowohl die Produktivität als auch die Zufriedenheit aller Beteiligten nachhaltig steigerte.      Wertschöpfung: Verteilung nach individuellen Stärken Generell sollten die Verantwortlichkeiten innerhalb der Teams nicht nur nach formalen Rollen und Funktionen verteilt werden, sondern sich an den individuellen Stärken und Erfahrungen der Teammitglieder orientieren. Jeder bringt seine spezifischen Fähigkeiten ein, um gemeinsam Lösungen zu entwickeln und eine effektive Zusammenarbeit zu ermöglichen.   Die genaue Bestimmung der Aufgaben eines Wertschöpfungsteams spielt dabei eine zentrale Rolle. Ein spezifisches Dokument definiert klare, messbare Ziele und sorgt dafür, dass das Team darauf hinarbeitet. Diese Klarheit verhindert, dass ein Team keine Ressourcen verschwendet und stärkt gleichzeitig das Verantwortungsbewusstsein der Teammitglieder.   Entsprechend ihrer Aufgaben und der Heterogenität der Mitglieder haben Wertschöpfungsteams eine gewisse Größe, die aber nicht für jede Aufgabe notwendig ist. Deshalb ist es sinnvoll, spezialisierte Teams als Ergänzung zu schaffen. Sie arbeiten zum Beispiel autonom an der Neugestaltung oder Verbesserung von Funktionen.   Agile Methoden wie Scrum oder Kanban sind ein wichtiger Faktor der Arbeit vieler Entwicklerteams. Sie bieten klare Strukturen und Abläufe für hohe Effizienz, lassen aber gleichzeitig genügend Raum für Experimente.PeopleImages.com – Yuri A / Shutterstock    Agilität: Anpassungsfähigkeit als Schlüssel zum Erfolg  Der Austausch von Wissen ist ein wichtiges Fundament für die Fähigkeit, schnell und flexibel auf Veränderungen und neue Anforderungen zu reagieren – für Agilität. Gemeint ist damit eine offene und iterative Arbeitsweise, bei der kontinuierliche Verbesserung und Zusammenarbeit im Vordergrund stehen.   Projekte sind deshalb in kleinere, überschaubare Einheiten zu unterteilen, die ein Team in kurzen Iterationen bearbeitet. Ein zentraler Bestandteil dieser Methoden ist die schnelle Reaktion auf Rückmeldungen von Kunden. Da die Mitarbeiter neue Funktionen in kurzen Zyklen entwickeln, können sie besser auf Marktanforderungen oder Kundenwünsche reagieren.   Agile Methoden wie Scrum oder Kanban sind ein wichtiger Faktor der Arbeit vieler Entwicklerteams. Sie bieten klare Strukturen und Abläufe für hohe Effizienz, lassen aber gleichzeitig genügend Raum für Experimente. Agile Teams profitieren zudem von eindeutig definierten Zielen und einer messbaren Zielerreichung. Sie handeln ähnlich wie Startups innerhalb des Unternehmens: Sie verfolgen ein Geschäftsziel, liefern messbare Ergebnisse und reagieren flexibel auf neue Anforderungen.   Agilität bedeutet jedoch nicht nur schnelle Anpassung, sondern auch Strukturen und Prozesse. Ein intern formuliertes Handbuch – beispielsweise als „Value Creation Guide“ (VCG) bezeichnet – hilft den Teams, die Zusammenarbeit innerhalb eines Unternehmens zu standardisieren, ohne die Flexibilität zu gefährden. Der VCG gibt klare Leitlinien vor, wie Teams zusammenarbeiten und Entscheidungen treffen, und bietet gleichzeitig genug Raum für individuelle Anpassungen.   

Wie Arbeitgeber Entwickler für sich begeistern​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?quality=50&strip=all 6718w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Software-Entwickler-shutterstock_2357747375.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Softwareentwickler legen Wert darauf, dass der Arbeitgeber ihnen nicht nur in Sachen Arbeitsort und Arbeitszeit Vertrauen schenkt, sondern auch eine gewisse Entscheidungsautonomie zubilligt, die natürlich im Einklang mit den Unternehmens- und Projektzielen stehen muss. ViDI Studio – Shutterstock 2357747375

Softwareentwickler sind begehrt. Wer in diesem Beruf große Erfahrung hat und aktuell gefragte Qualifikationen mitbringt, kann sich seinen Job frei aussuchen. Das macht es für Unternehmen notwendig, sich als attraktiver Arbeitgeber zu positionieren. Sie müssen darauf achten, „entwicklerfreundlich“ zu sein, denn die Softwareentwicklung ist kein klassischer 9-to-5-Job. Eine dafür ideale Arbeitsumgebung steht auf drei Säulen: Autonomie, Zusammenarbeit und Agilität.  

Autonomie: Die Grundlage für Innovation

Autonomie ist das wesentliche Element eines Unternehmens, das eine entwicklerfreundliche Arbeitsumgebung schaffen will, indem es den Handlungsspielraum und die Eigenverantwortung von Mitarbeitenden erweitert. Es kann damit sehr leicht das kreative Potenzial fördern sowie die Motivation und das Verantwortungsbewusstsein erhöhen.   

Deshalb ist neben Maßnahmen wie Vertrauensarbeitsort und -zeit vor allem Entscheidungsautonomie wichtig. Das bedeutet, dass jeder einzelne Mitarbeitende wichtige Entscheidungen treffen kann, ohne dabei in einem hierarchischen System stecken zu bleiben.  

Wer eine gute Idee für eine neue Funktion in der Software hat, wer glaubt, eine ertragreiche Marktlücke entdeckt zu haben, wer einen neuen Algorithmus erproben will – der kann dies einfach tun. Wichtig sind nur zwei grundlegende Voraussetzungen:  

Erstens muss der Projektvorschlag mit den Unternehmenszielen und -strategien im Einklang stehen.  

Zweitens muss er mit allen Stakeholdern besprochen werden und in diesen Konsultationen ihre Zustimmung erhalten.  

Der Umfang der Konsultation richtet sich dabei nach der Tragweite der Entscheidung. Je wichtiger eine Entscheidung, desto umfassender muss die Abstimmung sein. Diese Praxis fördert fundierte Entscheidungen, bei denen vielfältige Perspektiven einzubeziehen sind. Transparenz spielt hierbei eine wesentliche Rolle: Entscheidungen sind zu dokumentieren und klar zu kommunizieren, um Nachvollziehbarkeit zu gewährleisten. Dies vermeidet Missverständnisse und schafft eine offene Kommunikationskultur.  

Daran zeigt sich, dass Autonomie nicht Anarchie bedeutet, willkürliche Entscheidungen verbieten sich. Der Entscheidungsweg ist auch nicht unbedingt einfacher als in herkömmlichen Hierarchien. Es kommt zunächst darauf an, die wichtigsten Stakeholder zu überzeugen.  

Der große Vorteil dieser Vorgehensweise: Wer die Idee hat, treibt sie als eigenes Projekt voran und überzeugt alle Leute, die davon betroffen sind. Auf der anderen Seite stellt die Überprüfung des Projektes durch Stakeholder sicher, dass alle Perspektiven in den Entscheidungsprozess einfließen.   

  

Zusammenarbeit: Übergreifende Kooperation als Erfolgsfaktor

Neben der Autonomie spielt die Zusammenarbeit eine zentrale Rolle bei der Gestaltung einer optimalen Arbeitsumgebung für Entwickler. Denn sie arbeiten selten isoliert. Vielmehr profitieren sie von der Expertise und den Perspektiven anderer Teammitglieder. Moderne Organisationen setzen deshalb auf übergreifende und internationale Teams, um komplexe Probleme effizienter und ganzheitlicher zu lösen.  

Solche Teams werden manchmal als Value Creation Teams (Wertschöpfungsteams) bezeichnet und bestehen aus Mitgliedern unterschiedlicher Landesgesellschaften, Abteilungen und Disziplinen. Das sorgt für ein breites Spektrum an Fachwissen und Fähigkeiten, um innovative Lösungen zu entwickeln.  

Von diesen internationalen Teams profitieren besonders globale Unternehmen, in denen Entwickler aus unterschiedlichen Kulturen aufeinanderstoßen, etwa nach einem M&A-Prozess. Hier benötigen die Entwickler Raum für die Zusammenarbeit, um eigene Prozesse zu adaptieren oder das Beste aus den zwei Welten zusammenzubringen.  

  

Verbindung zweier Arbeitskulturen

Ein Beispiel für die Integration eines internationalen Teams ist die Akquisition des israelischen Startups Rookout durch Dynatrace. Das Ziel dieser Übernahme war es, die bestehende Infrastruktur um leistungsfähige Debugging– und Observability-Funktionen für Entwickler zu erweitern und dadurch eine Entwicklungsumgebung zu schaffen, die auf die Ansprüche globaler, Cloud-nativer Anwendungen angepasst ist.  

Bei der Übernahme war es entscheidend, das israelische Team in die bestehenden Strukturen einzubinden, ohne dessen Autonomie und kreative Arbeitsweise zu beeinträchtigen. Dies erreichte das Management, indem es gezielt Schnittstellen schuf, an denen das Rookout-Team eigenverantwortlich agieren konnte, während es gleichzeitig Zugang zu Ressourcen und Unterstützung erhielt, die für eine nahtlose Zusammenarbeit mit den globalen Entwickler- und IT-Teams erforderlich waren.  

Zentrale Tools und Kommunikationsplattformen wurden so angepasst, dass das Rookout-Team seine Arbeitsprozesse weitgehend beibehalten konnte, während klar definierte Koordinationspunkte dafür sorgten, dass deren Fachwissen unmittelbar in die Gesamtstrategie einfloss.  

Dieses hybride Integrationsmodell ermöglichte es, die Innovationskraft und Agilität des Rookout-Teams zu bewahren und zugleich die Stärken der bestehenden Entwicklungsinfrastruktur optimal zu nutzen. So entstand ein Umfeld, in dem das Management Autonomie und Teamwork gezielt förderte, was sowohl die Produktivität als auch die Zufriedenheit aller Beteiligten nachhaltig steigerte.  

  

Wertschöpfung: Verteilung nach individuellen Stärken

Generell sollten die Verantwortlichkeiten innerhalb der Teams nicht nur nach formalen Rollen und Funktionen verteilt werden, sondern sich an den individuellen Stärken und Erfahrungen der Teammitglieder orientieren. Jeder bringt seine spezifischen Fähigkeiten ein, um gemeinsam Lösungen zu entwickeln und eine effektive Zusammenarbeit zu ermöglichen.  

Die genaue Bestimmung der Aufgaben eines Wertschöpfungsteams spielt dabei eine zentrale Rolle. Ein spezifisches Dokument definiert klare, messbare Ziele und sorgt dafür, dass das Team darauf hinarbeitet. Diese Klarheit verhindert, dass ein Team keine Ressourcen verschwendet und stärkt gleichzeitig das Verantwortungsbewusstsein der Teammitglieder.  

Entsprechend ihrer Aufgaben und der Heterogenität der Mitglieder haben Wertschöpfungsteams eine gewisse Größe, die aber nicht für jede Aufgabe notwendig ist. Deshalb ist es sinnvoll, spezialisierte Teams als Ergänzung zu schaffen. Sie arbeiten zum Beispiel autonom an der Neugestaltung oder Verbesserung von Funktionen.  

Agile Methoden wie Scrum oder Kanban sind ein wichtiger Faktor der Arbeit vieler Entwicklerteams. Sie bieten klare Strukturen und Abläufe für hohe Effizienz, lassen aber gleichzeitig genügend Raum für Experimente.PeopleImages.com – Yuri A / Shutterstock

  

Agilität: Anpassungsfähigkeit als Schlüssel zum Erfolg 

Der Austausch von Wissen ist ein wichtiges Fundament für die Fähigkeit, schnell und flexibel auf Veränderungen und neue Anforderungen zu reagieren – für Agilität. Gemeint ist damit eine offene und iterative Arbeitsweise, bei der kontinuierliche Verbesserung und Zusammenarbeit im Vordergrund stehen.  

Projekte sind deshalb in kleinere, überschaubare Einheiten zu unterteilen, die ein Team in kurzen Iterationen bearbeitet. Ein zentraler Bestandteil dieser Methoden ist die schnelle Reaktion auf Rückmeldungen von Kunden. Da die Mitarbeiter neue Funktionen in kurzen Zyklen entwickeln, können sie besser auf Marktanforderungen oder Kundenwünsche reagieren.  

Agile Methoden wie Scrum oder Kanban sind ein wichtiger Faktor der Arbeit vieler Entwicklerteams. Sie bieten klare Strukturen und Abläufe für hohe Effizienz, lassen aber gleichzeitig genügend Raum für Experimente. Agile Teams profitieren zudem von eindeutig definierten Zielen und einer messbaren Zielerreichung. Sie handeln ähnlich wie Startups innerhalb des Unternehmens: Sie verfolgen ein Geschäftsziel, liefern messbare Ergebnisse und reagieren flexibel auf neue Anforderungen.  

Agilität bedeutet jedoch nicht nur schnelle Anpassung, sondern auch Strukturen und Prozesse. Ein intern formuliertes Handbuch – beispielsweise als „Value Creation Guide“ (VCG) bezeichnet – hilft den Teams, die Zusammenarbeit innerhalb eines Unternehmens zu standardisieren, ohne die Flexibilität zu gefährden. Der VCG gibt klare Leitlinien vor, wie Teams zusammenarbeiten und Entscheidungen treffen, und bietet gleichzeitig genug Raum für individuelle Anpassungen.  

Wie Arbeitgeber Entwickler für sich begeistern​ Weiterlesen »

Google verspricht mehr Rechen-Power mit Quantum-Chip Willow​

Allgemein

Mit Willow bringt Google einen Quantum-Chip mit 105 Qubits und verbesserter Fehlerkorrektur. Google Screenshot Noch scheitert der Durchbruch von Quantencomputern auf breiter Front an zwei entscheidenden Punkten: der Fehlerkorrektur und der Rechenleistung. Zudem reicht die Qualität der Qubits bislang nicht für längere Berechnungen. Hier sind Google nun laut Hartmut Neven, Gründer und Leiter von Google Quantum AI, mit dem neuen Quantum-Chip Willow zwei entscheidende Verbesserungen gelungen: Erstens könne Willow Fehler exponentiell reduzieren, wenn mit mehr Qubits skaliert wird. Damit meistere man eine zentrale Herausforderung bei der Quantenfehlerkorrektur, an seit fast 30 Jahren gearbeitet werde. Zweitens führe Willow eine Standard-Benchmark-Berechnung in weniger als fünf Minuten durch. Einer der der derzeit schnellsten Supercomputer würde dafür zehn Quadrillionen Jahre (zehn hoch 25 Jahre) benötigen. Eine Zahl, die das Alter des Universums bei Weitem übersteigt. Bessere Fehlerkorrektur Zur Leistungsberechnung hat Google den Random Circuit Sampling (RCS)-Benchmark verwendet. RCS wurde von Quantum AI selbst entwickelt und ist im Bereich des Quantum Computings weit verbreitet. Fast noch wichtiger als die Erfolge in Sachen Rechenleistung sind die Fortschritte bei der Fehlerkorrektur. Bislang galt nämlich der fatale Umstand, dass mit der Anzahl der verwendeten Qubits auch die Fehlerhäufigkeit in der Regel anstieg. Skalierbare Qubits Diesen Teufelskreis will Google nun durchbrochen haben. „Je mehr Qubits wir in Willow verwenden, desto mehr reduzieren wir Fehler, und desto quantenhafter wird das System“, schwärmt Neven. Dazu habe man immer größere Arrays physischer Qubits getestet und dabei von einem Raster aus 3×3 codierten Qubits auf ein Raster aus 5×5 und dann auf ein Raster aus 7×7 hochskaliert. Das Ergebnis: Jedes Mal konnte das Google-Team mithilfe seiner neuesten Fortschritte in der Quantenfehlerkorrektur die Fehlerrate halbieren. Mit anderen Worten: Es wurde eine exponentielle Reduzierung der Fehlerrate erreicht. Kommerzielle Apps rücken näher Gleichzeitig gelang den Forschern so noch ein weiterer Fortschritt: Sie konnten die Qualität ihrer Qubit-Arrays verbessern, da diese nun eine deutlich längere Lebensdauer haben als die einzelnen physischen Qubits. Sprich, Berechnungen können länger dauern. Für Neven ist es damit gelungen, den bisher überzeugendste Prototyp für ein skalierbares logisches Qubit zu entwickeln. Er wertet das als Zeichen dafür, dass nützliche, sehr große Quantencomputer tatsächlich gebaut werden können. Willow bringt damit die Ausführung praktischer, kommerziell relevanter Algorithmen näher, die auf herkömmlichen Computern nicht repliziert werden können. 

Google verspricht mehr Rechen-Power mit Quantum-Chip Willow​ Mit Willow bringt Google einen Quantum-Chip mit 105 Qubits und verbesserter Fehlerkorrektur.
Google Screenshot

Noch scheitert der Durchbruch von Quantencomputern auf breiter Front an zwei entscheidenden Punkten: der Fehlerkorrektur und der Rechenleistung. Zudem reicht die Qualität der Qubits bislang nicht für längere Berechnungen.

Hier sind Google nun laut Hartmut Neven, Gründer und Leiter von Google Quantum AI, mit dem neuen Quantum-Chip Willow zwei entscheidende Verbesserungen gelungen:

Erstens könne Willow Fehler exponentiell reduzieren, wenn mit mehr Qubits skaliert wird. Damit meistere man eine zentrale Herausforderung bei der Quantenfehlerkorrektur, an seit fast 30 Jahren gearbeitet werde.

Zweitens führe Willow eine Standard-Benchmark-Berechnung in weniger als fünf Minuten durch. Einer der der derzeit schnellsten Supercomputer würde dafür zehn Quadrillionen Jahre (zehn hoch 25 Jahre) benötigen. Eine Zahl, die das Alter des Universums bei Weitem übersteigt.

Bessere Fehlerkorrektur

Zur Leistungsberechnung hat Google den Random Circuit Sampling (RCS)-Benchmark verwendet. RCS wurde von Quantum AI selbst entwickelt und ist im Bereich des Quantum Computings weit verbreitet.

Fast noch wichtiger als die Erfolge in Sachen Rechenleistung sind die Fortschritte bei der Fehlerkorrektur. Bislang galt nämlich der fatale Umstand, dass mit der Anzahl der verwendeten Qubits auch die Fehlerhäufigkeit in der Regel anstieg.

Skalierbare Qubits

Diesen Teufelskreis will Google nun durchbrochen haben. „Je mehr Qubits wir in Willow verwenden, desto mehr reduzieren wir Fehler, und desto quantenhafter wird das System“, schwärmt Neven.

Dazu habe man immer größere Arrays physischer Qubits getestet und dabei von einem Raster aus 3×3 codierten Qubits auf ein Raster aus 5×5 und dann auf ein Raster aus 7×7 hochskaliert. Das Ergebnis: Jedes Mal konnte das Google-Team mithilfe seiner neuesten Fortschritte in der Quantenfehlerkorrektur die Fehlerrate halbieren. Mit anderen Worten: Es wurde eine exponentielle Reduzierung der Fehlerrate erreicht.

Kommerzielle Apps rücken näher

Gleichzeitig gelang den Forschern so noch ein weiterer Fortschritt: Sie konnten die Qualität ihrer Qubit-Arrays verbessern, da diese nun eine deutlich längere Lebensdauer haben als die einzelnen physischen Qubits. Sprich, Berechnungen können länger dauern.

Für Neven ist es damit gelungen, den bisher überzeugendste Prototyp für ein skalierbares logisches Qubit zu entwickeln. Er wertet das als Zeichen dafür, dass nützliche, sehr große Quantencomputer tatsächlich gebaut werden können. Willow bringt damit die Ausführung praktischer, kommerziell relevanter Algorithmen näher, die auf herkömmlichen Computern nicht repliziert werden können.

Google verspricht mehr Rechen-Power mit Quantum-Chip Willow​ Weiterlesen »

Nach oben scrollen
×