Computerhaus Quickborn

August 2025

7 zentrale Unternehmens-Graphen​

Allgemein

Dank eines einheitlichen, flexiblen Datenmodells können Anwender Abfragen nahtlos über mehrere Graphen hinweg ausführen.Alex Stemmer/Shutterstock Die Datenströme fließen, die Datenberge wachsen und die Komplexität nimmt zu – während die Datenarchitekturen vieler Unternehmen diesen Anforderungen nicht mehr gewachsen sind. Während das Tagesgeschäft agil und dynamisch auf volatile Märkte reagieren muss, sind wichtige Daten unbewegt in den Zeilen und Spalten relationaler Datenbanksysteme „gefangen“. Weil relationale Systeme bei komplexen Verknüpfungen („drei bis fünf Schritte entfernt“) an ihre Grenzen stoßen, bleiben Zusammenhänge, die eigentlich offensichtlich wären, unsichtbar. Das Ergebnis sind häufig langsame Abfragen, Performance-Probleme, aufwendige Datenvorbereitungen – und Insights, die ungenutzt bleiben. Laut einer Umfrage von Deloitte haben 74 Prozent der Unternehmen in Deutschland ihre Investitionen erhöht, um ihre fragmentierte Datenlandschaft zu vereinen und eine solide Datenbasis für zukünftige KI-Initiativen zu schaffen. Datenkontext statt Datensilos Eine neue Denkrichtung versteht Daten nicht mehr als statische Sammlung, sondern als dynamisches Netz von Beziehungen. Graphdatenbanken und Knowledge-Graphen eignen sich besonders gut, um heterogene Informationen zu integrieren und semantisch zu interpretieren. Sie decken verborgene Muster auf und liefern schneller fundierte Entscheidungsgrundlagen. In einer „RelationshipsFirst“-Architektur sind Verbindungen direkt in der Datenschicht verankert – komplexe ETL-Prozesse, teure Joins und Leistungseinbußen entfallen. Das ermöglicht, Daten mit der nötigen Dynamik und Geschwindigkeit zu nutzen. Mehrere Graphen bedeuten dabei nicht zwangsläufig neue Datensilos. Im Gegenteil: Dank eines einheitlichen, flexiblen Datenmodells können Anwender Abfragen nahtlos über mehrere Graphen hinweg ausführen. Voraussetzung dafür sind unternehmensweit abgestimmte Namensräume, Typdefinitionen, Ontologien und eine zentrale Governance. Auch KI-Systeme profitieren davon. KI-Agenten können beispielsweise autonom auf unterschiedliche Datenquellen zugreifen und dabei durch einen kohärenten semantischen Kontext navigieren.   7 Graphen, 7 Anwendungsfälle Wie das in der Unternehmenspraxis aussieht, zeigen sieben zentrale Anwendungsfelder, die sich als Knowledge Graph sehr gut abbilden und nutzen. KundenansichtDer Kunden-Graph verknüpft Interaktionen, Präferenzen und Verhaltensdaten über alle Touchpoints und Systeme hinweg. Diese 360-Grad-Ansicht geht weit über klassische CRM-Strukturen hinaus. Personalisierte Empfehlungen, dynamische Preisgestaltung oder Churn-Prävention laufen in Echtzeit ab – entlang echter Verhaltensmuster, nicht nur historischer Daten. Sales-Mitarbeitende greifen auf relevante Kontexte zu und können individuell reagieren. KI-gestützte Marketingsysteme nutzen diese vernetzten Profile, um in Echtzeit personalisierte Kampagnen auszuspielen oder Kundenanliegen automatisiert und kontextbezogen zu beantworten. Netzwerk & SicherheitIT-Assets stehen in vielfältigen Beziehungen zueinander. Sie sind Standorten zugeordnet, interagieren mit Systemen, haben spezifische Zugriffsmuster und Berechtigungen. Ein Sicherheitsgraph bildet diese Zusammenhänge explizit ab und macht sie analysierbar: Welche Systeme greifen wann worauf zu? Welche Pfade sind kritisch? Wer hat worauf Zugriff und warum? Das Mapping im Graphen ermöglicht die Risikobewertung einzelner Assets, schlägt Alarm bei verdächtigen Aktivitäten oder hilft, Schwachstellen systematisch zu schließen – vom Zero-Day-Exploit bis hin zur Schatten-IT. Gleichzeitig schafft der Graph die Grundlage für KI-basierte Threat Detection, etwa, indem er ungewöhnliche Zugriffsmuster erkennt oder Modelle auf Risikobewertung trainiert. Human ResourcesMitarbeitende bringen nicht nur Rollen und Funktionen ins Unternehmen, sondern ein komplexes Netz an Fähigkeiten, Erfahrungen, Weiterbildungen und Beziehungen. Ein HR-Graph verknüpft all diese Elemente. Er kann wichtige Aufgaben im Talent Management übernehmen und gleichzeitig KI-Systeme unterstützen, passende Rollen, Schulungen oder Karrierepfade basierend auf realen Kompetenzprofilen vorzuschlagen. Auch Organisationseinheiten sind visuell abbildbar, Umstrukturierungen effizient nachvollziehbar. TransaktionsdatenEin Transaktions-Graph verknüpft Zahlungen, Verträge, Konten und externe Hinweise. Auf diese Weise lassen sich zirkuläre Geldflüsse, ungewöhnliche Verbindungen oder betrugsverdächtige Muster schneller erkennen und fundierter bewerten. Gerade in der Betrugsprävention ermöglicht der Graph eine effizientere Fallprüfung, kontextbezogene Risikoeinschätzung und deutlich reduzierte Reaktionszeiten – auf Basis verknüpfter Fakten statt isolierter Datenpunkte. Auch für Compliance-Analysen oder interne Audits liefert er belastbare Grundlagen, etwa um festzustellen, ob verschiedene Zahlungseingänge auffällig oft zu demselben Konto oder derselben Adresse führen. Auch Machine-Learning-Modelle zur Betrugserkennung profitieren von der Graph-basierten Struktur, weil sie von den Mustern in den Beziehungskonstellationen lernen. ProduktdatenEin Produkt-Graph verknüpft Spezifikationen, Preise, Nutzung, Feedback, Vertrieb und Supportdaten zu einer ganzheitlichen Sicht auf Produkte im gesamten Lebenszyklus. So lassen sich etwa häufig genutzte Features erkennen, Preisstrategien anpassen oder Probleme frühzeitig identifizieren. Auch komplexe Konfigurationen oder Varianten – etwa bei individualisierbarer Hardware oder modularen Services – lassen sich flexibel abbilden. Besonders für Hersteller mit vielfältigen Produktlinien schafft das eine solide Grundlage für datenbasierte Entscheidungen in Entwicklung, Fertigung und Aftermarket. In Verbindung mit Generative AI können auf Basis des Graphen auch neue Produktideen simuliert, Konfigurationen automatisch erzeugt oder individuelle Angebote in Echtzeit erstellt werden. Supply ChainEin Supply-Chain-Graph verknüpft Lieferanten, Materialien, Standorte, Transportwege, Kosten und Compliance-Anforderungen – von der Bestellung bis zur Auslieferung. Unternehmen können Abhängigkeiten erkennen, Risiken frühzeitig identifizieren und Prozesse optimieren, etwa durch Echtzeit-Tracking oder die Analyse alternativer Routen. Besonders für produzierende Unternehmen mit globalen Wertschöpfungsketten ist das entscheidend – zum Beispiel, um auf Lieferengpässe flexibel zu reagieren oder ESG-Vorgaben wie das Lieferkettengesetz systematisch einzuhalten. Lieferverzögerungen, Preisentwicklungen oder alternative Beschaffungswege im Störfall lassen sich im Graph-basierten KI-System sogar vorhersagen und proaktiv entschärfen. ProzessdatenEin Prozess-Graph verknüpft Abläufe, Ressourcen, Qualität, Zeit und Kosten. Engpässe, Reibungsverluste und Verbesserungspotenziale lassen sich so datenbasiert erkennen und gezielt adressieren. Gerade Konzerne und Unternehmen in stark regulierten Branchen profitieren von dieser Transparenz, etwa bei der Optimierung von Genehmigungsprozessen oder zur Automatisierung wiederkehrender Abläufe. Ein typisches Beispiel ist die Analyse von Onboarding-Prozessen: Wo entstehen Verzögerungen? Welche Schnittstellen sind überlastet? Der Graph liefert hier konkrete Antworten und unterstützt gleichzeitig KI-Systeme dabei, Mitarbeitende mit kontextbasierten Informationen zu versorgen. Wie viele Graphen ein Unternehmen einsetzt, hängt immer vom konkreten Bedarf ab. Die obige Auswahl zeigt exemplarisch, welche Geschäftsbereiche besonders stark von vernetzten Daten profitieren. Entscheidend ist aber nicht die Anzahl, sondern die Fähigkeit, Zusammenhänge sichtbar zu machen und Daten in den richtigen Kontext zu setzen. Wer die eigene Datenlandschaft als Netzwerk versteht, schafft die Grundlage für Geschwindigkeit, Skalierbarkeit – und für den erfolgreichen Einsatz von KI und GenAI. (mb) 

7 zentrale Unternehmens-Graphen​ Dank eines einheitlichen, flexiblen Datenmodells können Anwender Abfragen nahtlos über mehrere Graphen hinweg ausführen.Alex Stemmer/Shutterstock

Die Datenströme fließen, die Datenberge wachsen und die Komplexität nimmt zu – während die Datenarchitekturen vieler Unternehmen diesen Anforderungen nicht mehr gewachsen sind. Während das Tagesgeschäft agil und dynamisch auf volatile Märkte reagieren muss, sind wichtige Daten unbewegt in den Zeilen und Spalten relationaler Datenbanksysteme „gefangen“. Weil relationale Systeme bei komplexen Verknüpfungen („drei bis fünf Schritte entfernt“) an ihre Grenzen stoßen, bleiben Zusammenhänge, die eigentlich offensichtlich wären, unsichtbar.

Das Ergebnis sind häufig langsame Abfragen, Performance-Probleme, aufwendige Datenvorbereitungen – und Insights, die ungenutzt bleiben. Laut einer Umfrage von Deloitte haben 74 Prozent der Unternehmen in Deutschland ihre Investitionen erhöht, um ihre fragmentierte Datenlandschaft zu vereinen und eine solide Datenbasis für zukünftige KI-Initiativen zu schaffen.

Datenkontext statt Datensilos

Eine neue Denkrichtung versteht Daten nicht mehr als statische Sammlung, sondern als dynamisches Netz von Beziehungen. Graphdatenbanken und Knowledge-Graphen eignen sich besonders gut, um heterogene Informationen zu integrieren und semantisch zu interpretieren. Sie decken verborgene Muster auf und liefern schneller fundierte Entscheidungsgrundlagen.

In einer „RelationshipsFirst“-Architektur sind Verbindungen direkt in der Datenschicht verankert – komplexe ETL-Prozesse, teure Joins und Leistungseinbußen entfallen. Das ermöglicht, Daten mit der nötigen Dynamik und Geschwindigkeit zu nutzen.

Mehrere Graphen bedeuten dabei nicht zwangsläufig neue Datensilos. Im Gegenteil: Dank eines einheitlichen, flexiblen Datenmodells können Anwender Abfragen nahtlos über mehrere Graphen hinweg ausführen. Voraussetzung dafür sind unternehmensweit abgestimmte Namensräume, Typdefinitionen, Ontologien und eine zentrale Governance. Auch KI-Systeme profitieren davon. KI-Agenten können beispielsweise autonom auf unterschiedliche Datenquellen zugreifen und dabei durch einen kohärenten semantischen Kontext navigieren.  

7 Graphen, 7 Anwendungsfälle

Wie das in der Unternehmenspraxis aussieht, zeigen sieben zentrale Anwendungsfelder, die sich als Knowledge Graph sehr gut abbilden und nutzen.

KundenansichtDer Kunden-Graph verknüpft Interaktionen, Präferenzen und Verhaltensdaten über alle Touchpoints und Systeme hinweg. Diese 360-Grad-Ansicht geht weit über klassische CRM-Strukturen hinaus. Personalisierte Empfehlungen, dynamische Preisgestaltung oder Churn-Prävention laufen in Echtzeit ab – entlang echter Verhaltensmuster, nicht nur historischer Daten.

Sales-Mitarbeitende greifen auf relevante Kontexte zu und können individuell reagieren. KI-gestützte Marketingsysteme nutzen diese vernetzten Profile, um in Echtzeit personalisierte Kampagnen auszuspielen oder Kundenanliegen automatisiert und kontextbezogen zu beantworten.

Netzwerk & SicherheitIT-Assets stehen in vielfältigen Beziehungen zueinander. Sie sind Standorten zugeordnet, interagieren mit Systemen, haben spezifische Zugriffsmuster und Berechtigungen. Ein Sicherheitsgraph bildet diese Zusammenhänge explizit ab und macht sie analysierbar: Welche Systeme greifen wann worauf zu? Welche Pfade sind kritisch? Wer hat worauf Zugriff und warum?

Das Mapping im Graphen ermöglicht die Risikobewertung einzelner Assets, schlägt Alarm bei verdächtigen Aktivitäten oder hilft, Schwachstellen systematisch zu schließen – vom Zero-Day-Exploit bis hin zur Schatten-IT. Gleichzeitig schafft der Graph die Grundlage für KI-basierte Threat Detection, etwa, indem er ungewöhnliche Zugriffsmuster erkennt oder Modelle auf Risikobewertung trainiert.

Human ResourcesMitarbeitende bringen nicht nur Rollen und Funktionen ins Unternehmen, sondern ein komplexes Netz an Fähigkeiten, Erfahrungen, Weiterbildungen und Beziehungen. Ein HR-Graph verknüpft all diese Elemente. Er kann wichtige Aufgaben im Talent Management übernehmen und gleichzeitig KI-Systeme unterstützen, passende Rollen, Schulungen oder Karrierepfade basierend auf realen Kompetenzprofilen vorzuschlagen. Auch Organisationseinheiten sind visuell abbildbar, Umstrukturierungen effizient nachvollziehbar.

TransaktionsdatenEin Transaktions-Graph verknüpft Zahlungen, Verträge, Konten und externe Hinweise. Auf diese Weise lassen sich zirkuläre Geldflüsse, ungewöhnliche Verbindungen oder betrugsverdächtige Muster schneller erkennen und fundierter bewerten. Gerade in der Betrugsprävention ermöglicht der Graph eine effizientere Fallprüfung, kontextbezogene Risikoeinschätzung und deutlich reduzierte Reaktionszeiten – auf Basis verknüpfter Fakten statt isolierter Datenpunkte.

Auch für Compliance-Analysen oder interne Audits liefert er belastbare Grundlagen, etwa um festzustellen, ob verschiedene Zahlungseingänge auffällig oft zu demselben Konto oder derselben Adresse führen. Auch Machine-Learning-Modelle zur Betrugserkennung profitieren von der Graph-basierten Struktur, weil sie von den Mustern in den Beziehungskonstellationen lernen.

ProduktdatenEin Produkt-Graph verknüpft Spezifikationen, Preise, Nutzung, Feedback, Vertrieb und Supportdaten zu einer ganzheitlichen Sicht auf Produkte im gesamten Lebenszyklus. So lassen sich etwa häufig genutzte Features erkennen, Preisstrategien anpassen oder Probleme frühzeitig identifizieren. Auch komplexe Konfigurationen oder Varianten – etwa bei individualisierbarer Hardware oder modularen Services – lassen sich flexibel abbilden.

Besonders für Hersteller mit vielfältigen Produktlinien schafft das eine solide Grundlage für datenbasierte Entscheidungen in Entwicklung, Fertigung und Aftermarket. In Verbindung mit Generative AI können auf Basis des Graphen auch neue Produktideen simuliert, Konfigurationen automatisch erzeugt oder individuelle Angebote in Echtzeit erstellt werden.

Supply ChainEin Supply-Chain-Graph verknüpft Lieferanten, Materialien, Standorte, Transportwege, Kosten und Compliance-Anforderungen – von der Bestellung bis zur Auslieferung. Unternehmen können Abhängigkeiten erkennen, Risiken frühzeitig identifizieren und Prozesse optimieren, etwa durch Echtzeit-Tracking oder die Analyse alternativer Routen.

Besonders für produzierende Unternehmen mit globalen Wertschöpfungsketten ist das entscheidend – zum Beispiel, um auf Lieferengpässe flexibel zu reagieren oder ESG-Vorgaben wie das Lieferkettengesetz systematisch einzuhalten. Lieferverzögerungen, Preisentwicklungen oder alternative Beschaffungswege im Störfall lassen sich im Graph-basierten KI-System sogar vorhersagen und proaktiv entschärfen.

ProzessdatenEin Prozess-Graph verknüpft Abläufe, Ressourcen, Qualität, Zeit und Kosten. Engpässe, Reibungsverluste und Verbesserungspotenziale lassen sich so datenbasiert erkennen und gezielt adressieren. Gerade Konzerne und Unternehmen in stark regulierten Branchen profitieren von dieser Transparenz, etwa bei der Optimierung von Genehmigungsprozessen oder zur Automatisierung wiederkehrender Abläufe.

Ein typisches Beispiel ist die Analyse von Onboarding-Prozessen: Wo entstehen Verzögerungen? Welche Schnittstellen sind überlastet? Der Graph liefert hier konkrete Antworten und unterstützt gleichzeitig KI-Systeme dabei, Mitarbeitende mit kontextbasierten Informationen zu versorgen.

Wie viele Graphen ein Unternehmen einsetzt, hängt immer vom konkreten Bedarf ab. Die obige Auswahl zeigt exemplarisch, welche Geschäftsbereiche besonders stark von vernetzten Daten profitieren. Entscheidend ist aber nicht die Anzahl, sondern die Fähigkeit, Zusammenhänge sichtbar zu machen und Daten in den richtigen Kontext zu setzen. Wer die eigene Datenlandschaft als Netzwerk versteht, schafft die Grundlage für Geschwindigkeit, Skalierbarkeit – und für den erfolgreichen Einsatz von KI und GenAI. (mb)

7 zentrale Unternehmens-Graphen​ Weiterlesen »

7 Warnsignale für sterbende IT-Projekte​

Allgemein

Wenn IT-Projekte plötzlich (oder weniger plötzlich) vor einer ungewissen Zukunft stehen, lohnt es sich, Abstand zu gewinnen, zu kommunizieren und die Situation neu zu bewerten. Altitude Visual | shutterstock.com Bereits vor knapp 30 Jahren stellte das Harvard Business Review fest, dass es mit Blick auf Strategie ebenso wichtig ist, Entscheidungen darüber zu treffen, was nicht zu tun ist, wie darüber, was zu tun ist. Zwar haben sich seitdem sowohl die Technologie als auch die (meisten) Projektansätze erheblich weiterentwickelt – trotzdem ist diese Feststellung weiterhin gültig. Denn gescheiterte IT-Projekte werfen nach wie vor erhebliche Kosten auf, egal ob es dabei um eine KI-, Software– oder eine großangelegte Digitalisierungsinitiative handelt. Und: IT-Projekte scheitern auch weiterhin in alarmierendem Ausmaß. Umso wichtiger ist für IT-Entscheider und -Manager die Fähigkeit, offen und ehrlich zu kommunizieren und erkennen zu können, wann es Zeit ist, bei einem Projekt gegenzusteuern. Oder kurzen Prozess zu machen und das Projekt direkt zu beerdigen. Die Gründe dafür, dass IT-Projekte ins Stocken geraten, die einst enthusiastisch begrüßt wurden, sind vielfältig. Die folgenden sieben Warnsignale deuten verstärkt darauf hin, dass Ihr Projekt in diese Kategorie fällt. 1. Investitionen werden zurückgefahren Angenommen, Sie arbeiten an einem System, das proprietäre Reportings auf Basis der Tools eines bestimmten Anbieters liefern soll. Im Laufe des Projekts stellen Sie fest, dass der Anbieter immer behäbiger wird, wenn es darum geht, Updates, Fixes und Erweiterungen auszuliefern. Auch die Software-Release-Zyklen werden immer länger, bis Sie schließlich davon Wind bekommen, dass bei dem gewählten Anbieter demnächst eine Entlassungswelle ansteht. Das sind gefährliche Anzeichen dafür, dass Ihrem Projekt ein ähnliches Schicksal wie dem Anbieter droht. Schließlich sind Sie auf dessen Tools und Plattform angewiesen, um das Projekt umzusetzen. Sie sollten deshalb dringend das Investitionsgebahren Ihrer wichtigsten Anbieter im Auge behalten, um zu wissen, wie es um Ihre IT-Initiative lang- aber auch kurzfristig bestellt ist. 2. User verlieren Interesse Sie sind gerade dabei, ein firmeninternes System grundlegend zu optimieren. Dann stellen Sie fest, dass Zahl der aktiven User in den letzten Monaten kontinuierlich abgenommen hat. Das könnte darauf hindeuten, dass die Benutzer in diesem System nicht mehr den ursprünglichen Mehrwert sehen.    Was hilft, ist Kommunikation – und Metriken zur Nutzung regelmäßig zu erfassen. Ersteres fällt leichter, wenn Sie ihre Benutzer “mit ins Boot holen”. So finden Sie heraus, wie deren Bedürfnisse aussehen und können nachlassendes Interesse (im Idealfall) von vorneherein verhindern. 3. Deadlines wandern Ihr Projekt beginnt mit einem Paukenschlag, die User sind begeistert und engagiert. Nach drei Monaten klopft der Projektsponsor an Ihre Tür und erkundigt sich, ob es nicht möglich ist, die Deadline zu verschieben. Der Grund: Andere, dringendere Aufgaben. Natürlich wird Ihnen bei dieser Gelegenheit versichert, dass alle Beteiligten weiterhin voll und ganz an Bord sind – was Sie am Ende dazu bewegt, den Projektzeitplan anzupassen. Als es dann mit voller Kraft weitergehen soll, ereilt Sie ein Déjà Vu. Die Projekt-Deadline soll ein weiteres Mal aus denselben Gründen verschoben werden. Das könnte darauf hindeuten, dass der einst ausgeprägte Enthusiasmus auf der Strecke geblieben ist. Dagegen hilft, die Stakeholder in „Projektpartner“ zu verwandeln. Das kann dazu beitragen, möglicherweise aufkeimendes Desinteresse frühzeitig zu erkennen und gegenzusteuern. Oder eine einvernehmliche Entscheidung darüber zu treffen, das Projekt einzustellen – allerdings, ohne dabei andere IT-Prioritäten zu gefährden und unnötigerweise Budget und Ressourcen zu verbrennen. 4. Budget verflüchtigt sich Als bei Ihrem aktuellen IT-Projekt zum letzten Mal das Thema Budget auf der Agenda stand, war die Begeisterung darüber so groß, dass alle beantragten Mittel bewilligt wurden. Nun steht eine neue Debatte darüber an. Bei dieser Gelegenheit sprechen sich sowohl CEO als auch CFO dafür aus, das ursprünglich bewilligte Projektbudget nachträglich zu kürzen. Oder die Finanzierung zumindest solange aufzuschieben, bis sich das Unternehmen wieder in einer besseren, finanziellen Situation befindet. Den Gürtel enger schnallen zu müssen, ist im Business-Umfeld grundsätzlich zwar nicht ungewöhnlich. Wenn sich das mit Blick auf IT-Projekte jedoch länger als zwei Quartale hinzieht, ist höchst zweifelhaft, ob ein erfolgreicher Abschluss noch möglich ist. Um solchen Entwicklungen möglichst früh auf die Schliche zu kommen, empfiehlt es sich, eine gute Beziehung zum CFO aufzubauen – und das eigene Projektbudget ordentlich zu managen. 5. Champions fliehen Zum Start Ihres Projekt waren diverse Superuser, Projektmanager und Tech-Spezialisten an Bord. Dann haben diese das Unternehmen verlassen, so dass das Projekt nun ohne die „Champions“ dasteht, die es wesentlich gefördert und der Unternehmensleitung verkauft haben. Das wäre ein guter Zeitpunkt, um zu überprüfen, ob Ihr Projekt noch eine Zukunft hat. Helfen können an dieser Stelle Initiativen zur Mitarbeiterbindung. 6. Support erodiert Sie starten ein wichtiges IT-Projekt und werden dabei ganz wesentlich von einer bestimmten Person bei einem essenziellen Projektpartner unterstützt. Dann wird dessen Unternehmen von einem Konkurrenten aufgekauft, was dazu führt, dass der Unterstützer den Job wechselt. Es kann im Rahmen eines größeren Mergers auch dazu kommen, dass eine für das Projekt essenzielle Software eingestellt wird. An dieser Stelle sollten Sie dringend prüfen, ob Ihr Projekt noch eine Zukunft hat: Wird der Support für das Projekt von jemand anderem weitergeführt oder stehen Alternativen für die betreffende Software zur Verfügung? Um solche Entwicklungen bestmöglich zu antizipieren, sind Best Practices in Sachen Vendor Management zu empfehlen. Wenn ein wichtiger Unterstützer aus Ihrem eigenen Unternehmen die Segel streicht, gilt Ähnliches: Möglicherweise hat der Nachfolger ganz eigene Vorstellungen davon, wie das Projekt ablaufen sollte – oder setzt völlig andere Prioritäten. Auch in diesem Fall ist Kommunikation anzuraten: Sprechen Sie die Person direkt darauf an, ob sie gewillt ist, Ihr Projekt (weiterhin) zu unterstützen. 7. Business wechsel’ dich Ihr Unternehmen möchte auf eine Omnichannel-Sales-Plattform wechseln, die es den Kunden ermöglicht, nahtlos mit dem Unternehmen zu interagieren – unabhängig vom gewählten Kommunikationskanal. Sie starten also ein IT-Integrationsprojekt, das sämtliche Sales-Channel umfasst. Im Laufe des Projekts gerät Ihr Unternehmen jedoch unter extremen (unvorhergesehenen) Druck. Das Führungsteam kommt in der Folge zu dem Schluss, dass ein Richtungswechsel nötig ist und der Onlinekanal sofort laufen muss. Auch wenn er nicht integriert werden kann. Für die ursprüngliche Projektplanung ist das kein gutes Zeichen.   Um herauszufinden, wie es konkret um Ihr IT-Projekt steht, hilft eine enge Beziehung zu wichtigen Führungskräften aus anderen Bereichen. Das kann dazu beitragen, Warnzeichen früh zu erkennen und möglicherweise auch dazu, anstehende Richtungswechsel noch im Sinne des Projekts beeinflussen zu können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Warnsignale für sterbende IT-Projekte​ Wenn IT-Projekte plötzlich (oder weniger plötzlich) vor einer ungewissen Zukunft stehen, lohnt es sich, Abstand zu gewinnen, zu kommunizieren und die Situation neu zu bewerten.
Altitude Visual | shutterstock.com

Bereits vor knapp 30 Jahren stellte das Harvard Business Review fest, dass es mit Blick auf Strategie ebenso wichtig ist, Entscheidungen darüber zu treffen, was nicht zu tun ist, wie darüber, was zu tun ist. Zwar haben sich seitdem sowohl die Technologie als auch die (meisten) Projektansätze erheblich weiterentwickelt – trotzdem ist diese Feststellung weiterhin gültig.

Denn gescheiterte IT-Projekte werfen nach wie vor erhebliche Kosten auf, egal ob es dabei um eine KI-, Software– oder eine großangelegte Digitalisierungsinitiative handelt. Und: IT-Projekte scheitern auch weiterhin in alarmierendem Ausmaß. Umso wichtiger ist für IT-Entscheider und -Manager die Fähigkeit, offen und ehrlich zu kommunizieren und erkennen zu können, wann es Zeit ist, bei einem Projekt gegenzusteuern. Oder kurzen Prozess zu machen und das Projekt direkt zu beerdigen.

Die Gründe dafür, dass IT-Projekte ins Stocken geraten, die einst enthusiastisch begrüßt wurden, sind vielfältig. Die folgenden sieben Warnsignale deuten verstärkt darauf hin, dass Ihr Projekt in diese Kategorie fällt.

1. Investitionen werden zurückgefahren

Angenommen, Sie arbeiten an einem System, das proprietäre Reportings auf Basis der Tools eines bestimmten Anbieters liefern soll. Im Laufe des Projekts stellen Sie fest, dass der Anbieter immer behäbiger wird, wenn es darum geht, Updates, Fixes und Erweiterungen auszuliefern. Auch die Software-Release-Zyklen werden immer länger, bis Sie schließlich davon Wind bekommen, dass bei dem gewählten Anbieter demnächst eine Entlassungswelle ansteht.

Das sind gefährliche Anzeichen dafür, dass Ihrem Projekt ein ähnliches Schicksal wie dem Anbieter droht. Schließlich sind Sie auf dessen Tools und Plattform angewiesen, um das Projekt umzusetzen. Sie sollten deshalb dringend das Investitionsgebahren Ihrer wichtigsten Anbieter im Auge behalten, um zu wissen, wie es um Ihre IT-Initiative lang- aber auch kurzfristig bestellt ist.

2. User verlieren Interesse

Sie sind gerade dabei, ein firmeninternes System grundlegend zu optimieren. Dann stellen Sie fest, dass Zahl der aktiven User in den letzten Monaten kontinuierlich abgenommen hat. Das könnte darauf hindeuten, dass die Benutzer in diesem System nicht mehr den ursprünglichen Mehrwert sehen.   

Was hilft, ist Kommunikation – und Metriken zur Nutzung regelmäßig zu erfassen. Ersteres fällt leichter, wenn Sie ihre Benutzer “mit ins Boot holen”. So finden Sie heraus, wie deren Bedürfnisse aussehen und können nachlassendes Interesse (im Idealfall) von vorneherein verhindern.

3. Deadlines wandern

Ihr Projekt beginnt mit einem Paukenschlag, die User sind begeistert und engagiert. Nach drei Monaten klopft der Projektsponsor an Ihre Tür und erkundigt sich, ob es nicht möglich ist, die Deadline zu verschieben. Der Grund: Andere, dringendere Aufgaben. Natürlich wird Ihnen bei dieser Gelegenheit versichert, dass alle Beteiligten weiterhin voll und ganz an Bord sind – was Sie am Ende dazu bewegt, den Projektzeitplan anzupassen. Als es dann mit voller Kraft weitergehen soll, ereilt Sie ein Déjà Vu. Die Projekt-Deadline soll ein weiteres Mal aus denselben Gründen verschoben werden.

Das könnte darauf hindeuten, dass der einst ausgeprägte Enthusiasmus auf der Strecke geblieben ist. Dagegen hilft, die Stakeholder in „Projektpartner“ zu verwandeln. Das kann dazu beitragen, möglicherweise aufkeimendes Desinteresse frühzeitig zu erkennen und gegenzusteuern. Oder eine einvernehmliche Entscheidung darüber zu treffen, das Projekt einzustellen – allerdings, ohne dabei andere IT-Prioritäten zu gefährden und unnötigerweise Budget und Ressourcen zu verbrennen.

4. Budget verflüchtigt sich

Als bei Ihrem aktuellen IT-Projekt zum letzten Mal das Thema Budget auf der Agenda stand, war die Begeisterung darüber so groß, dass alle beantragten Mittel bewilligt wurden. Nun steht eine neue Debatte darüber an. Bei dieser Gelegenheit sprechen sich sowohl CEO als auch CFO dafür aus, das ursprünglich bewilligte Projektbudget nachträglich zu kürzen. Oder die Finanzierung zumindest solange aufzuschieben, bis sich das Unternehmen wieder in einer besseren, finanziellen Situation befindet.

Den Gürtel enger schnallen zu müssen, ist im Business-Umfeld grundsätzlich zwar nicht ungewöhnlich. Wenn sich das mit Blick auf IT-Projekte jedoch länger als zwei Quartale hinzieht, ist höchst zweifelhaft, ob ein erfolgreicher Abschluss noch möglich ist. Um solchen Entwicklungen möglichst früh auf die Schliche zu kommen, empfiehlt es sich, eine gute Beziehung zum CFO aufzubauen – und das eigene Projektbudget ordentlich zu managen.

5. Champions fliehen

Zum Start Ihres Projekt waren diverse Superuser, Projektmanager und Tech-Spezialisten an Bord. Dann haben diese das Unternehmen verlassen, so dass das Projekt nun ohne die „Champions“ dasteht, die es wesentlich gefördert und der Unternehmensleitung verkauft haben.

Das wäre ein guter Zeitpunkt, um zu überprüfen, ob Ihr Projekt noch eine Zukunft hat. Helfen können an dieser Stelle Initiativen zur Mitarbeiterbindung.

6. Support erodiert

Sie starten ein wichtiges IT-Projekt und werden dabei ganz wesentlich von einer bestimmten Person bei einem essenziellen Projektpartner unterstützt. Dann wird dessen Unternehmen von einem Konkurrenten aufgekauft, was dazu führt, dass der Unterstützer den Job wechselt. Es kann im Rahmen eines größeren Mergers auch dazu kommen, dass eine für das Projekt essenzielle Software eingestellt wird. An dieser Stelle sollten Sie dringend prüfen, ob Ihr Projekt noch eine Zukunft hat: Wird der Support für das Projekt von jemand anderem weitergeführt oder stehen Alternativen für die betreffende Software zur Verfügung? Um solche Entwicklungen bestmöglich zu antizipieren, sind Best Practices in Sachen Vendor Management zu empfehlen.

Wenn ein wichtiger Unterstützer aus Ihrem eigenen Unternehmen die Segel streicht, gilt Ähnliches: Möglicherweise hat der Nachfolger ganz eigene Vorstellungen davon, wie das Projekt ablaufen sollte – oder setzt völlig andere Prioritäten. Auch in diesem Fall ist Kommunikation anzuraten: Sprechen Sie die Person direkt darauf an, ob sie gewillt ist, Ihr Projekt (weiterhin) zu unterstützen.

7. Business wechsel’ dich

Ihr Unternehmen möchte auf eine Omnichannel-Sales-Plattform wechseln, die es den Kunden ermöglicht, nahtlos mit dem Unternehmen zu interagieren – unabhängig vom gewählten Kommunikationskanal. Sie starten also ein IT-Integrationsprojekt, das sämtliche Sales-Channel umfasst. Im Laufe des Projekts gerät Ihr Unternehmen jedoch unter extremen (unvorhergesehenen) Druck. Das Führungsteam kommt in der Folge zu dem Schluss, dass ein Richtungswechsel nötig ist und der Onlinekanal sofort laufen muss. Auch wenn er nicht integriert werden kann. Für die ursprüngliche Projektplanung ist das kein gutes Zeichen.  

Um herauszufinden, wie es konkret um Ihr IT-Projekt steht, hilft eine enge Beziehung zu wichtigen Führungskräften aus anderen Bereichen. Das kann dazu beitragen, Warnzeichen früh zu erkennen und möglicherweise auch dazu, anstehende Richtungswechsel noch im Sinne des Projekts beeinflussen zu können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Warnsignale für sterbende IT-Projekte​ Weiterlesen »

Die besten Enterprise-Architecture-Tools​

Allgemein

Diese Enterprise Architecture Tools unterstützen Sie nicht nur bei der digitalen Transformation Ihres Unternehmens. Foto: I Believe I Can Fly – shutterstock.com Enterprise Architecture (EA) Tools unterstützen Unternehmen und Organisationen dabei, mit ihren IT-Strategien die Geschäftsziele optimal zu unterstützen. Sie sorgen ebenfalls dafür, dass Unternehmen ihre Roadmaps für die digitale Transformation geordnet vorantreiben können. EA Tools bieten dafür unter anderem Collaboration-, Reporting-, Testing- und Simulationsfunktionen. Mit deren Hilfe lassen sich Modelle implementieren, die Geschäfts- und IT-Prozesse gezielt verbessern. Um die beste Lösung für Ihr Unternehmen zu finden, sollten Sie zuerst prüfen, ob sich das jeweilige Tool mit Ihrem Technologie-Stack integrieren lässt. Anschließend gilt es abzuwägen, ob die Informationen, Diagramme und Tabellen, die die Software zur Verfügung stellt, für das Unternehmen auch einen echten Nutzwert haben. Empfehlenswerte Enterprise-Architecture-Tools Nachfolgend finden Sie einen Überblick über die wichtigsten Enterprise-Architecture-Tools – in alphabetischer Reihenfolge. Sie stellen einen Mix aus Visualisierungs-, Collaboration- und Project-Management-Funktionen bereit und unterstützen eine Vielzahl von Enterprise Architecture Frameworks. Ardoq Nachdem zuerst über einfache Formulare Informationen von Usern, Entwicklern und sonstigen Stakeholdern im Unternehmen eingesammelt wurden, lässt sich mithilfe von Ardoq ein digitaler Zwilling der gesamten Organisation erstellen. Der Ansatz setzt also darauf, die Menschen, die in ihren Rollen mit den verschiedensten Systemen arbeiten, realistisch in ihrer Arbeitswelt abzubilden. Jede Mitarbeiterin und jeder Mitarbeiter im Unternehmen kann später von den Netzwerkvisualisierungen und Datenfluss-Diagrammen profitieren, um seine eigene Rolle optimal zu unterstützen und den Arbeitsplatz immer wieder anzupassen und zu modernisieren. Das Tool lässt sich mit den wichtigsten Cloud-Plattformen integrieren. Es bietet eine API, die individuelle Anpassungen in allen wichtigen Programmiersprachen (Python, C#, Java, etc.) ermöglicht. Wichtigste Use Cases: “Architektonischen Stress” bei Lastspitzen simulieren, falls größere Veränderungen bevorstehen; Verstehen, wie verändertes Nutzerverhalten neue Anforderungen generiert; Application Portfolio Management, um besser strategisch zu planen. Atoll Group SAMU Das EA-Tool SAMU macht die Enterprise Architecture sichtbar, indem es tiefe Verknüpfungen zwischen On-Premises-Systemen, dem Cloud-Layer und Tools für das Business Process Management aufzeigt. Das Tool der Atoll Group bietet vielfältige Integrationsmöglichkeiten, zum Beispiel mit Monitoring-Tools (etwa Tivoli, ServiceNow), Configuration-Management-Datenbanken (zum Beispiel CA, BMC) oder Service-Organisations-Tools (BMC, HPE). Alle Informationen fließen in ein zentrales Datenmodell ein, das um den zusätzlichen Input der Stakeholder weiter angereichert wird. Wichtigste Use Cases: Enterprise-Architektur visualisieren; strategische Planungsprozesse und Architektur-Reviews mit Informationen unterfüttern; mithilfe einer visuellen Verständnisgrundlage die Kommunikation verbessern. Avolution Abacus Dieses Tool erfasst die Breite und den Umfang der Unternehmensarchitektur mit Hilfe eines auf Diagrammen basierenden Dashboards. Die Integration mit gängigen Tools wie SharePoint, Excel, Visio, Google Sheets, Technopedia oder ServiceNow vereinfacht die Nutzung. Abacus wurde inzwischen auch um einen Machine-Learning-Layer ergänzt, der es Anwendern ermöglicht, ein Modell zu trainieren, das ihnen beispielsweise hilft zu erkennen, wer im Unternehmen für welches System verantwortlich ist. Wichtigste Use Cases: die IT für das gesamte Unternehmen “öffnen”, um ein allgemeines Verständnis der Datenflüsse zu erzeugen; umfassendes Enterprise Modeling, um eine Roadmap für künftige Entwicklungen zu erstellen; Business-Metriken tracken, die mit der Unternehmens-Performance zusammenhängen. BOC Group ADOIT ADOIT soll Teams dabei unterstützen, Ressourcen zu verwalten, Bedarfe vorherzusagen und Assets zu tracken. Dazu mappt das Tool jedes System oder Softwarepaket mit einem Objekt. Die Datenflüsse zwischen den Systemen werden in Beziehungen umgewandelt, die von diesen Objekten mithilfe eines anpassbaren Metamodells erfasst werden. Geschäftsprozesse können auf ähnliche Weise über ein gut integriertes Begleitprodukt namens ADONIS modelliert werden. ADOIT ist Web-basiert und lässt sich auch mit Tools wie Atlassian Confluence integrieren, um die Datenerfassung und -entwicklung zu beschleunigen. Wichtigste Use Cases: ein unternehmensweites Modell erstellen, das bei sämtlichen Teammitgliedern ein Verständnis über den Stack schafft – und wie man diesen verbessern kann; vollständiger Zugriff auf EA-Daten über eine Mobile-Anwendung; bei Fusionen und Übernahmen den Tech-Bereich durch genaues Asset-Mapping orchestrieren. Bizzdesign Horizzon Das Tool dient dazu, Business Workflows und den zugrundeliegenden Tech-Stack zu modellieren. Dazu bietet Horizzon ein Graph-basiertes Modell, das Daten von sämtlichen Stakeholdern einsammelt und diese an eine Analytics-Engine weitergibt. Im Ergebnis entstehen Diagramme, die den aktuellen Systemzustand widerspiegeln. Wichtige Schwerpunkte dieses Tools sind Change Management und Zukunftsplanung: Horizzon ist nicht zuletzt dafür konzipiert worden, die Risiken eines Redesigns zu minimieren. Das Toolset unterstützt die wichtigsten Frameworks ArchiMate, TOGAF und BPMN. Im September 2024 hat Bizzdesign angekündigt, sich mit dem EA-Konkurrenten Mega (siehe weiter unten) und einem weiteren Anbieter zusammenschließen zu wollen. Bei letztgenanntem wurde gemunkelt, es könne sich um die Software AG, respektive deren EA-Geschäftsbereich Alfabet (siehe weiter unten). Diese Spekulationen stellten sich im Januar 2025 als zutreffend heraus. Wichtigste Use Cases: Vorhersage zukünftiger Anforderungen durch Predictive Modeling; Orchestrieren von Workflows auf der Basis der technischen und der Business-Architektur; Antizipieren von Risiken sowie Security- und Governance-Problemen durch die Modellierung von Datensicherheitsanforderungen. Capstera Das Tool von Capstera fokussiert darauf, die Business Architecture selbst abzubilden. Value und Process Maps helfen dabei, die Rollen der verschiedenen Unternehmensbereiche zu definieren und nachzuverfolgen. Dabei können im laufenden Prozess Verknüpfungen mit den zugrundeliegenden Softwarprodukten und Tools hinzugefügt werden. Wichtigste Use Cases: Reports erstellen, die sich erst einmal mit der Business-Architektur selbst beschäftigen; Beziehungen zwischen Menschen, Abteilungen und Rollen analysieren; die langfristige strategische Planung vorantreiben. Clausmark Bee360 Teammitglieder, die Clausmarks Flaggschiffprodukt Bee360 (früher Bee4IT) verwenden, wollen eine einfache “Single Source of Truth” über die Workflows im Unternehmen. Ziel ist es, verschiedenen betrieblichen Rollen intelligentere Entscheidungen zu ermöglichen. Das Modul Bee360 FM (Finanzmanagement) bietet etwa die Möglichkeit, Kosten nachzuvollziehen und zuzuordnen. Die Anwender können verschiedene solcher Module miteinander verknüpfen, um EAM, Finanzmanagement, Portfolio Management und Agile Planning nahtlos zu integrieren – bei maximaler Transparenz. Wichtigste Use Cases: C-Suite-Ebene befähigen, Projekte zu managen und Assets zuzuweisen; präzise digitale Zwillinge entwickeln, um ein Verständnis über Datenflüsse zu schaffen und künftige Erweiterungen zu planen; integrierte Wissensdatenbank aufbauen, um alle digitalen Workflows zu tracken. EAS Das Essential-Paket von EAS (Enterprise Architecture Solutions) nahm als Open-Source-Projekt seinen Anfang und hat sich inzwischen zu einer kommerziell verfügbaren Cloud-Lösung weiterentwickelt. Das Tool erstellt ein Metamodell, das die Interaktionen zwischen Systemen und Geschäftsprozessen beschreibt. Ebenfalls enthalten sind Pakete, um gängige Business Workflows wie Datenmanagement oder DSGVO-Compliance zu tracken. Wichtigste Use Cases: den technischen Reifegrad der eigenen Architektur evaluieren; Sicherheit und Governance durch besseres Asset Tracking optimieren; wachsende Systemkomplexität kontrollieren und managen. Mega Hopex Mit seiner Hopex-Plattform will Mega dabei unterstützen, Unternehmensanwendungen zu modellieren und dabei ein Verständnis der von ihnen unterstützten Geschäfts-Workflows zu schaffen. Dabei liegt ein Schwerpunkt auf den Bereichen Data Governance und Risikomanagement. Hopex basiert auf Microsoft Azure und stützt sich auf eine Reihe offener Standards wie GraphQL und REST Queries, um Informationen aus Komponentensystemen zu sammeln. Das Reporting ist mit den Office-Tools von Microsoft sowie mit grafischen Lösungen wie Tableau und Qlik integriert. Wichtigste Use Cases: datengestützte Erkenntnisse herbeiführen, um Cloud- und Anwendungsbereitstellung zu steuern; akkurate Nutzungsmodelle erstellen, um Architekturanforderungen zu verstehen; eine Bedarfsschätzung mit Umfragen und anderen Tools vornehmen, um für die Zukunft zu planen. OrbusInfinity Orbus Software hat Anfang 2025 die Akquisition seines Konkurrenten Capsifi abgeschlossen. Der Anbieter stellt mit OrbusInfinity eine Enterprise-Transformation-Plattform auf KI-Basis zur Verfügung, die schnellere, bessere Entscheidungen, Kosteinesparungen und Risikominimierung verspricht. Architecture-Teams sollen mit Hifle von OrbusInfinity mit einer Vielzahl von Stakeholdern interagieren können, um eine “digitale Blaupause” ihres Unternehmens zu generieren, die eine einheitliche Sicht auf das aktuelle und künftige Geschäft realisieren soll. Diverse Drittanbieter-Tools lassen sich außerdem mit der Plattform integrieren, darunter etwa von Microsoft, Flexera, ManageEngine oder ServiceNow. Wichtigste Use Cases: Stakeholder-Management; Enterprise-Landschaften visualisieren; Entscheidungsfindung und Datenanalyse automatisieren. Planview Enterprise One Planview bietet eine ganze Reihe von Produkten, mit denen Unternehmen Teamwork, Prozesse und die Enterprise Architecture nachvollziehen können. Die Enterprise Tools sind in drei Kategorien unterteilt: strategisches Portfolio-Management, Produktportfolio-Management und Projektportfolio-Management. Im Zusammenspiel entstehen hardware- und Software-übergreifende Layer, die rollenbasierte Perspektiven für Führungskräfte und Teammitglieder eröffnen. Das Toolset integriert mit gängigen Ticket-Tracking-Systemen wie Jira, um Workflow-Analysen und Reports zu erstellen. Inzwischen hat Planview nach einer Übernahme neue Tools in sein Portfolio integriert, die früher unter den Namen Daptiv, Barometer und Projectplace bekannt waren. Wichtigste Use Cases: eine langfristige, strategische Vision für die Architekturentwicklung aufbauen; Entwicklungsarbeit auf Projektebene tracken und in eine beliebige Strategie integrieren; mit Fokus auf die Customer Experience und die Produktstruktur den Change vorantreiben. QualiWare Enterprise Architecture Das Enterprise Architecture Tool von QualiWare ist Teil einer größeren Sammlung von Modellierungswerkzeugen, die darauf abzielt, sämtliche Geschäftsprozesse zu erfassen. Beispielsweise ist es möglich, einen digitalen Zwillinge zu bauen, mit dem sich Customer Journeys nachvollziehen lassen. Qualiware hat diverse KI-Algorithmen integriert, um Dokumentation und Process Discovery zu optimieren. Wichtigste Use Cases: ein kollaboratives Ökosystem für Business Manager aufbauen, das ein Verständnis von der Enterprise Architecture vermittelt; architektonische Designelemente erfassen, um ein Wissens-Ökosystem rund um den Stack aufzubauen; eine breite Beteiligung in Sachen Dokumentationserstellung und -überprüfung fördern. Quest Erwin Evolve Das Erwin Evolve Tool von Quest hat sich von einem Datenmodellierungs-Tool zu einem System für Enterprise-Architecture- und Geschäftsprozess-Modellierung weiterentwickelt. Um die Komplexität moderner, ineinandergreifender Softwaresysteme und der von ihnen gemanagten Geschäftsprozesse zu durchdringen, können Anwender auf benutzerdefinierte Datenstrukturen zurückgreifen. Das Web-Tool erstellt Modelle, rollenbasierte Diagramme und andere Visualisierungen, die in allgemein zugängliche Dashboards einfließen. Zum Paket gehört ein KI-basiertes Modellierungs-Tool, das Whiteboard-Skizzen integrieren kann. Wichtigste Use Cases: einen digitalen Zwilling für die strategische Modellierung der Enterprise Data Architecture erstellen; Customer Journeys verstehen; Services und Systeme mit Application Portfolio Management tracken. SAP LeanIX Enterprise Architecture Suite Die Tool-Sammlung von LeanIX umfasst unter anderem Enterprise Architecture Management und andere Bereiche, die für Aufgaben wie SaaS– und Value-Stream-Management wichtig sind – etwa um Cloud-Deployments und darauf laufende Services zu tracken. Die Daten die dabei über die IT-Infrastruktur gesammelt werden, fließen in ein grafisches Dashboard ein. Das Tool ist eng mit wichtigen Cloud-Workflow-Tools wie Confluence, Jira, Signavio und Lucidchart integriert. Das ist für Teams von Vorteil, die diese Tools bereits nutzen, um ihre Entwicklungsstrategien zu planen und umzusetzen. Seit November 2023 ist LeanIX Teil von SAP. Wichtigste Use Cases: Anwendungsmodernisierung und Cloud-Migration managen; Obsoleszenz von Software-Services evaluieren; Kosten kontrollieren und managen. ServiceNow Die Tool-Sammlung von ServiceNow lässt sich auf verschiedene Architekturtypen herunterbrechen, darunter Assets, DevOps, Security und Service. Die Tools katalogisieren die unterschiedlichen Hardware- und Softwareplattformen, um Workflows und Datenflüsse im Unternehmen abzubilden und zu verstehen. Ausführliche Reportings und detaillierte Dashboards ermöglichen Analysen, auf deren Grundlage Risiken minimiert und die Ausfallsicherheit der Systeme erhöht werden können. Wichtigste Use Cases: Tracken von Assets, Services und Systemen, die das Unternehmen ausmachen; Governance-Themen, Risikobegrenzung, IT-Management und Security Operations werden in einer Plattform zusammengeführt; durch die Integration von CRM-Tools lassen sich auch kundenorientierte Services managen. Sparx Systems Um Teams und Projekte verschiedener Größe und Komplexität zu unterstützen, hat Sparx vier Versionen seines EA-Tools entwickelt. Allen gemeinsam ist eine UML-basierte Modellierung, mit der sich die Komponenten komplexer Systeme tracken lassen. Eine Simulations-Engine ermöglicht “War Gaming” und vermittelt ein Verständnis darüber, wie sich Fehler ausbreiten und kaskadieren können. Sparx stellt zudem eine Vielzahl von vorgefertigten Design Patterns bereit, um Teams bei der Modellierung zu unterstützen. Wichtigste Use Cases: Nachfrage- und Lastveränderungen zur Prognose künftiger Anforderungen simulieren; (potenzielle) Probleme durch eine Verbindungs-Matrix im Auge behalten; Dokumentation erstellen. Unicom System Architect System Architect ist eines der Angebote aus Unicoms Team Blue. Es handelt sich um ein Tool, das ein Metamodell verwendet, um automatisiert so viele Daten wie möglich über die laufenden Systeme zu sammeln – manchmal auch durch ein Reverse Engineering von Datenflüssen. Dieses systemweite Datenmodell kann über benutzerdefinierte Dashboards Teammitgliedern aller Rollen zugänglich gemacht werden. Ein weiteres erwähnenswertes Feature: Die Ressourcenzuweisung lässt sich mit Hilfe von Simulationen optimieren. Wichtigste Use Cases: Was-wäre-wenn-Fragen zum Architekturmodell stellen; ein Metamodell von Daten und Systemen aufbauen; Migrations- und Transformationspläne erstellen. ValueBlue BlueDolphin Dieses EA-Tool sammelt Daten auf dreierlei Art: Es importiert Basisdaten auf der Grundlage standardgesteuerter Automatisierung (ITSM, SAM). Es arbeitet mit den Dateiformaten von Architekten und Systemdesignern – etwa ArchiMate oder BPMN. Es gibt Fragebögen an andere Stakeholder heraus, die auf anpassbaren Vorlagen basieren. Die aufbereiteten Informationen werden in einer visuellen Umgebung bereitgestellt, die Auskunft über die historische Entwicklung von Systemen gibt. Wichtigste Use Cases: systemweite Daten von internen und externen Stakeholdern automatisiert und formularbasiert erfassen; zukunftsorientierte Reportings erzeugen, um den Change zu überwachen und voranzutreiben; Kooperation und Zusammenarbeit durch offenes Data Reporting fördern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Enterprise-Architecture-Tools​ Diese Enterprise Architecture Tools unterstützen Sie nicht nur bei der digitalen Transformation Ihres Unternehmens.
Foto: I Believe I Can Fly – shutterstock.com

Enterprise Architecture (EA) Tools unterstützen Unternehmen und Organisationen dabei, mit ihren IT-Strategien die Geschäftsziele optimal zu unterstützen. Sie sorgen ebenfalls dafür, dass Unternehmen ihre Roadmaps für die digitale Transformation geordnet vorantreiben können. EA Tools bieten dafür unter anderem Collaboration-, Reporting-, Testing- und Simulationsfunktionen. Mit deren Hilfe lassen sich Modelle implementieren, die Geschäfts- und IT-Prozesse gezielt verbessern.

Um die beste Lösung für Ihr Unternehmen zu finden, sollten Sie zuerst prüfen, ob sich das jeweilige Tool mit Ihrem Technologie-Stack integrieren lässt. Anschließend gilt es abzuwägen, ob die Informationen, Diagramme und Tabellen, die die Software zur Verfügung stellt, für das Unternehmen auch einen echten Nutzwert haben.

Empfehlenswerte Enterprise-Architecture-Tools

Nachfolgend finden Sie einen Überblick über die wichtigsten Enterprise-Architecture-Tools – in alphabetischer Reihenfolge. Sie stellen einen Mix aus Visualisierungs-, Collaboration- und Project-Management-Funktionen bereit und unterstützen eine Vielzahl von Enterprise Architecture Frameworks.

Ardoq

Nachdem zuerst über einfache Formulare Informationen von Usern, Entwicklern und sonstigen Stakeholdern im Unternehmen eingesammelt wurden, lässt sich mithilfe von Ardoq ein digitaler Zwilling der gesamten Organisation erstellen. Der Ansatz setzt also darauf, die Menschen, die in ihren Rollen mit den verschiedensten Systemen arbeiten, realistisch in ihrer Arbeitswelt abzubilden.

Jede Mitarbeiterin und jeder Mitarbeiter im Unternehmen kann später von den Netzwerkvisualisierungen und Datenfluss-Diagrammen profitieren, um seine eigene Rolle optimal zu unterstützen und den Arbeitsplatz immer wieder anzupassen und zu modernisieren. Das Tool lässt sich mit den wichtigsten Cloud-Plattformen integrieren. Es bietet eine API, die individuelle Anpassungen in allen wichtigen Programmiersprachen (Python, C#, Java, etc.) ermöglicht.

Wichtigste Use Cases:

“Architektonischen Stress” bei Lastspitzen simulieren, falls größere Veränderungen bevorstehen;

Verstehen, wie verändertes Nutzerverhalten neue Anforderungen generiert;

Application Portfolio Management, um besser strategisch zu planen.

Atoll Group SAMU

Das EA-Tool SAMU macht die Enterprise Architecture sichtbar, indem es tiefe Verknüpfungen zwischen On-Premises-Systemen, dem Cloud-Layer und Tools für das Business Process Management aufzeigt. Das Tool der Atoll Group bietet vielfältige Integrationsmöglichkeiten, zum Beispiel mit Monitoring-Tools (etwa Tivoli, ServiceNow), Configuration-Management-Datenbanken (zum Beispiel CA, BMC) oder Service-Organisations-Tools (BMC, HPE). Alle Informationen fließen in ein zentrales Datenmodell ein, das um den zusätzlichen Input der Stakeholder weiter angereichert wird.

Wichtigste Use Cases:

Enterprise-Architektur visualisieren;

strategische Planungsprozesse und Architektur-Reviews mit Informationen unterfüttern;

mithilfe einer visuellen Verständnisgrundlage die Kommunikation verbessern.

Avolution Abacus

Dieses Tool erfasst die Breite und den Umfang der Unternehmensarchitektur mit Hilfe eines auf Diagrammen basierenden Dashboards. Die Integration mit gängigen Tools wie SharePoint, Excel, Visio, Google Sheets, Technopedia oder ServiceNow vereinfacht die Nutzung. Abacus wurde inzwischen auch um einen Machine-Learning-Layer ergänzt, der es Anwendern ermöglicht, ein Modell zu trainieren, das ihnen beispielsweise hilft zu erkennen, wer im Unternehmen für welches System verantwortlich ist.

Wichtigste Use Cases:

die IT für das gesamte Unternehmen “öffnen”, um ein allgemeines Verständnis der Datenflüsse zu erzeugen;

umfassendes Enterprise Modeling, um eine Roadmap für künftige Entwicklungen zu erstellen;

Business-Metriken tracken, die mit der Unternehmens-Performance zusammenhängen.

BOC Group ADOIT

ADOIT soll Teams dabei unterstützen, Ressourcen zu verwalten, Bedarfe vorherzusagen und Assets zu tracken. Dazu mappt das Tool jedes System oder Softwarepaket mit einem Objekt. Die Datenflüsse zwischen den Systemen werden in Beziehungen umgewandelt, die von diesen Objekten mithilfe eines anpassbaren Metamodells erfasst werden. Geschäftsprozesse können auf ähnliche Weise über ein gut integriertes Begleitprodukt namens ADONIS modelliert werden. ADOIT ist Web-basiert und lässt sich auch mit Tools wie Atlassian Confluence integrieren, um die Datenerfassung und -entwicklung zu beschleunigen.

Wichtigste Use Cases:

ein unternehmensweites Modell erstellen, das bei sämtlichen Teammitgliedern ein Verständnis über den Stack schafft – und wie man diesen verbessern kann;

vollständiger Zugriff auf EA-Daten über eine Mobile-Anwendung;

bei Fusionen und Übernahmen den Tech-Bereich durch genaues Asset-Mapping orchestrieren.

Bizzdesign Horizzon

Das Tool dient dazu, Business Workflows und den zugrundeliegenden Tech-Stack zu modellieren. Dazu bietet Horizzon ein Graph-basiertes Modell, das Daten von sämtlichen Stakeholdern einsammelt und diese an eine Analytics-Engine weitergibt. Im Ergebnis entstehen Diagramme, die den aktuellen Systemzustand widerspiegeln. Wichtige Schwerpunkte dieses Tools sind Change Management und Zukunftsplanung: Horizzon ist nicht zuletzt dafür konzipiert worden, die Risiken eines Redesigns zu minimieren. Das Toolset unterstützt die wichtigsten Frameworks ArchiMate, TOGAF und BPMN. Im September 2024 hat Bizzdesign angekündigt, sich mit dem EA-Konkurrenten Mega (siehe weiter unten) und einem weiteren Anbieter zusammenschließen zu wollen. Bei letztgenanntem wurde gemunkelt, es könne sich um die Software AG, respektive deren EA-Geschäftsbereich Alfabet (siehe weiter unten). Diese Spekulationen stellten sich im Januar 2025 als zutreffend heraus.

Wichtigste Use Cases:

Vorhersage zukünftiger Anforderungen durch Predictive Modeling;

Orchestrieren von Workflows auf der Basis der technischen und der Business-Architektur;

Antizipieren von Risiken sowie Security- und Governance-Problemen durch die Modellierung von Datensicherheitsanforderungen.

Capstera

Das Tool von Capstera fokussiert darauf, die Business Architecture selbst abzubilden. Value und Process Maps helfen dabei, die Rollen der verschiedenen Unternehmensbereiche zu definieren und nachzuverfolgen. Dabei können im laufenden Prozess Verknüpfungen mit den zugrundeliegenden Softwarprodukten und Tools hinzugefügt werden.

Wichtigste Use Cases:

Reports erstellen, die sich erst einmal mit der Business-Architektur selbst beschäftigen;

Beziehungen zwischen Menschen, Abteilungen und Rollen analysieren;

die langfristige strategische Planung vorantreiben.

Clausmark Bee360

Teammitglieder, die Clausmarks Flaggschiffprodukt Bee360 (früher Bee4IT) verwenden, wollen eine einfache “Single Source of Truth” über die Workflows im Unternehmen. Ziel ist es, verschiedenen betrieblichen Rollen intelligentere Entscheidungen zu ermöglichen. Das Modul Bee360 FM (Finanzmanagement) bietet etwa die Möglichkeit, Kosten nachzuvollziehen und zuzuordnen. Die Anwender können verschiedene solcher Module miteinander verknüpfen, um EAM, Finanzmanagement, Portfolio Management und Agile Planning nahtlos zu integrieren – bei maximaler Transparenz.

Wichtigste Use Cases:

C-Suite-Ebene befähigen, Projekte zu managen und Assets zuzuweisen;

präzise digitale Zwillinge entwickeln, um ein Verständnis über Datenflüsse zu schaffen und künftige Erweiterungen zu planen;

integrierte Wissensdatenbank aufbauen, um alle digitalen Workflows zu tracken.

EAS

Das Essential-Paket von EAS (Enterprise Architecture Solutions) nahm als Open-Source-Projekt seinen Anfang und hat sich inzwischen zu einer kommerziell verfügbaren Cloud-Lösung weiterentwickelt. Das Tool erstellt ein Metamodell, das die Interaktionen zwischen Systemen und Geschäftsprozessen beschreibt. Ebenfalls enthalten sind Pakete, um gängige Business Workflows wie Datenmanagement oder DSGVO-Compliance zu tracken.

Wichtigste Use Cases:

den technischen Reifegrad der eigenen Architektur evaluieren;

Sicherheit und Governance durch besseres Asset Tracking optimieren;

wachsende Systemkomplexität kontrollieren und managen.

Mega Hopex

Mit seiner Hopex-Plattform will Mega dabei unterstützen, Unternehmensanwendungen zu modellieren und dabei ein Verständnis der von ihnen unterstützten Geschäfts-Workflows zu schaffen. Dabei liegt ein Schwerpunkt auf den Bereichen Data Governance und Risikomanagement. Hopex basiert auf Microsoft Azure und stützt sich auf eine Reihe offener Standards wie GraphQL und REST Queries, um Informationen aus Komponentensystemen zu sammeln. Das Reporting ist mit den Office-Tools von Microsoft sowie mit grafischen Lösungen wie Tableau und Qlik integriert.

Wichtigste Use Cases:

datengestützte Erkenntnisse herbeiführen, um Cloud- und Anwendungsbereitstellung zu steuern;

akkurate Nutzungsmodelle erstellen, um Architekturanforderungen zu verstehen;

eine Bedarfsschätzung mit Umfragen und anderen Tools vornehmen, um für die Zukunft zu planen.

OrbusInfinity

Orbus Software hat Anfang 2025 die Akquisition seines Konkurrenten Capsifi abgeschlossen. Der Anbieter stellt mit OrbusInfinity eine Enterprise-Transformation-Plattform auf KI-Basis zur Verfügung, die schnellere, bessere Entscheidungen, Kosteinesparungen und Risikominimierung verspricht. Architecture-Teams sollen mit Hifle von OrbusInfinity mit einer Vielzahl von Stakeholdern interagieren können, um eine “digitale Blaupause” ihres Unternehmens zu generieren, die eine einheitliche Sicht auf das aktuelle und künftige Geschäft realisieren soll. Diverse Drittanbieter-Tools lassen sich außerdem mit der Plattform integrieren, darunter etwa von Microsoft, Flexera, ManageEngine oder ServiceNow.

Wichtigste Use Cases:

Stakeholder-Management;

Enterprise-Landschaften visualisieren;

Entscheidungsfindung und Datenanalyse automatisieren.

Planview Enterprise One

Planview bietet eine ganze Reihe von Produkten, mit denen Unternehmen Teamwork, Prozesse und die Enterprise Architecture nachvollziehen können. Die Enterprise Tools sind in drei Kategorien unterteilt: strategisches Portfolio-Management, Produktportfolio-Management und Projektportfolio-Management. Im Zusammenspiel entstehen hardware- und Software-übergreifende Layer, die rollenbasierte Perspektiven für Führungskräfte und Teammitglieder eröffnen. Das Toolset integriert mit gängigen Ticket-Tracking-Systemen wie Jira, um Workflow-Analysen und Reports zu erstellen. Inzwischen hat Planview nach einer Übernahme neue Tools in sein Portfolio integriert, die früher unter den Namen Daptiv, Barometer und Projectplace bekannt waren.

Wichtigste Use Cases:

eine langfristige, strategische Vision für die Architekturentwicklung aufbauen;

Entwicklungsarbeit auf Projektebene tracken und in eine beliebige Strategie integrieren;

mit Fokus auf die Customer Experience und die Produktstruktur den Change vorantreiben.

QualiWare Enterprise Architecture

Das Enterprise Architecture Tool von QualiWare ist Teil einer größeren Sammlung von Modellierungswerkzeugen, die darauf abzielt, sämtliche Geschäftsprozesse zu erfassen. Beispielsweise ist es möglich, einen digitalen Zwillinge zu bauen, mit dem sich Customer Journeys nachvollziehen lassen. Qualiware hat diverse KI-Algorithmen integriert, um Dokumentation und Process Discovery zu optimieren.

Wichtigste Use Cases:

ein kollaboratives Ökosystem für Business Manager aufbauen, das ein Verständnis von der Enterprise Architecture vermittelt;

architektonische Designelemente erfassen, um ein Wissens-Ökosystem rund um den Stack aufzubauen;

eine breite Beteiligung in Sachen Dokumentationserstellung und -überprüfung fördern.

Quest Erwin Evolve

Das Erwin Evolve Tool von Quest hat sich von einem Datenmodellierungs-Tool zu einem System für Enterprise-Architecture- und Geschäftsprozess-Modellierung weiterentwickelt. Um die Komplexität moderner, ineinandergreifender Softwaresysteme und der von ihnen gemanagten Geschäftsprozesse zu durchdringen, können Anwender auf benutzerdefinierte Datenstrukturen zurückgreifen. Das Web-Tool erstellt Modelle, rollenbasierte Diagramme und andere Visualisierungen, die in allgemein zugängliche Dashboards einfließen. Zum Paket gehört ein KI-basiertes Modellierungs-Tool, das Whiteboard-Skizzen integrieren kann.

Wichtigste Use Cases:

einen digitalen Zwilling für die strategische Modellierung der Enterprise Data Architecture erstellen;

Customer Journeys verstehen;

Services und Systeme mit Application Portfolio Management tracken.

SAP LeanIX Enterprise Architecture Suite

Die Tool-Sammlung von LeanIX umfasst unter anderem Enterprise Architecture Management und andere Bereiche, die für Aufgaben wie SaaS– und Value-Stream-Management wichtig sind – etwa um Cloud-Deployments und darauf laufende Services zu tracken. Die Daten die dabei über die IT-Infrastruktur gesammelt werden, fließen in ein grafisches Dashboard ein. Das Tool ist eng mit wichtigen Cloud-Workflow-Tools wie Confluence, Jira, Signavio und Lucidchart integriert. Das ist für Teams von Vorteil, die diese Tools bereits nutzen, um ihre Entwicklungsstrategien zu planen und umzusetzen. Seit November 2023 ist LeanIX Teil von SAP.

Wichtigste Use Cases:

Anwendungsmodernisierung und Cloud-Migration managen;

Obsoleszenz von Software-Services evaluieren;

Kosten kontrollieren und managen.

ServiceNow

Die Tool-Sammlung von ServiceNow lässt sich auf verschiedene Architekturtypen herunterbrechen, darunter Assets, DevOps, Security und Service. Die Tools katalogisieren die unterschiedlichen Hardware- und Softwareplattformen, um Workflows und Datenflüsse im Unternehmen abzubilden und zu verstehen. Ausführliche Reportings und detaillierte Dashboards ermöglichen Analysen, auf deren Grundlage Risiken minimiert und die Ausfallsicherheit der Systeme erhöht werden können.

Wichtigste Use Cases:

Tracken von Assets, Services und Systemen, die das Unternehmen ausmachen;

Governance-Themen, Risikobegrenzung, IT-Management und Security Operations werden in einer Plattform zusammengeführt;

durch die Integration von CRM-Tools lassen sich auch kundenorientierte Services managen.

Sparx Systems

Um Teams und Projekte verschiedener Größe und Komplexität zu unterstützen, hat Sparx vier Versionen seines EA-Tools entwickelt. Allen gemeinsam ist eine UML-basierte Modellierung, mit der sich die Komponenten komplexer Systeme tracken lassen. Eine Simulations-Engine ermöglicht “War Gaming” und vermittelt ein Verständnis darüber, wie sich Fehler ausbreiten und kaskadieren können. Sparx stellt zudem eine Vielzahl von vorgefertigten Design Patterns bereit, um Teams bei der Modellierung zu unterstützen.

Wichtigste Use Cases:

Nachfrage- und Lastveränderungen zur Prognose künftiger Anforderungen simulieren;

(potenzielle) Probleme durch eine Verbindungs-Matrix im Auge behalten;

Dokumentation erstellen.

Unicom System Architect

System Architect ist eines der Angebote aus Unicoms Team Blue. Es handelt sich um ein Tool, das ein Metamodell verwendet, um automatisiert so viele Daten wie möglich über die laufenden Systeme zu sammeln – manchmal auch durch ein Reverse Engineering von Datenflüssen. Dieses systemweite Datenmodell kann über benutzerdefinierte Dashboards Teammitgliedern aller Rollen zugänglich gemacht werden. Ein weiteres erwähnenswertes Feature: Die Ressourcenzuweisung lässt sich mit Hilfe von Simulationen optimieren.

Wichtigste Use Cases:

Was-wäre-wenn-Fragen zum Architekturmodell stellen;

ein Metamodell von Daten und Systemen aufbauen;

Migrations- und Transformationspläne erstellen.

ValueBlue BlueDolphin

Dieses EA-Tool sammelt Daten auf dreierlei Art:

Es importiert Basisdaten auf der Grundlage standardgesteuerter Automatisierung (ITSM, SAM).

Es arbeitet mit den Dateiformaten von Architekten und Systemdesignern – etwa ArchiMate oder BPMN.

Es gibt Fragebögen an andere Stakeholder heraus, die auf anpassbaren Vorlagen basieren.

Die aufbereiteten Informationen werden in einer visuellen Umgebung bereitgestellt, die Auskunft über die historische Entwicklung von Systemen gibt.

Wichtigste Use Cases:

systemweite Daten von internen und externen Stakeholdern automatisiert und formularbasiert erfassen;

zukunftsorientierte Reportings erzeugen, um den Change zu überwachen und voranzutreiben;

Kooperation und Zusammenarbeit durch offenes Data Reporting fördern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Enterprise-Architecture-Tools​ Weiterlesen »

100 Tage schwarz-rote Digitalpolitik– eine Bilanz​

Allgemein

100 Tagen nach dem Amtsantritt der neuen Regierung  sind zentrale Fragen der Digitalpolitik weiterhin ungelöst, meint der eco-Verband. Margarita Kosareva – Shutterstock.com Positiv sieht der Verband das neue Bundesministerium für Digitales und Standortpolitik (BMDS). Hiermit sei eine zentrale langjährige Forderung der Branche erfüllt worden. Auf der anderen Seite kritisiert der eco, dass viele digitale Kernprojekte noch nicht über die Startlinie hinausgekommen seien. Besonders bei Künstlicher Intelligenz, Rechenzentren, Verwaltungsdigitalisierung und Datenschutz sieht man dringenden Handlungsbedarf. Kritisch bewertet der Verband zudem die Pläne zur Vorratsdatenspeicherung im neuen Sicherheitspaket. So fordert Oliver Süme, Vorstandsvorsitzender des eco: „100 Tage nach Amtsantritt darf sich Digitalpolitik nicht länger in Zuständigkeitsdebatten verlieren – wir brauchen jetzt Tempo, Führung und Gestaltungswillen.“ Unklare KI- und RZ-Politik Dazu gehört für die Interessensvertretung auch, dass das BMDS Durchgriffsmöglichkeiten erhält. Denn ohne verbindliche Steuerungsverantwortung könne das neue Ministerium seine Rolle als digitalpolitische Schaltzentrale nicht vollumfänglich erfüllen. Ferner sind für den Verband zentrale Fragen der KI-Politik ungelöst. Die Federführung liege teils beim BMDS (AI Act, internationale KI-Strategie, Standortpolitik), teils beim Bundeswirtschaftsministerium (Wettbewerbsrecht, DMA) und teils beim Forschungsministerium (EU-KI-Gigafactories). Diese Fragmentierung gefährdet aus Sicht des eco eine kohärente Umsetzung des AI Act und lähmt Investitionen. „Künstliche Intelligenz muss Chefsache werden – und das heißt: eindeutige Zuständigkeiten, klare Kommunikation, praxistaugliche Umsetzung“, appelliert Süme an die Politik. Unzufrieden ist man auch mit der nationalen Strategie für Rechenzentren. Sie sei zwar angekündigt, doch wann diese erscheinen soll und welche konkreten Entlastungen sie für die Branche beinhaltet, bleibe bislang noch unklar. Gleichzeitig erschwerten steigende Energiepreise, es für deutsche Betreiber im internationalen Vergleich, wettbewerbsfähig zu bleiben, so der Verband. Hier fordert der eco, die Energieeffizienzvorgaben zu überarbeiten sowie beihilferechtliche Vorgaben anzupassen, um Entlastungen bei den Energiepreisen zu ermöglichen. Zum anderen müsse auch der Zugang zu Stromnetzanschlusskapazität gewährleistet sein. Kritik an Dobrindt Kein gutes Haar lässt man auch an den Überwachungsplänen von Bundesinnenminister Alexander Dobrindt. Trotz eindeutiger Rechtsprechung von EuGH und Bundesverwaltungsgericht kündigte der neue Innenminister eine verpflichtende Speicherung aller IP-Adressen an. Diese Form der anlasslosen Überwachung über mehrere Monate hinweg verstößt nach Ansicht des Verbands gegen EU-Recht, schafft erhebliche Rechtsunsicherheit und belastet Infrastrukturbetreiber unnötig. Selbst das Bundeskriminalamt geht nach einer Studie zu Verdachtsmeldungen im Bereich der Kinderpornographie davon aus, dass die Erfolgsquote oberhalb einer Speicherverpflichtung von zwei bis drei Wochen nicht mehr signifikant ansteigt. Entscheidender und wichtiger ist es aus Sicht der Internetwirtschaft, die Vereinfachung der Datenschutzregeln für Unternehmen voranzutreiben. So stelle der Koalitionsvertrag in Aussicht, die Datenschutzaufsicht sowie Fragen der Datennutzung beim Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) zu bündeln. Dies würde eine einheitliche Anwendung der europäischen Vorgaben ermöglichen. Entlastungen gefordert Schließlich benötigt die Internetwirtschaft insbesondere in Deutschland dringend Entlastung – nicht nur im internationalen, sondern auch im europäischen Kontext. Allerdings sieht der Verband hier ein Problem: Das BMDS ist nicht für den Datenschutz der Wirtschaft zuständig, auch bleiben weiterhin fragmentierte Zuständigkeiten bestehen und stellen die Wirtschaft vor Probleme. Aus Sicht des Verbands der Internetwirtschaft sollte die Regierung in den nächsten 100 Tagen folgende digitalpolitischen Prioritäten setzen: Bürokratie reduzieren: Insbesondere das Energieeffizienzgesetz muss dringend nachgebessert werden. Innovation vorantreiben: Künstliche Intelligenz und digitale Geschäftsmodelle benötigen einen Rechtsrahmen, der den Einsatz der Technologien nachvollziehbar und verhältnismäßig ermöglicht. Cybersicherheit stärken: Die Umsetzung von NIS 2.0 und TK-NABEG muss zügig und praxisnah erfolgen. Datenschutzaufsicht modernisieren: Eine innovationsfreundliche Neuaufstellung der Aufsichtsstrukturen ist überfällig. Digital Services Act umsetzen: Die Bundesnetzagentur muss personell so ausgestattet werden, dass sie ihre Aufgaben im Rahmen des DSA wirksam erfüllen kann. Digitale Identitäten voranbringen: Es braucht jetzt tragfähige Lösungen für den flächendeckenden und sicheren Einsatz. Verwaltungsdigitalisierung: Der „Deutschland-Stack“ muss in enger Kooperation mit der Wirtschaft angegangen werden. 

100 Tage schwarz-rote Digitalpolitik– eine Bilanz​ 100 Tagen nach dem Amtsantritt der neuen Regierung  sind zentrale Fragen der Digitalpolitik weiterhin ungelöst, meint der eco-Verband.
Margarita Kosareva – Shutterstock.com

Positiv sieht der Verband das neue Bundesministerium für Digitales und Standortpolitik (BMDS). Hiermit sei eine zentrale langjährige Forderung der Branche erfüllt worden. Auf der anderen Seite kritisiert der eco, dass viele digitale Kernprojekte noch nicht über die Startlinie hinausgekommen seien.

Besonders bei Künstlicher Intelligenz, Rechenzentren, Verwaltungsdigitalisierung und Datenschutz sieht man dringenden Handlungsbedarf. Kritisch bewertet der Verband zudem die Pläne zur Vorratsdatenspeicherung im neuen Sicherheitspaket. So fordert Oliver Süme, Vorstandsvorsitzender des eco: „100 Tage nach Amtsantritt darf sich Digitalpolitik nicht länger in Zuständigkeitsdebatten verlieren – wir brauchen jetzt Tempo, Führung und Gestaltungswillen.“

Unklare KI- und RZ-Politik

Dazu gehört für die Interessensvertretung auch, dass das BMDS Durchgriffsmöglichkeiten erhält. Denn ohne verbindliche Steuerungsverantwortung könne das neue Ministerium seine Rolle als digitalpolitische Schaltzentrale nicht vollumfänglich erfüllen.

Ferner sind für den Verband zentrale Fragen der KI-Politik ungelöst. Die Federführung liege teils beim BMDS (AI Act, internationale KI-Strategie, Standortpolitik), teils beim Bundeswirtschaftsministerium (Wettbewerbsrecht, DMA) und teils beim Forschungsministerium (EU-KI-Gigafactories). Diese Fragmentierung gefährdet aus Sicht des eco eine kohärente Umsetzung des AI Act und lähmt Investitionen. „Künstliche Intelligenz muss Chefsache werden – und das heißt: eindeutige Zuständigkeiten, klare Kommunikation, praxistaugliche Umsetzung“, appelliert Süme an die Politik.

Unzufrieden ist man auch mit der nationalen Strategie für Rechenzentren. Sie sei zwar angekündigt, doch wann diese erscheinen soll und welche konkreten Entlastungen sie für die Branche beinhaltet, bleibe bislang noch unklar.

Gleichzeitig erschwerten steigende Energiepreise, es für deutsche Betreiber im internationalen Vergleich, wettbewerbsfähig zu bleiben, so der Verband.

Hier fordert der eco, die Energieeffizienzvorgaben zu überarbeiten sowie beihilferechtliche Vorgaben anzupassen, um Entlastungen bei den Energiepreisen zu ermöglichen. Zum anderen müsse auch der Zugang zu Stromnetzanschlusskapazität gewährleistet sein.

Kritik an Dobrindt

Kein gutes Haar lässt man auch an den Überwachungsplänen von Bundesinnenminister Alexander Dobrindt. Trotz eindeutiger Rechtsprechung von EuGH und Bundesverwaltungsgericht kündigte der neue Innenminister eine verpflichtende Speicherung aller IP-Adressen an. Diese Form der anlasslosen Überwachung über mehrere Monate hinweg verstößt nach Ansicht des Verbands gegen EU-Recht, schafft erhebliche Rechtsunsicherheit und belastet Infrastrukturbetreiber unnötig. Selbst das Bundeskriminalamt geht nach einer Studie zu Verdachtsmeldungen im Bereich der Kinderpornographie davon aus, dass die Erfolgsquote oberhalb einer Speicherverpflichtung von zwei bis drei Wochen nicht mehr signifikant ansteigt.

Entscheidender und wichtiger ist es aus Sicht der Internetwirtschaft, die Vereinfachung der Datenschutzregeln für Unternehmen voranzutreiben. So stelle der Koalitionsvertrag in Aussicht, die Datenschutzaufsicht sowie Fragen der Datennutzung beim Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) zu bündeln. Dies würde eine einheitliche Anwendung der europäischen Vorgaben ermöglichen.

Entlastungen gefordert

Schließlich benötigt die Internetwirtschaft insbesondere in Deutschland dringend Entlastung – nicht nur im internationalen, sondern auch im europäischen Kontext. Allerdings sieht der Verband hier ein Problem: Das BMDS ist nicht für den Datenschutz der Wirtschaft zuständig, auch bleiben weiterhin fragmentierte Zuständigkeiten bestehen und stellen die Wirtschaft vor Probleme.

Aus Sicht des Verbands der Internetwirtschaft sollte die Regierung in den nächsten 100 Tagen folgende digitalpolitischen Prioritäten setzen:

Bürokratie reduzieren:

Insbesondere das Energieeffizienzgesetz muss dringend nachgebessert werden.

Innovation vorantreiben:

Künstliche Intelligenz und digitale Geschäftsmodelle benötigen einen Rechtsrahmen, der den Einsatz der Technologien nachvollziehbar und verhältnismäßig ermöglicht.

Cybersicherheit stärken:

Die Umsetzung von NIS 2.0 und TK-NABEG muss zügig und praxisnah erfolgen.

Datenschutzaufsicht modernisieren:

Eine innovationsfreundliche Neuaufstellung der Aufsichtsstrukturen ist überfällig.

Digital Services Act umsetzen:

Die Bundesnetzagentur muss personell so ausgestattet werden, dass sie ihre Aufgaben im Rahmen des DSA wirksam erfüllen kann.

Digitale Identitäten voranbringen: Es braucht jetzt tragfähige Lösungen für den flächendeckenden und sicheren Einsatz.

Verwaltungsdigitalisierung:

Der „Deutschland-Stack“ muss in enger Kooperation mit der Wirtschaft angegangen werden.

100 Tage schwarz-rote Digitalpolitik– eine Bilanz​ Weiterlesen »

Wird Windows 12 zum sprachgesteuerten KI-Betriebssystem?​

Allgemein

Wird Windows 12 das erste Betriebssystem, dass mit kompletter KI-Integration und Sprachsteuerung konzipiert wurde?MacroEcon – shutterstock.com Auch wenn Windows 12 wohl nicht mehr in diesem Jahr kommt, soll Microsoft bereits fleißig an der nächsten Version seines Betriebssystems arbeiten. In einem kürzlich veröffentlichten Video-Interview gab Pavan Davuluri, Corporate Vice President, Windows + Devices, einen Einblick in die Zukunft der Plattform. Er gehe davon aus, „dass Computer immer allgegenwärtiger und omnipräsenter werden“, erklärte der seit einem Jahr amtierende Windows-Chef. Hierbei würden sie „weiterhin verschiedene Formfaktoren abdecken und im Laufe der Zeit sicherlich multimodaler werden.“ Seiner Ansicht nach werde die Sprache als Eingabemedium weiter an Bedeutung gewinnen. Grundsätzlich gehe er davon aus, dass das Konzept des Computers, der den Bildschirm „sehen“ und kontextuell verstehen kann, eine wichtige Modalität in der Zukunft sei. Der Screen liest mit und versteht Davuluri bestätigte auch, dass sich Windows im Zuge des Vormarsches der KI erheblich verändern werde. Die nächste Version des Betriebssystems soll umgebungsbezogener sowie multimodaler werden. Dafür müsse es aber unter anderem in der Lage sein, den Inhalt von Bildschirmen seiner Nutzenden jederzeit zu verstehen. Dies ermögliche kontextbezogene Funktionen, die bisher nicht umsetzbar seien. Der Windows-Chef führte weiter aus, dass User künftig mit ihrem Computer sprechen könnten, während sie schreiben, zeichnen oder mit einer anderen Person interagieren. Der Computer werde dabei in der Lage sein, die „Absicht, mit ihm zu interagieren, semantisch verstehen“ zu können. Bald drei Eingabemethoden? Die Redmonder wollen anscheinend Sprachsteuerung als zusätzliche Eingabemethode hinzufügen. Nutzende sollen in natürlicher Sprache mit Windows kommunizieren können, während das Betriebssystem Ihre Absicht anhand der aktuellen Bildschirmanzeige verstehen soll. Anstelle zweier primärer Eingabemethoden gäbe es dann drei: Tastatur, Touchscreen/Maus und Sprache. Das erste KI-Betriebssystem? Davuluri deutete auch an, dass Windows dank Agentic AI wahrscheinlich sein Aussehen verändern werde. Als Gründe hierfür nannte er unter anderem die erwartete Veränderung der Benutzeroberflächen in den nächsten fünf Jahren. „Das Betriebssystem wird zunehmend agentenbasiert und multimodal… das ist für uns ein Bereich, in den wir enorm investieren und der sich stark verändert“, erklärte der Windows-Chef. Davuluri hob zudem die Cloud als Wegbereiter für diese zukünftigen Erfahrungen hervor: „Computing wird allgegenwärtig sein, da Windows-Erfahrungen eine Kombination aus lokalen und Cloud-basierten Funktionen nutzen werden. Ich denke, es ist unsere Verantwortung, dafür zu sorgen, dass diese für unsere Kunden nahtlos funktionieren.“ Es bleibt abzuwarten, wie sehr sich Betriebssysteme optisch verändern – und wie stark sie sich von bereits existierenden KI-Assistenten unterscheiden werden. Programme wie Copilot unter Windows, Gemini unter Android oder Siri auf dem Mac sind momentan in erster Linie als Apps auf bestehenden Betriebssystemplattformen vorhanden. Sie sind hierbei als Overlays oder schwebende App-Fenster über dem Betriebssystem konzipiert. Ein System, dass von vornherein mit KI verknüpft ist, existiert noch nicht. 

Wird Windows 12 zum sprachgesteuerten KI-Betriebssystem?​ Wird Windows 12 das erste Betriebssystem, dass mit kompletter KI-Integration und Sprachsteuerung konzipiert wurde?MacroEcon – shutterstock.com

Auch wenn Windows 12 wohl nicht mehr in diesem Jahr kommt, soll Microsoft bereits fleißig an der nächsten Version seines Betriebssystems arbeiten. In einem kürzlich veröffentlichten Video-Interview gab Pavan Davuluri, Corporate Vice President, Windows + Devices, einen Einblick in die Zukunft der Plattform.

Er gehe davon aus, „dass Computer immer allgegenwärtiger und omnipräsenter werden“, erklärte der seit einem Jahr amtierende Windows-Chef. Hierbei würden sie „weiterhin verschiedene Formfaktoren abdecken und im Laufe der Zeit sicherlich multimodaler werden.“

Seiner Ansicht nach werde die Sprache als Eingabemedium weiter an Bedeutung gewinnen. Grundsätzlich gehe er davon aus, dass das Konzept des Computers, der den Bildschirm „sehen“ und kontextuell verstehen kann, eine wichtige Modalität in der Zukunft sei.

Der Screen liest mit und versteht

Davuluri bestätigte auch, dass sich Windows im Zuge des Vormarsches der KI erheblich verändern werde. Die nächste Version des Betriebssystems soll umgebungsbezogener sowie multimodaler werden. Dafür müsse es aber unter anderem in der Lage sein, den Inhalt von Bildschirmen seiner Nutzenden jederzeit zu verstehen. Dies ermögliche kontextbezogene Funktionen, die bisher nicht umsetzbar seien.

Der Windows-Chef führte weiter aus, dass User künftig mit ihrem Computer sprechen könnten, während sie schreiben, zeichnen oder mit einer anderen Person interagieren. Der Computer werde dabei in der Lage sein, die „Absicht, mit ihm zu interagieren, semantisch verstehen“ zu können.

Bald drei Eingabemethoden?

Die Redmonder wollen anscheinend Sprachsteuerung als zusätzliche Eingabemethode hinzufügen. Nutzende sollen in natürlicher Sprache mit Windows kommunizieren können, während das Betriebssystem Ihre Absicht anhand der aktuellen Bildschirmanzeige verstehen soll. Anstelle zweier primärer Eingabemethoden gäbe es dann drei: Tastatur, Touchscreen/Maus und Sprache.

Das erste KI-Betriebssystem?

Davuluri deutete auch an, dass Windows dank Agentic AI wahrscheinlich sein Aussehen verändern werde. Als Gründe hierfür nannte er unter anderem die erwartete Veränderung der Benutzeroberflächen in den nächsten fünf Jahren. „Das Betriebssystem wird zunehmend agentenbasiert und multimodal… das ist für uns ein Bereich, in den wir enorm investieren und der sich stark verändert“, erklärte der Windows-Chef.

Davuluri hob zudem die Cloud als Wegbereiter für diese zukünftigen Erfahrungen hervor: „Computing wird allgegenwärtig sein, da Windows-Erfahrungen eine Kombination aus lokalen und Cloud-basierten Funktionen nutzen werden. Ich denke, es ist unsere Verantwortung, dafür zu sorgen, dass diese für unsere Kunden nahtlos funktionieren.“

Es bleibt abzuwarten, wie sehr sich Betriebssysteme optisch verändern – und wie stark sie sich von bereits existierenden KI-Assistenten unterscheiden werden. Programme wie Copilot unter Windows, Gemini unter Android oder Siri auf dem Mac sind momentan in erster Linie als Apps auf bestehenden Betriebssystemplattformen vorhanden. Sie sind hierbei als Overlays oder schwebende App-Fenster über dem Betriebssystem konzipiert. Ein System, dass von vornherein mit KI verknüpft ist, existiert noch nicht.

Wird Windows 12 zum sprachgesteuerten KI-Betriebssystem?​ Weiterlesen »

IT-Produkte der Woche​

Allgemein

Telekom launcht KI-Phone Die Deutsche Telekom hat „Wort gehalten“ und bringt ihr im Frühjahr angekündigtes, KI-gestütztes Smartphone als T Phone 3 auf den Markt. Herzstück des 6,6 Zoll großen Android-Geräts ist der Perplexity Assistent, der nach Druck auf den Magenta-Button aktiv wird und Fragen beantwortet – oder einfache Aufgaben wie Kalendereinträge, E-Mails oder Zusammenfassungen erledigt. Alternativ bietet die Telekom mit dem T Tablet 2 auch ein 10-Zoll-Tablet mit KI-Funktionen an. KI-Phone und KI-Tablet sind ab sofort zu einem Preis von 149 Euro (Smartphone) beziehungsweise 199 Euro (Tablet) erhältlich. Werden die Endgeräte zusammen mit einem Tarif erworben, kosten sie jeweils sogar nur einen Euro. Im Preis enthalten ist auch ein 18-monatiges Abonnement von Perplexity Pro. Hier erfahren Sie mehr Telekom Cloudera bringt Private AI ins eigene Rechenzentrum Mit einer On-Premises-Version seiner Data Services will Cloudera es Kunden ermöglichen, Private AI direkt im eigenen Rechenzentrum zu nutzen. Damit erhielten sie sichere, GPU-beschleunigte GenAI-Funktionen hinter ihrer Firewall, gab der Big-Data-Spezialist bekannt. Dank integrierter Governance und hybrider Portabilität lasse sich eine eigene souveräne Daten-Cloud im eigenen Rechenzentrum aufbauen und skalieren. Im Rahmen der Erweiterung sind zudem der KI-Inferenzdienst Cloudera AI Inference Service sowie die Tool-Sammlung AI Studios im Rechenzentrum verfügbar, um die Einführung von KI beschleunigen, hieß es.Hier erfahren Sie mehr LANCOM erweitert sein Wifi-7-Portfolio Mit dem neuen Wi-Fi 7 Access Point LW-700 stellt LANCOM ein günstiges Einstiegsmodell vor. Das PoE-fähige Gerät funkt im 2,4-Ghz- und 5-Ghz-Band und soll sich mit aggregierten Datenraten von bis zu 3,6 GBit/s gut für kleine bis mittelgroße Nutzerzahlen eignen. Laut Lancom kann der Access Point sowohl autonom als auch Cloud-basiert betrieben werden. Bei Nutzung der LANCOM Management Cloud (LMC) erfolgt die Konfiguration dem Anbieter zufolge vollautomatisch und ohne manuelles Eingreifen (Zero-Touch Deployment). Der LW-700 bietet zudem eine Vielzahl integrierter Sicherheitsfunktionen, darunter IEEE 802.1X (WPA3-Enterprise, WPA2-Enterprise), WPA3-Personal und IEEE 802.11i (WPA2-Personal). Darüber hinaus lassen sich neue Clients per QR-Code verbinden. Der LANCOM LW-700 ist ab sofort zum Preis von 429 Euro verfügbar. Hier erfahren Sie mehr LANCOM Mit Agent Rewind die Fehler der KI bereinigen Immer mehr Unternehmen setzen auf Agentic AI und werden dadurch anfällig für „nicht-menschliche“ Fehler. Der neue Agent Rewind von Rubrik basiert auf der KI-Infrastruktur von Predibase und soll es Unternehmen ermöglichen, Einblick in die schwer nachzuvollziehenden Aktionen von KI-Agenten zu erhalten und ihre Fehler rückgängig zu machen. Laut Rubrik bietet die Lösung hierfür eine kontextbezogene Nachverfolgbarkeit von Agentenaktionen. Das System erstelle dazu ein Prüfprotokoll mit unveränderlichen Momentaufnahmen, heißt es. Dadurch ließen sich nicht nur Ursachen erkennen, sondern auch gezielte Rollbacks durchführen, etwa bei Änderungen an Dateien, Datenbanken oder Systemkonfigurationen. Agent Rewind lässt sich nach Angaben des Unternehmens außerdem nahtlos mit einer Vielzahl von Plattformen, APIs und Agenten-Erstellern integrieren, darunter Agentforce, Microsoft Copilot Studio und Amazon Bedrock Agents. Hier erfahren Sie mehr Claude Sonnet 4 erhält mehr Kontext-Verständnis Anthropic hat die Fähigkeiten von Claude Sonnet 4 erweitert. Das KI-Modell kann nun Kontexte mit bis zu einer Million Token verarbeiten – fünfmal mehr als bisher. Entwickler könnten damit ganze Codebasen mit mehr als 75.000 Zeilen Code oder große Dokumentsammlungen in einer einzigen Anfrage verarbeiten, wirbt das KI-Startup. Anthropic zufolge profitieren aber auch Nicht-Entwickler: Führungskräfte könnten komplette Datensätze in einem Durchgang analysieren. Beispielsweise CIOs, die alle Transaktionsprotokolle überprüfen, um Betrugsmuster zu erkennen. Das Upgrade ist derzeit über die API von Anthropic und Amazon Bedrock in der öffentlichen Beta-Phase verfügbar. Die Integration in Vertex AI von Google Cloud wird in Kürze erwartet. Hier erfahren Sie mehr 

IT-Produkte der Woche​ Telekom launcht KI-Phone

Die Deutsche Telekom hat „Wort gehalten“ und bringt ihr im Frühjahr angekündigtes, KI-gestütztes Smartphone als T Phone 3 auf den Markt. Herzstück des 6,6 Zoll großen Android-Geräts ist der Perplexity Assistent, der nach Druck auf den Magenta-Button aktiv wird und Fragen beantwortet – oder einfache Aufgaben wie Kalendereinträge, E-Mails oder Zusammenfassungen erledigt. Alternativ bietet die Telekom mit dem T Tablet 2 auch ein 10-Zoll-Tablet mit KI-Funktionen an.

KI-Phone und KI-Tablet sind ab sofort zu einem Preis von 149 Euro (Smartphone) beziehungsweise 199 Euro (Tablet) erhältlich. Werden die Endgeräte zusammen mit einem Tarif erworben, kosten sie jeweils sogar nur einen Euro. Im Preis enthalten ist auch ein 18-monatiges Abonnement von Perplexity Pro. Hier erfahren Sie mehr

Telekom

Cloudera bringt Private AI ins eigene Rechenzentrum

Mit einer On-Premises-Version seiner Data Services will Cloudera es Kunden ermöglichen, Private AI direkt im eigenen Rechenzentrum zu nutzen. Damit erhielten sie sichere, GPU-beschleunigte GenAI-Funktionen hinter ihrer Firewall, gab der Big-Data-Spezialist bekannt. Dank integrierter Governance und hybrider Portabilität lasse sich eine eigene souveräne Daten-Cloud im eigenen Rechenzentrum aufbauen und skalieren. Im Rahmen der Erweiterung sind zudem der KI-Inferenzdienst Cloudera AI Inference Service sowie die Tool-Sammlung AI Studios im Rechenzentrum verfügbar, um die Einführung von KI beschleunigen, hieß es.Hier erfahren Sie mehr

LANCOM erweitert sein Wifi-7-Portfolio

Mit dem neuen Wi-Fi 7 Access Point LW-700 stellt LANCOM ein günstiges Einstiegsmodell vor. Das PoE-fähige Gerät funkt im 2,4-Ghz- und 5-Ghz-Band und soll sich mit aggregierten Datenraten von bis zu 3,6 GBit/s gut für kleine bis mittelgroße Nutzerzahlen eignen. Laut Lancom kann der Access Point sowohl autonom als auch Cloud-basiert betrieben werden. Bei Nutzung der LANCOM Management Cloud (LMC) erfolgt die Konfiguration dem Anbieter zufolge vollautomatisch und ohne manuelles Eingreifen (Zero-Touch Deployment).

Der LW-700 bietet zudem eine Vielzahl integrierter Sicherheitsfunktionen, darunter IEEE 802.1X (WPA3-Enterprise, WPA2-Enterprise), WPA3-Personal und IEEE 802.11i (WPA2-Personal). Darüber hinaus lassen sich neue Clients per QR-Code verbinden. Der LANCOM LW-700 ist ab sofort zum Preis von 429 Euro verfügbar. Hier erfahren Sie mehr

LANCOM

Mit Agent Rewind die Fehler der KI bereinigen

Immer mehr Unternehmen setzen auf Agentic AI und werden dadurch anfällig für „nicht-menschliche“ Fehler. Der neue Agent Rewind von Rubrik basiert auf der KI-Infrastruktur von Predibase und soll es Unternehmen ermöglichen, Einblick in die schwer nachzuvollziehenden Aktionen von KI-Agenten zu erhalten und ihre Fehler rückgängig zu machen. Laut Rubrik bietet die Lösung hierfür eine kontextbezogene Nachverfolgbarkeit von Agentenaktionen. Das System erstelle dazu ein Prüfprotokoll mit unveränderlichen Momentaufnahmen, heißt es. Dadurch ließen sich nicht nur Ursachen erkennen, sondern auch gezielte Rollbacks durchführen, etwa bei Änderungen an Dateien, Datenbanken oder Systemkonfigurationen.

Agent Rewind lässt sich nach Angaben des Unternehmens außerdem nahtlos mit einer Vielzahl von Plattformen, APIs und Agenten-Erstellern integrieren, darunter Agentforce, Microsoft Copilot Studio und Amazon Bedrock Agents. Hier erfahren Sie mehr

Claude Sonnet 4 erhält mehr Kontext-Verständnis

Anthropic hat die Fähigkeiten von Claude Sonnet 4 erweitert. Das KI-Modell kann nun Kontexte mit bis zu einer Million Token verarbeiten – fünfmal mehr als bisher. Entwickler könnten damit ganze Codebasen mit mehr als 75.000 Zeilen Code oder große Dokumentsammlungen in einer einzigen Anfrage verarbeiten, wirbt das KI-Startup. Anthropic zufolge profitieren aber auch Nicht-Entwickler: Führungskräfte könnten komplette Datensätze in einem Durchgang analysieren. Beispielsweise CIOs, die alle Transaktionsprotokolle überprüfen, um Betrugsmuster zu erkennen. Das Upgrade ist derzeit über die API von Anthropic und Amazon Bedrock in der öffentlichen Beta-Phase verfügbar. Die Integration in Vertex AI von Google Cloud wird in Kürze erwartet. Hier erfahren Sie mehr

IT-Produkte der Woche​ Weiterlesen »

Homeoffice bleibt und wird sogar noch ausgebaut​

Allgemein

International wird der Ruf nach einer Rückkehr ins Büro lauter. In Deutschland verhält sich die Situation anders. karen roach – shutterstock.com Die Rückkehr ins Büro ist ein Szenario, welches immer wieder diskutiert wird, insbesondere von US-amerikanischen Unternehmen. Dabei wird vor allem eine gesteigerte Produktivität der Mitarbeitenden als Grund genannt. Droht also das Ende des Home-Office? Hierzulande zumindest in gewissen Branchen mitnichten, wie der aktuelle ZEW Branchenreport Informationswirtschaft aufzeigt. Nur wenige der befragten Unternehmen wollen ihre Homeoffice-Angebote in den kommenden zwei Jahren reduzieren oder gar komplett einstellen. Das Gegenteil scheint sogar der Fall zu sein, wie Studienleiter Daniel Erdsiek aus dem ZEW-Forschungsbereich „Digitale Ökonomie“ feststellt: „Die Homeoffice-Nutzung verharrt seit der Corona-Pandemie auf einem konstant hohen Niveau und ein Rückgang ist nicht zu erwarten. Die Pläne der Unternehmen deuten für die kommenden zwei Jahre sogar eher auf mehr Beschäftigte im Homeoffice hin.“ Seit Corona bleibt die Homeoffice-Nutzung in Deutschland stabil – und könnte noch weiter zulegen. ZEW Konjunkturumfrage Informationswissenschaft, Juni 2025 Mehr Mitarbeitende, mehr Homeoffice Vier von fünf Unternehmen in der Informationswirtschaft und fast jedes zweite Unternehmen im Verarbeitenden Gewerbe erlaubten es ihren Angestellten, mindestens einen Homeoffice-Tag pro Woche zu nehmen, so Erdsiek. Beschäftigt eine Firma mehr als 100 Personen, nimmt die Nutzungsrate deutlich zu: „Im Verarbeitenden Gewerbe nutzen 88 Prozent solcher Unternehmen Homeoffice-Angebote und in der Informationswirtschaft sind es mit 98 Prozent fast alle Unternehmen dieser Größe“, betont der Leiter der Studie. Nur rund zehn Prozent der Unternehmen, die Homeoffice anbieten, wollen ihre Angebote reduzieren oder abschaffen. Deutlich häufiger planen Unternehmen dafür, ihre bestehenden Homeoffice-Möglichkeiten noch auszuweiten. Sie wollen sogar einem noch höheren Anteil der Belegschaft die Arbeit im Homeoffice ermöglichen. In der Informationswirtschaft sind es 29 Prozent, im Verarbeitenden Gewerbe 34 Prozent. Auch Unternehmen, die bis jetzt noch kein Homeoffice haben, liebäugeln damit, es einzuführen: In der Informationswirtschaft ist es gut ein Fünftel (21 Prozent), im verarbeitenden Gewerbe knapp ein Zehntel (neun Prozent). Homeoffice wird weiter ausgebaut, insbesondere von Firmen, die schon darauf setzen.ZEW Konjunkturumfrage Informationswissenschaft, Juni 2025 Bindung hui, Innovation pfui? Mit der Einführung des Homeoffice könnten „vielfältige Effekte“ einhergehen, stellt Erdsiek dar. „Besonders positiv bewerten Unternehmen die Wirkung auf die Arbeitszufriedenheit von Beschäftigten.“ Rund zwei Drittel der befragten Unternehmen sehen laut Studie einen Vorteil von hybriden Homeoffice-Angeboten mit einem Mix aus Präsenz- und Homeoffice-Tagen. Darüber hinaus berichteten mehr als die Hälfte der Unternehmen, dass hybride Modelle das Anwerben von Fachkräften erleichtern, so der Experte. Was die Bindung der Mitarbeitenden betrifft, schätzen die Unternehmen dies unterschiedlich ein. Etwa die Hälfte geht davon aus, dass sie positiv beeinflusst wird, 31 Prozent erwarten eher negative Effekte. Mehrheitlich einig sind sich die Teilnehmenden, dass das Homeoffice die interne Kommunikation und Teamarbeit beeinflusst. Rund zwei Drittel der Befragten sehen hier einen Nachteil. Die Studienmacher spekulieren, dass möglicherweise auch deshalb für 41 Prozent der Unternehmen potenziell negative Effekte auf die Innovationsfähigkeit überwiegen. Im Gegensatz dazu sind weniger als zehn Prozent der Befragten der Meinung, dass hybride Arbeitsmodelle einen positiven Effekt auf die interne Kommunikation oder Innovationsfähigkeit haben. Stärker gespalten sind die Unternehmen, wenn es um die Auswirkung hybrider Arbeitsmodelle auf die Produktivität von Beschäftigen geht: Ein Drittel befürchtet dadurch negative Effekte, während rund ein Fünftel Vorteile für die Produktivität sehen. Fast die Hälfte der Befragten geht wiederum davon aus, dass hybride Arbeitsmodelle keine nennenswerten Auswirkungen auf die Produktivität haben werden. Homeoffice macht Angestellte glücklich, aber stört auch die interne Kommunikation. Das zumindest behaupten die befragten Unternehmen. ZEW Im Rahmen des „ZEW-Branchenreport Informationswirtschaft“ wurden im Juni 2025 rund 1.200 Unternehmen in Deutschland befragt. Sie stammen aus dem Verarbeitenden Gewerbe und der Informationswirtschaft (IKT-Branche, Mediendienstleister und wissensintensive Dienstleister). 

Homeoffice bleibt und wird sogar noch ausgebaut​ International wird der Ruf nach einer Rückkehr ins Büro lauter. In Deutschland verhält sich die Situation anders.
karen roach – shutterstock.com

Die Rückkehr ins Büro ist ein Szenario, welches immer wieder diskutiert wird, insbesondere von US-amerikanischen Unternehmen. Dabei wird vor allem eine gesteigerte Produktivität der Mitarbeitenden als Grund genannt. Droht also das Ende des Home-Office?

Hierzulande zumindest in gewissen Branchen mitnichten, wie der aktuelle ZEW Branchenreport Informationswirtschaft aufzeigt. Nur wenige der befragten Unternehmen wollen ihre Homeoffice-Angebote in den kommenden zwei Jahren reduzieren oder gar komplett einstellen. Das Gegenteil scheint sogar der Fall zu sein, wie Studienleiter Daniel Erdsiek aus dem ZEW-Forschungsbereich „Digitale Ökonomie“ feststellt:

„Die Homeoffice-Nutzung verharrt seit der Corona-Pandemie auf einem konstant hohen Niveau und ein Rückgang ist nicht zu erwarten. Die Pläne der Unternehmen deuten für die kommenden zwei Jahre sogar eher auf mehr Beschäftigte im Homeoffice hin.“

Seit Corona bleibt die Homeoffice-Nutzung in Deutschland stabil – und könnte noch weiter zulegen.
ZEW Konjunkturumfrage Informationswissenschaft, Juni 2025

Mehr Mitarbeitende, mehr Homeoffice

Vier von fünf Unternehmen in der Informationswirtschaft und fast jedes zweite Unternehmen im Verarbeitenden Gewerbe erlaubten es ihren Angestellten, mindestens einen Homeoffice-Tag pro Woche zu nehmen, so Erdsiek.

Beschäftigt eine Firma mehr als 100 Personen, nimmt die Nutzungsrate deutlich zu: „Im Verarbeitenden Gewerbe nutzen 88 Prozent solcher Unternehmen Homeoffice-Angebote und in der Informationswirtschaft sind es mit 98 Prozent fast alle Unternehmen dieser Größe“, betont der Leiter der Studie.

Nur rund zehn Prozent der Unternehmen, die Homeoffice anbieten, wollen ihre Angebote reduzieren oder abschaffen. Deutlich häufiger planen Unternehmen dafür, ihre bestehenden Homeoffice-Möglichkeiten noch auszuweiten. Sie wollen sogar einem noch höheren Anteil der Belegschaft die Arbeit im Homeoffice ermöglichen. In der Informationswirtschaft sind es 29 Prozent, im Verarbeitenden Gewerbe 34 Prozent.

Auch Unternehmen, die bis jetzt noch kein Homeoffice haben, liebäugeln damit, es einzuführen: In der Informationswirtschaft ist es gut ein Fünftel (21 Prozent), im verarbeitenden Gewerbe knapp ein Zehntel (neun Prozent).

Homeoffice wird weiter ausgebaut, insbesondere von Firmen, die schon darauf setzen.ZEW Konjunkturumfrage Informationswissenschaft, Juni 2025

Bindung hui, Innovation pfui?

Mit der Einführung des Homeoffice könnten „vielfältige Effekte“ einhergehen, stellt Erdsiek dar. „Besonders positiv bewerten Unternehmen die Wirkung auf die Arbeitszufriedenheit von Beschäftigten.“ Rund zwei Drittel der befragten Unternehmen sehen laut Studie einen Vorteil von hybriden Homeoffice-Angeboten mit einem Mix aus Präsenz- und Homeoffice-Tagen. Darüber hinaus berichteten mehr als die Hälfte der Unternehmen, dass hybride Modelle das Anwerben von Fachkräften erleichtern, so der Experte.

Was die Bindung der Mitarbeitenden betrifft, schätzen die Unternehmen dies unterschiedlich ein. Etwa die Hälfte geht davon aus, dass sie positiv beeinflusst wird, 31 Prozent erwarten eher negative Effekte.

Mehrheitlich einig sind sich die Teilnehmenden, dass das Homeoffice die interne Kommunikation und Teamarbeit beeinflusst. Rund zwei Drittel der Befragten sehen hier einen Nachteil.

Die Studienmacher spekulieren, dass möglicherweise auch deshalb für 41 Prozent der Unternehmen potenziell negative Effekte auf die Innovationsfähigkeit überwiegen. Im Gegensatz dazu sind weniger als zehn Prozent der Befragten der Meinung, dass hybride Arbeitsmodelle einen positiven Effekt auf die interne Kommunikation oder Innovationsfähigkeit haben.

Stärker gespalten sind die Unternehmen, wenn es um die Auswirkung hybrider Arbeitsmodelle auf die Produktivität von Beschäftigen geht: Ein Drittel befürchtet dadurch negative Effekte, während rund ein Fünftel Vorteile für die Produktivität sehen. Fast die Hälfte der Befragten geht wiederum davon aus, dass hybride Arbeitsmodelle keine nennenswerten Auswirkungen auf die Produktivität haben werden.

Homeoffice macht Angestellte glücklich, aber stört auch die interne Kommunikation. Das zumindest behaupten die befragten Unternehmen.
ZEW

Im Rahmen des „ZEW-Branchenreport Informationswirtschaft“ wurden im Juni 2025 rund 1.200 Unternehmen in Deutschland befragt. Sie stammen aus dem Verarbeitenden Gewerbe und der Informationswirtschaft (IKT-Branche, Mediendienstleister und wissensintensive Dienstleister).

Homeoffice bleibt und wird sogar noch ausgebaut​ Weiterlesen »

Alle Smartphones haben mittlerweile diese neue Funktion – so finden und nutzen Sie sie​

Allgemein

Dean Drobot / Shutterstock.com Am 28. Juni 2025 hatten alle Besitzer eines Smartphones eine besondere Neuerung bekommen. Sie können seitdem nämlich eine komplett neue Funktion nutzen. Dabei ist es egal, ob Sie ein Android-Gerät oder iPhone besitzen, und ob Sie im Netz von Telekom, Vodafone, Telefónica oder 1&1 surfen und telefonieren. Bei der Neuerung handelt es sich um RTT, was für Real Time Text steht. Also eine Chat-Funktion, die in Echtzeit abläuft, und zwar während eines laufenden Gesprächs. Dafür ist weder eine aktive Internetverbindung notwendig, noch fallen weitere Kosten für die Nutzung an. Wie funktioniert RTT? Laut dem Anbieter Telefónica handelt es sich bei RTT um eine barrierefreie Chat-Funktion, für die Sie keine spezielle App oder einen anderen Vertrag benötigen. Sie können sie in jedem 4G- oder 5G-Netz einfach nutzen, indem Sie einen Anruf durchführen und die Funktion auf Ihrem Handy aktivieren. Das geht in der Regel über die Einstellungen, in denen Sie RTT als Bedienungshilfe aktivieren müssen (mehr dazu später), soll aber auch während eines laufenden Anrufs noch möglich sein. Wenn beide Gesprächspartner RTT nutzen, sehen Sie ein T-Symbol mit vier Strichen und können damit den Chat starten. Anders als bei Messenger-Diensten wie Whatsapp oder auch SMS müssen Sie RTT-Nachrichten nicht erst abschicken, damit Ihr Gesprächspartner sie sieht. Jeder Buchstabe und jedes Symbol wird einzeln und in Echtzeit übertragen, inklusive Vertippern. Es fallen zudem keine Gebühren an, und auch mobile Daten werden nicht beansprucht. So sieht die neue Funktion auf dem Handy aus.O2 Telefónica Wofür braucht man das? Die neue Funktion soll vor allem Personen nutzen, die Beeinträchtigungen beim Hören oder Sprechen besitzen. Aber auch die Möglichkeit bieten, in akuten Notsituationen um Hilfe zu bitten oder diskret weitere Informationen per Text zu senden. Die Einführung für Notfallhilfe oder Notrufdienste soll aber erst ab Sommer 2027 erfolgen, da diese mehr Zeit für die Umstellung ihrer Notrufzentralen benötigen. Auch für Hotline-Betreiber kann RTT sehr interessant werden, da sie den Dienst zur Übertragung von weiteren Informationen an den Kunden während eines Service-Gesprächs nutzen können. Ebenso können sie über Störungen im Mobilfunknetz informieren. So nutzen Sie RTT auf Ihrem Gerät Im Grunde können alle deutschen Mobilfunknutzer RTT auf Ihrem Gerät aktivieren und damit loslegen. Denn die Netzbetreiber sind dazu verpflichtet, die Funktion anzubieten, und das nicht nur in Deutschland, sondern theoretisch sogar EU-weit. Denn der Hintergrund für die Freischaltung ist der European Accessibility Act, deren Frist am 28. Juni offiziell endete. In der Realität hängt die Nutzbarkeit aber auch davon ab, ob Ihr Smartphone-Hersteller bereits die Telefonie-App sowie Einstellungen auf dem Gerät entsprechend angepasst hat. Apple hat bereits im Mai mit iOS 18.5 dafür gesorgt, dass iPhones entsprechend dafür ausgerüstet sind. Im Test der PC-WELT funktionierte RTT zwischen zwei iPhones problemlos, wie die folgenden Screenshots beweisen (ok, am Textinhalt arbeiten wir noch): Wir starten einen RTT-Anruf: Real Time Text RTT Nachrichten schickenHCD Real Time Text RTT als Anruf auswählen: Real Time Text RTT Nachrichten schickenHCD Wir schicken einander RTT-Nachrichten, deren Inhalt noch Luft nach oben lässt: Real Time Text RTT Nachrichten schickenHCD Bei Android kann es teilweise noch zu Verzögerungen kommen, wenn der Hersteller noch nicht die Änderungen vorgenommen hat. Auf den meisten Geräten können Sie wie folgt vorgehen, um RTT zu aktivieren: Gehen Sie in die Einstellungen. Suchen Sie nach Barrierefreiheit oder Bedienungshilfen. Suchen Sie dort nach der Option Real Time Text / RTT. Um eingehende RTT-Anrufe zuzulassen, aber die Anruftaste auszublenden, tippen Sie auf Nicht sichtbar. Um die RTT-Schaltfläche während eines Anrufs anzuzeigen, tippen Sie auf Sichtbar während des Anrufs. Um die RTT-Schaltfläche immer anzuzeigen, tippen Sie auf Immer sichtbar. Je nach Hersteller können sich diese Optionen unterscheiden. Laut der Deutschen Telekom sind die offiziellen Anforderungen für RTT folgende: eine aktive Sprachverbindung über LTE, 5G oder eine WLAN-Verbindung (WLAN-Call) ein geeignetes Smartphone mit Android (ab Version 10) oder iOS (ab Version 11.2) Wenn Sie ins Ausland telefonieren, funktioniert RTT auch nur dann, wenn der dortige Netzbetreiber die Funktion unterstützt. In den USA ist Real Time Text bereits seit 2017 bekannt und wurde 2018 in alle neuen Geräte implementiert. (PC-Welt) 

Alle Smartphones haben mittlerweile diese neue Funktion – so finden und nutzen Sie sie​ Dean Drobot / Shutterstock.com

Am 28. Juni 2025 hatten alle Besitzer eines Smartphones eine besondere Neuerung bekommen. Sie können seitdem nämlich eine komplett neue Funktion nutzen. Dabei ist es egal, ob Sie ein Android-Gerät oder iPhone besitzen, und ob Sie im Netz von Telekom, Vodafone, Telefónica oder 1&1 surfen und telefonieren.

Bei der Neuerung handelt es sich um RTT, was für Real Time Text steht. Also eine Chat-Funktion, die in Echtzeit abläuft, und zwar während eines laufenden Gesprächs. Dafür ist weder eine aktive Internetverbindung notwendig, noch fallen weitere Kosten für die Nutzung an.

Wie funktioniert RTT?

Laut dem Anbieter Telefónica handelt es sich bei RTT um eine barrierefreie Chat-Funktion, für die Sie keine spezielle App oder einen anderen Vertrag benötigen. Sie können sie in jedem 4G- oder 5G-Netz einfach nutzen, indem Sie einen Anruf durchführen und die Funktion auf Ihrem Handy aktivieren.

Das geht in der Regel über die Einstellungen, in denen Sie RTT als Bedienungshilfe aktivieren müssen (mehr dazu später), soll aber auch während eines laufenden Anrufs noch möglich sein. Wenn beide Gesprächspartner RTT nutzen, sehen Sie ein T-Symbol mit vier Strichen und können damit den Chat starten.

Anders als bei Messenger-Diensten wie Whatsapp oder auch SMS müssen Sie RTT-Nachrichten nicht erst abschicken, damit Ihr Gesprächspartner sie sieht. Jeder Buchstabe und jedes Symbol wird einzeln und in Echtzeit übertragen, inklusive Vertippern. Es fallen zudem keine Gebühren an, und auch mobile Daten werden nicht beansprucht.

So sieht die neue Funktion auf dem Handy aus.O2 Telefónica

Wofür braucht man das?

Die neue Funktion soll vor allem Personen nutzen, die Beeinträchtigungen beim Hören oder Sprechen besitzen. Aber auch die Möglichkeit bieten, in akuten Notsituationen um Hilfe zu bitten oder diskret weitere Informationen per Text zu senden. Die Einführung für Notfallhilfe oder Notrufdienste soll aber erst ab Sommer 2027 erfolgen, da diese mehr Zeit für die Umstellung ihrer Notrufzentralen benötigen.

Auch für Hotline-Betreiber kann RTT sehr interessant werden, da sie den Dienst zur Übertragung von weiteren Informationen an den Kunden während eines Service-Gesprächs nutzen können. Ebenso können sie über Störungen im Mobilfunknetz informieren.

So nutzen Sie RTT auf Ihrem Gerät

Im Grunde können alle deutschen Mobilfunknutzer RTT auf Ihrem Gerät aktivieren und damit loslegen. Denn die Netzbetreiber sind dazu verpflichtet, die Funktion anzubieten, und das nicht nur in Deutschland, sondern theoretisch sogar EU-weit. Denn der Hintergrund für die Freischaltung ist der European Accessibility Act, deren Frist am 28. Juni offiziell endete.

In der Realität hängt die Nutzbarkeit aber auch davon ab, ob Ihr Smartphone-Hersteller bereits die Telefonie-App sowie Einstellungen auf dem Gerät entsprechend angepasst hat. Apple hat bereits im Mai mit iOS 18.5 dafür gesorgt, dass iPhones entsprechend dafür ausgerüstet sind. Im Test der PC-WELT funktionierte RTT zwischen zwei iPhones problemlos, wie die folgenden Screenshots beweisen (ok, am Textinhalt arbeiten wir noch):

Wir starten einen RTT-Anruf:

Real Time Text RTT Nachrichten schickenHCD

Real Time Text RTT als Anruf auswählen:

Real Time Text RTT Nachrichten schickenHCD

Wir schicken einander RTT-Nachrichten, deren Inhalt noch Luft nach oben lässt:

Real Time Text RTT Nachrichten schickenHCD

Bei Android kann es teilweise noch zu Verzögerungen kommen, wenn der Hersteller noch nicht die Änderungen vorgenommen hat.

Auf den meisten Geräten können Sie wie folgt vorgehen, um RTT zu aktivieren:

Gehen Sie in die Einstellungen.

Suchen Sie nach Barrierefreiheit oder Bedienungshilfen.

Suchen Sie dort nach der Option Real Time Text / RTT.

Um eingehende RTT-Anrufe zuzulassen, aber die Anruftaste auszublenden, tippen Sie auf Nicht sichtbar. Um die RTT-Schaltfläche während eines Anrufs anzuzeigen, tippen Sie auf Sichtbar während des Anrufs. Um die RTT-Schaltfläche immer anzuzeigen, tippen Sie auf Immer sichtbar.

Je nach Hersteller können sich diese Optionen unterscheiden.

Laut der Deutschen Telekom sind die offiziellen Anforderungen für RTT folgende:

eine aktive Sprachverbindung über LTE, 5G oder eine WLAN-Verbindung (WLAN-Call)

ein geeignetes Smartphone mit Android (ab Version 10) oder iOS (ab Version 11.2)

Wenn Sie ins Ausland telefonieren, funktioniert RTT auch nur dann, wenn der dortige Netzbetreiber die Funktion unterstützt. In den USA ist Real Time Text bereits seit 2017 bekannt und wurde 2018 in alle neuen Geräte implementiert.

(PC-Welt)

Alle Smartphones haben mittlerweile diese neue Funktion – so finden und nutzen Sie sie​ Weiterlesen »

Mem0 verleiht KI-Systemen ein Gedächtnis​

Allgemein

KI-Anwendungen und -Agenten, die sich “erinnern” können, bieten ein frustfreie(re)s Erlebnis für Benutzer und Entwickler.Thantaree | shutterstock.com Die Stateless-Natur von Large Language Models (LLMs) schränkt die KI-Anwendungsentwicklung grundlegend ein: Jede Interaktion beginnt bei Null – die Nutzer müssen immer wieder Kontext und Präferenzen angeben. Das kann zu ineffizienten, frustrierenden Erfahrungen führen. Eine innovative Lösung für diese Herausforderung bietet das Open-Source-Projekt Mem0 (ausgesprochen “Mem-Zero”). Es kombiniert einen innovativen Hybrid-Datenspeicher mit einer intelligenten Abfragefunktion, um KI-Anwendungen mit einem persistenten, kontextbezogenen “Gedächtnis” auszustatten, das sich mit jeder Nutzerinteraktion weiterentwickelt. Mem0 – das Projekt Mem0 ist ein quelloffenes Projekt, das von den Softwareentwicklern Taranjeet Singh und Deshraj Yadav ins Leben gerufen wurde – mit dem Ziel, die Speicherbeschränkungen moderner KI-Systeme zu überwinden. Zum Zeitpunkt der Erstellung dieses Artikels (Juli 2025) weist das GitHub-Repository von Mem0 bereits über 37.000 Sterne auf, findet also innerhalb der KI-Community rasche Verbreitung. Mem0 fungiert als Memory-Layer zwischen KI-Anwendungen und Sprachmodellen, der relevante Informationen aus Benutzerinteraktionen erfasst und speichert. Dieses intelligente Speichersystem ermöglicht KI-Anwendungen, personalisierte, kontextbezogene Antworten zu liefern, ohne dass der Benutzer wiederholt Kontext herstellen muss. Um ihre KI-Systeme mit diesen persistenten Speicherfunktionen zu optimieren, setzen auch zahlreiche Unternehmen bereits auf das Tool – beispielsweise Netflix. Dabei zeichnet sich Mem0 unter anderem auch dadurch aus, dass es einerseits als Open-Source-Version zur Verfügung steht, die selbst gehostet werden kann. Andererseits gibt es auch einen Cloud-basierten Managed Service für Unternehmensanwender. Mit Blick auf Programmiersprachen unterstützt das Projekt über Python– und Node.js-SDKs mehrere und ist damit einer großen Zahl von Entwicklern zugänglich. Dank seiner Apache-2.0-Lizenzierung und der aktiven Community hat sich Mem0 schnell vom Forschungsprojekt auf Prototypen-Basis zu einer produktionsreifen Memory-Management-Lösung entwickelt. Dieses Problem löst Mem0 Die grundlegende Herausforderung moderner KI-Anwendungen liegt – wie eingangs bereits angemerkt – in der zustandslosen Natur großer Sprachmodelle. LLMs verarbeiten jede Anfrage unabhängig und sind nicht in der Lage, Informationen aus früheren Interaktionen zu speichern. Diese Limitation verursacht Schmerzen – sowohl bei den KI-Entwicklern als auch bei den -Nutzern. Benutzer empfinden es als frustrierend, wiederholt dieselben Präferenzen und denselben Kontext im Rahmen von KI-Interkationen angeben zu müssen. Bei einer Interaktion mit dem Kunden-Support müssen die User so möglicherweise ihre Kontodaten, frühere Probleme und Präferenzen mehrmals in verschiedenen Sitzungen erklären. Diese repetitive Kontexterstellung verschwendet Zeit und führt zu einer suboptimalen User Experience. Developer sind durch den Mangel an Speicherplatz dazu gezwungen, komplexe Workarounds zu implementieren. Anwendungen müssen entweder große Kontextfenster managen (was langsam und teuer ist) oder verlieren wertvolle Chat-Verläufe. Die Kosten, um wiederholt dieselben Kontextinformationen zu verarbeiten, kann den Token-Verbrauch um bis zu 90 Prozent erhöhen, wodurch personalisierte KI-Erlebnisse wirtschaftlich unrentabel werden. Aktuell verfügbar Memory-Lösungen basieren in der Regel auf einfachen RAG-Ansätzen. Diese sind jedoch nicht in der Lage, die Komplexität der Benutzereinstellungen und -beziehungen zu erfassen. In der Folge haben diese Systeme oft mit widersprüchlichen Informationen zu kämpfen, können aktuelle Interaktionen nicht priorisieren und sind nicht in der Lage, die Beziehungen zwischen verschiedenen Informationen effektiv zu modellieren. Wie Mem0 funktioniert Mem0 begegnet diesen Herausforderungen mit einem innovativen hybriden Data Store, der die Stärken mehrerer spezialisierter Storage-Systeme kombiniert. Dazu greift das Framework gleich auf drei Technologien zu, die sich gegenseitig ergänzen: Vektordatenbanken für die semantische Ähnlichkeitssuchen, Graph-Datenbanken, um Beziehungen zu modellieren, und Key-Value Stores, um Fakten schnell abzurufen. Im Kern verwendet Mem0 große Sprachmodelle, um wichtige Informationen aus Gesprächen zu extrahieren und zu verarbeiten. Bei einer Benutzerinteraktion identifiziert das System automatisch relevante Fakten, Präferenzen und Kontextinformationen, die gespeichert werden sollen. Diese extrahierten Informationen werden dann im hybriden Datenspeicher abgelegt, wobei jedes der genannten Storage-Systeme auf verschiedene Arten der Speicherabfrage optimiert ist. Die Vektordatenbank-Komponente speichert numerische Darstellungen von Memory-Inhalten und ermöglicht so effiziente semantische Suchfunktionen. Selbst wenn Benutzer Anfragen unterschiedlich formulieren, kann das System konzeptionell verwandte Erinnerungen abrufen. Die Graph-Datenbank erfasst Beziehungen zwischen Entitäten, Personen und Konzepten, sodass das System komplexe Zusammenhänge innerhalb der Wissensdatenbank verstehen kann. Das Abrufsystem von Mem0 verwendet zudem ein intelligentes Ranking, das mehrere Faktoren berücksichtigt, etwa Relevanz, Wichtigkeit und Aktualität. Das stellt sicher, dass die relevantesten Speicherinhalte zuerst angezeigt werden, während veraltete oder widersprüchliche Informationen entsprechend gewichtet oder ersetzt werden. Das System lernt dabei  kontinuierlich aus den Interaktionen mit den Benutzern und aktualisiert und verfeinert automatisch seine gespeicherten Inhalte, um die Genauigkeit über einen längeren Zeitraum hinweg zu gewährleisten. Gegenüber bestehenden Speichersystemen – etwa von OpenAI – verspricht Mem0 signifikante Performance-Vorteile: We’re excited to announce our latest advancement in building production-ready AI Agents with scalable long-term memory.Mem0 outperformed six leading baselines across diverse tasks on the LOCOMO benchmark – from single-hop and multi-hop reasoning, to temporal and open-domain… pic.twitter.com/VZ6zhi8Abe— mem0 (@mem0ai) April 29, 2025 Das Projekt unterstützt mehrere LLM-Anbieter, darunter zum Beispiel: OpenAI, Anthropic und   Google. Auch lokale KI-Modelle werden über Ollama unterstützt. Diese Flexibilität ermöglicht es Entwicklern, das für ihren spezifischen Anwendungsfall ideale Modell auszuwählen und gleichzeitig eine konsistente Speicherfunktionalität zu gewährleisten. Mem0 lässt sich darüber hinaus auch nahtlos in gängige KI-Frameworks integrieren. Mem0-Anwendungsfälle Personalisierte KI-Assistenten und –Agenten gehören zu den überzeugendsten Use Cases für Mem0. Diese Systeme können Benutzerpräferenzen, Work Patterns und persönliche Details über mehrere Sitzungen hinweg speichern. Das ließe sich beispielsweise auf folgende Bereichen anwenden: Kunden-Support-Anwendungen können erheblich von den Speicherfunktionen von Mem0 profitieren. Support-Mitarbeiter, die mit Mem0 arbeiten, können sich an frühere Kundeninteraktionen, laufende Probleme und Kundenpräferenzen erinnern. Diese Kontinuität reduziert die Lösungszeiten und verbessert die Kundenzufriedenheit. Im Gesundheitswesen lassen sich mit Mem0 Patientenakten und Behandlungskontexte managen. Das würde etwa KI-Assistenten ermöglichen, Symptome von Patienten, Reaktionen auf Medikamente und Behandlungspräferenzen über einen längeren Zeitraum zu verfolgen. Der persistente Speicher ermöglicht dabei fundiertere medizinische Empfehlungen und trägt dazu bei, die Kontinuität der Versorgung über mehrere Interaktionen hinweg aufrechtzuerhalten. Bildungsplattformen können Mem0 nutzen, um adaptive Lernerfahrungen zu schaffen. Das System kann den Fortschritt der Schüler, ihre Lernpräferenzen und ihre Schwierigkeiten tracken. KI-Tutoren, die mit Mem0 arbeiten, können so personalisierte Lehrinhalte anbieten, der auf früheren Lektionen aufbaut und sich auch an individuelle Lernstile anpasst. Nachfolgend ein praktisches Implementierungsbeispiel: from mem0 import Memory # Initialize Mem0 m = Memory() # Store user preferences result = m.add(“I love Italian food but cannot eat pizza since allergic to cheese.”, user_id=”alice”, metadata={“category”: “preferences”}) # Later interaction – system remembers preferences related_memories = m.search(“Suggest restaurants in San Francisco”, user_id=”alice”) # Returns: Italian restaurants, avoiding cheese-based options (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Mem0 verleiht KI-Systemen ein Gedächtnis​ KI-Anwendungen und -Agenten, die sich “erinnern” können, bieten ein frustfreie(re)s Erlebnis für Benutzer und Entwickler.Thantaree | shutterstock.com

Die Stateless-Natur von Large Language Models (LLMs) schränkt die KI-Anwendungsentwicklung grundlegend ein: Jede Interaktion beginnt bei Null – die Nutzer müssen immer wieder Kontext und Präferenzen angeben. Das kann zu ineffizienten, frustrierenden Erfahrungen führen.

Eine innovative Lösung für diese Herausforderung bietet das Open-Source-Projekt Mem0 (ausgesprochen “Mem-Zero”). Es kombiniert einen innovativen Hybrid-Datenspeicher mit einer intelligenten Abfragefunktion, um KI-Anwendungen mit einem persistenten, kontextbezogenen “Gedächtnis” auszustatten, das sich mit jeder Nutzerinteraktion weiterentwickelt.

Mem0 – das Projekt

Mem0 ist ein quelloffenes Projekt, das von den Softwareentwicklern Taranjeet Singh und Deshraj Yadav ins Leben gerufen wurde – mit dem Ziel, die Speicherbeschränkungen moderner KI-Systeme zu überwinden. Zum Zeitpunkt der Erstellung dieses Artikels (Juli 2025) weist das GitHub-Repository von Mem0 bereits über 37.000 Sterne auf, findet also innerhalb der KI-Community rasche Verbreitung.

Mem0 fungiert als Memory-Layer zwischen KI-Anwendungen und Sprachmodellen, der relevante Informationen aus Benutzerinteraktionen erfasst und speichert. Dieses intelligente Speichersystem ermöglicht KI-Anwendungen, personalisierte, kontextbezogene Antworten zu liefern, ohne dass der Benutzer wiederholt Kontext herstellen muss. Um ihre KI-Systeme mit diesen persistenten Speicherfunktionen zu optimieren, setzen auch zahlreiche Unternehmen bereits auf das Tool – beispielsweise Netflix. Dabei zeichnet sich Mem0 unter anderem auch dadurch aus, dass es einerseits als Open-Source-Version zur Verfügung steht, die selbst gehostet werden kann. Andererseits gibt es auch einen Cloud-basierten Managed Service für Unternehmensanwender.

Mit Blick auf Programmiersprachen unterstützt das Projekt über Python– und Node.js-SDKs mehrere und ist damit einer großen Zahl von Entwicklern zugänglich. Dank seiner Apache-2.0-Lizenzierung und der aktiven Community hat sich Mem0 schnell vom Forschungsprojekt auf Prototypen-Basis zu einer produktionsreifen Memory-Management-Lösung entwickelt.

Dieses Problem löst Mem0

Die grundlegende Herausforderung moderner KI-Anwendungen liegt – wie eingangs bereits angemerkt – in der zustandslosen Natur großer Sprachmodelle. LLMs verarbeiten jede Anfrage unabhängig und sind nicht in der Lage, Informationen aus früheren Interaktionen zu speichern. Diese Limitation verursacht Schmerzen – sowohl bei den KI-Entwicklern als auch bei den -Nutzern.

Benutzer empfinden es als frustrierend, wiederholt dieselben Präferenzen und denselben Kontext im Rahmen von KI-Interkationen angeben zu müssen. Bei einer Interaktion mit dem Kunden-Support müssen die User so möglicherweise ihre Kontodaten, frühere Probleme und Präferenzen mehrmals in verschiedenen Sitzungen erklären. Diese repetitive Kontexterstellung verschwendet Zeit und führt zu einer suboptimalen User Experience.

Developer sind durch den Mangel an Speicherplatz dazu gezwungen, komplexe Workarounds zu implementieren. Anwendungen müssen entweder große Kontextfenster managen (was langsam und teuer ist) oder verlieren wertvolle Chat-Verläufe. Die Kosten, um wiederholt dieselben Kontextinformationen zu verarbeiten, kann den Token-Verbrauch um bis zu 90 Prozent erhöhen, wodurch personalisierte KI-Erlebnisse wirtschaftlich unrentabel werden.

Aktuell verfügbar Memory-Lösungen basieren in der Regel auf einfachen RAG-Ansätzen. Diese sind jedoch nicht in der Lage, die Komplexität der Benutzereinstellungen und -beziehungen zu erfassen. In der Folge haben diese Systeme oft mit widersprüchlichen Informationen zu kämpfen, können aktuelle Interaktionen nicht priorisieren und sind nicht in der Lage, die Beziehungen zwischen verschiedenen Informationen effektiv zu modellieren.

Wie Mem0 funktioniert

Mem0 begegnet diesen Herausforderungen mit einem innovativen hybriden Data Store, der die Stärken mehrerer spezialisierter Storage-Systeme kombiniert. Dazu greift das Framework gleich auf drei Technologien zu, die sich gegenseitig ergänzen:

Vektordatenbanken für die semantische Ähnlichkeitssuchen,

Graph-Datenbanken, um Beziehungen zu modellieren, und

Key-Value Stores, um Fakten schnell abzurufen.

Im Kern verwendet Mem0 große Sprachmodelle, um wichtige Informationen aus Gesprächen zu extrahieren und zu verarbeiten. Bei einer Benutzerinteraktion identifiziert das System automatisch relevante Fakten, Präferenzen und Kontextinformationen, die gespeichert werden sollen. Diese extrahierten Informationen werden dann im hybriden Datenspeicher abgelegt, wobei jedes der genannten Storage-Systeme auf verschiedene Arten der Speicherabfrage optimiert ist.

Die Vektordatenbank-Komponente speichert numerische Darstellungen von Memory-Inhalten und ermöglicht so effiziente semantische Suchfunktionen. Selbst wenn Benutzer Anfragen unterschiedlich formulieren, kann das System konzeptionell verwandte Erinnerungen abrufen. Die Graph-Datenbank erfasst Beziehungen zwischen Entitäten, Personen und Konzepten, sodass das System komplexe Zusammenhänge innerhalb der Wissensdatenbank verstehen kann. Das Abrufsystem von Mem0 verwendet zudem ein intelligentes Ranking, das mehrere Faktoren berücksichtigt, etwa Relevanz, Wichtigkeit und Aktualität. Das stellt sicher, dass die relevantesten Speicherinhalte zuerst angezeigt werden, während veraltete oder widersprüchliche Informationen entsprechend gewichtet oder ersetzt werden. Das System lernt dabei  kontinuierlich aus den Interaktionen mit den Benutzern und aktualisiert und verfeinert automatisch seine gespeicherten Inhalte, um die Genauigkeit über einen längeren Zeitraum hinweg zu gewährleisten.

Gegenüber bestehenden Speichersystemen – etwa von OpenAI – verspricht Mem0 signifikante Performance-Vorteile:

We’re excited to announce our latest advancement in building production-ready AI Agents with scalable long-term memory.Mem0 outperformed six leading baselines across diverse tasks on the LOCOMO benchmark – from single-hop and multi-hop reasoning, to temporal and open-domain… pic.twitter.com/VZ6zhi8Abe— mem0 (@mem0ai) April 29, 2025

Das Projekt unterstützt mehrere LLM-Anbieter, darunter zum Beispiel:

OpenAI,

Anthropic und  

Google.

Auch lokale KI-Modelle werden über Ollama unterstützt. Diese Flexibilität ermöglicht es Entwicklern, das für ihren spezifischen Anwendungsfall ideale Modell auszuwählen und gleichzeitig eine konsistente Speicherfunktionalität zu gewährleisten. Mem0 lässt sich darüber hinaus auch nahtlos in gängige KI-Frameworks integrieren.

Mem0-Anwendungsfälle

Personalisierte KI-Assistenten und –Agenten gehören zu den überzeugendsten Use Cases für Mem0. Diese Systeme können Benutzerpräferenzen, Work Patterns und persönliche Details über mehrere Sitzungen hinweg speichern. Das ließe sich beispielsweise auf folgende Bereichen anwenden:

Kunden-Support-Anwendungen können erheblich von den Speicherfunktionen von Mem0 profitieren. Support-Mitarbeiter, die mit Mem0 arbeiten, können sich an frühere Kundeninteraktionen, laufende Probleme und Kundenpräferenzen erinnern. Diese Kontinuität reduziert die Lösungszeiten und verbessert die Kundenzufriedenheit.

Im Gesundheitswesen lassen sich mit Mem0 Patientenakten und Behandlungskontexte managen. Das würde etwa KI-Assistenten ermöglichen, Symptome von Patienten, Reaktionen auf Medikamente und Behandlungspräferenzen über einen längeren Zeitraum zu verfolgen. Der persistente Speicher ermöglicht dabei fundiertere medizinische Empfehlungen und trägt dazu bei, die Kontinuität der Versorgung über mehrere Interaktionen hinweg aufrechtzuerhalten.

Bildungsplattformen können Mem0 nutzen, um adaptive Lernerfahrungen zu schaffen. Das System kann den Fortschritt der Schüler, ihre Lernpräferenzen und ihre Schwierigkeiten tracken. KI-Tutoren, die mit Mem0 arbeiten, können so personalisierte Lehrinhalte anbieten, der auf früheren Lektionen aufbaut und sich auch an individuelle Lernstile anpasst.

Nachfolgend ein praktisches Implementierungsbeispiel:

from mem0 import Memory

# Initialize Mem0
m = Memory()

# Store user preferences
result = m.add(“I love Italian food but cannot eat pizza since allergic to cheese.”,
user_id=”alice”, metadata={“category”: “preferences”})

# Later interaction – system remembers preferences
related_memories = m.search(“Suggest restaurants in San Francisco”, user_id=”alice”)
# Returns: Italian restaurants, avoiding cheese-based options

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Mem0 verleiht KI-Systemen ein Gedächtnis​ Weiterlesen »

Lügen zahlt sich nicht aus: So ertappen Arbeitgeber schwindelnde Bewerber​

Allgemein

Lügen eines Bewerbers im Bewerbungsgespräch können auch langfristige Folgen haben, wenn sich der Schwindel in der Branche herumspricht. Foto: pathdoc – shutterstock.comIm Rahmen eines Bewerbungsgesprächs ist es menschlich und verständlich, dass Kandidaten den Wunsch haben, sich von ihrer besten Seite zu präsentieren. Problematisch wird es aber, wenn dieser Wunsch sie zu einer Lüge verleitet. Hier ist Vorsicht geboten, denn Arbeitgeber haben ein geschultes Auge dafür, wenn etwas nicht ganz der Wahrheit entspricht.Risiken der UnehrlichkeitDenn Fakt ist, dass die potenziellen Folgen von Unehrlichkeit in Bewerbungsgesprächen schwerwiegend und langfristig sein können. Wird eine Lüge entdeckt, kann das nicht nur das sofortige Ende des Bewerbungsverfahrens bedeuten, sondern auch nachhaltig den Ruf des Bewerbers schädigen – vor allem in eng vernetzten Branchen. Doch selbst wenn die Lüge zunächst unentdeckt bleibt und der Kandidat die Stelle erhält, kann sie später ans Licht kommen und Probleme nach sich ziehen. Ein häufiger Grund für Unehrlichkeit im Bewerbungsgespräch ist der Druck, sich bestmöglich darzustellen. Nicht selten werden dann Fähigkeiten übertrieben oder erfunden – aus Angst, andernfalls in einem negativen Licht zu erscheinen. Es ist jedoch wichtig, zu beachten, dass Authentizität und Ehrlichkeit für Arbeitgeber ebenso bedeutend sind wie die Fähigkeiten eines Kandidaten. Sie zeigen dem Arbeitgeber, dass der Bewerber selbstbewusst genug ist, um seine Stärken und Schwächen ehrlich zu präsentieren. So erkennen Personaler und Manager Lügen Um Anzeichen von Unehrlichkeit zu erkennen, sind Arbeitgeber darauf geschult, die Reaktionen des Kandidaten auf spezifische Fragen zu prüfen. Stimmen die Antworten nicht mit den Informationen aus dem Lebenslauf oder dem Bewerbungsschreiben überein, kann das ein Hinweis auf Schwindel sein. Auch die Art und Weise, wie Kandidaten über ihre Erfahrungen sprechen, kann Aufschluss darüber geben, wie ehrlich sie sind. Ausweichende Antworten, übertriebene Selbstbeweihräucherung oder nonverbale Hinweise – so zum Beispiel nervöses Verhalten, eine ungewöhnliche Körpersprache oder fehlender Blickkontakt – können auf Unaufrichtigkeit hinweisen. Es ist jedoch wichtig, diese Anzeichen im Kontext der gesamten Konversation zu betrachten. Diese Techniken können Arbeitgeber anwendenGrundsätzlich gibt es verschiedene Techniken, um Unehrlichkeit im Bewerbungsgespräch aufzudecken. Das sogenannte “Verhaltensinterview” fordert detaillierte Beispiele aus der Vergangenheit, um Fähigkeiten zu belegen. Diese Methode kann dazu beitragen, Übertreibungen zu entlarven, da es schwierig ist, stimmige Geschichten aus dem Stegreif zu erfinden. Im Rahmen des sogenannten “Stressinterviews” stellen Verantwortliche unerwartete Fragen, um zu sehen, wie der Kandidat unter Druck reagiert. Referenzen und Hintergrundüberprüfungen können ebenfalls hilfreich sein. Personalvermittler und Arbeitgeber setzen üblicherweise eine Kombination dieser Strategien ein, um mögliche Lügen frühzeitig aufzudecken und dadurch ungeeignete Kandidaten auszusortieren. (pg)Wann Bewerber lügen dürfenUnzulässige Fragen im Bewerbungsgespräch … Foto: baranq – shutterstock.com… muss man nicht wahrheitsgemäß beantworten.Frage nach Vorstrafen Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Frage nach dem Glauben Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber.Frage nach Aids-Erkrankung Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden. Frage nach Parteizugehörigkeit Foto: Anne Czichos – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Frage nach Familienplanung Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig.Frage nach Gewerkschaftszugehörigkeit Foto: Achim Wagner – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Frage nach Lohnpfändungen und Vermögensverhältnissen Foto: Markgraf – shutterstock.comDiese Fragen sind unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt.Souverän antworten Foto: tsyhun – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben.Frage nach Schwangerschaft Foto: Adam Gregor – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte. 

Lügen zahlt sich nicht aus: So ertappen Arbeitgeber schwindelnde Bewerber​ Lügen eines Bewerbers im Bewerbungsgespräch können auch langfristige Folgen haben, wenn sich der Schwindel in der Branche herumspricht.
Foto: pathdoc – shutterstock.comIm Rahmen eines Bewerbungsgesprächs ist es menschlich und verständlich, dass Kandidaten den Wunsch haben, sich von ihrer besten Seite zu präsentieren. Problematisch wird es aber, wenn dieser Wunsch sie zu einer Lüge verleitet. Hier ist Vorsicht geboten, denn Arbeitgeber haben ein geschultes Auge dafür, wenn etwas nicht ganz der Wahrheit entspricht.Risiken der UnehrlichkeitDenn Fakt ist, dass die potenziellen Folgen von Unehrlichkeit in Bewerbungsgesprächen schwerwiegend und langfristig sein können. Wird eine Lüge entdeckt, kann das nicht nur das sofortige Ende des Bewerbungsverfahrens bedeuten, sondern auch nachhaltig den Ruf des Bewerbers schädigen – vor allem in eng vernetzten Branchen. Doch selbst wenn die Lüge zunächst unentdeckt bleibt und der Kandidat die Stelle erhält, kann sie später ans Licht kommen und Probleme nach sich ziehen. Ein häufiger Grund für Unehrlichkeit im Bewerbungsgespräch ist der Druck, sich bestmöglich darzustellen. Nicht selten werden dann Fähigkeiten übertrieben oder erfunden – aus Angst, andernfalls in einem negativen Licht zu erscheinen. Es ist jedoch wichtig, zu beachten, dass Authentizität und Ehrlichkeit für Arbeitgeber ebenso bedeutend sind wie die Fähigkeiten eines Kandidaten. Sie zeigen dem Arbeitgeber, dass der Bewerber selbstbewusst genug ist, um seine Stärken und Schwächen ehrlich zu präsentieren. So erkennen Personaler und Manager Lügen Um Anzeichen von Unehrlichkeit zu erkennen, sind Arbeitgeber darauf geschult, die Reaktionen des Kandidaten auf spezifische Fragen zu prüfen. Stimmen die Antworten nicht mit den Informationen aus dem Lebenslauf oder dem Bewerbungsschreiben überein, kann das ein Hinweis auf Schwindel sein. Auch die Art und Weise, wie Kandidaten über ihre Erfahrungen sprechen, kann Aufschluss darüber geben, wie ehrlich sie sind. Ausweichende Antworten, übertriebene Selbstbeweihräucherung oder nonverbale Hinweise – so zum Beispiel nervöses Verhalten, eine ungewöhnliche Körpersprache oder fehlender Blickkontakt – können auf Unaufrichtigkeit hinweisen. Es ist jedoch wichtig, diese Anzeichen im Kontext der gesamten Konversation zu betrachten. Diese Techniken können Arbeitgeber anwendenGrundsätzlich gibt es verschiedene Techniken, um Unehrlichkeit im Bewerbungsgespräch aufzudecken. Das sogenannte “Verhaltensinterview” fordert detaillierte Beispiele aus der Vergangenheit, um Fähigkeiten zu belegen. Diese Methode kann dazu beitragen, Übertreibungen zu entlarven, da es schwierig ist, stimmige Geschichten aus dem Stegreif zu erfinden. Im Rahmen des sogenannten “Stressinterviews” stellen Verantwortliche unerwartete Fragen, um zu sehen, wie der Kandidat unter Druck reagiert. Referenzen und Hintergrundüberprüfungen können ebenfalls hilfreich sein. Personalvermittler und Arbeitgeber setzen üblicherweise eine Kombination dieser Strategien ein, um mögliche Lügen frühzeitig aufzudecken und dadurch ungeeignete Kandidaten auszusortieren. (pg)Wann Bewerber lügen dürfenUnzulässige Fragen im Bewerbungsgespräch …
Foto: baranq – shutterstock.com… muss man nicht wahrheitsgemäß beantworten.Frage nach Vorstrafen
Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Frage nach dem Glauben
Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber.Frage nach Aids-Erkrankung
Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden. Frage nach Parteizugehörigkeit
Foto: Anne Czichos – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Frage nach Familienplanung
Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig.Frage nach Gewerkschaftszugehörigkeit
Foto: Achim Wagner – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Frage nach Lohnpfändungen und Vermögensverhältnissen
Foto: Markgraf – shutterstock.comDiese Fragen sind unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt.Souverän antworten
Foto: tsyhun – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben.Frage nach Schwangerschaft
Foto: Adam Gregor – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte.

Lügen zahlt sich nicht aus: So ertappen Arbeitgeber schwindelnde Bewerber​ Weiterlesen »

So geht KI-natives Unternehmen​

Allgemein

Manuell geprägte Organisationen tun sich regelmäßig schwer mit dem Shift zu “AI-native”.Improvisor | shutterstock.com Derzeit entstehen Tausende schnell wachsender Startups, deren Produkte und Prozesse auf KI basieren und die dadurch schneller und effizienter arbeiten. Gleichzeitig versuchen etablierte große Unternehmen, künstliche Intelligenz (KI) nachträglich in ihre über Jahre etablierte Prozesse zu integrieren – eine fast unmögliche Aufgabe. Doch KI ist kein Patch, um bestehende Probleme zu lösen. Vielmehr sollten Unternehmen Strategien entwickeln, um KI in ihre Arbeitsabläufe zu integrieren – und sicherstellen, dass die erforderlichen Daten und Infrastrukturen vorhanden sind. Diese Transformation kann verwirrend, umständlich und komplex ausfallen. Dennoch ist sie nötig, wenn Unternehmen im neuen Zeitalter relevant bleiben und erfolgreich sein wollen. Bevor wir darauf eingehen, wie Unternehmen sich aufstellen sollten, um KI-nativ zu werden, werfen wir einen Blick darauf, was das überhaupt bedeutet. AI-native – Definition Ein KI-natives Unternehmen ist ein Unternehmen, das die Technologie in den Kern seiner Geschäftstätigkeit integriert. Mit anderen Worten: Künstliche Intelligenz treibt strategische Entscheidungen voran, optimiert kritische Prozesse und fördert das Wachstum von Grund auf. AI-Native-Unternehmen betrachten KI nicht als neues Tool mit “Shiny”-Faktor, sondern als Werkzeug für einen grundlegenden Wandel der Unternehmensidentität, bei der durch die Technologie bereitgestellte Intelligenz vollumfänglich genutzt wird. Mit der zunehmenden Verbreitung von KI wird “Ambient AI” zur neuen Normalität werden – und eine vollständig symbiotische und synchronisierte Zusammenarbeit zwischen Mensch und Technologie  ermöglichen. Die KI wird dabei die Performance von Menschen und Unternehmen durch Echtzeit-Erkenntnisse und umsetzbare Entscheidungen steigern. In dieser neuen Normalität muss auch niemand mehr für den Einsatz von KI “argumentieren”, denn ihr Mehrwert ist selbstverständlich. Wichtig ist dabei, dass eine Transformation zum AI-Native-Unternehmen nicht gleichbedeutend damit ist, menschliche Intelligenz zu substituieren. Vielmehr verbinden KI-native Organisationen die Kreativität und Innovationskraft menschlicher Teams mit der analytischen Performanz von KI, um Zusammenarbeit, Produktivität und Strategieentwicklung zu optimieren. 4 Schritte zum AI-Native-Unternehmen Dementsprechend ist eine AI-Native-Transformation nicht damit getan, einfach ein KI-Produkt einzukaufen. Vielmehr gilt es, Ineffizienzen in Geschäftsprozessen zu identifizieren, herauszufinden, wie KI diese beseitigen kann, anhand eines AI-Adoption-Frameworks zu ermitteln, welche Anforderungen KI-Produkte für den jeweiligen Use Case erfüllen müssen, und die richtigen Ressourcen bereitzustellen, um KI effektiv zu implementieren. Die folgenden vier Schritte können Ihnen diesbezüglich den Einstieg erleichtern. 1. Am Anfang steht das Problem, nicht die Lösung KI ist keine Einheitslösung. Unterschiedliche Anwendungsfälle erfordern unterschiedliche Daten, Modelle und Architekturen. Wenn Sie diese Nuancen von Beginn an berücksichtigen, können Sie die richtige KI für Ihren Anwendungsfall entwickeln (oder kaufen). Generell gilt: Je näher die KI an den Kernaktivitäten Ihres Unternehmens liegt, desto strenger sollten Ihre Standards für die Einführung ausfallen. Schließlich ist in diesem Fall auch der Impact von inkorrekten Outputs größer. 2. Daten im Blick behalten Der Erfolg eines KI-Modells hängt weitgehend von seiner Fähigkeit ab, die Sprachmuster, den Kontext und die Nuancen Ihrer Geschäftsdaten zu verstehen. Sobald Sie glauben, für die KI-Einführung bereit zu sein, treten Sie einen Schritt zurück und bewerten Sie die Qualität, Struktur und Menge Ihrer Daten. Anschließend stellen Sie Ihrem Team Fragen wie: Verfügen wir über ausreichend Daten, um zuverlässige Modelle zu trainieren? Sind diese Daten organisiert und bereinigt? Werden die Daten auf regelmäßiger Basis generiert? KI-Algorithmen verbessern sich durch kontinuierliches Lernen aus neuen Daten. Es ist daher essenziell, KI-Modelle kontinuierlich mit aktuellen Informationen zu füttern. 3. Ressourcen berücksichtigen Um KI-Modelle zu trainieren, sind nicht nur hochwertige Daten erforderlich, sondern auch mehr Rechenleistung als bei einem typischen SaaS-Produkt. Prüfen Sie daher Ihre bestehende Infrastruktur mit kritischem Blick und fragen Sie sich, ob diese den KI-Workloads gewachsen ist. Wahrscheinlich müssen Sie Ihre Cloud-Ausgaben etwas in die Höhe schrauben, um KI-Systeme betreiben zu können. Dieses Wissen sollten Sie dazu nutzen, um in KI-Lösungen zu investieren, die den höchsten Return on Investment (ROI) bringen. Über die technische Komponente hinaus sollten Sie bedenken, dass Sie als AI-Native-Organisation KI nicht einfach auf bestehende Technologien aufsetzen, sondern in Ihre gesamte Architektur integrieren. Das erfordert auch menschliches Zutun: Bevor Sie KI im großen Stil einführen, sollten Sie die nötigen Rollen und Verantwortlichkeiten innerhalb Ihres Teams klar definieren. Stellen Sie sicher, dass jemand für technische Umsetzung verantwortlich zeichnet und dass die Belegschaft Support erhält, wenn es darum geht, neue Workflows zu etablieren. 4. Metriken definieren Künstliche Intelligenz automatisiert zwar viele Aufgaben. Deshalb sollten Sie die Technologie aber nicht als eine Lösung betrachten, die man einmal einrichtet und dann vergisst. Bevor Sie KI in Ihrem Unternehmen “live schalten”, sollten Sie eine Reihe von Benchmarks festlegen, um den Impact auch messen zu können. Diese Kennzahlen können zum Beispiel umfassen: Kosteneinsparungen, Antwortraten auf Kundenanfragen, oder die mit KI eingesparte Zeit. Diese Metriken helfen dabei sicherzustellen, dass die KI den erwarteten ROI auch liefert. Auf der Grundlage der Ergebnisse können Sie dann weiter verfeinern und iterieren. (fm) Dieser Artikel wurde im Rahmen des englischsprachigen Foundry Expert Contributor Network veröffentlicht. 

So geht KI-natives Unternehmen​ Manuell geprägte Organisationen tun sich regelmäßig schwer mit dem Shift zu “AI-native”.Improvisor | shutterstock.com

Derzeit entstehen Tausende schnell wachsender Startups, deren Produkte und Prozesse auf KI basieren und die dadurch schneller und effizienter arbeiten. Gleichzeitig versuchen etablierte große Unternehmen, künstliche Intelligenz (KI) nachträglich in ihre über Jahre etablierte Prozesse zu integrieren – eine fast unmögliche Aufgabe.

Doch KI ist kein Patch, um bestehende Probleme zu lösen. Vielmehr sollten Unternehmen Strategien entwickeln, um KI in ihre Arbeitsabläufe zu integrieren – und sicherstellen, dass die erforderlichen Daten und Infrastrukturen vorhanden sind. Diese Transformation kann verwirrend, umständlich und komplex ausfallen. Dennoch ist sie nötig, wenn Unternehmen im neuen Zeitalter relevant bleiben und erfolgreich sein wollen.

Bevor wir darauf eingehen, wie Unternehmen sich aufstellen sollten, um KI-nativ zu werden, werfen wir einen Blick darauf, was das überhaupt bedeutet.

AI-native – Definition

Ein KI-natives Unternehmen ist ein Unternehmen, das die Technologie in den Kern seiner Geschäftstätigkeit integriert. Mit anderen Worten: Künstliche Intelligenz treibt strategische Entscheidungen voran, optimiert kritische Prozesse und fördert das Wachstum von Grund auf. AI-Native-Unternehmen betrachten KI nicht als neues Tool mit “Shiny”-Faktor, sondern als Werkzeug für einen grundlegenden Wandel der Unternehmensidentität, bei der durch die Technologie bereitgestellte Intelligenz vollumfänglich genutzt wird.

Mit der zunehmenden Verbreitung von KI wird “Ambient AI” zur neuen Normalität werden – und eine vollständig symbiotische und synchronisierte Zusammenarbeit zwischen Mensch und Technologie  ermöglichen. Die KI wird dabei die Performance von Menschen und Unternehmen durch Echtzeit-Erkenntnisse und umsetzbare Entscheidungen steigern. In dieser neuen Normalität muss auch niemand mehr für den Einsatz von KI “argumentieren”, denn ihr Mehrwert ist selbstverständlich.

Wichtig ist dabei, dass eine Transformation zum AI-Native-Unternehmen nicht gleichbedeutend damit ist, menschliche Intelligenz zu substituieren. Vielmehr verbinden KI-native Organisationen die Kreativität und Innovationskraft menschlicher Teams mit der analytischen Performanz von KI, um Zusammenarbeit, Produktivität und Strategieentwicklung zu optimieren.

4 Schritte zum AI-Native-Unternehmen

Dementsprechend ist eine AI-Native-Transformation nicht damit getan, einfach ein KI-Produkt einzukaufen. Vielmehr gilt es,

Ineffizienzen in Geschäftsprozessen zu identifizieren,

herauszufinden, wie KI diese beseitigen kann,

anhand eines AI-Adoption-Frameworks zu ermitteln, welche Anforderungen KI-Produkte für den jeweiligen Use Case erfüllen müssen, und

die richtigen Ressourcen bereitzustellen, um KI effektiv zu implementieren.

Die folgenden vier Schritte können Ihnen diesbezüglich den Einstieg erleichtern.

1. Am Anfang steht das Problem, nicht die Lösung

KI ist keine Einheitslösung. Unterschiedliche Anwendungsfälle erfordern unterschiedliche Daten, Modelle und Architekturen. Wenn Sie diese Nuancen von Beginn an berücksichtigen, können Sie die richtige KI für Ihren Anwendungsfall entwickeln (oder kaufen). Generell gilt: Je näher die KI an den Kernaktivitäten Ihres Unternehmens liegt, desto strenger sollten Ihre Standards für die Einführung ausfallen. Schließlich ist in diesem Fall auch der Impact von inkorrekten Outputs größer.

2. Daten im Blick behalten

Der Erfolg eines KI-Modells hängt weitgehend von seiner Fähigkeit ab, die Sprachmuster, den Kontext und die Nuancen Ihrer Geschäftsdaten zu verstehen. Sobald Sie glauben, für die KI-Einführung bereit zu sein, treten Sie einen Schritt zurück und bewerten Sie die Qualität, Struktur und Menge Ihrer Daten. Anschließend stellen Sie Ihrem Team Fragen wie:

Verfügen wir über ausreichend Daten, um zuverlässige Modelle zu trainieren?

Sind diese Daten organisiert und bereinigt?

Werden die Daten auf regelmäßiger Basis generiert?

KI-Algorithmen verbessern sich durch kontinuierliches Lernen aus neuen Daten. Es ist daher essenziell, KI-Modelle kontinuierlich mit aktuellen Informationen zu füttern.

3. Ressourcen berücksichtigen

Um KI-Modelle zu trainieren, sind nicht nur hochwertige Daten erforderlich, sondern auch mehr Rechenleistung als bei einem typischen SaaS-Produkt. Prüfen Sie daher Ihre bestehende Infrastruktur mit kritischem Blick und fragen Sie sich, ob diese den KI-Workloads gewachsen ist. Wahrscheinlich müssen Sie Ihre Cloud-Ausgaben etwas in die Höhe schrauben, um KI-Systeme betreiben zu können. Dieses Wissen sollten Sie dazu nutzen, um in KI-Lösungen zu investieren, die den höchsten Return on Investment (ROI) bringen.

Über die technische Komponente hinaus sollten Sie bedenken, dass Sie als AI-Native-Organisation KI nicht einfach auf bestehende Technologien aufsetzen, sondern in Ihre gesamte Architektur integrieren. Das erfordert auch menschliches Zutun: Bevor Sie KI im großen Stil einführen, sollten Sie die nötigen Rollen und Verantwortlichkeiten innerhalb Ihres Teams klar definieren. Stellen Sie sicher, dass jemand für technische Umsetzung verantwortlich zeichnet und dass die Belegschaft Support erhält, wenn es darum geht, neue Workflows zu etablieren.

4. Metriken definieren

Künstliche Intelligenz automatisiert zwar viele Aufgaben. Deshalb sollten Sie die Technologie aber nicht als eine Lösung betrachten, die man einmal einrichtet und dann vergisst. Bevor Sie KI in Ihrem Unternehmen “live schalten”, sollten Sie eine Reihe von Benchmarks festlegen, um den Impact auch messen zu können. Diese Kennzahlen können zum Beispiel umfassen:

Kosteneinsparungen,

Antwortraten auf Kundenanfragen, oder

die mit KI eingesparte Zeit.

Diese Metriken helfen dabei sicherzustellen, dass die KI den erwarteten ROI auch liefert. Auf der Grundlage der Ergebnisse können Sie dann weiter verfeinern und iterieren. (fm)

Dieser Artikel wurde im Rahmen des englischsprachigen Foundry Expert Contributor Network veröffentlicht.

So geht KI-natives Unternehmen​ Weiterlesen »

Microsoft 365 erklärt​

Allgemein

Bei Microsoft 365 besteht Erklärungsbedarf. Ascannio | shutterstock.com CEO Satya Nadella kündigte im Juli 2017 mit Microsoft 365 (M365) eine „grundlegende Abkehr“ von der bisherigen Art und Weise der Produktentwicklung an. Inzwischen hat sich das Produkt zu Microsofts Kernmarke im Bereich der Produktivitätssoftware entwickelt – und damit Office 365 in dieser Hinsicht weitgehend ersetzt. Allerdings ist in den letzten Jahren nicht nur die Bandbreite der Anwendungen und Funktionen in Microsoft 365 gewachsen – Stichwort KI respektive Copilot. Auch die bereits initial etwas verwirrende Palette an Lizenzierungsoptionen wurde ausgebaut. Speziell für viele neue Funktionen fallen dabei zusätzliche Gebühren an, die über die Standardkosten für ein Microsoft-365-Abonnement hinausgehen. In diesem Artikel lesen Sie: was Microsoft 365 ist und wie sein Konkurrenzumfeld aussieht, welche M365-Versionen aktuell zur Verfügung stehen, was diese kosten und wie es um die Add-ons für M365 bestellt ist. Darüber hinaus erwartet Sie am Ende dieses Artikels ein umfassendes Glossar zu Microsoft 365. Was ist Microsoft 365? Microsoft 365 ist im Grunde genommen immer noch eine Sammlung von Microsoft-Software und -Services, die im Rahmen eines Abo-Modells verkauft wird. Sämtliche M365-Abonnements enthalten eine Version der jeweils wichtigsten Office-Anwendungen: Word (Dokumentbearbeitung), Excel (Tabellenkalkulation), PowerPoint (Präsentationen) sowie Outlook (E-Mail). Das war es aber auch schon an übergreifenden Gemeinsamkeiten: Davon abgesehen variiert das spezifische Set an Software und Services je nach Microsoft-365-Preisplan (zum Teil erheblich). Das trägt auch dazu bei, dass regelmäßig Verwirrung darüber herrscht, für was Microsoft 365 denn nun konkret steht. Schließlich können damit ein paar webbasierte Consumer-Anwendungen ebenso gemeint sein, wie ein umfassendes Enterprise-Paket inklusive Lizenzen für Windows und Office-Anwendungen sowie einer Reihe von Storage-, Security- und Management-Tools. „Microsoft würde sagen, dass es die Grundlage für modernes Arbeiten ist“, läutet Jason Wong, Distinguished VP Analyst bei Gartner, seine Definition der Productivity Suite ein und fügt hinzu: “Microsoft 365 bietet Unternehmen eine Möglichkeit, die Office-Produkte strategischer als ein Set von Technologien einzusetzen.“ Obwohl Gartner bei Enterprise-Kunden auch ein steigendes Interesse an anderen Produktivitäts-Suites – insbesondere Google Workspace – feststelle, sei Microsoft mit seinem 365-Angebot ein dominierender Akteur am Markt mit einer gefestigten Position innerhalb der Unternehmenslandschaft: „Das ist zum Teil auch auf die langjährige On-Premises-Nutzung der Office-Produkte zurückzuführen“, so der Analyst. Neben Google sieht sich Microsoft jedoch mit einer Vielzahl weiterer Wettbewerber konfrontiert, wenn es um Produktivität geht. Zum Beispiel: Slack, Zoom, Notion oder Zoho. Die Angebote dieser Anbieter konkurrieren mit einzelnen Microsoft-365-Apps, erweitern jedoch ebenfalls ihr Produktportfolio mit dem Ziel, zum digitalen Knotenpunkt in Unternehmen zu werden. Laut Gartner-Mann Wong muss das jedoch nicht unbedingt zum Nachteil gereichen: „Für gewöhnlich gibt es in diesem Bereich kein Entweder-Oder. Statt um Verdrängung geht es bei vielen dieser Tools eher um Koexistenz.“ Microsoft-365-Versionen und -Preise im Überblick Weil Microsoft 365 als Abonnement verkauft wird, fallen monatliche oder jährliche Gebühren für jeden Benutzer an. Solange das Abo aufrechterhalten respektive bezahlt wird, sind alle Software-Updates und -Upgrades ohne Aufpreis enthalten. Wir konzentrieren uns im Folgenden auf die wichtigsten Versionen von Microsoft 365. Das sind: Microsoft 365 Enterprise ist in den Konfigurationen E3 EWR und E5 EWR verfügbar. Diese Optionen richten sich an Großunternehmen mit mehr als 300 Mitarbeitern. Der E3-Plan kostet 35,70 Euro pro Benutzer und Monat und umfasst Nutzerlizenzen für Windows 11 Enterprise sowie eine lange Liste von Office-Apps für Desktop- und Mobilgeräte sowie Services wie Exchange, Sharepoint, Onedrive und Sicherheits-Tools. Der E5-Plan kostet 57,70 Euro pro Benutzer und Monat und bietet darüber hinaus erweiterte Security-, Compliance- und Analytics-Funktionen. Wichtig: Sämtliche Versionen von M365 Enterprise werden derzeit aufgrund rechtlicher Unwägbarkeiten ohne die Videoconferencing-App Teams ausgeliefert (dazu gleich mehr). Microsoft 365 Business richtet sich an kleine und mittelständische Unternehmen mit maximal 300 Benutzern und steht in den Versionen Basic, Standard und Premium zur Verfügung. Die Basic-Stufe für 5,60 Euro pro Monat und Benutzer umfasst dabei lediglich die Web- und Mobile-Versionen der Office-Anwendungen sowie OneDrive und essenzielle Services wie SharePoint und Exchange. Der Standard-Plan für 11,70 Euro erweitert die Auswahl um einige zusätzliche Apps wie Clipchamp und Loop. Das Premium-Paket für 20,60 Euro enthält zusätzlich erweiterte Sicherheits- und Management-Funktionen. Bei Microsoft 365 Apps for Business handelt es sich um eine „Nur-Apps-Version“ von M365. Sie umfasst für 9,80 Euro pro Monat und Benutzer die Desktop-Apps Word, Excel, Powerpoint, Outlook sowie Onedrive. Im Gegensatz zu Microsoft 365 Enterprise enthält M365 Business zur Zeit auch Microsoft Teams. Die Pakete Microsoft 365 F1 und F3 richten sich an Mitarbeiter mit direktem Kundenkontakt oder solche, die in Service und Produktion tätig sind. Die günstigeren Pakete – F1 kostet 2,10 Euro pro Benutzer und Monat, F3 verursacht monatliche Kosten von 7,50 Euro – bieten Security auf Enterprise-Niveau, setzen jedoch ausschließlich auf webbasierte und mobile Applikationen. Die Consumer-Versionen Microsoft 365 Family, Single, Basic und Free decken eine Bandbreite von (tatsächlich) kostenlos bis zu 129 Euro pro Jahr ab. Die Free-Variante stellt dabei das absolute Minimum dar und ist auf eine Handvoll Web- und Mobile-Apps sowie eine werbefinanzierte Version von Outlook beschränkt. Unternehmenskunden können M365-Komponenten auch separat erwerben. Microsoft verkauft auch weiterhin Windows 11 Enterprise, Windows 11 Pro, Enterprise Mobility und Security (EMS) sowie Services wie Exchange Online und SharePoint Online „à la carte“. Sämtliche Inhalte eines Microsoft-365-Abonnements einzeln zu erwerben, kommt im Regelfall zwar immer teurer, ist aber unter Umständen für Anwenderunternehmen attraktiv, die sich nicht vollständig auf Microsoft festlegen wollen. Microsoft-365-Add-ons Nachdem Microsoft seine Collaboration-App Teams inzwischen wegen kartellrechtlicher Untersuchungen der Europäischen Union aus seinen M365-Enterprise-Plänen weltweit entfernt hat, steht Teams in diesem Rahmen lediglich als zubuchbares Add-on zur Verfügung – für zusätzliche fünf Euro pro Benutzer und Monat. Das ist jedoch nur ein Beispiel aus einer langen und wachsenden Liste optionaler, kostenpflichtiger Erweiterungen für Microsoft 365. Diese können die monatlichen Kosten schnell in ungeahnte Höhen treiben. Dazu gehören beispielsweise: Der KI-Assistent Copilot für Microsoft 365 für zusätzliche 28,10 Euro pro Benutzer und Monat.  Das Low-Code-Entwicklungs-Tool Power Apps Premium für mindestens 11,20 Euro pro Benutzer und Monat. Das Analytics-Tool Power BI Premium ab 13,10 Euro pro Benutzer und Monat. Die Security- und IAM-Lösung Entra Suite für mindestens 11,20 Euro pro Benutzer und Monat. Die Bandbreite der verfügbaren optionalen Extras ist inzwischen so groß, dass bereits Gerüchte darüber kursieren, dass Microsoft eine neue Lizenzstufe einführen möchte, die alle oder die meisten dieser zusätzlichen Funktionen gegen einen entsprechend verteuerten Abopreis zur Verfügung stellt. Microsoft-365-Glossar Beim Blick auf die Preispläne von Microsoft 365 (und seinen Add-ons) begegnen Ihnen diverse Apps und Dienste. Im Folgenden ein kurzer Überblick über die wichtigsten Produkte im M365-Universum. Kern-Apps und -Services Word: Textverarbeitungs-App; Excel: Tabellenkalkulations-App; PowerPoint: Präsentations-App; Outlook: E-Mail-, Kalender- und Kontakt-App; OneNote: Notizen-App; Teams: Gruppenchat- und Videokonferenz-App (nicht in Enterprise-Plänen enthalten); OneDrive: Cloud-Speicher; SharePoint: Business-Plattform um Inhalte zu teilen; Exchange: Hosting-/Management Service für Unternehmens-E-Mails, -Kalender und -Kontakte; Windows: Desktop-Betriebssystem (nur in M365 E3- und E5-Plänen enthalten); Zusätzliche Apps und -Services Access: Datenbank-App (nur Windows); Bookings: App für Terminplanung und -management; Clipchamp: App zur Videobearbeitung; Delve: Such-App für M365 (wird Mitte Dezember 2024 eingestellt); Forms: App, um Umfragen und Formulare zu erstellen; Lists: Spreadsheet- und Work-Tracking-App; Loop: Shared-Workspace-App; Publisher: Desktop-Publishing-Anwendung (nur Windows, wird im Oktober 2026 eingestellt); Planner: Work-Management-App; Power Apps: Low-Code-Entwicklungsplattform; Power Automate: Workflow-Automatisierungsanwendung; Power BI Pro: Analytics- und Datenvisualisierungs-App; Stream: Streaming- und Sharing-Plattform für Videoinhalte; Sway: Publishing-App für Präsentationen, Berichte und Newsletter; Teams Telefon: Enterprise-Telefoniedienst für Microsoft Teams (zusätzliche monatliche Gebühr pro Benutzer); To Do: Task-Management-App; Visio: Diagramm- und Vektorgrafik-App; Viva Amplify: App für Employee Communication Management; Viva Connections: Intranet-App; Viva Engage (ehemals Yammer): Enterprise Social Network App; Viva Glint: App für Mitarbeiterumfragen und -Feedback; Viva Goals: App zur Zielverfolgung; Viva Insights: App für Produktivitäts- und Wellbeing-Aanalysen; Viva Learning: Lern-App; Viva Pulse: Self-Service-App für Teamleiter, um Mitarbeiter-Feedback einzuholen; Security und Management Defender: Enterprise Security Apps und Services (aber auch eine Security-App für Consumer); Entra (ehemals Azure Active Directory): Sammlung von Tools für die Identitäts- und Zugriffsverwaltung in Unternehmen, einschließlich Entra ID; Intune: Sammlung von Endpoint-Management-Tools für Unternehmen; Priva: Data-Privacy-Management-Tools für Unternehmen; Purview: Sammlung von Tools für Data Governance, Security, Risikomanagement und Compliance; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft 365 erklärt​ Bei Microsoft 365 besteht Erklärungsbedarf.
Ascannio | shutterstock.com

CEO Satya Nadella kündigte im Juli 2017 mit Microsoft 365 (M365) eine „grundlegende Abkehr“ von der bisherigen Art und Weise der Produktentwicklung an. Inzwischen hat sich das Produkt zu Microsofts Kernmarke im Bereich der Produktivitätssoftware entwickelt – und damit Office 365 in dieser Hinsicht weitgehend ersetzt.

Allerdings ist in den letzten Jahren nicht nur die Bandbreite der Anwendungen und Funktionen in Microsoft 365 gewachsen – Stichwort KI respektive Copilot. Auch die bereits initial etwas verwirrende Palette an Lizenzierungsoptionen wurde ausgebaut. Speziell für viele neue Funktionen fallen dabei zusätzliche Gebühren an, die über die Standardkosten für ein Microsoft-365-Abonnement hinausgehen.

In diesem Artikel lesen Sie:

was Microsoft 365 ist und wie sein Konkurrenzumfeld aussieht,

welche M365-Versionen aktuell zur Verfügung stehen,

was diese kosten und

wie es um die Add-ons für M365 bestellt ist.

Darüber hinaus erwartet Sie am Ende dieses Artikels ein umfassendes Glossar zu Microsoft 365.

Was ist Microsoft 365?

Microsoft 365 ist im Grunde genommen immer noch eine Sammlung von Microsoft-Software und -Services, die im Rahmen eines Abo-Modells verkauft wird. Sämtliche M365-Abonnements enthalten eine Version der jeweils wichtigsten Office-Anwendungen:

Word (Dokumentbearbeitung),

Excel (Tabellenkalkulation),

PowerPoint (Präsentationen) sowie

Outlook (E-Mail).

Das war es aber auch schon an übergreifenden Gemeinsamkeiten: Davon abgesehen variiert das spezifische Set an Software und Services je nach Microsoft-365-Preisplan (zum Teil erheblich). Das trägt auch dazu bei, dass regelmäßig Verwirrung darüber herrscht, für was Microsoft 365 denn nun konkret steht. Schließlich können damit ein paar webbasierte Consumer-Anwendungen ebenso gemeint sein, wie ein umfassendes Enterprise-Paket inklusive Lizenzen für Windows und Office-Anwendungen sowie einer Reihe von Storage-, Security- und Management-Tools.

„Microsoft würde sagen, dass es die Grundlage für modernes Arbeiten ist“, läutet Jason Wong, Distinguished VP Analyst bei Gartner, seine Definition der Productivity Suite ein und fügt hinzu: “Microsoft 365 bietet Unternehmen eine Möglichkeit, die Office-Produkte strategischer als ein Set von Technologien einzusetzen.“

Obwohl Gartner bei Enterprise-Kunden auch ein steigendes Interesse an anderen Produktivitäts-Suites – insbesondere Google Workspace – feststelle, sei Microsoft mit seinem 365-Angebot ein dominierender Akteur am Markt mit einer gefestigten Position innerhalb der Unternehmenslandschaft: „Das ist zum Teil auch auf die langjährige On-Premises-Nutzung der Office-Produkte zurückzuführen“, so der Analyst.

Neben Google sieht sich Microsoft jedoch mit einer Vielzahl weiterer Wettbewerber konfrontiert, wenn es um Produktivität geht. Zum Beispiel:

Slack,

Zoom,

Notion oder

Zoho.

Die Angebote dieser Anbieter konkurrieren mit einzelnen Microsoft-365-Apps, erweitern jedoch ebenfalls ihr Produktportfolio mit dem Ziel, zum digitalen Knotenpunkt in Unternehmen zu werden. Laut Gartner-Mann Wong muss das jedoch nicht unbedingt zum Nachteil gereichen: „Für gewöhnlich gibt es in diesem Bereich kein Entweder-Oder. Statt um Verdrängung geht es bei vielen dieser Tools eher um Koexistenz.“

Microsoft-365-Versionen und -Preise im Überblick

Weil Microsoft 365 als Abonnement verkauft wird, fallen monatliche oder jährliche Gebühren für jeden Benutzer an. Solange das Abo aufrechterhalten respektive bezahlt wird, sind alle Software-Updates und -Upgrades ohne Aufpreis enthalten.

Wir konzentrieren uns im Folgenden auf die wichtigsten Versionen von Microsoft 365. Das sind:

Microsoft 365 Enterprise ist in den Konfigurationen E3 EWR und E5 EWR verfügbar. Diese Optionen richten sich an Großunternehmen mit mehr als 300 Mitarbeitern. Der E3-Plan kostet 35,70 Euro pro Benutzer und Monat und umfasst Nutzerlizenzen für Windows 11 Enterprise sowie eine lange Liste von Office-Apps für Desktop- und Mobilgeräte sowie Services wie Exchange, Sharepoint, Onedrive und Sicherheits-Tools. Der E5-Plan kostet 57,70 Euro pro Benutzer und Monat und bietet darüber hinaus erweiterte Security-, Compliance- und Analytics-Funktionen. Wichtig: Sämtliche Versionen von M365 Enterprise werden derzeit aufgrund rechtlicher Unwägbarkeiten ohne die Videoconferencing-App Teams ausgeliefert (dazu gleich mehr).

Microsoft 365 Business richtet sich an kleine und mittelständische Unternehmen mit maximal 300 Benutzern und steht in den Versionen Basic, Standard und Premium zur Verfügung. Die Basic-Stufe für 5,60 Euro pro Monat und Benutzer umfasst dabei lediglich die Web- und Mobile-Versionen der Office-Anwendungen sowie OneDrive und essenzielle Services wie SharePoint und Exchange. Der Standard-Plan für 11,70 Euro erweitert die Auswahl um einige zusätzliche Apps wie Clipchamp und Loop. Das Premium-Paket für 20,60 Euro enthält zusätzlich erweiterte Sicherheits- und Management-Funktionen. Bei Microsoft 365 Apps for Business handelt es sich um eine „Nur-Apps-Version“ von M365. Sie umfasst für 9,80 Euro pro Monat und Benutzer die Desktop-Apps Word, Excel, Powerpoint, Outlook sowie Onedrive. Im Gegensatz zu Microsoft 365 Enterprise enthält M365 Business zur Zeit auch Microsoft Teams.

Die Pakete Microsoft 365 F1 und F3 richten sich an Mitarbeiter mit direktem Kundenkontakt oder solche, die in Service und Produktion tätig sind. Die günstigeren Pakete – F1 kostet 2,10 Euro pro Benutzer und Monat, F3 verursacht monatliche Kosten von 7,50 Euro – bieten Security auf Enterprise-Niveau, setzen jedoch ausschließlich auf webbasierte und mobile Applikationen.

Die Consumer-Versionen Microsoft 365 Family, Single, Basic und Free decken eine Bandbreite von (tatsächlich) kostenlos bis zu 129 Euro pro Jahr ab. Die Free-Variante stellt dabei das absolute Minimum dar und ist auf eine Handvoll Web- und Mobile-Apps sowie eine werbefinanzierte Version von Outlook beschränkt.

Unternehmenskunden können M365-Komponenten auch separat erwerben. Microsoft verkauft auch weiterhin Windows 11 Enterprise, Windows 11 Pro, Enterprise Mobility und Security (EMS) sowie Services wie Exchange Online und SharePoint Online „à la carte“. Sämtliche Inhalte eines Microsoft-365-Abonnements einzeln zu erwerben, kommt im Regelfall zwar immer teurer, ist aber unter Umständen für Anwenderunternehmen attraktiv, die sich nicht vollständig auf Microsoft festlegen wollen.

Microsoft-365-Add-ons

Nachdem Microsoft seine Collaboration-App Teams inzwischen wegen kartellrechtlicher Untersuchungen der Europäischen Union aus seinen M365-Enterprise-Plänen weltweit entfernt hat, steht Teams in diesem Rahmen lediglich als zubuchbares Add-on zur Verfügung – für zusätzliche fünf Euro pro Benutzer und Monat. Das ist jedoch nur ein Beispiel aus einer langen und wachsenden Liste optionaler, kostenpflichtiger Erweiterungen für Microsoft 365. Diese können die monatlichen Kosten schnell in ungeahnte Höhen treiben.

Dazu gehören beispielsweise:

Der KI-Assistent Copilot für Microsoft 365 für zusätzliche 28,10 Euro pro Benutzer und Monat. 

Das Low-Code-Entwicklungs-Tool Power Apps Premium für mindestens 11,20 Euro pro Benutzer und Monat.

Das Analytics-Tool Power BI Premium ab 13,10 Euro pro Benutzer und Monat.

Die Security- und IAM-Lösung Entra Suite für mindestens 11,20 Euro pro Benutzer und Monat.

Die Bandbreite der verfügbaren optionalen Extras ist inzwischen so groß, dass bereits Gerüchte darüber kursieren, dass Microsoft eine neue Lizenzstufe einführen möchte, die alle oder die meisten dieser zusätzlichen Funktionen gegen einen entsprechend verteuerten Abopreis zur Verfügung stellt.

Microsoft-365-Glossar

Beim Blick auf die Preispläne von Microsoft 365 (und seinen Add-ons) begegnen Ihnen diverse Apps und Dienste. Im Folgenden ein kurzer Überblick über die wichtigsten Produkte im M365-Universum.

Kern-Apps und -Services

Word: Textverarbeitungs-App;

Excel: Tabellenkalkulations-App;

PowerPoint: Präsentations-App;

Outlook: E-Mail-, Kalender- und Kontakt-App;

OneNote: Notizen-App;

Teams: Gruppenchat- und Videokonferenz-App (nicht in Enterprise-Plänen enthalten);

OneDrive: Cloud-Speicher;

SharePoint: Business-Plattform um Inhalte zu teilen;

Exchange: Hosting-/Management Service für Unternehmens-E-Mails, -Kalender und -Kontakte;

Windows: Desktop-Betriebssystem (nur in M365 E3- und E5-Plänen enthalten);

Zusätzliche Apps und -Services

Access: Datenbank-App (nur Windows);

Bookings: App für Terminplanung und -management;

Clipchamp: App zur Videobearbeitung;

Delve: Such-App für M365 (wird Mitte Dezember 2024 eingestellt);

Forms: App, um Umfragen und Formulare zu erstellen;

Lists: Spreadsheet- und Work-Tracking-App;

Loop: Shared-Workspace-App;

Publisher: Desktop-Publishing-Anwendung (nur Windows, wird im Oktober 2026 eingestellt);

Planner: Work-Management-App;

Power Apps: Low-Code-Entwicklungsplattform;

Power Automate: Workflow-Automatisierungsanwendung;

Power BI Pro: Analytics- und Datenvisualisierungs-App;

Stream: Streaming- und Sharing-Plattform für Videoinhalte;

Sway: Publishing-App für Präsentationen, Berichte und Newsletter;

Teams Telefon: Enterprise-Telefoniedienst für Microsoft Teams (zusätzliche monatliche Gebühr pro Benutzer);

To Do: Task-Management-App;

Visio: Diagramm- und Vektorgrafik-App;

Viva Amplify: App für Employee Communication Management;

Viva Connections: Intranet-App;

Viva Engage (ehemals Yammer): Enterprise Social Network App;

Viva Glint: App für Mitarbeiterumfragen und -Feedback;

Viva Goals: App zur Zielverfolgung;

Viva Insights: App für Produktivitäts- und Wellbeing-Aanalysen;

Viva Learning: Lern-App;

Viva Pulse: Self-Service-App für Teamleiter, um Mitarbeiter-Feedback einzuholen;

Security und Management

Defender: Enterprise Security Apps und Services (aber auch eine Security-App für Consumer);

Entra (ehemals Azure Active Directory): Sammlung von Tools für die Identitäts- und Zugriffsverwaltung in Unternehmen, einschließlich Entra ID;

Intune: Sammlung von Endpoint-Management-Tools für Unternehmen;

Priva: Data-Privacy-Management-Tools für Unternehmen;

Purview: Sammlung von Tools für Data Governance, Security, Risikomanagement und Compliance;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft 365 erklärt​ Weiterlesen »

Bosch und Cariad entwickeln KI für automatisiertes Fahren​

Allgemein

Testfahrzeug von Cariad und Bosch zum automatisierten Fahren.Cariad Einige Autobauer, wie etwa Tesla mit seinem „Full Self-Driving“ (FSD), gaukeln potenziellen Kunden vor, bereits autonom fahren (SAE Level 5) zu können. Hierzulande hat jedoch bislang kein Hersteller eine entsprechende Zertifizierung beziehungsweise Genehmigung. Lediglich einige Autobauer wie etwa BMW oder Mercedes-Benz haben bereits eine Zulassung für das automatisierte Fahren gemäß Level 3 – je nach Lesart als bedingt automatisiertes oder hochautomatisiertes Fahren bezeichnet. Diesen Level will der VW-Konzern ab Mitte 2026 auch für seine Fahrzeuge – vom Volumen- bis ins Premiumsegment – anbieten können. Um dieses Ziel zu erreichen, vertieft die VW-Tochter Cariad im Rahmen der Automated Driving Alliance ihre Zusammenarbeit mit Bosch. Gemeinsam arbeiten die Partner an einem Software-Stack für das assistierte und automatisierte Fahren. Die automatisierten Fahrfunktionen von Bosch und Cariad sind für die neue Software-defined-Vehicle-Architektur im Volkswagen Konzern vorgesehen.  KI für kognitive Aufgaben Dazu setzen die beiden Unternehmen vor allem auf KI. Die Nutzung von AI soll zu leistungsstärkeren und intelligenteren Fahrerassistenzsystemen führen, die so natürlich wie ein Autofahrer agieren. Mit KI-Hilfe wollen die Partner alle wesentlichen kognitiven Aufgaben des Wahrnehmens, Interpretierens, Entscheidens und Handelns beim Autofahren abdecken. So setzt die Automated Driving Alliance KI etwa im Bereich „Perception“ ein, zum Beispiel zur Objekterkennung. Dabei kommt KI entlang der gesamten Software-Technikkette zum Einsatz: von der Objekterkennung, der Fusion verschiedener Sensoren wie Kameras und Radare, über die Entscheidungsfindung bis hin zur Umsetzung in die sichere automatisierte Steuerung von Antrieb, Lenkung und Bremse. Logisches Denken imitieren Letztlich soll eine durchgängige End-to-End-KI-Architektur entstehen, in der alle Module durch den Einsatz von KI nochmals leistungsfähiger und intelligenter werden. So wie Sprachmodelle von GenAI-Lösungen komplexe semantische Zusammenhänge verstehen, heißt es, könne der neue KI-Stack urbane Verkehrsszenarien analysieren. Und sowohl aktuelles als auch potenzielles Verhalten von Verkehrsteilnehmern aus unterschiedlichen Sensormodalitäten antizipieren. Gleichzeitig schafft der Software-Stack, eine Basis für die mögliche Integration multimodaler KI-Ansätze, die visuelle und sprachliche Informationen miteinander verknüpfen, so die Unternehmen. Dabei könnten Ansätze wie Vision Language Action (VLA) das logische Denken und Handeln von Menschen imitieren. Ein solcher Einsatz ermöglicht ein noch effizienteres Training und noch tieferes Verständnis komplexer Verkehrssituationen. VLAs können etwa, so erklären die Partner, dabei helfen, versteckte Risiken während der Fahrt zu entdecken und darauf entsprechend zu reagieren. Großer Praxistest Ab Mitte 2026 soll dann ein Software-Stack für die Applikation in Serienprojekte zur Verfügung stehen. Bis dahin plant man, die Performance durch kontinuierliches Sammeln enormer Datenmengen ständig zu verbessern, um eine maximale Sicherheit und Zuverlässigkeit des Systems zu realisieren. So betont denn auch Mathias Pillin, CTO bei Bosch Mobility: „Daten und KI sind der Schlüssel, wenn es darum geht, automatisierte Fahrsysteme in großem Maßstab und zuverlässig auf die Straße zu bringen.“ Dazu ist eine Test- und Validierungsflotte im öffentlichen Straßenverkehr unabdingbar. Um einen in vielen globalen Märkten einsetzbaren Software-Stack zu erhalten, arbeiten die Teams von Cariad und Bosch weltweit zusammen und testen die Fahrfunktionen im öffentlichen Straßenverkehr in Europa, Japan und den USA. Die Entwicklung selbst erfolge datengetrieben, wodurch die Software mehrfach täglich mit neuen Updates und Optimierungen am Quellcode in die Testfahrzeuge eingespielt werden kann. Im Einsatz ist die Technologie in Testfahrzeugen wie dem ID.Buzz und dem Audi Q8. 

Bosch und Cariad entwickeln KI für automatisiertes Fahren​ Testfahrzeug von Cariad und Bosch zum automatisierten Fahren.Cariad

Einige Autobauer, wie etwa Tesla mit seinem „Full Self-Driving“ (FSD), gaukeln potenziellen Kunden vor, bereits autonom fahren (SAE Level 5) zu können. Hierzulande hat jedoch bislang kein Hersteller eine entsprechende Zertifizierung beziehungsweise Genehmigung. Lediglich einige Autobauer wie etwa BMW oder Mercedes-Benz haben bereits eine Zulassung für das automatisierte Fahren gemäß Level 3 – je nach Lesart als bedingt automatisiertes oder hochautomatisiertes Fahren bezeichnet.

Diesen Level will der VW-Konzern ab Mitte 2026 auch für seine Fahrzeuge – vom Volumen- bis ins Premiumsegment – anbieten können. Um dieses Ziel zu erreichen, vertieft die VW-Tochter Cariad im Rahmen der Automated Driving Alliance ihre Zusammenarbeit mit Bosch. Gemeinsam arbeiten die Partner an einem Software-Stack für das assistierte und automatisierte Fahren. Die automatisierten Fahrfunktionen von Bosch und Cariad sind für die neue Software-defined-Vehicle-Architektur im Volkswagen Konzern vorgesehen. 

KI für kognitive Aufgaben

Dazu setzen die beiden Unternehmen vor allem auf KI. Die Nutzung von AI soll zu leistungsstärkeren und intelligenteren Fahrerassistenzsystemen führen, die so natürlich wie ein Autofahrer agieren. Mit KI-Hilfe wollen die Partner alle wesentlichen kognitiven Aufgaben des Wahrnehmens, Interpretierens, Entscheidens und Handelns beim Autofahren abdecken.

So setzt die Automated Driving Alliance KI etwa im Bereich „Perception“ ein, zum Beispiel zur Objekterkennung. Dabei kommt KI entlang der gesamten Software-Technikkette zum Einsatz: von der Objekterkennung, der Fusion verschiedener Sensoren wie Kameras und Radare, über die Entscheidungsfindung bis hin zur Umsetzung in die sichere automatisierte Steuerung von Antrieb, Lenkung und Bremse.

Logisches Denken imitieren

Letztlich soll eine durchgängige End-to-End-KI-Architektur entstehen, in der alle Module durch den Einsatz von KI nochmals leistungsfähiger und intelligenter werden. So wie Sprachmodelle von GenAI-Lösungen komplexe semantische Zusammenhänge verstehen, heißt es, könne der neue KI-Stack urbane Verkehrsszenarien analysieren. Und sowohl aktuelles als auch potenzielles Verhalten von Verkehrsteilnehmern aus unterschiedlichen Sensormodalitäten antizipieren.

Gleichzeitig schafft der Software-Stack, eine Basis für die mögliche Integration multimodaler KI-Ansätze, die visuelle und sprachliche Informationen miteinander verknüpfen, so die Unternehmen. Dabei könnten Ansätze wie Vision Language Action (VLA) das logische Denken und Handeln von Menschen imitieren. Ein solcher Einsatz ermöglicht ein noch effizienteres Training und noch tieferes Verständnis komplexer Verkehrssituationen. VLAs können etwa, so erklären die Partner, dabei helfen, versteckte Risiken während der Fahrt zu entdecken und darauf entsprechend zu reagieren.

Großer Praxistest

Ab Mitte 2026 soll dann ein Software-Stack für die Applikation in Serienprojekte zur Verfügung stehen. Bis dahin plant man, die Performance durch kontinuierliches Sammeln enormer Datenmengen ständig zu verbessern, um eine maximale Sicherheit und Zuverlässigkeit des Systems zu realisieren. So betont denn auch Mathias Pillin, CTO bei Bosch Mobility: „Daten und KI sind der Schlüssel, wenn es darum geht, automatisierte Fahrsysteme in großem Maßstab und zuverlässig auf die Straße zu bringen.“

Dazu ist eine Test- und Validierungsflotte im öffentlichen Straßenverkehr unabdingbar. Um einen in vielen globalen Märkten einsetzbaren Software-Stack zu erhalten, arbeiten die Teams von Cariad und Bosch weltweit zusammen und testen die Fahrfunktionen im öffentlichen Straßenverkehr in Europa, Japan und den USA.

Die Entwicklung selbst erfolge datengetrieben, wodurch die Software mehrfach täglich mit neuen Updates und Optimierungen am Quellcode in die Testfahrzeuge eingespielt werden kann. Im Einsatz ist die Technologie in Testfahrzeugen wie dem ID.Buzz und dem Audi Q8.

Bosch und Cariad entwickeln KI für automatisiertes Fahren​ Weiterlesen »

Perplexity bietet Milliarden für Google Chrome – alles nur PR?​

Allgemein

Das Kaufangebot von Perplexity an Google/Alphabet wirft einige Fragen auf.daily_creativity / shutterstock Die Offerte wurde von Perplexity-CEO Aravind Srinivas in einem Schreiben an Sundar Pichai, den CEO von Alphabet und Google, unterbreitet. In einer Kopie des Briefs, die Perplexity Computerworld zur Verfügung stellte, verspricht das Unternehmen unter anderem, Google als Standardsuchmaschine des Browsers beizubehalten. Es weist jedoch darauf hin, dass Nutzer dies jederzeit in den Einstellungen ändern können. Zudem sichert Perplexity in dem Schreiben zu, Chromium – das Open-Source-Projekt, auf dem Chrome basiert – weiterhin zu pflegen, zu unterstützen und zu fördern: „Wir beabsichtigen, diese Verpflichtung rechtlich bindend zu machen, vorbehaltlich der Genehmigung durch die Aufsichtsbehörden“, so das KI-Startup. Darüber hinaus verspricht Perplexity, „über einen Zeitraum von 24 Monaten drei Milliarden Dollar in Zuverlässigkeit, Leistung, Sicherheit und Kunden-Support zu investieren; geeignete Sicherheitszertifizierungen anzustreben; eine vierteljährliche Roadmap für Kunden anzulegen und innerhalb von 120 Tagen nach Abschluss der Übernahme ein Open Web Advisory Board einzuberufen.“ Allerdings wird nicht zugesagt, alle Chrome-Mitarbeiter zu übernehmen. Perplexity erklärte jedoch, man werde „einem wesentlichen Teil der Mitarbeiter in ausgewählten Schlüsselfunktionen Angebote unterbreiten und Programme zur Mitarbeiterbindung implementieren, um Fachwissen und Kontinuität zu erhalten.“ Der Vorschlag sei so gestaltet, dass er eine kartellrechtliche Auflage im höchsten öffentlichen Interesse erfülle, indem Chrome bei einem fähigen, unabhängigen Betreiber angesiedelt wird, der sich auf Kontinuität, Offenheit und Verbraucherschutz konzentriert, heißt es weiter. Hintergrund der Geschichte – und möglicherweise der einzige Grund für das Übernahmeangebot – ist ein Verfahren vor einem US-Bundesgericht gegen Google. Darin soll entschieden werden, ob der Suchmaschinenanbieter gezwungen wird, Geschäftsbereiche zu veräußern, um seine angeblich monopolartige Stellung im Bereich der Websuche zu schwächen. Marketing-Gag oder genialer Schachzug? Analysten sind sich uneinig über die Auswirkungen eines solchen Schritts. „Mein Kopf sagt ‘Marketing-Gag’“, erklärt Jason Andersen, VP und Principal Analyst bei Moor Insights & Strategy. Um Perplexity sei es in den letzten Monaten still gewesen, so Andersen, „und das ist ihr Versuch, ihren Namen wieder ins Gespräch zu bringen, damit die Leute sie nicht vergessen. Ihre Konkurrenz macht gerade eine Menge Lärm.“ Brian Jackson, Principal Research Director bei der Info-Tech Research Group, hat eine wohlwollendere Sichtweise. „Ein Teil der Genialität von Perplexitys Schachzug“ liegt aus seiner Sicht darin, dass er unmittelbar vor der Entscheidung des Richters komme. Jackson sieht darin eine Möglichkeit für Google, eine ungünstige gerichtliche Entscheidung zu vermeiden, indem Chrome an einen Dritten übertragen wird. Er halte den von Perplexity für Chrome angesetzten Preis allerdings für zu niedrig, erklärt der Analyst. „Ich glaube nicht, dass das dem fairen Marktwert entspricht. Er sollte wahrscheinlich mindestens doppelt so hoch sein.“ Allerdings bezweifeln Marktbeobachter, dass Perplexity den Kauf eines Browsers für 34,5 Milliarden Dollar rechtfertigen kann – und überhaupt in der Lage ist, diese Summe aufzubringen. Schließlich könnten Chrome-Nutzer den Browser leicht aufgeben, falls die Verbindung zu andere Google-Produkten gekappt wird. Eine Frage der Integrationen Auch wenn es bemerkenswert ist, dass in dem Schreiben zugesichert wird, die Standardsuchmaschine von Google nicht zu ändern, die überzeugendste Funktion von Chrome wird nicht angesprochen: Die nahtlose Integration des Browsers in eine Vielzahl von Google-Diensten, darunter Gmail, Google Docs, Google Drive und YouTube. Es gibt Argumente, die dafür und dagegen sprechen, dass die enge Integration der Google-Apps eine Übernahme durch Perplexity überstehen würde. Das KI-Startup könnte stattdessen versuchen, eigene Dienste zu integrieren. Gleichzeitig würde es dabei jedoch riskieren, genau die Nutzer zu vergraulen, für die es bezahlt hat. Da der Browser kostenlos ist, haben die Nutzer keinen finanziellen Grund zu bleiben, wenn der wahrgenommene Nutzen sinkt. Aus Sicht von Moor-Insights-Analyst Andersen könnte Comet das Interesse von Perplexity zum Teil erklären. Dabei handelt es sich um eine kürzlich veröffentlichte Perplexity-Erweiterung für Chrome, die eine Interaktion mit der KI direkt aus dem Browser heraus ermöglicht. Er selbst habe Comet getestet und sei wenig beeindruckt gewesen. Sie sei etwas langsam gewesen, und bestimmte Aufgaben konnte er schneller selbst erledigen. „Es war interessant“, erklärt er, „aber noch in einem frühen Stadium. Vielleicht noch nicht ausgereift.“ Allerdings könnte Perplexity die Kritikpunkte nach dem Kauf des Chrome-Browsers beheben, da sie dann direkten Zugriff auf und Kontrolle über den Quellcode des Browsers hätten, fügt Andersen hinzu. Der Analyst bezweifelt jedoch, dass es zu einem Kauf kommt. Falls der Richter Google zum Verkauf von Chrome verpflichten sollte, könnte Alphabet Chrome einfach in einen anderen Unternehmensbereich verschieben und diesen dann strikt abschotten, erklärt er. So könnte Google den Bedenken des Richters Rechnung zu tragen – ähnlich wie viele Finanzunternehmen sensible Geschäftsbereiche isolieren, um Vorschriften einzuhalten. (mb) 

Perplexity bietet Milliarden für Google Chrome – alles nur PR?​ Das Kaufangebot von Perplexity an Google/Alphabet wirft einige Fragen auf.daily_creativity / shutterstock

Die Offerte wurde von Perplexity-CEO Aravind Srinivas in einem Schreiben an Sundar Pichai, den CEO von Alphabet und Google, unterbreitet. In einer Kopie des Briefs, die Perplexity Computerworld zur Verfügung stellte, verspricht das Unternehmen unter anderem, Google als Standardsuchmaschine des Browsers beizubehalten. Es weist jedoch darauf hin, dass Nutzer dies jederzeit in den Einstellungen ändern können.

Zudem sichert Perplexity in dem Schreiben zu, Chromium – das Open-Source-Projekt, auf dem Chrome basiert – weiterhin zu pflegen, zu unterstützen und zu fördern: „Wir beabsichtigen, diese Verpflichtung rechtlich bindend zu machen, vorbehaltlich der Genehmigung durch die Aufsichtsbehörden“, so das KI-Startup.

Darüber hinaus verspricht Perplexity, „über einen Zeitraum von 24 Monaten drei Milliarden Dollar in Zuverlässigkeit, Leistung, Sicherheit und Kunden-Support zu investieren; geeignete Sicherheitszertifizierungen anzustreben; eine vierteljährliche Roadmap für Kunden anzulegen und innerhalb von 120 Tagen nach Abschluss der Übernahme ein Open Web Advisory Board einzuberufen.“

Allerdings wird nicht zugesagt, alle Chrome-Mitarbeiter zu übernehmen. Perplexity erklärte jedoch, man werde „einem wesentlichen Teil der Mitarbeiter in ausgewählten Schlüsselfunktionen Angebote unterbreiten und Programme zur Mitarbeiterbindung implementieren, um Fachwissen und Kontinuität zu erhalten.“

Der Vorschlag sei so gestaltet, dass er eine kartellrechtliche Auflage im höchsten öffentlichen Interesse erfülle, indem Chrome bei einem fähigen, unabhängigen Betreiber angesiedelt wird, der sich auf Kontinuität, Offenheit und Verbraucherschutz konzentriert, heißt es weiter.

Hintergrund der Geschichte – und möglicherweise der einzige Grund für das Übernahmeangebot – ist ein Verfahren vor einem US-Bundesgericht gegen Google. Darin soll entschieden werden, ob der Suchmaschinenanbieter gezwungen wird, Geschäftsbereiche zu veräußern, um seine angeblich monopolartige Stellung im Bereich der Websuche zu schwächen.

Marketing-Gag oder genialer Schachzug?

Analysten sind sich uneinig über die Auswirkungen eines solchen Schritts. „Mein Kopf sagt ‘Marketing-Gag’“, erklärt Jason Andersen, VP und Principal Analyst bei Moor Insights & Strategy. Um Perplexity sei es in den letzten Monaten still gewesen, so Andersen, „und das ist ihr Versuch, ihren Namen wieder ins Gespräch zu bringen, damit die Leute sie nicht vergessen. Ihre Konkurrenz macht gerade eine Menge Lärm.“

Brian Jackson, Principal Research Director bei der Info-Tech Research Group, hat eine wohlwollendere Sichtweise. „Ein Teil der Genialität von Perplexitys Schachzug“ liegt aus seiner Sicht darin, dass er unmittelbar vor der Entscheidung des Richters komme. Jackson sieht darin eine Möglichkeit für Google, eine ungünstige gerichtliche Entscheidung zu vermeiden, indem Chrome an einen Dritten übertragen wird.

Er halte den von Perplexity für Chrome angesetzten Preis allerdings für zu niedrig, erklärt der Analyst. „Ich glaube nicht, dass das dem fairen Marktwert entspricht. Er sollte wahrscheinlich mindestens doppelt so hoch sein.“

Allerdings bezweifeln Marktbeobachter, dass Perplexity den Kauf eines Browsers für 34,5 Milliarden Dollar rechtfertigen kann – und überhaupt in der Lage ist, diese Summe aufzubringen. Schließlich könnten Chrome-Nutzer den Browser leicht aufgeben, falls die Verbindung zu andere Google-Produkten gekappt wird.

Eine Frage der Integrationen

Auch wenn es bemerkenswert ist, dass in dem Schreiben zugesichert wird, die Standardsuchmaschine von Google nicht zu ändern, die überzeugendste Funktion von Chrome wird nicht angesprochen: Die nahtlose Integration des Browsers in eine Vielzahl von Google-Diensten, darunter Gmail, Google Docs, Google Drive und YouTube.

Es gibt Argumente, die dafür und dagegen sprechen, dass die enge Integration der Google-Apps eine Übernahme durch Perplexity überstehen würde. Das KI-Startup könnte stattdessen versuchen, eigene Dienste zu integrieren. Gleichzeitig würde es dabei jedoch riskieren, genau die Nutzer zu vergraulen, für die es bezahlt hat. Da der Browser kostenlos ist, haben die Nutzer keinen finanziellen Grund zu bleiben, wenn der wahrgenommene Nutzen sinkt.

Aus Sicht von Moor-Insights-Analyst Andersen könnte Comet das Interesse von Perplexity zum Teil erklären. Dabei handelt es sich um eine kürzlich veröffentlichte Perplexity-Erweiterung für Chrome, die eine Interaktion mit der KI direkt aus dem Browser heraus ermöglicht.

Er selbst habe Comet getestet und sei wenig beeindruckt gewesen. Sie sei etwas langsam gewesen, und bestimmte Aufgaben konnte er schneller selbst erledigen. „Es war interessant“, erklärt er, „aber noch in einem frühen Stadium. Vielleicht noch nicht ausgereift.“ Allerdings könnte Perplexity die Kritikpunkte nach dem Kauf des Chrome-Browsers beheben, da sie dann direkten Zugriff auf und Kontrolle über den Quellcode des Browsers hätten, fügt Andersen hinzu.

Der Analyst bezweifelt jedoch, dass es zu einem Kauf kommt. Falls der Richter Google zum Verkauf von Chrome verpflichten sollte, könnte Alphabet Chrome einfach in einen anderen Unternehmensbereich verschieben und diesen dann strikt abschotten, erklärt er. So könnte Google den Bedenken des Richters Rechnung zu tragen – ähnlich wie viele Finanzunternehmen sensible Geschäftsbereiche isolieren, um Vorschriften einzuhalten. (mb)

Perplexity bietet Milliarden für Google Chrome – alles nur PR?​ Weiterlesen »

Nvidias neues GenAI-Modell hilft Robotern, wie Menschen zu denken​

Allgemein

Laut Nvidia könnten schon bald Ampeln und Kameras mit „denkender“ KI ausgestattet werden.Golovina Marina / Shuterstock Nvidia hat ein generatives KI-Modell (GenAI) entwickelt, das Robotern dabei helfen soll, menschenähnliche Entscheidungen zu treffen, indem es die Umgebung analysiert. Laut Nvidia kann das kürzlich vorgestellte Modell Informationen aus Video- und Grafikeingaben aufnehmen, diese Daten analysieren und anhand seines „Verständnisses“ Entscheidungen treffen. „Cosmos Reason hilft Robotern, wie Menschen zu denken und Entscheidungen quasi mit gesundem Menschenverstand zu treffen“, so Rev Lebaredian, Vizepräsident von Omniverse und Simulationstechnologien bei Nvidia. Schon bald in jeder Kamera Das Modell ist mit sieben Milliarden Parameter relativ klein und kann in einer Vielzahl von physischen Geräten eingesetzt werden. Hierzu zählen unter anderem installierte Kameras, Ampeln und Instrumente in Fabriken. „Jedes intelligente IoT-Gerät, das sehen kann, von Kameras bis zu Ampeln, jeder Haushalts- oder Industrieroboter, wird bald über Denkvermögen verfügen”, prophezeit Lebaredian. Dem Manager zufolge können Unternehmen auf Basis von Cosmos Reason Video-KI-Agenten entwickeln, die auf der Grundlage der riesigen Datenmengen handeln, die aus aufgezeichneten Videodaten und Livestreams gesammelt und analysiert werden. „Diese Video-Agenten werden bald überall zu finden sein und die Verkehrsüberwachung automatisieren, die Sicherheit verbessern und die Videoinspektionen in allen Bereichen automatisieren, von Industrieanlagen bis hin zu ganzen Städten“,  erläutert der Experte. Nvidias Cosmos Reason VLM wurde entwickelt, um Robotern dabei zu helfen, bessere Entscheidungen zu treffen.Nvidia Vision statt Large Bei Cosmos Reason handelt es dabei aber nicht um ein klassisches LLM, sondern um etwas, das Nvidia als „Vision Language Model“ (VLM) bezeichnet. Das bedeutet, dass es sich von typischen textbasierten Modellen unterscheidet, die Bilder, Videos oder Text generieren können. Auch OpenAI und andere Unternehmen hätten bereits VLMs veröffentlicht, aber Cosmos Reason könne tiefere Schlussfolgerungen aus einer Vielzahl von unbekannten Szenarien ziehen, so Lebaredian. So könnten Modelle dieser Art neue und unbekannte Erfahrungen verstehen, ein vorläufiges Verständnis von Szenarien aufbauen, physische Wechselwirkungen berücksichtigen und dann komplexe Interaktionen oder Motivationen von Objekten und Akteuren in der Szene ableiten. Beispielsweise wären damit ausgestattete Roboter in der Lage, die einzelnen Schritte beim Toasten zu verknüpfen, indem sie verstehen, dass Toast Butter, einen Toaster sowie ein Teller, auf dem das Essen serviert wird, erfordert. Die heutigen KI-Robotermodelle verfügen über zwei Arten von Technologien, die ihre Aktivitäten unterstützen. Das VLM interpretiert Anweisungen und plant Aktionen, während „Vision Language Action” schnelle Aktionen und Muskelgedächtnis ermöglicht. Verfügbar und vielseitig trainiert Dem Unternehmen zufolge ist Cosmos Reason Open Source und steht zum Download bereit, funktioniert jedoch nur mit Nvidia-Hardware. Nvidia fasst seine World-Foundation- und Simulations-Produkte unter der Marke Omniverse zusammen. Cosmos Reason ist eines von vielen Modellen, die die Firma entwickelt hat, um die Produktivität in Fabriken, Lagerhäusern, Robotern, Fahrzeugen und anderen physischen Standorten zu verbessern. Die Produkte erstellen dabei eine digitale Kopie physischer Produkte aus der realen Welt. Außerdem werden Informationen aus der virtuellen Welt verwendet, um synthetische Daten zum Training von Vision-Language-Modellen zu erstellen. (tf) 

Nvidias neues GenAI-Modell hilft Robotern, wie Menschen zu denken​ Laut Nvidia könnten schon bald Ampeln und Kameras mit „denkender“ KI ausgestattet werden.Golovina Marina / Shuterstock

Nvidia hat ein generatives KI-Modell (GenAI) entwickelt, das Robotern dabei helfen soll, menschenähnliche Entscheidungen zu treffen, indem es die Umgebung analysiert. Laut Nvidia kann das kürzlich vorgestellte Modell Informationen aus Video- und Grafikeingaben aufnehmen, diese Daten analysieren und anhand seines „Verständnisses“ Entscheidungen treffen.

„Cosmos Reason hilft Robotern, wie Menschen zu denken und Entscheidungen quasi mit gesundem Menschenverstand zu treffen“, so Rev Lebaredian, Vizepräsident von Omniverse und Simulationstechnologien bei Nvidia.

Schon bald in jeder Kamera

Das Modell ist mit sieben Milliarden Parameter relativ klein und kann in einer Vielzahl von physischen Geräten eingesetzt werden. Hierzu zählen unter anderem installierte Kameras, Ampeln und Instrumente in Fabriken. „Jedes intelligente IoT-Gerät, das sehen kann, von Kameras bis zu Ampeln, jeder Haushalts- oder Industrieroboter, wird bald über Denkvermögen verfügen”, prophezeit Lebaredian.

Dem Manager zufolge können Unternehmen auf Basis von Cosmos Reason Video-KI-Agenten entwickeln, die auf der Grundlage der riesigen Datenmengen handeln, die aus aufgezeichneten Videodaten und Livestreams gesammelt und analysiert werden. „Diese Video-Agenten werden bald überall zu finden sein und die Verkehrsüberwachung automatisieren, die Sicherheit verbessern und die Videoinspektionen in allen Bereichen automatisieren, von Industrieanlagen bis hin zu ganzen Städten“,  erläutert der Experte.

Nvidias Cosmos Reason VLM wurde entwickelt, um Robotern dabei zu helfen, bessere Entscheidungen zu treffen.Nvidia

Vision statt Large

Bei Cosmos Reason handelt es dabei aber nicht um ein klassisches LLM, sondern um etwas, das Nvidia als „Vision Language Model“ (VLM) bezeichnet. Das bedeutet, dass es sich von typischen textbasierten Modellen unterscheidet, die Bilder, Videos oder Text generieren können.

Auch OpenAI und andere Unternehmen hätten bereits VLMs veröffentlicht, aber Cosmos Reason könne tiefere Schlussfolgerungen aus einer Vielzahl von unbekannten Szenarien ziehen, so Lebaredian. So könnten Modelle dieser Art

neue und unbekannte Erfahrungen verstehen,

ein vorläufiges Verständnis von Szenarien aufbauen,

physische Wechselwirkungen berücksichtigen und dann komplexe Interaktionen oder Motivationen von Objekten und Akteuren in der Szene ableiten.

Beispielsweise wären damit ausgestattete Roboter in der Lage, die einzelnen Schritte beim Toasten zu verknüpfen, indem sie verstehen, dass Toast Butter, einen Toaster sowie ein Teller, auf dem das Essen serviert wird, erfordert.

Die heutigen KI-Robotermodelle verfügen über zwei Arten von Technologien, die ihre Aktivitäten unterstützen. Das VLM interpretiert Anweisungen und plant Aktionen, während „Vision Language Action” schnelle Aktionen und Muskelgedächtnis ermöglicht.

Verfügbar und vielseitig trainiert

Dem Unternehmen zufolge ist Cosmos Reason Open Source und steht zum Download bereit, funktioniert jedoch nur mit Nvidia-Hardware.

Nvidia fasst seine World-Foundation- und Simulations-Produkte unter der Marke Omniverse zusammen. Cosmos Reason ist eines von vielen Modellen, die die Firma entwickelt hat, um die Produktivität in Fabriken, Lagerhäusern, Robotern, Fahrzeugen und anderen physischen Standorten zu verbessern.

Die Produkte erstellen dabei eine digitale Kopie physischer Produkte aus der realen Welt. Außerdem werden Informationen aus der virtuellen Welt verwendet, um synthetische Daten zum Training von Vision-Language-Modellen zu erstellen. (tf)

Nvidias neues GenAI-Modell hilft Robotern, wie Menschen zu denken​ Weiterlesen »

Polymorphie in Java erklärt​

Allgemein

Das Konzept der Polymorphie entfaltet auch in Java magische Wirkung. KRIACHKO OLEKSII | shutterstock.com Der Begriff der Polymorphie bezeichnet im Tierreich die Fähigkeit bestimmter Lebewesen, mehrere verschiedene Gestalten annehmen zu können. Das Konzept existiert jedoch auch im Bereich der Programmiersprachen. Hier bezeichnet es eine Modellierungstechnik, die es ermöglicht, eine einzige Schnittstelle zu verschiedenen Operanden, Argumenten und Objekten zu schaffen. Mit Blick auf Java sorgt das für prägnanteren Code, der außerdem leichter zu warten ist. In diesem Tutorial lesen Sie: welche Arten von Java-Polymorphie existieren, warum die Subtyp-Polymorphie besonders wichtig ist, wie Upcasting und Late Binding funktionieren, wie Sie abstrakte Klassen und Methoden händeln, warum Downcasting und Runtime Type Identification (RTTI) wichtig sind und was es mit kovarianten Rückgabetypen auf sich hat. Den Quellcode zu diesem Tutorial können Sie hier herunterladen. Polymorphie-Arten in Java In Java existieren vier verschiedene Arten von Polymorphie, die Sie kennen sollten. Coercion bezeichnet eine Operation, die mehrere Typen durch implizite Type Conversion bedient. Ein Beispiel hierfür: Sie dividieren eine Ganzzahl durch eine andere Ganzzahl oder eine Fließkommazahl durch eine andere Fließkommazahl. Wenn ein Operand eine Ganzzahl und der andere eine Fließkommazahl ist, konvertiert der Compiler die Ganzzahl implizit in eine Fließkommazahl, um einen Typfehler zu vermeiden. Ein weiteres Beispiel wäre die Übergabe einer Subklassen-Objektreferenz an den Superklassen-Parameter einer Methode. Der Compiler „zwingt“ den Typ der Subklasse in den der Superklasse, um die Operationen auf letztgenannte zu beschränken. Unter Overloading (Überladung) versteht man die Verwendung desselben Operator-Symbols oder Methodennamens in verschiedenen Kontexten. Sie könnten etwa mit + eine Ganzzahl- oder Fließkommazahladdition oder eine String-Verkettung durchführen – je nach den Typen der Operanden. Darüber hinaus können auch mehrere Methoden mit demselben Namen in einer Klasse auftauchen (durch Deklaration und/oder Vererbung). Die parametrische Polymorphie besagt, dass innerhalb einer Klassendeklaration ein Feldname mit verschiedenen Typen und ein Methodenname mit verschiedenen Parameter- und Rückgabetypen assoziiert werden kann. Feld und Methode können dann in jeder Klasseninstanz (Objekt) einen anderen Typ annehmen. So kann beispielsweise ein Feld den Typ Double aufweisen (ein Element der Standard-Klassenbibliothek von Java, das einen Double-Value verpackt) und eine Methode in einem Objekt einen Double-Wert zurückgeben – während das gleiche Feld in einem anderen Objekt vom Typ String sein kann und die gleiche Methode einen String-Wert zurückgeben kann. Java unterstützt parametrischen Polymorphismus über Generics. Subtyp-Polymorphie bedeutet, dass ein Typ als Subtyp eines anderen Typs dienen kann. Wenn eine Subtyp-Instanz in einem Supertyp-Kontext auftaucht, führt die Ausführung einer Supertyp-Operation auf der Subtyp-Instanz dazu, dass die Subtyp-Version der Operation ausgeführt wird. Angenommen Sie haben ein Codefragment, das beliebige „Shapes“ aufwirft. Diesen Code könnten Sie prägnanter ausdrücken, indem Sie: mit einer draw()-Methode eine Shape-Klasse einführen; Circle, Rectangle und andere Subklassen einführen, die draw() überschreiben; ein Array des Shape-Typs einführen, dessen Elemente Referenzen auf Instanzen der Shape-Subklassen speichern; die draw()-Methode von Shape für jede Instanz callen. Ad-hoc- vs. universelle Polymorphie Wie die meisten anderen Entwickler ordne ich Coercion und Overloading der Ad-hoc-Polymorphie zu – parametrische und Subtyp-Polymorphie der universellen. Obwohl die beiden erstgenannten wertvolle Techniken darstellen, bilden sie meiner Auffassung nach keine „echte“ Polymorphie ab. Sie sind vielmehr Type Conversions und syntaktisches „Zuckergebäck“. Unser Fokus liegt in diesem Tutorial auf der Subtyp-Polymorphie. Subtyp-Polymorphie: Upcasting und Late Binding Die Subtyp-Polymorphie basiert auf Upcasting und Late Binding. Upcasting und Late Binding Hierbei handelt es sich um eine Casting-Form, bei der Sie innerhalb der Vererbungshierarchie von einem Subtyp zu einem Supertyp „hochcasten“. Weil der Subtyp dabei eine Spezialisierung des Supertyps darstellt, ist kein Cast-Operator beteiligt. Shape s = new Circle(); sorgt beispielsweise für einen Upcast von Circle zu Shape. Das macht Sinn, weil ein „Circle“ eine Art von „Shape“ ist. Da Circle-spezifische Methoden nicht Teil des Shape-Interface sind, können Sie nach dem Upcast von Circle zu Shape keine Circle-spezifischen Methoden wie etwa getRadius() (gibt den Kreisradius zurück) callen. Den Zugriff auf Subtyp-Features nach der Eingrenzung einer Subklasse auf ihre Superklasse scheint sinnlos, ist aber notwendig, um Subtyp-Polymorphie zu erreichen. Angenommen, Shape deklariert eine draw()-Methode, seine Circle-Subklasse überschreibt diese Methode, Shape s = new Circle(); wurde gerade ausgeführt und die nächste Zeile spezifiziert s.draw();. Der Compiler weiß in diesem Fall nicht, ob die draw()-Methode von Shape oder von Circle aufgerufen werden soll. Er kann lediglich prüfen, ob: eine Methode in der Superklasse existiert und die Liste der Argumente und der Rückgabetyp des Methoden-Calls mit der Methodendeklaration der Superklasse übereinstimmen. Der Compiler fügt jedoch auch eine Anweisung in den kompilierten Code ein, die zur Laufzeit die in s vorliegende Referenz nutzt, um die korrekte draw()-Methode aufzurufen. Dieser Task wird als Late Binding bezeichnet. Late Binding vs. Early Binding Für Instanzmethoden, die nicht final sind, kommt Late Binding zum Einsatz. Bei allen anderen Methoden-Calls weiß der Compiler, was zu tun ist. Er fügt eine Anweisung in den kompilierten Code ein, die die Methode aufruft, die mit dem Typ der Variablen (nicht mit ihrem Wert) verbunden ist. Diese Technik wird als Early Binding bezeichnet. Ich habe eine Anwendung erstellt, die Subtyp-Polymorphie in Form von Upcasting und Late Binding demonstriert. Diese Anwendung besteht aus den Klassen Shape, Circle, Rectangle und Shapes, wobei jede Klasse in ihrer eigenen Quelldatei gespeichert ist. Das folgende Listing zeigt die ersten drei Klassen. Listing 1 class Shape {    void draw()    {    } } class Circle extends Shape {    private int x, y, r;    Circle(int x, int y, int r)    {       this.x = x;       this.y = y;       this.r = r;    }    // For brevity, I’ve omitted getX(), getY(), and getRadius() methods.    @Override    void draw()    {       System.out.println(“Drawing circle (” + x + “, “+ y + “, ” + r + “)”);    } } class Rectangle extends Shape {    private int x, y, w, h;    Rectangle(int x, int y, int w, int h)    {       this.x = x;       this.y = y;       this.w = w;       this.h = h;    }    // For brevity, I’ve omitted getX(), getY(), getWidth(), and getHeight()    // methods.    @Override    void draw()    {       System.out.println(“Drawing rectangle (” + x + “, “+ y + “, ” + w + “,” +                          h + “)”);    } } Das folgende Listing zeigt die Anwendungsklasse Shapes, deren main()-Methode die Anwendung steuert. Listing 2 class Shapes {    public static void main(String[] args)    {       Shape[] shapes = { new Circle(10, 20, 30),                          new Rectangle(20, 30, 40, 50) };       for (int i = 0; i          shapes[i].draw();    } } Die Deklaration des shapes-Array demonstriert das Upcasting. Die Referenzen Circle und Rectangle werden in shapes[0] und shapes[1] gespeichert und in den Shape-Typ „hochgecastet“. Dabei wird sowohl shapes[0] als auch shapes[1] jeweils als Shape-Instanz betrachtet: shapes[0] wird nicht als Circle, shapes[1] nicht als Rectangle betrachtet. Late Binding wird durch den Ausdruck shapes[i].draw(); repräsentiert. Dabei gilt: Wenn i gleich 0 ist, bewirkt die vom Compiler erzeugte Anweisung, dass die draw()-Methode von Circle aufgerufen wird. Wenn i gleich 1 ist, bewirkt diese Anweisung, dass die draw()-Methode von Rectangle aufgerufen wird. Das ist die Grundessenz der Subtyp-Polymorphie. Unter der Annahme, dass sich alle vier Quelldateien (Shapes.java, Shape.java, Rectangle.java und Circle.java) im aktuellen Verzeichnis befinden, kompilieren Sie sie mit einer der folgenden Befehlszeilen: javac *.java javac Shapes.java Anschließend führen Sie die resultierende Anwendung aus mit: java Shapes Nun sollten Sie folgenden Output sehen: Drawing circle (10, 20, 30) Drawing rectangle (20, 30, 40, 50) Abstrakte Klassen und Methoden Geht es um das Design von Klassenhierarchien, werden Sie feststellen, dass Klassen die in dieser weiter oben stehen, generischer sind als die, die weiter unten liegen. So ist die Superklasse Vehicle generischer als die Subklasse Truck. Ähnlich verhält es sich mit der Superklasse Shape, die generischer ist als die Subklassen Circle oder Rectangle. Es macht keinen Sinn, generische Klassen zu instanziieren. Was würde ein Vehicle-Objekt beschreiben, welche Art von Form ein Shape-Objekt darstellen? Statt eine leere draw()-Methode in Shape zu coden, lässt es sich verhindern, dass diese Methode gecallt und die Klasse instanziiert wird – indem beide Entitäten als abstrakt deklariert werden. Um eine Klasse zu deklarieren, die nicht instanziiert werden kann, ist in Java das Keyword abstract vorgesehen. Es wird auch verwendet, um eine Methode ohne Body zu deklarieren. Die draw()-Methode benötigt keinen, da sie nicht in der Lage ist, eine abstrakte Form zu zeichnen – wie das nachfolgende Listing demonstriert. Listing 3 abstract class Shape {    abstract void draw(); // semicolon is required } Abstract mit Vorsicht genießen Wenn Sie versuchen, eine Klasse als abstrakt und final zu deklarieren, meldet der Compiler einen Fehler. Er beanstandet zum Beispiel abstract final class Shape, weil eine abstrakte Klasse nicht instanziiert und eine finale Klasse nicht erweitert werden kann. Einen Compiler-Fehler erzeugt außerdem eine Methode als abstract zu deklarieren, die zugehörige Klasse jedoch nicht. Das Keyword abstract jedoch aus dem Header der Shape-Klasse zu entfernen, würde ebenfalls zu einem Fehler führen, weil eine nicht abstrakte (konkrete) Klasse nicht instanziiert werden kann, wenn sie eine abstrakte Methode enthält. Wenn Sie eine abstrakte Klasse erweitern wollen, muss die erweiternde Klasse alle abstrakten Methoden außer Kraft setzen – oder die erweiternde Klasse selbst als abstrakt deklariert werden. Eine abstrakte Klasse kann Felder, Konstruktoren und nicht-abstrakte Methoden zusätzlich zu – oder anstelle von – abstrakten Methoden deklarieren. Eine abstrakte Vehicle-Klasse könnte zum Beispiel Felder deklarieren, die die Marke, das Modell und das Baujahr beschreiben. Außerdem könnte sie einen Konstruktor deklarieren, um diese Felder zu initialisieren sowie konkrete Methoden, um deren Werte zurückzugeben – wie im folgenden Listing. Listing 4 abstract class Vehicle {    private String make, model;    private int year;    Vehicle(String make, String model, int year)    {       this.make = make;       this.model = model;       this.year = year;    }    String getMake()    {       return make;    }    String getModel()    {       return model;    }    int getYear()    {       return year;    }    abstract void move(); } In diesem Beispiel deklariert Vehicle eine abstrakte move()-Methode, um die Bewegung eines Fahrzeugs zu beschreiben: Ein Auto rollt auf Asphalt, ein Boot segelt über das Wasser und ein Flugzeug fliegt durch die Luft. Die Subklassen von Vehicle würden move() außer Kraft setzen und eine entsprechende Beschreibung liefern. Sie würden auch die Methoden erben und ihre Konstruktoren den Konstruktor von Vehicle aufrufen. Downcasting und RTTI Upcasting hat zur Folge, dass der Zugriff auf Subtyp-Features verlorengeht. Weisen Sie beispielsweise ein Circle-Objekt der Shape-Variablen s zu, können Sie diese nicht verwenden, um die getRadius()-Methode von Circle zu callen. Downcasting Es ist jedoch möglich, wieder auf diese zuzugreifen, indem Sie eine explizite Cast-Operation wie Circle c = (Circle) s; durchführen. Diese Zuweisung wird als Downcasting bezeichnet, weil Sie in der Vererbungshierarchie von einem Supertyp (Shape) auf einen Subtyp (Circle) zurückgreift. Obwohl Upcasting immer sicher ist (die Schnittstelle der Superklasse ist eine Teilmenge derer der Unterklasse), ist das beim Downcasting nicht immer der Fall. Das nachfolgende Listing demonstriert, welche Probleme auftreten können diese Technik falsch eingesetzt wird. Listing 5 class Superclass { } class Subclass extends Superclass {    void method()    {    } } public class BadDowncast {    public static void main(String[] args)    {       Superclass superclass = new Superclass();       Subclass subclass = (Subclass) superclass;       subclass.method();    } } Hier sehen Sie eine Klassenhierarchie, bestehend aus Superclass und Subclass, die Superclass erweitert. Außerdem deklariert Subclass eine method(). Eine dritte Klasse namens BadDowncast bietet eine main()-Methode, die Superclass instanziiert. BadDowncast versucht dann, dieses Objekt auf Subclass herunterzurechnen und das Ergebnis der Subclass-Variablen zuzuweisen. In diesem Fall wird sich der Compiler nicht beschweren, da ein Downcasting von einer Superklasse zu einer Subklasse in derselben Typenhierarchie zulässig ist. Wäre die Zuweisung erlaubt, würde die Anwendung abstürzen, sobald sie versucht, subclass.method(); auszuführen. In diesem Fall würde die JVM versuchen, eine nicht existierende Methode aufzurufen, da die Superklasse keine method() deklariert. Glücklicherweise prüft die JVM, ob ein Cast zulässig ist, bevor sie eine entsprechende Operation durchführt. Stellt sie dabei fest, dass Superclass keine method() deklariert, würde sie ein ClassCastException-Objekt auslösen. Kompilieren Sie Listing 5 wie folgt: javac BadDowncast.java Die resultierende Anwendung führen Sie aus mit: java BadDowncast Das sollte in folgendem Output resultieren: Exception in thread “main” java.lang.ClassCastException: class Superclass cannot be cast to class Subclass (Superclass and Subclass are in unnamed module of loader ‘app’)     at BadDowncast.main(BadDowncast.java:17) Runtime Type Identification (RTTI) Die Cast-Verifizierung der Java Virtual Machine (JVM) in Listing 5 veranschaulicht RTTI. Das wird initiiert, indem der Operanden-Typ des Cast-Operators untersucht wird, um festzustellen, ob der Cast zulässig ist oder nicht. In diesem Szenario sollte er es nicht sein. Eine andere Form von RTTI betrifft den instanceof-Operator. Dieser Operator prüft den linken Operanden darauf, ob er eine Instanz des rechten Operanden ist. Ist das der Fall, gibt er true zurück. Im folgenden Beispiel wird instanceof in Listing 5 eingeführt, um die ClassCastException zu verhindern: if (superclass instanceof Subclass) {    Subclass subclass = (Subclass) superclass;    subclass.method(); } Der instanceof-Operator erkennt, dass die Instanz der variablen Superklasse nicht von der Subklasse erstellt wurde. Um das anzuzeigen, gibt er false zurück. Infolgedessen wird der Code, der den unzulässigen Cast durchführt, nicht ausgeführt. Da ein Subtyp eine Art Supertyp ist, gibt instanceof true zurück, wenn sein linker Operand eine Subtyp- oder eine Supertyp-Instanz des rechten Supertyp-Operanden darstellt. Das demonstriert das folgende Beispiel: Superclass superclass = new Superclass(); Subclass subclass = new Subclass(); System.out.println(subclass instanceof Superclass); // Output: true System.out.println(superclass instanceof Superclass); // Output: true Dieses Beispiel geht von der in Listing 5 gezeigten Klassenstruktur aus und instanziiert Superclass und Subclass. Der erste Call der Methode System.out.println() gibt true aus, weil die Referenz von Subclass eine Instanz einer Unterklasse von Superclass identifiziert. Der zweite Aufruf der System.out.println()-Methode gibt true aus, weil die Referenz von Superclass eine Instanz von Superclass identifiziert. Mit instanceof nicht übertreiben Den instanceof-Operator übermäßig zu verwenden, kann ein Hinweis für unzureichendes Softwaredesign sein. Nehmen wir zum Beispiel an, Sie entscheiden sich, mehrere instanceof-Ausdrücke zu verwenden, um festzustellen, ob ein Shape-Objekt ein Quadrat, ein Kreis oder ein anderer Subtyp ist. Wenn Sie einen neuen Shape-Subtyp einführen, vergessen Sie vielleicht, einen instanceof-Test einzuschließen, um festzustellen, ob Shape eine Instanz dieses Typs ist. Das würde in einen Fehler münden. Sie sollten instanceof deshalb nur in speziellen Fällen nutzen. Ansonsten empfiehlt es sich, auf Subtyp-Polymorphie zu setzen. Kovariante Rückgabetypen Bei einem kovarianten Rückgabetyp handelt es sich um einen Methodenrückgabetyp, der in der Methodendeklaration der Superklasse den Supertyp des Rückgabetyps in der überschreibenden Methodendeklaration der Subklasse darstellt. Die Anwendung in folgendem Listing veranschaulicht das. Listing 6 class BaseReturnType {    @Override    public String toString()    {       return “base class return type”;    } } class DerivedReturnType extends BaseReturnType {    @Override    public String toString()    {       return “derived class return type”;    } } class BaseClass {    BaseReturnType createReturnType()    {       return new BaseReturnType();    } } class DerivedClass extends BaseClass {    @Override    DerivedReturnType createReturnType()    {       return new DerivedReturnType();    } } public class CRTDemo {    public static void main(String[] args)    {       BaseReturnType brt = new BaseClass().createReturnType();       System.out.println(brt);       DerivedReturnType drt = new DerivedClass().createReturnType();       System.out.println(drt);    } } Dieses Listing deklariert die Superklassen BaseReturnType und BaseClass sowie die Subklassen DerivedReturnType und DerivedClass. BaseClass und DerivedClass deklarieren jeweils eine createReturnType()-Methode. Der Rückgabetyp der BaseClass-Methode ist auf BaseReturnType gesetzt, während der Rückgabetyp der überschreibenden Methode von DerivedClass auf DerivedReturnType (eine Subklasse von BaseReturnType) gesetzt ist. Kovariante Rückgabetypen minimieren Upcasting und Downcasting. Zum Beispiel muss die createReturnType()-Methode von DerivedClass ihre DerivedReturnType-Instanz nicht auf ihren Rückgabetyp DerivedReturnType „hochcasten“. Außerdem muss diese Instanz bei der Zuweisung an die Variable drt nicht auf DerivedReturnType ge-„downcastet“ werden. Kompilieren Sie Listing 6 wie folgt: javac CRTDemo.java Die resultierende Anwendung führen Sie aus mit: java CRTDemo Folgender Output sollte Sie erwarten: base class return type derived class return type Würden kovariante Rückgabetypen nicht existieren, würde das Ergebnis wie im nachfiolgenden, finalen Listing aussehen. Listing 7 class BaseReturnType {    @Override    public String toString()    {       return “base class return type”;    } } class DerivedReturnType extends BaseReturnType {    @Override    public String toString()    {       return “derived class return type”;    } } class BaseClass {    BaseReturnType createReturnType()    {       return new BaseReturnType();    } } class DerivedClass extends BaseClass {    @Override    BaseReturnType createReturnType()    {       return new DerivedReturnType();    } } public class CRTDemo {    public static void main(String[] args)    {       BaseReturnType brt = new BaseClass().createReturnType();       System.out.println(brt);       DerivedReturnType drt =          (DerivedReturnType) new DerivedClass().createReturnType();       System.out.println(drt);    } } In Listing 7 zeigt erfolgt ein Upcast von DerivedReturnType zu BaseReturnType. Zudem wird der erforderliche Cast Operator (DerivedReturnType) verwendet, um vor der Zuweisung an drt einen Downcast von BaseReturnType zu DerivedReturnType durchzuführen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Polymorphie in Java erklärt​ Das Konzept der Polymorphie entfaltet auch in Java magische Wirkung.
KRIACHKO OLEKSII | shutterstock.com

Der Begriff der Polymorphie bezeichnet im Tierreich die Fähigkeit bestimmter Lebewesen, mehrere verschiedene Gestalten annehmen zu können. Das Konzept existiert jedoch auch im Bereich der Programmiersprachen. Hier bezeichnet es eine Modellierungstechnik, die es ermöglicht, eine einzige Schnittstelle zu verschiedenen Operanden, Argumenten und Objekten zu schaffen. Mit Blick auf Java sorgt das für prägnanteren Code, der außerdem leichter zu warten ist.

In diesem Tutorial lesen Sie:

welche Arten von Java-Polymorphie existieren,

warum die Subtyp-Polymorphie besonders wichtig ist,

wie Upcasting und Late Binding funktionieren,

wie Sie abstrakte Klassen und Methoden händeln,

warum Downcasting und Runtime Type Identification (RTTI) wichtig sind und

was es mit kovarianten Rückgabetypen auf sich hat.

Den Quellcode zu diesem Tutorial können Sie hier herunterladen.

Polymorphie-Arten in Java

In Java existieren vier verschiedene Arten von Polymorphie, die Sie kennen sollten.

Coercion bezeichnet eine Operation, die mehrere Typen durch implizite Type Conversion bedient. Ein Beispiel hierfür: Sie dividieren eine Ganzzahl durch eine andere Ganzzahl oder eine Fließkommazahl durch eine andere Fließkommazahl. Wenn ein Operand eine Ganzzahl und der andere eine Fließkommazahl ist, konvertiert der Compiler die Ganzzahl implizit in eine Fließkommazahl, um einen Typfehler zu vermeiden. Ein weiteres Beispiel wäre die Übergabe einer Subklassen-Objektreferenz an den Superklassen-Parameter einer Methode. Der Compiler „zwingt“ den Typ der Subklasse in den der Superklasse, um die Operationen auf letztgenannte zu beschränken.

Unter Overloading (Überladung) versteht man die Verwendung desselben Operator-Symbols oder Methodennamens in verschiedenen Kontexten. Sie könnten etwa mit + eine Ganzzahl- oder Fließkommazahladdition oder eine String-Verkettung durchführen – je nach den Typen der Operanden. Darüber hinaus können auch mehrere Methoden mit demselben Namen in einer Klasse auftauchen (durch Deklaration und/oder Vererbung).

Die parametrische Polymorphie besagt, dass innerhalb einer Klassendeklaration ein Feldname mit verschiedenen Typen und ein Methodenname mit verschiedenen Parameter- und Rückgabetypen assoziiert werden kann. Feld und Methode können dann in jeder Klasseninstanz (Objekt) einen anderen Typ annehmen. So kann beispielsweise ein Feld den Typ Double aufweisen (ein Element der Standard-Klassenbibliothek von Java, das einen Double-Value verpackt) und eine Methode in einem Objekt einen Double-Wert zurückgeben – während das gleiche Feld in einem anderen Objekt vom Typ String sein kann und die gleiche Methode einen String-Wert zurückgeben kann. Java unterstützt parametrischen Polymorphismus über Generics.

Subtyp-Polymorphie bedeutet, dass ein Typ als Subtyp eines anderen Typs dienen kann. Wenn eine Subtyp-Instanz in einem Supertyp-Kontext auftaucht, führt die Ausführung einer Supertyp-Operation auf der Subtyp-Instanz dazu, dass die Subtyp-Version der Operation ausgeführt wird. Angenommen Sie haben ein Codefragment, das beliebige „Shapes“ aufwirft. Diesen Code könnten Sie prägnanter ausdrücken, indem Sie: mit einer draw()-Methode eine Shape-Klasse einführen; Circle, Rectangle und andere Subklassen einführen, die draw() überschreiben; ein Array des Shape-Typs einführen, dessen Elemente Referenzen auf Instanzen der Shape-Subklassen speichern; die draw()-Methode von Shape für jede Instanz callen.

Ad-hoc- vs. universelle Polymorphie

Wie die meisten anderen Entwickler ordne ich Coercion und Overloading der Ad-hoc-Polymorphie zu – parametrische und Subtyp-Polymorphie der universellen. Obwohl die beiden erstgenannten wertvolle Techniken darstellen, bilden sie meiner Auffassung nach keine „echte“ Polymorphie ab. Sie sind vielmehr Type Conversions und syntaktisches „Zuckergebäck“. Unser Fokus liegt in diesem Tutorial auf der Subtyp-Polymorphie.

Subtyp-Polymorphie: Upcasting und Late Binding

Die Subtyp-Polymorphie basiert auf Upcasting und Late Binding.

Upcasting und Late Binding

Hierbei handelt es sich um eine Casting-Form, bei der Sie innerhalb der Vererbungshierarchie von einem Subtyp zu einem Supertyp „hochcasten“. Weil der Subtyp dabei eine Spezialisierung des Supertyps darstellt, ist kein Cast-Operator beteiligt. Shape s = new Circle(); sorgt beispielsweise für einen Upcast von Circle zu Shape. Das macht Sinn, weil ein „Circle“ eine Art von „Shape“ ist.

Da Circle-spezifische Methoden nicht Teil des Shape-Interface sind, können Sie nach dem Upcast von Circle zu Shape keine Circle-spezifischen Methoden wie etwa getRadius() (gibt den Kreisradius zurück) callen. Den Zugriff auf Subtyp-Features nach der Eingrenzung einer Subklasse auf ihre Superklasse scheint sinnlos, ist aber notwendig, um Subtyp-Polymorphie zu erreichen.

Angenommen, Shape deklariert eine draw()-Methode, seine Circle-Subklasse überschreibt diese Methode, Shape s = new Circle(); wurde gerade ausgeführt und die nächste Zeile spezifiziert s.draw();. Der Compiler weiß in diesem Fall nicht, ob die draw()-Methode von Shape oder von Circle aufgerufen werden soll. Er kann lediglich prüfen, ob:

eine Methode in der Superklasse existiert und

die Liste der Argumente und der Rückgabetyp des Methoden-Calls mit der Methodendeklaration der Superklasse übereinstimmen.

Der Compiler fügt jedoch auch eine Anweisung in den kompilierten Code ein, die zur Laufzeit die in s vorliegende Referenz nutzt, um die korrekte draw()-Methode aufzurufen. Dieser Task wird als Late Binding bezeichnet.

Late Binding vs. Early Binding

Für Instanzmethoden, die nicht final sind, kommt Late Binding zum Einsatz. Bei allen anderen Methoden-Calls weiß der Compiler, was zu tun ist. Er fügt eine Anweisung in den kompilierten Code ein, die die Methode aufruft, die mit dem Typ der Variablen (nicht mit ihrem Wert) verbunden ist. Diese Technik wird als Early Binding bezeichnet.

Ich habe eine Anwendung erstellt, die Subtyp-Polymorphie in Form von Upcasting und Late Binding demonstriert. Diese Anwendung besteht aus den Klassen Shape, Circle, Rectangle und Shapes, wobei jede Klasse in ihrer eigenen Quelldatei gespeichert ist. Das folgende Listing zeigt die ersten drei Klassen.

Listing 1

class Shape

{

   void draw()

   {

   }

}

class Circle extends Shape

{

   private int x, y, r;

   Circle(int x, int y, int r)

   {

      this.x = x;

      this.y = y;

      this.r = r;

   }

   // For brevity, I’ve omitted getX(), getY(), and getRadius() methods.

   @Override

   void draw()

   {

      System.out.println(“Drawing circle (” + x + “, “+ y + “, ” + r + “)”);

   }

}

class Rectangle extends Shape

{

   private int x, y, w, h;

   Rectangle(int x, int y, int w, int h)

   {

      this.x = x;

      this.y = y;

      this.w = w;

      this.h = h;

   }

   // For brevity, I’ve omitted getX(), getY(), getWidth(), and getHeight()

   // methods.

   @Override

   void draw()

   {

      System.out.println(“Drawing rectangle (” + x + “, “+ y + “, ” + w + “,” +

                         h + “)”);

   }

}

Das folgende Listing zeigt die Anwendungsklasse Shapes, deren main()-Methode die Anwendung steuert.

Listing 2

class Shapes

{

   public static void main(String[] args)

   {

      Shape[] shapes = { new Circle(10, 20, 30),

                         new Rectangle(20, 30, 40, 50) };

      for (int i = 0; i

         shapes[i].draw();

   }

}

Die Deklaration des shapes-Array demonstriert das Upcasting. Die Referenzen Circle und Rectangle werden in shapes[0] und shapes[1] gespeichert und in den Shape-Typ „hochgecastet“. Dabei wird sowohl shapes[0] als auch shapes[1] jeweils als Shape-Instanz betrachtet: shapes[0] wird nicht als Circle, shapes[1] nicht als Rectangle betrachtet.

Late Binding wird durch den Ausdruck shapes[i].draw(); repräsentiert. Dabei gilt:

Wenn i gleich 0 ist, bewirkt die vom Compiler erzeugte Anweisung, dass die draw()-Methode von Circle aufgerufen wird.

Wenn i gleich 1 ist, bewirkt diese Anweisung, dass die draw()-Methode von Rectangle aufgerufen wird.

Das ist die Grundessenz der Subtyp-Polymorphie.

Unter der Annahme, dass sich alle vier Quelldateien (Shapes.java, Shape.java, Rectangle.java und Circle.java) im aktuellen Verzeichnis befinden, kompilieren Sie sie mit einer der folgenden Befehlszeilen:

javac *.java

javac Shapes.java

Anschließend führen Sie die resultierende Anwendung aus mit:

java Shapes

Nun sollten Sie folgenden Output sehen:

Drawing circle (10, 20, 30)

Drawing rectangle (20, 30, 40, 50)

Abstrakte Klassen und Methoden

Geht es um das Design von Klassenhierarchien, werden Sie feststellen, dass Klassen die in dieser weiter oben stehen, generischer sind als die, die weiter unten liegen. So ist die Superklasse Vehicle generischer als die Subklasse Truck. Ähnlich verhält es sich mit der Superklasse Shape, die generischer ist als die Subklassen Circle oder Rectangle.

Es macht keinen Sinn, generische Klassen zu instanziieren. Was würde ein Vehicle-Objekt beschreiben, welche Art von Form ein Shape-Objekt darstellen? Statt eine leere draw()-Methode in Shape zu coden, lässt es sich verhindern, dass diese Methode gecallt und die Klasse instanziiert wird – indem beide Entitäten als abstrakt deklariert werden.

Um eine Klasse zu deklarieren, die nicht instanziiert werden kann, ist in Java das Keyword abstract vorgesehen. Es wird auch verwendet, um eine Methode ohne Body zu deklarieren. Die draw()-Methode benötigt keinen, da sie nicht in der Lage ist, eine abstrakte Form zu zeichnen – wie das nachfolgende Listing demonstriert.

Listing 3

abstract class Shape

{

   abstract void draw(); // semicolon is required

}

Abstract mit Vorsicht genießen

Wenn Sie versuchen, eine Klasse als abstrakt und final zu deklarieren, meldet der Compiler einen Fehler. Er beanstandet zum Beispiel abstract final class Shape, weil eine abstrakte Klasse nicht instanziiert und eine finale Klasse nicht erweitert werden kann. Einen Compiler-Fehler erzeugt außerdem eine Methode als abstract zu deklarieren, die zugehörige Klasse jedoch nicht.

Das Keyword abstract jedoch aus dem Header der Shape-Klasse zu entfernen, würde ebenfalls zu einem Fehler führen, weil eine nicht abstrakte (konkrete) Klasse nicht instanziiert werden kann, wenn sie eine abstrakte Methode enthält. Wenn Sie eine abstrakte Klasse erweitern wollen, muss die erweiternde Klasse alle abstrakten Methoden außer Kraft setzen – oder die erweiternde Klasse selbst als abstrakt deklariert werden.

Eine abstrakte Klasse kann Felder, Konstruktoren und nicht-abstrakte Methoden zusätzlich zu – oder anstelle von – abstrakten Methoden deklarieren. Eine abstrakte Vehicle-Klasse könnte zum Beispiel Felder deklarieren, die die Marke, das Modell und das Baujahr beschreiben. Außerdem könnte sie einen Konstruktor deklarieren, um diese Felder zu initialisieren sowie konkrete Methoden, um deren Werte zurückzugeben – wie im folgenden Listing.

Listing 4

abstract class Vehicle

{

   private String make, model;

   private int year;

   Vehicle(String make, String model, int year)

   {

      this.make = make;

      this.model = model;

      this.year = year;

   }

   String getMake()

   {

      return make;

   }

   String getModel()

   {

      return model;

   }

   int getYear()

   {

      return year;

   }

   abstract void move();

}

In diesem Beispiel deklariert Vehicle eine abstrakte move()-Methode, um die Bewegung eines Fahrzeugs zu beschreiben: Ein Auto rollt auf Asphalt, ein Boot segelt über das Wasser und ein Flugzeug fliegt durch die Luft. Die Subklassen von Vehicle würden move() außer Kraft setzen und eine entsprechende Beschreibung liefern. Sie würden auch die Methoden erben und ihre Konstruktoren den Konstruktor von Vehicle aufrufen.

Downcasting und RTTI

Upcasting hat zur Folge, dass der Zugriff auf Subtyp-Features verlorengeht. Weisen Sie beispielsweise ein Circle-Objekt der Shape-Variablen s zu, können Sie diese nicht verwenden, um die getRadius()-Methode von Circle zu callen.

Downcasting

Es ist jedoch möglich, wieder auf diese zuzugreifen, indem Sie eine explizite Cast-Operation wie Circle c = (Circle) s; durchführen. Diese Zuweisung wird als Downcasting bezeichnet, weil Sie in der Vererbungshierarchie von einem Supertyp (Shape) auf einen Subtyp (Circle) zurückgreift. Obwohl Upcasting immer sicher ist (die Schnittstelle der Superklasse ist eine Teilmenge derer der Unterklasse), ist das beim Downcasting nicht immer der Fall. Das nachfolgende Listing demonstriert, welche Probleme auftreten können diese Technik falsch eingesetzt wird.

Listing 5

class Superclass

{

}

class Subclass extends Superclass

{

   void method()

   {

   }

}

public class BadDowncast

{

   public static void main(String[] args)

   {

      Superclass superclass = new Superclass();

      Subclass subclass = (Subclass) superclass;

      subclass.method();

   }

}

Hier sehen Sie eine Klassenhierarchie, bestehend aus Superclass und Subclass, die Superclass erweitert. Außerdem deklariert Subclass eine method(). Eine dritte Klasse namens BadDowncast bietet eine main()-Methode, die Superclass instanziiert. BadDowncast versucht dann, dieses Objekt auf Subclass herunterzurechnen und das Ergebnis der Subclass-Variablen zuzuweisen.

In diesem Fall wird sich der Compiler nicht beschweren, da ein Downcasting von einer Superklasse zu einer Subklasse in derselben Typenhierarchie zulässig ist. Wäre die Zuweisung erlaubt, würde die Anwendung abstürzen, sobald sie versucht, subclass.method(); auszuführen. In diesem Fall würde die JVM versuchen, eine nicht existierende Methode aufzurufen, da die Superklasse keine method() deklariert. Glücklicherweise prüft die JVM, ob ein Cast zulässig ist, bevor sie eine entsprechende Operation durchführt. Stellt sie dabei fest, dass Superclass keine method() deklariert, würde sie ein ClassCastException-Objekt auslösen.

Kompilieren Sie Listing 5 wie folgt:

javac BadDowncast.java

Die resultierende Anwendung führen Sie aus mit:

java BadDowncast

Das sollte in folgendem Output resultieren:

Exception in thread “main” java.lang.ClassCastException: class Superclass cannot be cast to class Subclass (Superclass and Subclass are in unnamed module of loader ‘app’)

    at BadDowncast.main(BadDowncast.java:17)

Runtime Type Identification (RTTI)

Die Cast-Verifizierung der Java Virtual Machine (JVM) in Listing 5 veranschaulicht RTTI. Das wird initiiert, indem der Operanden-Typ des Cast-Operators untersucht wird, um festzustellen, ob der Cast zulässig ist oder nicht. In diesem Szenario sollte er es nicht sein.

Eine andere Form von RTTI betrifft den instanceof-Operator. Dieser Operator prüft den linken Operanden darauf, ob er eine Instanz des rechten Operanden ist. Ist das der Fall, gibt er true zurück. Im folgenden Beispiel wird instanceof in Listing 5 eingeführt, um die ClassCastException zu verhindern:

if (superclass instanceof Subclass)

{

   Subclass subclass = (Subclass) superclass;

   subclass.method();

}

Der instanceof-Operator erkennt, dass die Instanz der variablen Superklasse nicht von der Subklasse erstellt wurde. Um das anzuzeigen, gibt er false zurück. Infolgedessen wird der Code, der den unzulässigen Cast durchführt, nicht ausgeführt.

Da ein Subtyp eine Art Supertyp ist, gibt instanceof true zurück, wenn sein linker Operand eine Subtyp- oder eine Supertyp-Instanz des rechten Supertyp-Operanden darstellt. Das demonstriert das folgende Beispiel:

Superclass superclass = new Superclass();

Subclass subclass = new Subclass();

System.out.println(subclass instanceof Superclass); // Output: true

System.out.println(superclass instanceof Superclass); // Output: true

Dieses Beispiel geht von der in Listing 5 gezeigten Klassenstruktur aus und instanziiert Superclass und Subclass. Der erste Call der Methode System.out.println() gibt true aus, weil die Referenz von Subclass eine Instanz einer Unterklasse von Superclass identifiziert. Der zweite Aufruf der System.out.println()-Methode gibt true aus, weil die Referenz von Superclass eine Instanz von Superclass identifiziert.

Mit instanceof nicht übertreiben

Den instanceof-Operator übermäßig zu verwenden, kann ein Hinweis für unzureichendes Softwaredesign sein. Nehmen wir zum Beispiel an, Sie entscheiden sich, mehrere instanceof-Ausdrücke zu verwenden, um festzustellen, ob ein Shape-Objekt ein Quadrat, ein Kreis oder ein anderer Subtyp ist. Wenn Sie einen neuen Shape-Subtyp einführen, vergessen Sie vielleicht, einen instanceof-Test einzuschließen, um festzustellen, ob Shape eine Instanz dieses Typs ist. Das würde in einen Fehler münden. Sie sollten instanceof deshalb nur in speziellen Fällen nutzen. Ansonsten empfiehlt es sich, auf Subtyp-Polymorphie zu setzen.

Kovariante Rückgabetypen

Bei einem kovarianten Rückgabetyp handelt es sich um einen Methodenrückgabetyp, der in der Methodendeklaration der Superklasse den Supertyp des Rückgabetyps in der überschreibenden Methodendeklaration der Subklasse darstellt.

Die Anwendung in folgendem Listing veranschaulicht das.

Listing 6

class BaseReturnType

{

   @Override

   public String toString()

   {

      return “base class return type”;

   }

}

class DerivedReturnType extends BaseReturnType

{

   @Override

   public String toString()

   {

      return “derived class return type”;

   }

}

class BaseClass

{

   BaseReturnType createReturnType()

   {

      return new BaseReturnType();

   }

}

class DerivedClass extends BaseClass

{

   @Override

   DerivedReturnType createReturnType()

   {

      return new DerivedReturnType();

   }

}

public class CRTDemo

{

   public static void main(String[] args)

   {

      BaseReturnType brt = new BaseClass().createReturnType();

      System.out.println(brt);

      DerivedReturnType drt = new DerivedClass().createReturnType();

      System.out.println(drt);

   }

}

Dieses Listing deklariert die Superklassen BaseReturnType und BaseClass sowie die Subklassen DerivedReturnType und DerivedClass. BaseClass und DerivedClass deklarieren jeweils eine createReturnType()-Methode. Der Rückgabetyp der BaseClass-Methode ist auf BaseReturnType gesetzt, während der Rückgabetyp der überschreibenden Methode von DerivedClass auf DerivedReturnType (eine Subklasse von BaseReturnType) gesetzt ist.

Kovariante Rückgabetypen minimieren Upcasting und Downcasting. Zum Beispiel muss die createReturnType()-Methode von DerivedClass ihre DerivedReturnType-Instanz nicht auf ihren Rückgabetyp DerivedReturnType „hochcasten“. Außerdem muss diese Instanz bei der Zuweisung an die Variable drt nicht auf DerivedReturnType ge-„downcastet“ werden.

Kompilieren Sie Listing 6 wie folgt:

javac CRTDemo.java

Die resultierende Anwendung führen Sie aus mit:

java CRTDemo

Folgender Output sollte Sie erwarten:

base class return type

derived class return type

Würden kovariante Rückgabetypen nicht existieren, würde das Ergebnis wie im nachfiolgenden, finalen Listing aussehen.

Listing 7

class BaseReturnType

{

   @Override

   public String toString()

   {

      return “base class return type”;

   }

}

class DerivedReturnType extends BaseReturnType

{

   @Override

   public String toString()

   {

      return “derived class return type”;

   }

}

class BaseClass

{

   BaseReturnType createReturnType()

   {

      return new BaseReturnType();

   }

}

class DerivedClass extends BaseClass

{

   @Override

   BaseReturnType createReturnType()

   {

      return new DerivedReturnType();

   }

}

public class CRTDemo

{

   public static void main(String[] args)

   {

      BaseReturnType brt = new BaseClass().createReturnType();

      System.out.println(brt);

      DerivedReturnType drt =

         (DerivedReturnType) new DerivedClass().createReturnType();

      System.out.println(drt);

   }

}

In Listing 7 zeigt erfolgt ein Upcast von DerivedReturnType zu BaseReturnType. Zudem wird der erforderliche Cast Operator (DerivedReturnType) verwendet, um vor der Zuweisung an drt einen Downcast von BaseReturnType zu DerivedReturnType durchzuführen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Polymorphie in Java erklärt​ Weiterlesen »

AI Slop vergiftet die Welt​

Allgemein

KI kontaminiert.GreenOak | shutterstock.com Beim datenschutzorientierten Browser DuckDuckGo wurde vor kurzem eine neue Funktion eingeführt, mit der die Benutzer KI-generierte Bilder in den Suchergebnissen ausblenden können: New setting: hide AI-generated images in DuckDuckGoOur philosophy about AI features is “private, useful, and optional.” Our goal is to help you find what you’re looking for. You should decide for yourself how much AI you want in your life – or if you want any at all. (1/4) pic.twitter.com/pTolmsEQlQ— DuckDuckGo (@DuckDuckGo) July 14, 2025 Auch andere Anbieter haben damit begonnen, solche “KI-Killswitches” in ihre Produkte zu integrieren. Gemein ist ihnen allerdings (bislang), dass sie nicht in jedem Fall erkennen, wo die Technologie ihre “Finger” im Spiel hatte. Das müsste sich allerdings dringend ändern. Ansonsten drohen wir bald in einem Meer aus “AI Slop“, respektive digitalem, KI-generiertem Müll zu ersticken. KI vernichtet Mehrwert Denn KI-Schrott erobert derzeit rasend schnell nahezu jede Art von Website, die Inhalte anbietet, darunter auch (vermeintlich) nutzergenerierte. Im vergangenen Jahr explodierte beispielsweise die Zahl der Fake-Bewertungen in App Stores und Onlineshops. So ermittelte der AdTech-Spezialist DoubleVerify in einer Untersuchung aus dem Jahr 2024, dass sich der Anteil gefälschter, KI-generierter Bewertungen im Vergleich zum Vorjahr mehr als verdreifacht hat. Das Problem ist dabei nicht auf eine einzelne Plattform beschränkt. Gefälschte Bewertungen überfluten alle Plattformen – vom Mobile- bis hin zum Smart-TV-App-Store. Und die Zahl der Fake-Bewertungen wird weiter steigen – und entwertet damit sämtliche (echten) Nutzerbewertungen auf der jeweiligen Plattform. Deren Betreibern bleiben derzeit lediglich zwei Möglichkeiten, darauf zu reagieren: Entweder sie schaffen Nutzerbewertungen komplett ab, oder sie sortieren die gefälschten KI-Bewertungen aus. Und das ist nicht die einzige Quelle, über die KI-generierter Content-Müll Einzug hält. Ein weiteres, gutes Beispiel sind Musikstreaming-Plattformen wie Spotify. So wurden auf der Plattform Ende Juli 2025 neue Songs von Country-Sänger Blaze Foley veröffentlicht – der bereits 1989 verstorben ist. Das “neue” Material wurde von einer KI generiert und wurde erst nach einigen Tagen (und Nutzerbeschwerden) entfernt. Foleys Plattenlabel Lost Art Records bezeichnete den Vorfall als “schädlich” und erklärte, Spotify hätte das leicht verhindern können – wenn der Konzern es denn gewollt hätte. Vermutlich wurden die KI-Songs lediglich entfernt, um rechtlichen Schwierigkeiten aus dem Weg zu gehen. Deezer ist eine der wenigen Streaming-Plattformen, die KI-generierte Songs (und ihre Abrufzahlen) auf transparente Art und Weise erfasst. Demnach zählte der Anbieter bis zum Frühjahr 2025 täglich mehr als 20.000 neue Uploads vollständig KI-generierter Musiktitel – was 18 Prozent der Gesamtheit aller neuen Inhalte darstellt. Auch in diesem Bereich droht das Verhältnis aus den Fugen zu geraten. Schließlich ist es inzwischen auch denkbar einfach, sich mit aktuellen KI-Tools zum Produzenten aufzuschwingen, wie Musikexperte und Influencer Rick Beato in einem YouTube-Video demonstriert: AI Slop den Riegel vorschieben Nutzerbewertungen und Musik sind nur zwei Bereiche, in denen KI-generierte Inhalte die Oberhand gewinnen und Mehrwert zunichte machen. Inzwischen entstammen ganze Artikel, Blogbeiträge, Produktbeschreibungen und Videoskripte KI-Modellen wie ChatGPT, Jasper und Gemini – mehrsprachig produziert in ein paar Sekunden. Und auch Social-Media-Plattformen werden zunehmend von KI-Content überflutet – in Form von Kurzvideos, GIFs und Grafiken. Sämtliche KI-Inhalte verbieten zu wollen, wäre natürlich eher realitätsfern. Vielmehr müssten die Services, Webseiten und Plattformen ihre Inhalte kuratieren – oder ihre Benutzer dabei unterstützen, reale Inhalte zuverlässig von Fakes unterscheiden zu können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

AI Slop vergiftet die Welt​ KI kontaminiert.GreenOak | shutterstock.com

Beim datenschutzorientierten Browser DuckDuckGo wurde vor kurzem eine neue Funktion eingeführt, mit der die Benutzer KI-generierte Bilder in den Suchergebnissen ausblenden können:

New setting: hide AI-generated images in DuckDuckGoOur philosophy about AI features is “private, useful, and optional.” Our goal is to help you find what you’re looking for. You should decide for yourself how much AI you want in your life – or if you want any at all. (1/4) pic.twitter.com/pTolmsEQlQ— DuckDuckGo (@DuckDuckGo) July 14, 2025

Auch andere Anbieter haben damit begonnen, solche “KI-Killswitches” in ihre Produkte zu integrieren. Gemein ist ihnen allerdings (bislang), dass sie nicht in jedem Fall erkennen, wo die Technologie ihre “Finger” im Spiel hatte. Das müsste sich allerdings dringend ändern. Ansonsten drohen wir bald in einem Meer aus “AI Slop“, respektive digitalem, KI-generiertem Müll zu ersticken.

KI vernichtet Mehrwert

Denn KI-Schrott erobert derzeit rasend schnell nahezu jede Art von Website, die Inhalte anbietet, darunter auch (vermeintlich) nutzergenerierte. Im vergangenen Jahr explodierte beispielsweise die Zahl der Fake-Bewertungen in App Stores und Onlineshops. So ermittelte der AdTech-Spezialist DoubleVerify in einer Untersuchung aus dem Jahr 2024, dass sich der Anteil gefälschter, KI-generierter Bewertungen im Vergleich zum Vorjahr mehr als verdreifacht hat. Das Problem ist dabei nicht auf eine einzelne Plattform beschränkt. Gefälschte Bewertungen überfluten alle Plattformen – vom Mobile- bis hin zum Smart-TV-App-Store. Und die Zahl der Fake-Bewertungen wird weiter steigen – und entwertet damit sämtliche (echten) Nutzerbewertungen auf der jeweiligen Plattform. Deren Betreibern bleiben derzeit lediglich zwei Möglichkeiten, darauf zu reagieren:

Entweder sie schaffen Nutzerbewertungen komplett ab, oder

sie sortieren die gefälschten KI-Bewertungen aus.

Und das ist nicht die einzige Quelle, über die KI-generierter Content-Müll Einzug hält. Ein weiteres, gutes Beispiel sind Musikstreaming-Plattformen wie Spotify. So wurden auf der Plattform Ende Juli 2025 neue Songs von Country-Sänger Blaze Foley veröffentlicht – der bereits 1989 verstorben ist. Das “neue” Material wurde von einer KI generiert und wurde erst nach einigen Tagen (und Nutzerbeschwerden) entfernt. Foleys Plattenlabel Lost Art Records bezeichnete den Vorfall als “schädlich” und erklärte, Spotify hätte das leicht verhindern können – wenn der Konzern es denn gewollt hätte. Vermutlich wurden die KI-Songs lediglich entfernt, um rechtlichen Schwierigkeiten aus dem Weg zu gehen.

Deezer ist eine der wenigen Streaming-Plattformen, die KI-generierte Songs (und ihre Abrufzahlen) auf transparente Art und Weise erfasst. Demnach zählte der Anbieter bis zum Frühjahr 2025 täglich mehr als 20.000 neue Uploads vollständig KI-generierter Musiktitel – was 18 Prozent der Gesamtheit aller neuen Inhalte darstellt. Auch in diesem Bereich droht das Verhältnis aus den Fugen zu geraten. Schließlich ist es inzwischen auch denkbar einfach, sich mit aktuellen KI-Tools zum Produzenten aufzuschwingen, wie Musikexperte und Influencer Rick Beato in einem YouTube-Video demonstriert:

AI Slop den Riegel vorschieben

Nutzerbewertungen und Musik sind nur zwei Bereiche, in denen KI-generierte Inhalte die Oberhand gewinnen und Mehrwert zunichte machen. Inzwischen entstammen ganze Artikel, Blogbeiträge, Produktbeschreibungen und Videoskripte KI-Modellen wie ChatGPT, Jasper und Gemini – mehrsprachig produziert in ein paar Sekunden. Und auch Social-Media-Plattformen werden zunehmend von KI-Content überflutet – in Form von Kurzvideos, GIFs und Grafiken.

Sämtliche KI-Inhalte verbieten zu wollen, wäre natürlich eher realitätsfern. Vielmehr müssten die Services, Webseiten und Plattformen ihre Inhalte kuratieren – oder ihre Benutzer dabei unterstützen, reale Inhalte zuverlässig von Fakes unterscheiden zu können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

AI Slop vergiftet die Welt​ Weiterlesen »

Die IT-Branche verliert an Glanz​

Allgemein

Laut aktueller Kununu-Studie ist die Zufriedenheit der Mitarbeitenden von IT-Firmen weiter am Sinken.Arsenii Palivoda/Shutterstock Wegen ihrer relativ üppigen Gehälter und Vergünstigungen sowie guter Aufstiegschancen zählten IT-Unternehmen lange zu den beliebtesten Arbeitgebern in Deutschland. Doch inzwischen machen sich auch hier die Auswirkungen des raueren Geschäftsklimas bemerkbar, etwa in Form von Stellenstreichungen und verschärften Homeoffice-Regelungen. Diese Entwicklung spiegelt sich auch im Kununu-Zufriedenheitsatlas wider. Zwar gehören IT-Unternehmen traditionell zu den auf Kununu am besten bewerteten Arbeitgebern. Im Verlauf der letzten drei Jahre ist der Zufriedenheitswert der Mitarbeitenden aus IT-Unternehmen jedoch kontinuierlich gesunken: Bewerteten in der Erhebung von 2023 noch 70,7 Prozent ihren Arbeitgeber mit vier oder fünf Sternen, sank der Prozentsatz im Folgejahr bereits auf 67,1 Prozent. Im aktuellen Kununu Zufriedenheitsatlas 2025 fiel der Wert schließlich auf 64,7 Prozent. Kleiner Wert, große Wirkung Wenngleich ein Rückgang um 2,4 Prozent vergleichsweise niedrig erscheint – im Branchenvergleich rutschte die IT damit laut Kununu innerhalb eines Jahres von Rang drei auf Rang fünf ab. Zum Vergleich: In der am besten bewerteten Branche Steuerberatung/Wirtschaftsprüfung liegt der Anteil der gut oder sehr gut Bewertenden aktuell bei 72,5 Prozent. Es folgen das Bankenwesen und der Energie-Sektor, die mit jeweils 67 Prozent gemeinsam auf Platz zwei liegen. Am hinteren Ende des Branchenvergleichs liegen die Beschäftigten aus den Bereichen Kunst und Kultur (42,1 Prozent), Druck und Verpackung (41,9 Prozent) sowie Handel (41,8 Prozent). Einen besonders starken Rückgang verzeichnete indes die Branche Hotels und Beherbergungen, die sich um sechs Plätze und mehr als vier Prozentpunkte verschlechterte und auf Rang 21 landete. Insgesamt ging die bundesweite Zufriedenheit am Arbeitsplatz im Vergleich zum Vorjahr um einen knappen Prozentpunkt zurück auf 53,1 Prozent. Der allgemeine Abwärtstrend aus den vergangenen Jahren verlangsamt sich damit – 2023 lag die Zufriedenheit noch bei 56,3 Prozent. Aus Sicht von Kununu-CEO Nina Zimmermann zeigt dieser scheinbare Widerspruch auf der einen Seite, wie anpassungsfähig Arbeitnehmende in Krisenzeiten geworden seien. Andererseits dürfe man aber nicht übersehen, dass sich viele schlicht an schwierige Bedingungen gewöhnt haben: „Diese Normalisierung von Unzufriedenheit sollte uns aufhorchen lassen“, ordnet die Managerin die Ergebnisse ein. Nicht vernachlässigen sollte man außerdem die Gründe, warum Mitarbeitende auf Kununu ihren (Ex-)Arbeitgeber bewerten. Häufig wird die Online-Plattform genutzt, um nach dem (un)freiwilligen Weggang noch einmal Dampf abzulassen und (vermeintliche) Missstände anzuprangern. 

Die IT-Branche verliert an Glanz​ Laut aktueller Kununu-Studie ist die Zufriedenheit der Mitarbeitenden von IT-Firmen weiter am Sinken.Arsenii Palivoda/Shutterstock

Wegen ihrer relativ üppigen Gehälter und Vergünstigungen sowie guter Aufstiegschancen zählten IT-Unternehmen lange zu den beliebtesten Arbeitgebern in Deutschland. Doch inzwischen machen sich auch hier die Auswirkungen des raueren Geschäftsklimas bemerkbar, etwa in Form von Stellenstreichungen und verschärften Homeoffice-Regelungen.

Diese Entwicklung spiegelt sich auch im Kununu-Zufriedenheitsatlas wider. Zwar gehören IT-Unternehmen traditionell zu den auf Kununu am besten bewerteten Arbeitgebern. Im Verlauf der letzten drei Jahre ist der Zufriedenheitswert der Mitarbeitenden aus IT-Unternehmen jedoch kontinuierlich gesunken: Bewerteten in der Erhebung von 2023 noch 70,7 Prozent ihren Arbeitgeber mit vier oder fünf Sternen, sank der Prozentsatz im Folgejahr bereits auf 67,1 Prozent. Im aktuellen Kununu Zufriedenheitsatlas 2025 fiel der Wert schließlich auf 64,7 Prozent.

Kleiner Wert, große Wirkung

Wenngleich ein Rückgang um 2,4 Prozent vergleichsweise niedrig erscheint – im Branchenvergleich rutschte die IT damit laut Kununu innerhalb eines Jahres von Rang drei auf Rang fünf ab. Zum Vergleich: In der am besten bewerteten Branche Steuerberatung/Wirtschaftsprüfung liegt der Anteil der gut oder sehr gut Bewertenden aktuell bei 72,5 Prozent. Es folgen das Bankenwesen und der Energie-Sektor, die mit jeweils 67 Prozent gemeinsam auf Platz zwei liegen.

Am hinteren Ende des Branchenvergleichs liegen die Beschäftigten aus den Bereichen Kunst und Kultur (42,1 Prozent), Druck und Verpackung (41,9 Prozent) sowie Handel (41,8 Prozent). Einen besonders starken Rückgang verzeichnete indes die Branche Hotels und Beherbergungen, die sich um sechs Plätze und mehr als vier Prozentpunkte verschlechterte und auf Rang 21 landete.

Insgesamt ging die bundesweite Zufriedenheit am Arbeitsplatz im Vergleich zum Vorjahr um einen knappen Prozentpunkt zurück auf 53,1 Prozent. Der allgemeine Abwärtstrend aus den vergangenen Jahren verlangsamt sich damit – 2023 lag die Zufriedenheit noch bei 56,3 Prozent.

Aus Sicht von Kununu-CEO Nina Zimmermann zeigt dieser scheinbare Widerspruch auf der einen Seite, wie anpassungsfähig Arbeitnehmende in Krisenzeiten geworden seien. Andererseits dürfe man aber nicht übersehen, dass sich viele schlicht an schwierige Bedingungen gewöhnt haben: „Diese Normalisierung von Unzufriedenheit sollte uns aufhorchen lassen“, ordnet die Managerin die Ergebnisse ein.

Nicht vernachlässigen sollte man außerdem die Gründe, warum Mitarbeitende auf Kununu ihren (Ex-)Arbeitgeber bewerten. Häufig wird die Online-Plattform genutzt, um nach dem (un)freiwilligen Weggang noch einmal Dampf abzulassen und (vermeintliche) Missstände anzuprangern.

Die IT-Branche verliert an Glanz​ Weiterlesen »

Radikale Maßnahme wählen: Wenn Chefs an Selbstüberschätzung “leiden”​

Allgemein

Es gibt sie nach wie vor – die Führungskräfte, die sich selbst überschätzen und sich nichts sagen lassen. Arbeitgeber sind gut beraten, Konsequenzen aus solchen Verhaltensweisen zu ziehen, bevor gute Mitarbeiter abwandern. Foto: Elnur – shutterstock.com Alles ist ausgerichtet auf die Transformation im Unternehmen, sei es eine Digitalisierung oder eine kulturelle Neuausrichtung. “Wir sind für die Zukunft gut aufgestellt”, sagt der CEO auf einer Betriebsversammlung. “Und wir brauchen jeden Mitarbeitenden mit der höchsten Motivation in diesen Zeiten.” Was er tatsächlich meint ist: Der Aufsichtsrat hat einige Veränderungen beschlossen, die er in den nachfolgenden zwei Jahren in Angriff nehmen soll, und seine Mitarbeitenden sollen diese umsetzen. Er selbst hat noch nie zuvor eine erfolgreiche Transformation umgesetzt, aber das kann er natürlich nicht in der Aufsichtsratsitzung erwähnen. Blender schon im Vorstellungsgespräch Im Vorstellungsgespräch hat er schließlich mit Aussagen geglänzt, die der Aufsichtsrat hören wollte. Ein Geschäftsbereichsleiter kommentiert das mit folgenden Sätzen: “Er weiß, wie man Menschen manipuliert”, “Er führt über das reine Erwartungsmanagement”, “Wenn es gut läuft, delegiert er die Sachverhalte an uns und schmückt sich mit den erreichten Zielen.” Und schlussfolgert: “Wenn es schlecht läuft, werden wir wieder dafür verantwortlich gemacht – es ist immer das gleiche Spiel.” Seine Selbstüberschätzung macht es nahezu unmöglich, ihm seine mangelnde Umsetzungskompetenz näher zu bringen. Er ist der Meinung, dass er bereits alles weiß und keine Verbesserungsvorschläge braucht. Zusätzlich blendet er das Risiko für wichtige Entscheidungen aus und im schlimmsten Fall ist es ja nicht sein Geld, sein Unternehmen, seine Mitarbeiter. Ihm fehlt jegliches Verantwortungsbewusstsein für sein eigenes Tun und Handeln. Er ist und bleibt ein Schaumschläger. Eigene Leistung wird komplett überschätzt Das was der Geschäftsbereichsleiter hier beschreibt, ist nicht weniger als ein Effekt: der Dunning Kruger Effekt. Er wurde 1999 von den Psychologen David Dunning und Justin Kruger beschrieben – und zwar auf Grund eines Experimentes. Sie fanden nämlich heraus, dass Personen die die eigene Leistung überdurchschnittlich gut bewerteten, etwa in den Kategorien logisches Denken, Humor, Fachkompetenz unterdurchschnittlich abschnitten, während diejenigen die gut abschnitten, ihre eigene Leistungsfähigkeit unterschätzten. Durch den Mangel an metakognitiven Fähigkeiten ist es ihnen nicht möglich, die eigenen Leistungen genau und richtig einzuschätzen. Diese Menschen sind nicht in der Lage sich zu reflektieren. Die Konsequenz ist das übererhöhte Selbstvertrauen und die Verweigerung, Hilfe anzunehmen oder Verantwortung abzugeben – ein Dilemma, das dringendst aufgeklärt werden sollte. Denn der Preis ist hoch und die tatsächlichen Kosten liegen hier im Verborgenen. Zum Beispiel, wenn unzufriedene Mitarbeiter, deren Entwicklungspotenzial nicht erkannt und entwickelt wird, das Unternehmen verlassen. Verhaltensveränderung ist ein Muss Diesen Führungskräften, die an Selbstüberschätzung “leiden”, ist nahezu unmöglich, transparent zu kommunizieren, was sie nicht richtig machen, und somit gibt es immer wieder starke Reibungsverluste in den Prozessabläufen sowie in der Geschäftsentwicklung. Mit ihrem fehlenden strategischem Denken und dem Nichterkennen von Zusammenhängen haben sie niemals einen Pokal gewonnen, geschweige denn selbst ein Ziel erreicht. Der Umgang mit einem Chef, der unter einem Dunning Kruger Effekt “leidet”, ist eine sehr spezielle und eine komplexe Situation, und es kommt stark darauf an, ob dieser Mensch eine tatsächliche Verhaltensänderung will. Ist dies nicht der Fall, sollten sich Entscheider dazu durchringen, das Arbeitsverhältnis zu lösen. Denn: Dieser Chef ist für jeden Mitarbeitenden eine Zumutung und es erschöpft und zieht emotional an den Menschen, die mit ihm zusammenarbeiten müssen. So manche Abteilung erlebt dadurch einen organisationspsychologischen Burnout. 

Radikale Maßnahme wählen: Wenn Chefs an Selbstüberschätzung “leiden”​ Es gibt sie nach wie vor – die Führungskräfte, die sich selbst überschätzen und sich nichts sagen lassen. Arbeitgeber sind gut beraten, Konsequenzen aus solchen Verhaltensweisen zu ziehen, bevor gute Mitarbeiter abwandern.
Foto: Elnur – shutterstock.com

Alles ist ausgerichtet auf die Transformation im Unternehmen, sei es eine Digitalisierung oder eine kulturelle Neuausrichtung. “Wir sind für die Zukunft gut aufgestellt”, sagt der CEO auf einer Betriebsversammlung. “Und wir brauchen jeden Mitarbeitenden mit der höchsten Motivation in diesen Zeiten.”

Was er tatsächlich meint ist: Der Aufsichtsrat hat einige Veränderungen beschlossen, die er in den nachfolgenden zwei Jahren in Angriff nehmen soll, und seine Mitarbeitenden sollen diese umsetzen. Er selbst hat noch nie zuvor eine erfolgreiche Transformation umgesetzt, aber das kann er natürlich nicht in der Aufsichtsratsitzung erwähnen.

Blender schon im Vorstellungsgespräch

Im Vorstellungsgespräch hat er schließlich mit Aussagen geglänzt, die der Aufsichtsrat hören wollte. Ein Geschäftsbereichsleiter kommentiert das mit folgenden Sätzen: “Er weiß, wie man Menschen manipuliert”, “Er führt über das reine Erwartungsmanagement”, “Wenn es gut läuft, delegiert er die Sachverhalte an uns und schmückt sich mit den erreichten Zielen.” Und schlussfolgert: “Wenn es schlecht läuft, werden wir wieder dafür verantwortlich gemacht – es ist immer das gleiche Spiel.”

Seine Selbstüberschätzung macht es nahezu unmöglich, ihm seine mangelnde Umsetzungskompetenz näher zu bringen. Er ist der Meinung, dass er bereits alles weiß und keine Verbesserungsvorschläge braucht. Zusätzlich blendet er das Risiko für wichtige Entscheidungen aus und im schlimmsten Fall ist es ja nicht sein Geld, sein Unternehmen, seine Mitarbeiter. Ihm fehlt jegliches Verantwortungsbewusstsein für sein eigenes Tun und Handeln. Er ist und bleibt ein Schaumschläger.

Eigene Leistung wird komplett überschätzt

Das was der Geschäftsbereichsleiter hier beschreibt, ist nicht weniger als ein Effekt: der Dunning Kruger Effekt. Er wurde 1999 von den Psychologen David Dunning und Justin Kruger beschrieben – und zwar auf Grund eines Experimentes. Sie fanden nämlich heraus, dass Personen die die eigene Leistung überdurchschnittlich gut bewerteten, etwa in den Kategorien logisches Denken, Humor, Fachkompetenz unterdurchschnittlich abschnitten, während diejenigen die gut abschnitten, ihre eigene Leistungsfähigkeit unterschätzten.

Durch den Mangel an metakognitiven Fähigkeiten ist es ihnen nicht möglich, die eigenen Leistungen genau und richtig einzuschätzen. Diese Menschen sind nicht in der Lage sich zu reflektieren. Die Konsequenz ist das übererhöhte Selbstvertrauen und die Verweigerung, Hilfe anzunehmen oder Verantwortung abzugeben – ein Dilemma, das dringendst aufgeklärt werden sollte. Denn der Preis ist hoch und die tatsächlichen Kosten liegen hier im Verborgenen. Zum Beispiel, wenn unzufriedene Mitarbeiter, deren Entwicklungspotenzial nicht erkannt und entwickelt wird, das Unternehmen verlassen.

Verhaltensveränderung ist ein Muss

Diesen Führungskräften, die an Selbstüberschätzung “leiden”, ist nahezu unmöglich, transparent zu kommunizieren, was sie nicht richtig machen, und somit gibt es immer wieder starke Reibungsverluste in den Prozessabläufen sowie in der Geschäftsentwicklung. Mit ihrem fehlenden strategischem Denken und dem Nichterkennen von Zusammenhängen haben sie niemals einen Pokal gewonnen, geschweige denn selbst ein Ziel erreicht.

Der Umgang mit einem Chef, der unter einem Dunning Kruger Effekt “leidet”, ist eine sehr spezielle und eine komplexe Situation, und es kommt stark darauf an, ob dieser Mensch eine tatsächliche Verhaltensänderung will. Ist dies nicht der Fall, sollten sich Entscheider dazu durchringen, das Arbeitsverhältnis zu lösen. Denn: Dieser Chef ist für jeden Mitarbeitenden eine Zumutung und es erschöpft und zieht emotional an den Menschen, die mit ihm zusammenarbeiten müssen. So manche Abteilung erlebt dadurch einen organisationspsychologischen Burnout.

Radikale Maßnahme wählen: Wenn Chefs an Selbstüberschätzung “leiden”​ Weiterlesen »

Der Super-Skill für Führungskräfte​

Allgemein

Denken Sie noch oder schreiben Sie schon?Undrey | shutterstock.com Ich hatte das Glück, in meiner Karriere mit einigen der fähigsten Denker, Analysten und Praktiker zusammenzuarbeiten – von Astrophysikern über Wissenschaftler und Geheimdienstmitarbeiter bis hin zu Produktteams in Cybersecurity-Startups. Dabei hat sich eines durch die Bank immer wieder bestätigt: Es sind nicht immer die charismatischsten oder technisch brillantesten Menschen, die Erfolg haben. Denn viele, die entweder das eine, das andere oder sogar beides sind, bleiben in meiner Erfahrung hinter ihren Möglichkeiten zurück, weil sie eine entscheidende Kompetenz nie entwickelt haben: Die Fähigkeit, zu schreiben.  Die fähigsten Experten die ich kenne, beherrschen sie. Und sie schreiben nicht, um damit zu beeindrucken – sondern, um: ihre Gedanken auf den Punkt zu bringen, ihre Ideen zu testen und sich für Veränderungen zu öffnen. Gerade in einer Zeit, in der künstliche Intelligenz (KI) zunehmend routinemäßige Wissensarbeit automatisiert, ist es wichtiger denn je, sich diesen menschlichen Vorteil zunutze zu machen. Erfolgreich werden am Ende diejenigen sein, die das Beste aus ihren begrenzten kognitiven Ressourcen herausholen – und wissen, wie sie diese mit KI kombinieren können. Schreiben zu können, ist einer der mächtigsten und parallel ein allzu oft verkannter Skill. Hirn-Bottlenecks Falls Sie sich gerade an “begrenzt” gestoßen haben – es ist die unangenehme Wahrheit: Ihr Gehirn arbeitet mit limitierter Hardware. Um zu verstehen, warum das wichtig ist, im Folgenden ein kleiner Exkurs zu den drei Schlüsselkomponenten des menschlichen Gedächtnisses. 1. Kurzzeitgedächtnis – die mentale Zwischenablage Das Kurzzeitgedächtnis ist ein temporärer Speicher. Es kann kleine Mengen an Informationen – eine Telefonnummer, einen neuen Namen oder einen Satz – für einen Zeitraum von wenigen Sekunden bis zu einer Minute speichern. Es ist jedoch empfindlich und verblasst ohne Verstärkung relativ schnell. In einer berühmten Veröffentlichung aus dem Jahr 1956 argumentierte der Psychologe George A. Miller, dass die Anzahl der Dinge, die wir gleichzeitig im Kopf behalten können, überraschend gering ist – nur 7 ± 2. 2. Langzeitgedächtnis – das chaotische Riesenarchiv Das Langzeitgedächtnis ist unser langfristiger Speicher. Es speichert jedoch nicht nur Fakten, sondern auch Interpretationen. Anstatt wie eine Festplatte zu funktionieren, die Rohdaten erfasst, komprimiert Ihr Gehirn Erfahrungen ständig zu sinnvollen Einheiten, die von Ihrem bereits vorhandenen Wissen geprägt sind. Dieser Prozess hilft Ihnen, schneller zu lernen und Informationen abzurufen, hat aber auch einen Preis: Erinnerungen werden gefiltert, verzerrt und sind oft unvollständig. In einer klassischen Studie von Frederic Bartlett aus dem Jahr 1932 (PDF) wurden die Teilnehmer gebeten, sich an eine indianische Volksgeschichte zu erinnern. Im Laufe der Zeit verzerrten oder ließen sie unwissentlich Details weg, die nicht ihren kulturellen Erwartungen entsprachen – und verwandelten unbekannte Elemente in solche, die für sie mehr Sinn ergaben. Bartlett kam deshalb zu dem Schluss, dass das Gedächtnis durch Schemata geprägt ist: mentale Rahmenkonzepte, mit denen wir die Welt interpretieren und verstehen. Bei unserem Gedächtnis geht es also weniger darum, das zu bewahren, was war. Sondern vielmehr darum, das festzuhalten, was für uns zu diesem Zeitpunkt Sinn ergab. Es ist auf Bedeutung optimiert, nicht auf Genauigkeit. Zudem sind unsere Erinnerungen sind nicht ordentlich abgelegt – sie sind in einem Netzwerk von Assoziationen gespeichert, die durch Bedeutung und Erfahrung miteinander verbunden sind. Sie haben das wahrscheinlich schon erlebt: Ein Geruch versetzt Sie augenblicklich zwanzig Jahre zurück. Das Gedächtnis funktioniert über Hinweise, nicht über Befehle. Ein Gedanke löst einen anderen aus und beleuchtet damit verbundene Ideen in einem Netzwerk. Dieses ist davon geprägt, was für uns wichtig ist. Zu schreiben hilft, diese Fäden verfolgen zu können und unsichtbaren Verbindungen sichtbar zu machen. 3. Arbeitsgedächtnis – der limitierte, mentale Workspace Das Arbeitsgedächtnis ist der Ort, an dem „gedacht wird“. Es ist Ihre mentale Werkbank, die Teile aus dem Kurzzeitgedächtnis heranzieht und mit Fragmenten aus dem Langzeitgedächtnis kombiniert, um Sie dabei zu unterstützen, zu denken, Probleme zu lösen und Entscheidungen zu treffen. Dieser Prozess verläuft in weiten Teilen automatisch und unterbewusst, während das Gehirn versucht, Ideen zu jonglieren und Möglichkeiten in Echtzeit abzuwägen. Aber der Platz im Arbeitsgedächtnis ist eng begrenzt. In der Regel können wir hier nur vier bis sieben Elemente gleichzeitig speichern. Und selbst das, was wir aus dem Langzeitgedächtnis abrufen, ist mit Ballast behaftet: verzerrte Eindrücke, vergessene Details und Vorurteile. Das Problem ist nicht nur, dass das Arbeitsgedächtnis klein ist, sondern dass wir uns bei unseren wichtigsten Denkprozessen darauf verlassen. Es versucht jedoch, flüchtige Eingaben aus dem Kurzzeitgedächtnis mit unvollständigen, voreingenommenen Inhalten aus dem Langzeitgedächtnis zu integrieren – und das alles in einem Raum, der kaum eine Handvoll Ideen gleichzeitig aufnehmen kann. Das macht das Arbeitsgedächtnis nicht nur begrenzt, sondern auch anfällig. Wenn wir keine Möglichkeiten finden, es zu unterstützen und zu erweitern, besteht die Gefahr, die Leichtigkeit des Denkens mit der Qualität des Denkens verwechseln. Weil das Arbeitsgedächtnis begrenzt ist, verlassen wir uns oft auf mentale Abkürzungen – wir bevorzugen vertraute Erzählungen und Annahmen. Das kann eine Illusion von Kohärenz erzeugen, in der unser Denken sich gründlich anfühlt, aber tatsächlich durch unhinterfragte Überzeugungen eingeschränkt ist. Ein eindrucksvolles historisches Beispiel ist das Vertrauen Frankreichs in die Maginot-Linie vor dem Zweiten Weltkrieg. Diese umfangreiche Befestigungsanlage sollte eine deutsche Invasion verhindern und verkörperte die Erwartung Frankreichs, dass sich die Taktiken des Ersten Weltkriegs wiederholen würden. Im Jahr 1940 umgingen die deutschen Truppen jedoch die Linie über die Ardennen. Diese Episode unterstreicht, wie unhinterfragte mentale Modelle zu strategischen Fehlern führen können. Ohne Werkzeuge, um unser Denken zu hinterfragen und zu überprüfen, riskieren wir Überheblichkeit, blinde Flecken und fehlerhafte Entscheidungen. Zu schreiben, erweitert unser extrem begrenztes Arbeitsgedächtnis. Es externalisiert Ihre Gedanken, sodass Sie nicht alle Ideen gleichzeitig im Kopf jonglieren müssen. Verschriftlichte Gedanken ermöglichen Ihnen, einen Schritt zurückzutreten, den Blickwinkel zu erweitern und komplexere Aufgaben besser zu bewältigen. Denn beim Schreiben geht es nicht nur darum, unsere Gedanken zu dokumentieren – es geht darum, wie wir unsere Gedanken aufbauen, überprüfen und verbessern. Durch das Verfassen von Entwürfen und Überarbeitungen werden sowohl die Argumentation auf dem Papier als auch das dahinterstehende, mentale Modell geschärft. Schreiben, um zu führen Es gibt leistungsstarke Tools und mentale Modelle, die Ihnen helfen können, klarer zu denken, effektiver zu schreiben und bessere Entscheidungen zu treffen. Einer der besten Ausgangspunkte ist Richards Heuers Abhandlung “The Psychology of Intelligence Analysis” (PDF). Ursprünglich für Geheimdienstmitarbeiter geschrieben, bietet es praktische Strategien, um Annahmen zu hinterfragen, Bias zu vermeiden und strukturierte Analysetechniken anzuwenden – genau die Fähigkeiten, die alle guten Führungskräfte benötigen. Ein tieferes Verständnis unserer mentalen Blindspots vermittelt Ihnen das Buch “Thinking, Fast and Slow” von Daniel Kahneman, das sich mit den beiden „Systems of Thought“ beschäftigt – schnelle, intuitive Urteile und langsamere, bewusstere Überlegungen. Wenn wir uns zu sehr auf schnelles Denken verlassen, tappen wir in bekannte Fallen wie Bestätigungsfehler und die Illusion der Kohärenz. Schreiben ist eine Möglichkeit, unser Denken zu verlangsamen – um unser reflektierteres, analytischeres Ich einzuschalten. Wenn Sie effektiver führen möchten – sei es als Operator, Analyst oder CISO – sinnieren Sie nicht nur darüber. Nehmen Sie einen Stift oder eine Tastatur in die Hand und schreiben Sie Ihre Gedanken nieder. (fm) Dieser Artikel wurde im Rahmen des englischsprachigen Foundry Expert Contributor Network veröffentlicht. 

Der Super-Skill für Führungskräfte​ Denken Sie noch oder schreiben Sie schon?Undrey | shutterstock.com

Ich hatte das Glück, in meiner Karriere mit einigen der fähigsten Denker, Analysten und Praktiker zusammenzuarbeiten – von Astrophysikern über Wissenschaftler und Geheimdienstmitarbeiter bis hin zu Produktteams in Cybersecurity-Startups. Dabei hat sich eines durch die Bank immer wieder bestätigt: Es sind nicht immer die charismatischsten oder technisch brillantesten Menschen, die Erfolg haben. Denn viele, die entweder das eine, das andere oder sogar beides sind, bleiben in meiner Erfahrung hinter ihren Möglichkeiten zurück, weil sie eine entscheidende Kompetenz nie entwickelt haben: Die Fähigkeit, zu schreiben. 

Die fähigsten Experten die ich kenne, beherrschen sie. Und sie schreiben nicht, um damit zu beeindrucken – sondern, um:

ihre Gedanken auf den Punkt zu bringen,

ihre Ideen zu testen und

sich für Veränderungen zu öffnen.

Gerade in einer Zeit, in der künstliche Intelligenz (KI) zunehmend routinemäßige Wissensarbeit automatisiert, ist es wichtiger denn je, sich diesen menschlichen Vorteil zunutze zu machen. Erfolgreich werden am Ende diejenigen sein, die das Beste aus ihren begrenzten kognitiven Ressourcen herausholen – und wissen, wie sie diese mit KI kombinieren können. Schreiben zu können, ist einer der mächtigsten und parallel ein allzu oft verkannter Skill.

Hirn-Bottlenecks

Falls Sie sich gerade an “begrenzt” gestoßen haben – es ist die unangenehme Wahrheit: Ihr Gehirn arbeitet mit limitierter Hardware. Um zu verstehen, warum das wichtig ist, im Folgenden ein kleiner Exkurs zu den drei Schlüsselkomponenten des menschlichen Gedächtnisses.

1. Kurzzeitgedächtnis – die mentale Zwischenablage

Das Kurzzeitgedächtnis ist ein temporärer Speicher. Es kann kleine Mengen an Informationen – eine Telefonnummer, einen neuen Namen oder einen Satz – für einen Zeitraum von wenigen Sekunden bis zu einer Minute speichern. Es ist jedoch empfindlich und verblasst ohne Verstärkung relativ schnell. In einer berühmten Veröffentlichung aus dem Jahr 1956 argumentierte der Psychologe George A. Miller, dass die Anzahl der Dinge, die wir gleichzeitig im Kopf behalten können, überraschend gering ist – nur 7 ± 2.

2. Langzeitgedächtnis – das chaotische Riesenarchiv

Das Langzeitgedächtnis ist unser langfristiger Speicher. Es speichert jedoch nicht nur Fakten, sondern auch Interpretationen. Anstatt wie eine Festplatte zu funktionieren, die Rohdaten erfasst, komprimiert Ihr Gehirn Erfahrungen ständig zu sinnvollen Einheiten, die von Ihrem bereits vorhandenen Wissen geprägt sind. Dieser Prozess hilft Ihnen, schneller zu lernen und Informationen abzurufen, hat aber auch einen Preis: Erinnerungen werden gefiltert, verzerrt und sind oft unvollständig.

In einer klassischen Studie von Frederic Bartlett aus dem Jahr 1932 (PDF) wurden die Teilnehmer gebeten, sich an eine indianische Volksgeschichte zu erinnern. Im Laufe der Zeit verzerrten oder ließen sie unwissentlich Details weg, die nicht ihren kulturellen Erwartungen entsprachen – und verwandelten unbekannte Elemente in solche, die für sie mehr Sinn ergaben. Bartlett kam deshalb zu dem Schluss, dass das Gedächtnis durch Schemata geprägt ist: mentale Rahmenkonzepte, mit denen wir die Welt interpretieren und verstehen. Bei unserem Gedächtnis geht es also weniger darum, das zu bewahren, was war. Sondern vielmehr darum, das festzuhalten, was für uns zu diesem Zeitpunkt Sinn ergab. Es ist auf Bedeutung optimiert, nicht auf Genauigkeit.

Zudem sind unsere Erinnerungen sind nicht ordentlich abgelegt – sie sind in einem Netzwerk von Assoziationen gespeichert, die durch Bedeutung und Erfahrung miteinander verbunden sind. Sie haben das wahrscheinlich schon erlebt: Ein Geruch versetzt Sie augenblicklich zwanzig Jahre zurück. Das Gedächtnis funktioniert über Hinweise, nicht über Befehle. Ein Gedanke löst einen anderen aus und beleuchtet damit verbundene Ideen in einem Netzwerk. Dieses ist davon geprägt, was für uns wichtig ist. Zu schreiben hilft, diese Fäden verfolgen zu können und unsichtbaren Verbindungen sichtbar zu machen.

3. Arbeitsgedächtnis – der limitierte, mentale Workspace

Das Arbeitsgedächtnis ist der Ort, an dem „gedacht wird“. Es ist Ihre mentale Werkbank, die Teile aus dem Kurzzeitgedächtnis heranzieht und mit Fragmenten aus dem Langzeitgedächtnis kombiniert, um Sie dabei zu unterstützen, zu denken, Probleme zu lösen und Entscheidungen zu treffen. Dieser Prozess verläuft in weiten Teilen automatisch und unterbewusst, während das Gehirn versucht, Ideen zu jonglieren und Möglichkeiten in Echtzeit abzuwägen. Aber der Platz im Arbeitsgedächtnis ist eng begrenzt. In der Regel können wir hier nur vier bis sieben Elemente gleichzeitig speichern. Und selbst das, was wir aus dem Langzeitgedächtnis abrufen, ist mit Ballast behaftet: verzerrte Eindrücke, vergessene Details und Vorurteile.

Das Problem ist nicht nur, dass das Arbeitsgedächtnis klein ist, sondern dass wir uns bei unseren wichtigsten Denkprozessen darauf verlassen. Es versucht jedoch, flüchtige Eingaben aus dem Kurzzeitgedächtnis mit unvollständigen, voreingenommenen Inhalten aus dem Langzeitgedächtnis zu integrieren – und das alles in einem Raum, der kaum eine Handvoll Ideen gleichzeitig aufnehmen kann. Das macht das Arbeitsgedächtnis nicht nur begrenzt, sondern auch anfällig. Wenn wir keine Möglichkeiten finden, es zu unterstützen und zu erweitern, besteht die Gefahr, die Leichtigkeit des Denkens mit der Qualität des Denkens verwechseln.

Weil das Arbeitsgedächtnis begrenzt ist, verlassen wir uns oft auf mentale Abkürzungen – wir bevorzugen vertraute Erzählungen und Annahmen. Das kann eine Illusion von Kohärenz erzeugen, in der unser Denken sich gründlich anfühlt, aber tatsächlich durch unhinterfragte Überzeugungen eingeschränkt ist. Ein eindrucksvolles historisches Beispiel ist das Vertrauen Frankreichs in die Maginot-Linie vor dem Zweiten Weltkrieg. Diese umfangreiche Befestigungsanlage sollte eine deutsche Invasion verhindern und verkörperte die Erwartung Frankreichs, dass sich die Taktiken des Ersten Weltkriegs wiederholen würden. Im Jahr 1940 umgingen die deutschen Truppen jedoch die Linie über die Ardennen. Diese Episode unterstreicht, wie unhinterfragte mentale Modelle zu strategischen Fehlern führen können. Ohne Werkzeuge, um unser Denken zu hinterfragen und zu überprüfen, riskieren wir Überheblichkeit, blinde Flecken und fehlerhafte Entscheidungen.

Zu schreiben, erweitert unser extrem begrenztes Arbeitsgedächtnis. Es externalisiert Ihre Gedanken, sodass Sie nicht alle Ideen gleichzeitig im Kopf jonglieren müssen. Verschriftlichte Gedanken ermöglichen Ihnen, einen Schritt zurückzutreten, den Blickwinkel zu erweitern und komplexere Aufgaben besser zu bewältigen. Denn beim Schreiben geht es nicht nur darum, unsere Gedanken zu dokumentieren – es geht darum, wie wir unsere Gedanken aufbauen, überprüfen und verbessern. Durch das Verfassen von Entwürfen und Überarbeitungen werden sowohl die Argumentation auf dem Papier als auch das dahinterstehende, mentale Modell geschärft.

Schreiben, um zu führen

Es gibt leistungsstarke Tools und mentale Modelle, die Ihnen helfen können, klarer zu denken, effektiver zu schreiben und bessere Entscheidungen zu treffen. Einer der besten Ausgangspunkte ist Richards Heuers Abhandlung “The Psychology of Intelligence Analysis” (PDF). Ursprünglich für Geheimdienstmitarbeiter geschrieben, bietet es praktische Strategien, um Annahmen zu hinterfragen, Bias zu vermeiden und strukturierte Analysetechniken anzuwenden – genau die Fähigkeiten, die alle guten Führungskräfte benötigen.

Ein tieferes Verständnis unserer mentalen Blindspots vermittelt Ihnen das Buch “Thinking, Fast and Slow” von Daniel Kahneman, das sich mit den beiden „Systems of Thought“ beschäftigt – schnelle, intuitive Urteile und langsamere, bewusstere Überlegungen. Wenn wir uns zu sehr auf schnelles Denken verlassen, tappen wir in bekannte Fallen wie Bestätigungsfehler und die Illusion der Kohärenz. Schreiben ist eine Möglichkeit, unser Denken zu verlangsamen – um unser reflektierteres, analytischeres Ich einzuschalten.

Wenn Sie effektiver führen möchten – sei es als Operator, Analyst oder CISO – sinnieren Sie nicht nur darüber. Nehmen Sie einen Stift oder eine Tastatur in die Hand und schreiben Sie Ihre Gedanken nieder. (fm)

Dieser Artikel wurde im Rahmen des englischsprachigen Foundry Expert Contributor Network veröffentlicht.

Der Super-Skill für Führungskräfte​ Weiterlesen »

Nach oben scrollen
×