Computerhaus Quickborn

Februar 2025

Wahl 2025: Bürger erwarten ambitioniertere Digitalpolitik​

Allgemein

Die Bürger wünschen sich von der kommenden Bundesregierung eine ambitioniertere Digitalpolitik. M-Saleem Graphic designer/Shutterstock.com Im verkürzten Bundestagswahlkampf 2025 kamen etliche Themen im öffentlichen Diskurs unter die Räder – darunter das wichtige Zukunftsthema Digitalisierung. Auch ein Blick in die Wahlprogramme hilft nur bedingt weiter, denn wie eine Analyse zeigt, sind die Aussagen der Parteien dazu meist nur sehr vage. Doch welche digitale Agenda wünscht sich der Souverän – sprich Wähler – von der nächsten Bundesregierung? Hier senden die Bundesbürger teilweise widersprüchliche Signale aus: Einerseits wünschen sie sich eine ambitioniertere Digitalpolitik, andererseits begegnen immer noch 30 Prozent der zunehmenden Digitalisierung mit Skepsis. Kaum Verbesserungen bemerkt Diese Erkenntnisse basieren auf eine Umfrage von YouGov. Das Markt- und Meinungsforschungsinstitut befragte dazu im Rahmen des „Cisco Digital Kompass 2025“ 2.152 Personen online. Die Ergebnisse sind – wie es heißt – repräsentativ für die Wohnbevölkerung in Deutschland ab 18 Jahren. Die Digital-Prioritäten der Bundesbürger. Cisco Grundsätzlich zeigt die Umfrage, wie bereits erwähnt, dass sich die Bundesbürger eine ambitioniertere Digitalpolitik wünschen. 41 Prozent der Befragten sagen, dass sich die Digitalisierung im Vergleich zur Zeit vor Corona verbessert hat. Fast ebenso viele (39 Prozent) sehen jedoch keine Veränderung. Elf Prozent sind gar der Meinung, eine Verschlechterung zu beobachten. Topthema Cybersicherheit Allgemein hätten die Bürger gerne eine ambitioniertere und schnellere Politik. So glauben beispielsweise 39 Prozent der Befragten, dass die Priorität der Digitalisierung auf der Politik-Agenda seit der Pandemie gleichgeblieben ist. Für 13 Prozent ist sie gesunken und lediglich für 29 Prozent gestiegen. Auf Platz 1 der wichtigsten Investitionsbereiche liegt für die Bundesbürger mit 43 Prozent die Cybersicherheit. Auch in Sachen E-Government bleibt noch viel zu tun. So ist mit 36 Prozent der Befragten die digitale Verwaltung die zweitwichtigste Investitionspriorität. Auf Platz 3 liegt die IT-Infrastruktur (35 Prozent). Dabei stieg die Verfügbarkeit von Glasfaseranschlüssen von etwa zwölf Prozent im Jahr 2019 auf 32 Prozent Mitte 2024. Aktiv genutzt werden sie jedoch nur von elf Prozent der Haushalte. KI primär negativ betrachtet Schlecht bestellt ist es auch um die Zuversicht der Deutschen gegenüber neuen Technologien. Trotz der jahrelangen Fortschritte begegnen immer noch 30 Prozent der Befragten der zunehmenden Digitalisierung mit Skepsis. Immerhin dominieren bei 16 Prozent der Teilnehmer Neugier und bei 15 Prozent Optimismus. Auch beim Trendthema KI überwiegt die Skepsis. So erwarten die Befragten von einem verstärkten KI-Einsatz vor allem negative Auswirkungen. Dazu zählen etwa die Verbreitung von Desinformation (43 Prozent), Arbeitsplatzverlust (30 Prozent) oder verstärkte Cyberangriffe (29 Prozent). Deutlich seltener werden im Vergleich dazu die Chancen genannt, etwa höhere Produktivität und Effizienz (22 Prozent), bessere Gesundheitsversorgung (20 Prozent) oder einfacher Zugang zu Wissen (19 Prozent). 

Wahl 2025: Bürger erwarten ambitioniertere Digitalpolitik​ Die Bürger wünschen sich von der kommenden Bundesregierung eine ambitioniertere Digitalpolitik.
M-Saleem Graphic designer/Shutterstock.com

Im verkürzten Bundestagswahlkampf 2025 kamen etliche Themen im öffentlichen Diskurs unter die Räder – darunter das wichtige Zukunftsthema Digitalisierung. Auch ein Blick in die Wahlprogramme hilft nur bedingt weiter, denn wie eine Analyse zeigt, sind die Aussagen der Parteien dazu meist nur sehr vage.

Doch welche digitale Agenda wünscht sich der Souverän – sprich Wähler – von der nächsten Bundesregierung? Hier senden die Bundesbürger teilweise widersprüchliche Signale aus: Einerseits wünschen sie sich eine ambitioniertere Digitalpolitik, andererseits begegnen immer noch 30 Prozent der zunehmenden Digitalisierung mit Skepsis.

Kaum Verbesserungen bemerkt

Diese Erkenntnisse basieren auf eine Umfrage von YouGov. Das Markt- und Meinungsforschungsinstitut befragte dazu im Rahmen des „Cisco Digital Kompass 2025“ 2.152 Personen online. Die Ergebnisse sind – wie es heißt – repräsentativ für die Wohnbevölkerung in Deutschland ab 18 Jahren.

Die Digital-Prioritäten der Bundesbürger.
Cisco

Grundsätzlich zeigt die Umfrage, wie bereits erwähnt, dass sich die Bundesbürger eine ambitioniertere Digitalpolitik wünschen. 41 Prozent der Befragten sagen, dass sich die Digitalisierung im Vergleich zur Zeit vor Corona verbessert hat. Fast ebenso viele (39 Prozent) sehen jedoch keine Veränderung. Elf Prozent sind gar der Meinung, eine Verschlechterung zu beobachten.

Topthema Cybersicherheit

Allgemein hätten die Bürger gerne eine ambitioniertere und schnellere Politik. So glauben beispielsweise 39 Prozent der Befragten, dass die Priorität der Digitalisierung auf der Politik-Agenda seit der Pandemie gleichgeblieben ist. Für 13 Prozent ist sie gesunken und lediglich für 29 Prozent gestiegen.

Auf Platz 1 der wichtigsten Investitionsbereiche liegt für die Bundesbürger mit 43 Prozent die Cybersicherheit. Auch in Sachen E-Government bleibt noch viel zu tun. So ist mit 36 Prozent der Befragten die digitale Verwaltung die zweitwichtigste Investitionspriorität. Auf Platz 3 liegt die IT-Infrastruktur (35 Prozent). Dabei stieg die Verfügbarkeit von Glasfaseranschlüssen von etwa zwölf Prozent im Jahr 2019 auf 32 Prozent Mitte 2024. Aktiv genutzt werden sie jedoch nur von elf Prozent der Haushalte.

KI primär negativ betrachtet

Schlecht bestellt ist es auch um die Zuversicht der Deutschen gegenüber neuen Technologien. Trotz der jahrelangen Fortschritte begegnen immer noch 30 Prozent der Befragten der zunehmenden Digitalisierung mit Skepsis. Immerhin dominieren bei 16 Prozent der Teilnehmer Neugier und bei 15 Prozent Optimismus.

Auch beim Trendthema KI überwiegt die Skepsis. So erwarten die Befragten von einem verstärkten KI-Einsatz vor allem negative Auswirkungen. Dazu zählen etwa die Verbreitung von Desinformation (43 Prozent), Arbeitsplatzverlust (30 Prozent) oder verstärkte Cyberangriffe (29 Prozent). Deutlich seltener werden im Vergleich dazu die Chancen genannt, etwa höhere Produktivität und Effizienz (22 Prozent), bessere Gesundheitsversorgung (20 Prozent) oder einfacher Zugang zu Wissen (19 Prozent).

Wahl 2025: Bürger erwarten ambitioniertere Digitalpolitik​ Weiterlesen »

EuroStack – Europas Weg zur digitalen Unabhängigkeit?​

Allgemein

Mit europäischen Lösungen, die Werte wie Nachhaltigkeit und Datenschutz hochhalten, will EuroStack die technologische Unabhängigkeit Europas einleiten. Stenko Vlad/Shutterstock.com Wie gefährlich es ist, wenn ideologische Interessen mit technologischer Macht zusammentreffen, zeichnet sich gerade deutlich mit dem Amtsantritt von US-Präsident Donald Trump ab. Innerhalb kürzester Zeit schockierte Trump nicht nur mit einer Vielzahl fragwürdiger Präsidialdekrete, sondern schaffte es auch, dass Tech-Giganten wie Google, Amazon, Microsoft und Meta (vermeintlich) gute Miene zum bösen Spiel machten.   Mehr als 80 Prozent sind Importe Das gefährdet insbesondere Europa, denn laut Mario Draghis Bericht über die Wettbewerbsfähigkeit Europas vom September 2024 werden mehr als 80 Prozent der digitalen Technologien und Infrastrukturen in Europa importiert. Die Abhängigkeiten beziehen sich dabei vor allem auf die USA und China sowie einige wenige Tech-Firmen aus diesen Ländern. So dominieren nach Untersuchungen der Synergy Group etwa mit Amazon, Microsoft und Google US-Anbieter knapp 70 Prozent des europäischen Cloud-Computing-Markts. Der größte europäische Anbieter bringt es lediglich auf zwei Prozent Marktanteil. Darüber hinaus stammen etwa 70 Prozent der weltweit eingesetzten Foundation Models für kKünstliche Intelligenz (KI) aus den USA, während China rund 90 Prozent der weltweiten Raffineriekapazitäten für Seltene Erden kontrolliert.   Obwohl diese Abhängigkeiten hinlänglich bekannt sind, gehen die sporadischen Gegenmaßnahmen bislang vor allem auf die Initiative einzelner Länder zurück. Beispiele dafür sind etwa Initiativen wie die hierzulande vom Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) in Deutschland entwickelte Office-Lösung openDesk. Darüber hinaus gab es bislang kaum Bestrebungen, den gesamten Stack mit europäischen Produkten und Services abzubilden. Steigende Ausgaben für Forschung und Entwicklung in Europa und Innovationsbemühungen waren nicht auf eine übergreifende Vision ausgerichtet, die Synergien nutzt oder die Wirkung verstärkt.  Tropfen auf den heißen Stein?  Dies zu ändern, ist das Ziel der Initiative “EuroStack”, die von einer parteiübergreifenden Koalition im Europäischen Parlament unterstützt wird und aus einer Veranstaltung des Europäischen Parlaments im September 2024 hervorgegangen ist.   Wie die Initiatoren in der Studie  „EuroStack – A European Alternative for Digital Sovereignty” darlegen, sieht der Plan vor, mittelfristig „eine digitale, strategische Autonomie zu erreichen“. Oder anders ausgedrückt: Die gegenwärtigen Lücken im gesamten Technologie-Stack sollen geschlossen werden, so dass zumindest eine europäische Alternative für bisher aus dem Ausland bezogene Lösungen zur Verfügung steht.   Die Initiative befasst sich dabei mit den verschiedenen Ebenen, nämlich:   Ressourcen: Kritische Materialien, Energie und Fachkräfte;  Chips: Prozessoren, Speichertechnologien und Quantenkommunikationssysteme;  Netze: Digitale und physische Verbindungen, einschließlich Mobilfunkmasten und Glasfasernetze;  Connected Devices und IoT: Geräte, die Echtzeit-Informationsverarbeitung und Datenerfassung ermöglichen;  Cloud-Infrastruktur: Sichere Datenspeicherung und Rechenleistung;  Softwareplattformen, Anwendungen und Algorithmen: Betriebssysteme, Anwendungen und Cybersicherheits-Frameworks;  Daten und KI: Verarbeitung von Daten zur Gewinnung von Erkenntnissen.  EuroStack hat für jede Ebene bereits die führenden europäischen Unternehmen sowie bestehende Allianzen und Netzwerke identifiziert. Dazu gehören unter anderem Firmen wie Aleph Alpha, Bosch, Deutsche Telekom, NextCloud, SAP oder Siemens.  Um die Lücken zu schließen, soll in einem ersten Schritt ein europäischer Fonds für souveräne Technologien eingerichtet werden, der zunächst zehn Milliarden Euro bereitstellt, um digitale EuroStack-Demonstratoren zu entwickeln. Diese Demonstratoren – die im Rahmen eines offenen Wettbewerbs, der sogenannten EuroStack Challenge, ausgewählt werden – sollen als Minimum Viable Products (MVP) dienen, um die Innovations- und Skalierungsfähigkeit Europas im Bereich digitaler Basistechnologien zu demonstrieren.   Der Status Quo: Europa ist in fast allen Technologiebereichen von ausländischen Anbietern abhängig.EuroStack Insgesamt sieht die Initiative eine Gesamtinvestition von 300 Milliarden Euro über einen Zeitraum von zehn Jahren vor, wobei verschiedene Geldquellen angezapft werden sollen. Dazu gehören bestehende EU-Programme wie Horizont Europa, Digitales Europa und der Europäische Innovationsrat (EIC) sowie nationale Beiträge, private Investitionen und Venture Capital.   Verglichen mit den Mitteln, die derzeit in den USA oder China allein in den Aufbau von KI-Infrastrukturen gesteckt werden sollen – oder mit der Marktkapitalisierung von Playern wie Microsoft (mehr als 3 Billionen Dollar) oder Alphabet (2,26 Billionen Dollar) – wirkt die EuroStack-Initiative etwas wie ein Zwergenaufstand. Es darf jedoch nicht vergessen werden, dass der paneuropäische Technologie-Stack klar auf Open-Source setzt.  Scheitern ist für die Verantwortlichen der EuroStack-Initiative ohnehin keine Option: „Wenn es Europa nicht gelingt, den EuroStack zu realisieren und die digitale Souveränität zu schaffen, werden sich die globale, digitale Wirtschaft und ihre Wertschöpfungsmechanismen wahrscheinlich noch stärker konzentrieren und von außereuropäischen Akteuren dominiert werden“, heißt es in der Studie.   Ohne die EuroStack-Initiative drohe Europa zu einer „digitalen Kolonie“ zu werden, in der kritische Technologien, Daten und digitale Dienste fast vollständig von externen Mächten kontrolliert würden. In diesem Szenario würden transformative Technologien wie das Internet der Dinge und Edge Computing von außereuropäischen Ökosystemen dominiert werden, wodurch Europa zum passiven Konsumenten werden würde – statt zum Innovator.   

EuroStack – Europas Weg zur digitalen Unabhängigkeit?​ Mit europäischen Lösungen, die Werte wie Nachhaltigkeit und Datenschutz hochhalten, will EuroStack die technologische Unabhängigkeit Europas einleiten. Stenko Vlad/Shutterstock.com

Wie gefährlich es ist, wenn ideologische Interessen mit technologischer Macht zusammentreffen, zeichnet sich gerade deutlich mit dem Amtsantritt von US-Präsident Donald Trump ab. Innerhalb kürzester Zeit schockierte Trump nicht nur mit einer Vielzahl fragwürdiger Präsidialdekrete, sondern schaffte es auch, dass Tech-Giganten wie Google, Amazon, Microsoft und Meta (vermeintlich) gute Miene zum bösen Spiel machten.  

Mehr als 80 Prozent sind Importe

Das gefährdet insbesondere Europa, denn laut Mario Draghis Bericht über die Wettbewerbsfähigkeit Europas vom September 2024 werden mehr als 80 Prozent der digitalen Technologien und Infrastrukturen in Europa importiert. Die Abhängigkeiten beziehen sich dabei vor allem auf die USA und China sowie einige wenige Tech-Firmen aus diesen Ländern. So dominieren nach Untersuchungen der Synergy Group etwa mit Amazon, Microsoft und Google US-Anbieter knapp 70 Prozent des europäischen Cloud-Computing-Markts. Der größte europäische Anbieter bringt es lediglich auf zwei Prozent Marktanteil. Darüber hinaus stammen etwa 70 Prozent der weltweit eingesetzten Foundation Models für kKünstliche Intelligenz (KI) aus den USA, während China rund 90 Prozent der weltweiten Raffineriekapazitäten für Seltene Erden kontrolliert.  

Obwohl diese Abhängigkeiten hinlänglich bekannt sind, gehen die sporadischen Gegenmaßnahmen bislang vor allem auf die Initiative einzelner Länder zurück. Beispiele dafür sind etwa Initiativen wie die hierzulande vom Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) in Deutschland entwickelte Office-Lösung openDesk. Darüber hinaus gab es bislang kaum Bestrebungen, den gesamten Stack mit europäischen Produkten und Services abzubilden. Steigende Ausgaben für Forschung und Entwicklung in Europa und Innovationsbemühungen waren nicht auf eine übergreifende Vision ausgerichtet, die Synergien nutzt oder die Wirkung verstärkt. 

Tropfen auf den heißen Stein? 

Dies zu ändern, ist das Ziel der Initiative “EuroStack”, die von einer parteiübergreifenden Koalition im Europäischen Parlament unterstützt wird und aus einer Veranstaltung des Europäischen Parlaments im September 2024 hervorgegangen ist.  

Wie die Initiatoren in der Studie  „EuroStack – A European Alternative for Digital Sovereignty” darlegen, sieht der Plan vor, mittelfristig „eine digitale, strategische Autonomie zu erreichen“. Oder anders ausgedrückt: Die gegenwärtigen Lücken im gesamten Technologie-Stack sollen geschlossen werden, so dass zumindest eine europäische Alternative für bisher aus dem Ausland bezogene Lösungen zur Verfügung steht.  

Die Initiative befasst sich dabei mit den verschiedenen Ebenen, nämlich:  

Ressourcen: Kritische Materialien, Energie und Fachkräfte; 

Chips: Prozessoren, Speichertechnologien und Quantenkommunikationssysteme; 

Netze: Digitale und physische Verbindungen, einschließlich Mobilfunkmasten und Glasfasernetze; 

Connected Devices und IoT: Geräte, die Echtzeit-Informationsverarbeitung und Datenerfassung ermöglichen; 

Cloud-Infrastruktur: Sichere Datenspeicherung und Rechenleistung; 

Softwareplattformen, Anwendungen und Algorithmen: Betriebssysteme, Anwendungen und Cybersicherheits-Frameworks; 

Daten und KI: Verarbeitung von Daten zur Gewinnung von Erkenntnissen. 

EuroStack hat für jede Ebene bereits die führenden europäischen Unternehmen sowie bestehende Allianzen und Netzwerke identifiziert. Dazu gehören unter anderem Firmen wie Aleph Alpha, Bosch, Deutsche Telekom, NextCloud, SAP oder Siemens. 

Um die Lücken zu schließen, soll in einem ersten Schritt ein europäischer Fonds für souveräne Technologien eingerichtet werden, der zunächst zehn Milliarden Euro bereitstellt, um digitale EuroStack-Demonstratoren zu entwickeln. Diese Demonstratoren – die im Rahmen eines offenen Wettbewerbs, der sogenannten EuroStack Challenge, ausgewählt werden – sollen als Minimum Viable Products (MVP) dienen, um die Innovations- und Skalierungsfähigkeit Europas im Bereich digitaler Basistechnologien zu demonstrieren.  

Der Status Quo: Europa ist in fast allen Technologiebereichen von ausländischen Anbietern abhängig.EuroStack

Insgesamt sieht die Initiative eine Gesamtinvestition von 300 Milliarden Euro über einen Zeitraum von zehn Jahren vor, wobei verschiedene Geldquellen angezapft werden sollen. Dazu gehören bestehende EU-Programme wie Horizont Europa, Digitales Europa und der Europäische Innovationsrat (EIC) sowie nationale Beiträge, private Investitionen und Venture Capital.  

Verglichen mit den Mitteln, die derzeit in den USA oder China allein in den Aufbau von KI-Infrastrukturen gesteckt werden sollen – oder mit der Marktkapitalisierung von Playern wie Microsoft (mehr als 3 Billionen Dollar) oder Alphabet (2,26 Billionen Dollar) – wirkt die EuroStack-Initiative etwas wie ein Zwergenaufstand. Es darf jedoch nicht vergessen werden, dass der paneuropäische Technologie-Stack klar auf Open-Source setzt. 

Scheitern ist für die Verantwortlichen der EuroStack-Initiative ohnehin keine Option: „Wenn es Europa nicht gelingt, den EuroStack zu realisieren und die digitale Souveränität zu schaffen, werden sich die globale, digitale Wirtschaft und ihre Wertschöpfungsmechanismen wahrscheinlich noch stärker konzentrieren und von außereuropäischen Akteuren dominiert werden“, heißt es in der Studie.  

Ohne die EuroStack-Initiative drohe Europa zu einer „digitalen Kolonie“ zu werden, in der kritische Technologien, Daten und digitale Dienste fast vollständig von externen Mächten kontrolliert würden. In diesem Szenario würden transformative Technologien wie das Internet der Dinge und Edge Computing von außereuropäischen Ökosystemen dominiert werden, wodurch Europa zum passiven Konsumenten werden würde – statt zum Innovator.  

EuroStack – Europas Weg zur digitalen Unabhängigkeit?​ Weiterlesen »

Cisco-Europa-Chef Tuszik: Mehr motivieren statt regulieren​

Allgemein

Oliver Tuszik, Cisco-Europa-Chef, fordert im CW-Interview mehr zu motivieren, statt zu regulieren. Cisco Herr Tuszik, wir erleben gerade eine Zeit des Umbruchs, insbesondere im Bereich der Technologie und konkreter der Künstlichen Intelligenz. Wie sehen Sie die Rolle Deutschlands und Europas in diesem globalen Wettlauf? Oliver Tuszik: Europa befindet sich in vielen Bereichen in einer Phase des Aufschreckens und Erwachens. Egal, ob es um die Diskussionen über Wahlen, Cybersecurity oder die Veränderungen in Amerika geht, wir müssen lernen, unseren Fokus auf die Zukunft zu richten. Das heißt konkret? Oliver Tuszik: Ich bin davon überzeugt, dass KI eine große Chance für Deutschland und Europa darstellt. Wir werden vielleicht nicht die neuen Large-Language-Modelle entwickeln, aber wir haben die Möglichkeit, die besten Anwendungen und Anwendungsfälle zu entwickeln. Schließlich verfügen wir über große Industrien mit enormen Datenschätzen. Dies versetzt uns in die Lage, Mehrwerte zu schaffen. Deshalb ist es ist wichtig, dass wir uns weniger auf die Fehler der Vergangenheit konzentrieren, sondern stattdessen nach vorne schauen. Weniger auf die Fehler der Vergangenheit konzentrieren Das klingt vielversprechend. Wo sehen Sie Anzeichen dafür, dass Deutschland und Europa diese Chancen tatsächlich nutzen? Oliver Tuszik: Wenn ich Unternehmen wie Siemens, BMW oder Mercedes-Benz sehe – um nur einige prominente Beispiele zu nennen – dann sehe ich viel Potenzial. Aber wir müssen aufpassen, dass wir nicht abgehängt werden. Viele scheinen die Dringlichkeit der Situation noch nicht erkannt zu haben. Es ist entscheidend, dass wir die Diskussionen über die Schuldfrage hinter uns lassen und uns stattdessen auf die Verbesserung unserer Produkte und Prozesse konzentrieren. Sie haben einige Automobil-Player erwähnt. Gerade hier sehen viele besondere Herausforderungen. Wie können wir in diesem wichtigen Sektor den Anschluss halten? Wir müssen uns auf Innovationen konzentrieren Oliver Tuszik: Wir sollten uns nicht länger in endlosen Diskussionen über Verbrenner oder Batterien verlieren. Die Konkurrenz, insbesondere in China, hat ihre Produkte massiv verbessert. Und das zu einem Preis, der für unsere Premiumhersteller bedrohlich ist. Wir müssen uns wieder auf Innovation und die Verbesserung unserer Produkte konzentrieren. Zudem sind die Veränderungen global. Wir müssen als Europa agieren, denn Deutschland allein ist zu klein ist, um im globalen Maßstab mitzuspielen. Ferner geht es nicht nur um einzelne Technologien, sondern um die Gesamtqualität und den Preis der Produkte, die wir herstellen. Wo sehen Sie die größten Probleme und Chancen? Oliver Tuszik: Wir beißen uns allzu oft in Statistiken fest, warum wir etwa im Digitalisierungsvergleich schlecht abschneiden. Wir müssen aufhören, uns in der Vergangenheit zu verlieren und Verantwortliche für vergangene Fehler zu suchen. Stattdessen sollten wir uns auf unsere Stärken konzentrieren, die Treiber für die Zukunft finden und eine Mentalität entwickeln, die Innovationen fördert. Wir waren einmal als das Land der Tüftler und Gründer bekannt. Diese Mentalität müssen wir wiederbeleben. Und dabei auch Menschen, die scheitern, Anerkennung zollen, weil sie es wenigstens versucht haben. Wir müssen von der Regulierung zur Motivation übergehen. Letztlich Menschen dazu ermutigen, Neues auszuprobieren. Motivation statt Regulierung Das klingt nach einem umfassenden Kulturwandel. Was muss sich konkret ändern, um dies zu erreichen? Oliver Tuzik: Wie ich schon sagte, wir müssen weg vom Regulieren und hin zum Motivieren. Der erste Reflex darf nicht Kontrolle sein, sondern er sollte Begeisterung sein und die Frage aufwerfen, wie wir das Potenzial nutzen können. Wir brauchen eine koordinierende Stelle, die dafür sorgt, dass Initiativen und Standards nicht unkoordiniert entstehen. Aber es sollte eher eine Normungsstelle sein, die die Zusammenarbeit erleichtert. Europa und Deutschland sollten, so Tuszik, aufhören, sich in der Vergangenheit zu verlieren und besser nach den Treibern der Zukunft suchen. Cisco Ferner müssen wir akzeptieren, dass bestimmte Bereiche, etwa die Entwicklung von Rechenzentren, Chips und Large Language Models (LLMs), vielleicht nicht bei uns stattfinden werden. Stattdessen sollten wir uns auf Small Language Models (SLMs) konzentrieren, die auf unsere Kernindustrien zugeschnitten sind. Hier können wir unsere Stärken im globalen Wettbewerb ausspielen. Spirit of Change fördern Wie können wir die Blockaden in unserer Gesellschaft aufbrechen, um diese Veränderungen anzugehen? Oliver Tuszik: Wir sind in vielen Bereichen so komplex geworden, dass wir jedes Partikular-Interesse schützen. Das führt zu einer Lähmung. Eigentlich wissen wir, was zu ändern ist. Aber das wird immer zehn bis zwanzig Prozent nicht gefallen. Wir haben in Deutschland eine Mentalität der Besitzstandswahrung entwickelt, die radikale Veränderungen verhindert. Wir müssen den “Spirit of Change” fördern und die Konsequenzen akzeptieren, die damit einhergehen. Dazu brauchen wir ein Umfeld, in dem Menschen ihr Potenzial nutzen können und in dem es einfacher ist, zu skalieren. Es geht darum, die Bereitschaft zu Veränderungen zu erhöhen, insbesondere bei denjenigen, die über 35 Jahre alt sind. Wie können wir dieses innovationsfreundliche Umfeld schaffen? Oliver Tuszik: Das beginnt in den Schulen, indem wir ein KI-Mindset lehren. KI sollte nicht als Monster an der Wand, sondern als Chance dargestellt werden. Es gibt viele Unternehmen, die tolle Sachen machen. Aber wir brauchen jemanden, der bereit ist, auch etwas disruptiv umzusetzen. Wir benötigen eine Bildung, die die Menschen befähigt, mit KI umzugehen und sie gewinnbringend einzusetzen. Die Transformation erfordert schnelle Entscheidungen Ferner erfordert die Geschwindigkeit der Transformation schnelle Entscheidungen. Hier gilt es aufzupassen, dass die Regulierung nicht die Technik überholt. Es geht darum, ein Gleichgewicht zu finden – zwischen demokratischer Mitbestimmung und der Notwendigkeit, schnell zu handeln. Abschließend: Wie lautet Ihr Appell an die Unternehmen und die Politik in dieser entscheidenden Phase? Oliver Tuszik: Die Unternehmen müssen die digitale Transformation vorantreiben. Aufgabe der Politik ist es, ein Umfeld zu schaffen, in dem Innovationen möglich sind. Wir müssen weg von der Fixierung auf Prämien und Regulierung. Wir benötigen ein Modell, das Vertrauen schafft. Wir brauchen einen Ruck durch die Unternehmen, und die Bereitschaft, radikale Veränderungen anzugehen. Dazu ist in Bildung und Ausbildung zu investieren, damit wir mehr Menschen haben, die in Zukunftsbranchen arbeiten können. Die IT-Investitionen steigen, jetzt ist sicherzustellen, dass sie für Innovationen genutzt werden und nicht nur für die Bewältigung von Regulierungsvorgaben. Wir benötigen einen ganzheitlichen Ansatz, der sowohl die technologischen als auch die gesellschaftlichen Aspekte berücksichtigt. Dazu gehört auch, dass Unternehmen die Chancen und Vorteile neuer Technologien hervorheben, anstatt nur die Risiken zu betonen. 

Cisco-Europa-Chef Tuszik: Mehr motivieren statt regulieren​ Oliver Tuszik, Cisco-Europa-Chef, fordert im CW-Interview mehr zu motivieren, statt zu regulieren.
Cisco

Herr Tuszik, wir erleben gerade eine Zeit des Umbruchs, insbesondere im Bereich der Technologie und konkreter der Künstlichen Intelligenz. Wie sehen Sie die Rolle Deutschlands und Europas in diesem globalen Wettlauf?

Oliver Tuszik: Europa befindet sich in vielen Bereichen in einer Phase des Aufschreckens und Erwachens. Egal, ob es um die Diskussionen über Wahlen, Cybersecurity oder die Veränderungen in Amerika geht, wir müssen lernen, unseren Fokus auf die Zukunft zu richten.

Das heißt konkret?

Oliver Tuszik: Ich bin davon überzeugt, dass KI eine große Chance für Deutschland und Europa darstellt. Wir werden vielleicht nicht die neuen Large-Language-Modelle entwickeln, aber wir haben die Möglichkeit, die besten Anwendungen und Anwendungsfälle zu entwickeln. Schließlich verfügen wir über große Industrien mit enormen Datenschätzen. Dies versetzt uns in die Lage, Mehrwerte zu schaffen. Deshalb ist es ist wichtig, dass wir uns weniger auf die Fehler der Vergangenheit konzentrieren, sondern stattdessen nach vorne schauen.

Weniger auf die Fehler der Vergangenheit konzentrieren

Das klingt vielversprechend. Wo sehen Sie Anzeichen dafür, dass Deutschland und Europa diese Chancen tatsächlich nutzen?

Oliver Tuszik: Wenn ich Unternehmen wie Siemens, BMW oder Mercedes-Benz sehe – um nur einige prominente Beispiele zu nennen – dann sehe ich viel Potenzial. Aber wir müssen aufpassen, dass wir nicht abgehängt werden. Viele scheinen die Dringlichkeit der Situation noch nicht erkannt zu haben. Es ist entscheidend, dass wir die Diskussionen über die Schuldfrage hinter uns lassen und uns stattdessen auf die Verbesserung unserer Produkte und Prozesse konzentrieren.

Sie haben einige Automobil-Player erwähnt. Gerade hier sehen viele besondere Herausforderungen. Wie können wir in diesem wichtigen Sektor den Anschluss halten?

Wir müssen uns auf Innovationen konzentrieren

Oliver Tuszik: Wir sollten uns nicht länger in endlosen Diskussionen über Verbrenner oder Batterien verlieren. Die Konkurrenz, insbesondere in China, hat ihre Produkte massiv verbessert. Und das zu einem Preis, der für unsere Premiumhersteller bedrohlich ist. Wir müssen uns wieder auf Innovation und die Verbesserung unserer Produkte konzentrieren. Zudem sind die Veränderungen global. Wir müssen als Europa agieren, denn Deutschland allein ist zu klein ist, um im globalen Maßstab mitzuspielen. Ferner geht es nicht nur um einzelne Technologien, sondern um die Gesamtqualität und den Preis der Produkte, die wir herstellen.

Wo sehen Sie die größten Probleme und Chancen?

Oliver Tuszik: Wir beißen uns allzu oft in Statistiken fest, warum wir etwa im Digitalisierungsvergleich schlecht abschneiden. Wir müssen aufhören, uns in der Vergangenheit zu verlieren und Verantwortliche für vergangene Fehler zu suchen. Stattdessen sollten wir uns auf unsere Stärken konzentrieren, die Treiber für die Zukunft finden und eine Mentalität entwickeln, die Innovationen fördert. Wir waren einmal als das Land der Tüftler und Gründer bekannt. Diese Mentalität müssen wir wiederbeleben. Und dabei auch Menschen, die scheitern, Anerkennung zollen, weil sie es wenigstens versucht haben. Wir müssen von der Regulierung zur Motivation übergehen. Letztlich Menschen dazu ermutigen, Neues auszuprobieren.

Motivation statt Regulierung

Das klingt nach einem umfassenden Kulturwandel. Was muss sich konkret ändern, um dies zu erreichen?

Oliver Tuzik: Wie ich schon sagte, wir müssen weg vom Regulieren und hin zum Motivieren. Der erste Reflex darf nicht Kontrolle sein, sondern er sollte Begeisterung sein und die Frage aufwerfen, wie wir das Potenzial nutzen können. Wir brauchen eine koordinierende Stelle, die dafür sorgt, dass Initiativen und Standards nicht unkoordiniert entstehen. Aber es sollte eher eine Normungsstelle sein, die die Zusammenarbeit erleichtert.

Europa und Deutschland sollten, so Tuszik, aufhören, sich in der Vergangenheit zu verlieren und besser nach den Treibern der Zukunft suchen.
Cisco

Ferner müssen wir akzeptieren, dass bestimmte Bereiche, etwa die Entwicklung von Rechenzentren, Chips und Large Language Models (LLMs), vielleicht nicht bei uns stattfinden werden. Stattdessen sollten wir uns auf Small Language Models (SLMs) konzentrieren, die auf unsere Kernindustrien zugeschnitten sind. Hier können wir unsere Stärken im globalen Wettbewerb ausspielen.

Spirit of Change fördern

Wie können wir die Blockaden in unserer Gesellschaft aufbrechen, um diese Veränderungen anzugehen?

Oliver Tuszik: Wir sind in vielen Bereichen so komplex geworden, dass wir jedes Partikular-Interesse schützen. Das führt zu einer Lähmung. Eigentlich wissen wir, was zu ändern ist. Aber das wird immer zehn bis zwanzig Prozent nicht gefallen. Wir haben in Deutschland eine Mentalität der Besitzstandswahrung entwickelt, die radikale Veränderungen verhindert. Wir müssen den “Spirit of Change” fördern und die Konsequenzen akzeptieren, die damit einhergehen. Dazu brauchen wir ein Umfeld, in dem Menschen ihr Potenzial nutzen können und in dem es einfacher ist, zu skalieren. Es geht darum, die Bereitschaft zu Veränderungen zu erhöhen, insbesondere bei denjenigen, die über 35 Jahre alt sind.

Wie können wir dieses innovationsfreundliche Umfeld schaffen?

Oliver Tuszik: Das beginnt in den Schulen, indem wir ein KI-Mindset lehren. KI sollte nicht als Monster an der Wand, sondern als Chance dargestellt werden. Es gibt viele Unternehmen, die tolle Sachen machen. Aber wir brauchen jemanden, der bereit ist, auch etwas disruptiv umzusetzen. Wir benötigen eine Bildung, die die Menschen befähigt, mit KI umzugehen und sie gewinnbringend einzusetzen.

Die Transformation erfordert schnelle Entscheidungen

Ferner erfordert die Geschwindigkeit der Transformation schnelle Entscheidungen. Hier gilt es aufzupassen, dass die Regulierung nicht die Technik überholt. Es geht darum, ein Gleichgewicht zu finden – zwischen demokratischer Mitbestimmung und der Notwendigkeit, schnell zu handeln.

Abschließend: Wie lautet Ihr Appell an die Unternehmen und die Politik in dieser entscheidenden Phase?

Oliver Tuszik: Die Unternehmen müssen die digitale Transformation vorantreiben. Aufgabe der Politik ist es, ein Umfeld zu schaffen, in dem Innovationen möglich sind. Wir müssen weg von der Fixierung auf Prämien und Regulierung. Wir benötigen ein Modell, das Vertrauen schafft. Wir brauchen einen Ruck durch die Unternehmen, und die Bereitschaft, radikale Veränderungen anzugehen.

Dazu ist in Bildung und Ausbildung zu investieren, damit wir mehr Menschen haben, die in Zukunftsbranchen arbeiten können. Die IT-Investitionen steigen, jetzt ist sicherzustellen, dass sie für Innovationen genutzt werden und nicht nur für die Bewältigung von Regulierungsvorgaben. Wir benötigen einen ganzheitlichen Ansatz, der sowohl die technologischen als auch die gesellschaftlichen Aspekte berücksichtigt. Dazu gehört auch, dass Unternehmen die Chancen und Vorteile neuer Technologien hervorheben, anstatt nur die Risiken zu betonen.

Cisco-Europa-Chef Tuszik: Mehr motivieren statt regulieren​ Weiterlesen »

Wird Kubernetes je einfacher?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?quality=50&strip=all 5833w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Näher an der Kubernetes-Realität als das stilisierte Steuerrad.adolf martinez soler | shutterstock.com Kubernetes ist nach Linux das Open-Source-Projekt mit der zweitgrößten „Velocity“: Im Laufe der vergangenen Dekade haben Tausende von Unternehmen zu der Container-Orchestrierungsplattform beigetragen. Inzwischen ist Kubernetes zum Herzstück eines florierenden Cloud-Native-Ökosystems geworden und dient in vielen Bereichen als Grundlage – von CI/CD Pipelines über Machine-Learning-Trainings-Cluster bis hin zu (weltweit) verteilten Datenbanken. Im Alter von zehn Jahren zeigt sich Kubernetes dabei so flexibel wie noch nie: Die Plattform unterstützt inzwischen eine Vielzahl von Workload-Typen „out of the box“. Zudem ermöglichen benutzerdefinierte Ressourcendefinitionen und Operatoren zusätzliche Features wie beispielsweise: Observability, Networking, Backup und Recovery, oder Policy Management. Für die im Lauf der Jahre aufgetauchten Probleme mit Kubernetes steuerte die Community ebenfalls viele hilfreiche Tools bei, zum Beispiel: für Multi-Cluster-Management, um Legacy-VMs zu portieren, um Container in Edge- oder Bare-Metal-Umgebungen bereitzustellen, und um Kubernetes für die KI-Entwicklung zu nutzen. All diese Fortschritte rücken Kubernetes in den Mittelpunkt künftiger, unternehmensinterner Cloud-Infrastrukturen. Laut einer aktuellen Umfrage der Cloud Native Computing Foundation (CNCF) nutzen 84 Prozent der befragten Unternehmen Kubernetes entweder in der Produktion – oder erwägen das. Es stellt sich allerdings die Frage, ob die Orchestrierungsplattform jemals einfacher (nutzbar) werden kann, wenn sie immer mehr Funktionen und Workloads „absorbiert“. In diesem Artikel werfen wir gemeinsam mit diversen Fachexperten einen Blick darauf, wie die Chancen für weniger Kubernetes-Komplexität in der Zukunft stehen.   Bemerkenswerter Fortschritt „Kubernetes zu nutzen, ist definitiv viel einfacher und stabiler geworden“, befindet Murli Thirumale, General Manager von Portworx, der Cloud-Native-Geschäftseinheit von Pure Storage. Das führt Thirumale darauf zurück, dass Kubernetes sich im Rahmen der Container-Scheduler-Kriege der 2010er Jahre gegen Herausforderer wie Docker Swarm und Apache Mesos durchgesetzt hat. Seitdem, so der Experte, habe sich die Branche darauf konzentriert, die Basisbereitstellung weiter zu optimieren und darauf aufbauende Lösungen zu entwickeln. Im Resultat sieht Thirumale eine stabilere Verteilung sowie eine Konsolidierung der Anbieter für Kernfunktionen. Peter Szczepaniak, Senior Product Manager bei Percona, nimmt bei Kubernetes ebenfalls bereits in diversen Bereichen eine verbesserte Usability wahr: „Insbesondere ist hervorzuheben, dass die Kubernetes-Betreiber vieles zugänglicher gestalten – beispielweise, wenn es darum geht, komplexe Workloads wie hochautomatisierte Datenbanken auszuführen.“ Weitere Fortschritte bei Kubernetes nimmt Szczepaniak wahr in Form von: Support für CSI-Treiber, Affinity- und Anti-Affinity-Konfigurationen, sowie Stateful Sets, die darauf abzielen, bestimmte Use Cases direkt zu adressieren. Speziell, wenn es um Backup und Disaster Recovery gehe, seien dank Enterprise-zentrischer Tools viele Usability-Hürden gefallen, meint Gaurav Rishi, Vice President bei Veeam. „Die Alternative besteht darin, dafür selbst mit verschiedenen, quelloffenen Code-Parts zu sorgen. Die Dinge sind wesentlich einfacher geworden, auch in Bezug auf die Sicherheit. Noch vor fünf Jahren haben Unternehmen keine Cluster in Produkte umgewandelt, weil Security ein Problem darstellte“, erläutert Rishi. Steigende Komplexität Dennoch gibt es nach wie vor einige Stolpersteine. In der Wahrnehmung vieler Benutzer sind weitere Abstraktionen notwendig, um den erheblichen Mehraufwand zu reduzieren, den Kubernetes verursacht. Zum Beispiel mit Blick auf: Bereitstellung, sichere Konfiguration und Monitoring-Anbindung. Und obwohl es für mittelgroße Unternehmen inzwischen attraktiver geworden ist, bleibt Kubernetes besonders für kleine Projekte und Organisationen, denen es an Fachwissen und Ressourcen mangelt, meist immer noch eine Nummer zu groß. Schuld daran seien Day-Two-Probleme, wie Ari Weil, Cloud-Evangelist bei Akamai, erklärt: „Kubernetes ist ausgereift, aber die meisten Unternehmen und Entwickler erkennen erst, wie komplex eine Umgebung sein kann, wenn sie tatsächlich skaliert werden muss.“ Es sind nicht die einzigen Fallstricke für Kubernetes-Anwender. Schon die schiere Anzahl verfügbarer Tools kann zum Hindernis werden – respektive zur „Analysis Paralysis“ führen: Aktuell beherbergt die Cloud Native Landscape der CNCF mehr als 200 Projekte mit knapp 900 Repositories. „Tools wie Helm und Argo CD unterstützen zwar dabei, Addons zu managen, aber das ist in Kubernetes-Umgebungen bekanntermaßen schwierig, weil dabei zusätzliche Komplexitäten eingeführt werden, die unterschiedliche Fachkenntnisse erfordern“, erklärt Itiel Shwartz, Mitbegründer und CTO des Kubernetes-Spezialisten Komodor. Er ergänzt: „Dazu kommt, dass jedes Tool eigene Konfigurationsanforderungen aufwirft, was zu Reibungsverlusten führen kann.“ Weitere, gängige Kubernetes-Bottlenecks sind laut dem Experten: Prüfpunkte einzurichten, um Health Checks bei Applikationen durchzuführen, die richtigen Requests und Limits zu definieren, sowie Netzwerkrichtlinien zu konfigurieren. „Falsch konfigurierte Ressourcenbeschränkungen können zu Problemen wie Pod Evictions, unausgewogenen Workloads und unerwarteten Anwendungsfehlern führen“, warnt Shwartz. Der Scope wächst… Gleichzeitig wird es für Devops-Teams immer schwieriger, Kubernetes zu widerstehen. Denn damit geht heute weit mehr als nur Containerorchestrierung – die Plattform wird inzwischen als das „Betriebssystem der Cloud“ betrachtet. Über Plugins, das Container Network Interface (CNI) und das Container Storage Interface (CSI) lässt sich der Anwendungsbereich von Kubernetes nun auch auf Network und Storage erweitern. „Dadurch wird Kubernetes zu einer Multi-Cloud-Steuerungsebene für die Infrastruktur“, konstatiert Thirumale. Aber Kubernetes wird inzwischen auch genutzt, um Legacy-Workloads zu händeln. Das aufstrebende Tool KubeVirt kann beispielsweise mit virtuellen Maschinen arbeiten, die häufig geschäftskritische Legacy-Anwendungen stützen. „Das ist ein großer Schritt nach vorne für Kubernetes“, meint Thirumale. Er ist fest davon überzeugt, dass das die Chancen erhöht, dass Kubernetes künftig zum Mainstream wird – auch für bestehende Applikationen mit hohem Transaktionsvolumen, wie sie im Automotive-Bereich, dem Bankenwesen und von traditionellen Industrieunternehmen eingesetzt werden. Dass Legacy-Workloads in die Cloud-Native-Infrastruktur Einzug halten, ist übrigens nicht nur aus Modernisierungsperspektive interessant, sondern auch mit Blick auf die durch die Broadcom-Konsolidierungen verursachten Preiserhöhungen bei VMware. Zur Wahrheit gehört aber auch, dass Legacy-Workloads unterschiedliche Anforderungen an Datenmigration, Backup, Disaster Recovery und Access Management aufwerfen, wie Thirumale erklärt: „Wenn dem Kubernetes-Datenmanagement neue Funktionen hinzugefügt werden, die nicht für Container, aber für virtuelle Maschinen erforderlich sind, birgt das für die Benutzer natürlich auch zusätzliche Komplexität.“ …und wächst Der Portworx-Manager sieht außerdem hohes Potenzial für Kubernetes, wenn es um KI-Modelltraining und Inferenz-Workloads geht: „Künstliche Intelligenz und Kubernetes überschneiden sich zu fast 90 Prozent – und KI erfordert naturgemäß eine elastische Infrastruktur.“ Kubernetes auf neue, KI-native Applikationen anzuwenden und die Skalierbarkeit von KI-Inferenzmodellen auf Kubernetes-Clustern zu managen, stellt jedoch eine massive Herausforderung dar – wie Kevin Cochrane, CMO beim Virtualisierungsspazilisten Vultr, weiß: „Die betriebliche Disziplin und die Playbooks, um containerisierte Anwendungen auf Kubernetes zu hosten, müssen überarbeitet werden. Im Bereich der Tools, die eine integrierte, vollumfängliche KI-Modell-Pipeline unterstützen, gab es bislang wenig Fortschritte.“ Kubeflow, ein in Entwicklung befindliches CNCF-Projekt, will es künftig erleichtern, Machine-Learning-Modelle auf Kubernetes bereitzustellen und zu managen. In Kombination mit Kserve (für Framework-unabhängige KI-Inferenz) hat das Tool das Potenzial, die Workflows von Datenwissenschaftlern zu vereinfachen. „Tools wie diese machen es deutlich einfacher, KI zu nutzen, weil sie die Infrastruktur abstrahieren. So können Modelle leichter erstellt werden, was guten Geschäftsergebnissen zuträglich ist“, hält Chase Christiansen, Staff Solutions Engineer bei TileDB, fest. Für KI-Inferenz und viele weitere Use Cases, bei denen die Nähe zu den Daten und die Latenz von Bedeutung sind, findet Kubernetes auch eine Rolle im Bereich Edge Computing – und bietet Optionen für kleinere Container-Implementierungen. „Die Anwendungsfälle von Kubernetes am Edge nehmen mit Sicherheit zu“, ist Rishi überzeugt. Der Veeam-Manager verweist auf abgespeckte Kubernetes-Varianten, die besonders leichtgewichtige Edge-Container-Distributionen ermöglichen: K3s, eine leichtgewichtige Kubernetes-Distribution für Umgebungen mit eingeschränkten Ressourcen, und Bottlerocket, ein portables, Linux-basiertes Betriebssystem, um Container auszuführen. „Am Edge müssen möglicherweise Zehntausende kleiner Cluster verwaltet werden. Das macht einen zentralisierten Mechanismus unabdingbar, um Container unter Verwendung einer heterogenen Laufzeitumgebung zu koordinieren und bereitzustellen“, gibt Raghu Vatte, Field CTO beim Edge-Spezialisten Zededa, zu bedenken. Er fügt hinzu: „Man möchte eine Anwendung nicht neu erstellen, nur weil man sie am Edge bereitstellt.“ Um Kubernetes-Workloads für verschiedene Clouds und Regionen portabel zu machen, empfiehlt Akamai-Evangelist Weil, proprietäre Wrapper zu vermeiden. Stattdessen hebt er den Wert von „Golden Path Templates“ hervor, die die Kompatibilität mit Kubernetes in seiner Open-Source-Form beibehielten und auf stabilen CNCF-Projekten wie OpenTelemetry, Argo, Prometheus oder Flatcar aufbauten: „Das kann die Back-End-Orchestrierung vereinfachen, die Anbieterabhängigkeit verringern und die nötige Flexibilität für Multi-Clouds ermöglichen.“ Besserung in Sicht! Auch nach zehn Jahren ist Kubernetes noch immer komplex – selbst als Managed Service. Es gibt jedoch diverse Bemühungen, Abstraktionen zu entwickeln, die die Entwicklererfahrung und Zugänglichkeit der Plattform verbessern. Und auch die Tools werden weiterentwickelt – in Zukunft könnte KI auch in diesen Bereich zum Einsatz kommen, um es zum Beispiel zu erleichtern, Kubernetes-Cluster zu monitoren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wird Kubernetes je einfacher?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?quality=50&strip=all 5833w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Näher an der Kubernetes-Realität als das stilisierte Steuerrad.adolf martinez soler | shutterstock.com

Kubernetes ist nach Linux das Open-Source-Projekt mit der zweitgrößten „Velocity“: Im Laufe der vergangenen Dekade haben Tausende von Unternehmen zu der Container-Orchestrierungsplattform beigetragen. Inzwischen ist Kubernetes zum Herzstück eines florierenden Cloud-Native-Ökosystems geworden und dient in vielen Bereichen als Grundlage – von CI/CD Pipelines über Machine-Learning-Trainings-Cluster bis hin zu (weltweit) verteilten Datenbanken.

Im Alter von zehn Jahren zeigt sich Kubernetes dabei so flexibel wie noch nie: Die Plattform unterstützt inzwischen eine Vielzahl von Workload-Typen „out of the box“. Zudem ermöglichen benutzerdefinierte Ressourcendefinitionen und Operatoren zusätzliche Features wie beispielsweise:

Observability,

Networking,

Backup und Recovery, oder

Policy Management.

Für die im Lauf der Jahre aufgetauchten Probleme mit Kubernetes steuerte die Community ebenfalls viele hilfreiche Tools bei, zum Beispiel:

für Multi-Cluster-Management,

um Legacy-VMs zu portieren,

um Container in Edge- oder Bare-Metal-Umgebungen bereitzustellen, und

um Kubernetes für die KI-Entwicklung zu nutzen.

All diese Fortschritte rücken Kubernetes in den Mittelpunkt künftiger, unternehmensinterner Cloud-Infrastrukturen. Laut einer aktuellen Umfrage der Cloud Native Computing Foundation (CNCF) nutzen 84 Prozent der befragten Unternehmen Kubernetes entweder in der Produktion – oder erwägen das. Es stellt sich allerdings die Frage, ob die Orchestrierungsplattform jemals einfacher (nutzbar) werden kann, wenn sie immer mehr Funktionen und Workloads „absorbiert“.

In diesem Artikel werfen wir gemeinsam mit diversen Fachexperten einen Blick darauf, wie die Chancen für weniger Kubernetes-Komplexität in der Zukunft stehen.  

Bemerkenswerter Fortschritt

„Kubernetes zu nutzen, ist definitiv viel einfacher und stabiler geworden“, befindet Murli Thirumale, General Manager von Portworx, der Cloud-Native-Geschäftseinheit von Pure Storage. Das führt Thirumale darauf zurück, dass Kubernetes sich im Rahmen der Container-Scheduler-Kriege der 2010er Jahre gegen Herausforderer wie Docker Swarm und Apache Mesos durchgesetzt hat. Seitdem, so der Experte, habe sich die Branche darauf konzentriert, die Basisbereitstellung weiter zu optimieren und darauf aufbauende Lösungen zu entwickeln. Im Resultat sieht Thirumale eine stabilere Verteilung sowie eine Konsolidierung der Anbieter für Kernfunktionen.

Peter Szczepaniak, Senior Product Manager bei Percona, nimmt bei Kubernetes ebenfalls bereits in diversen Bereichen eine verbesserte Usability wahr: „Insbesondere ist hervorzuheben, dass die Kubernetes-Betreiber vieles zugänglicher gestalten – beispielweise, wenn es darum geht, komplexe Workloads wie hochautomatisierte Datenbanken auszuführen.“

Weitere Fortschritte bei Kubernetes nimmt Szczepaniak wahr in Form von:

Support für CSI-Treiber,

Affinity- und Anti-Affinity-Konfigurationen, sowie

Stateful Sets, die darauf abzielen, bestimmte Use Cases direkt zu adressieren.

Speziell, wenn es um Backup und Disaster Recovery gehe, seien dank Enterprise-zentrischer Tools viele Usability-Hürden gefallen, meint Gaurav Rishi, Vice President bei Veeam. „Die Alternative besteht darin, dafür selbst mit verschiedenen, quelloffenen Code-Parts zu sorgen. Die Dinge sind wesentlich einfacher geworden, auch in Bezug auf die Sicherheit. Noch vor fünf Jahren haben Unternehmen keine Cluster in Produkte umgewandelt, weil Security ein Problem darstellte“, erläutert Rishi.

Steigende Komplexität

Dennoch gibt es nach wie vor einige Stolpersteine. In der Wahrnehmung vieler Benutzer sind weitere Abstraktionen notwendig, um den erheblichen Mehraufwand zu reduzieren, den Kubernetes verursacht. Zum Beispiel mit Blick auf:

Bereitstellung,

sichere Konfiguration und

Monitoring-Anbindung.

Und obwohl es für mittelgroße Unternehmen inzwischen attraktiver geworden ist, bleibt Kubernetes besonders für kleine Projekte und Organisationen, denen es an Fachwissen und Ressourcen mangelt, meist immer noch eine Nummer zu groß. Schuld daran seien Day-Two-Probleme, wie Ari Weil, Cloud-Evangelist bei Akamai, erklärt: „Kubernetes ist ausgereift, aber die meisten Unternehmen und Entwickler erkennen erst, wie komplex eine Umgebung sein kann, wenn sie tatsächlich skaliert werden muss.“

Es sind nicht die einzigen Fallstricke für Kubernetes-Anwender. Schon die schiere Anzahl verfügbarer Tools kann zum Hindernis werden – respektive zur „Analysis Paralysis“ führen: Aktuell beherbergt die Cloud Native Landscape der CNCF mehr als 200 Projekte mit knapp 900 Repositories.

„Tools wie Helm und Argo CD unterstützen zwar dabei, Addons zu managen, aber das ist in Kubernetes-Umgebungen bekanntermaßen schwierig, weil dabei zusätzliche Komplexitäten eingeführt werden, die unterschiedliche Fachkenntnisse erfordern“, erklärt Itiel Shwartz, Mitbegründer und CTO des Kubernetes-Spezialisten Komodor. Er ergänzt: „Dazu kommt, dass jedes Tool eigene Konfigurationsanforderungen aufwirft, was zu Reibungsverlusten führen kann.“

Weitere, gängige Kubernetes-Bottlenecks sind laut dem Experten:

Prüfpunkte einzurichten, um Health Checks bei Applikationen durchzuführen,

die richtigen Requests und Limits zu definieren, sowie

Netzwerkrichtlinien zu konfigurieren.

„Falsch konfigurierte Ressourcenbeschränkungen können zu Problemen wie Pod Evictions, unausgewogenen Workloads und unerwarteten Anwendungsfehlern führen“, warnt Shwartz.

Der Scope wächst…

Gleichzeitig wird es für Devops-Teams immer schwieriger, Kubernetes zu widerstehen. Denn damit geht heute weit mehr als nur Containerorchestrierung – die Plattform wird inzwischen als das „Betriebssystem der Cloud“ betrachtet. Über Plugins, das Container Network Interface (CNI) und das Container Storage Interface (CSI) lässt sich der Anwendungsbereich von Kubernetes nun auch auf Network und Storage erweitern. „Dadurch wird Kubernetes zu einer Multi-Cloud-Steuerungsebene für die Infrastruktur“, konstatiert Thirumale.

Aber Kubernetes wird inzwischen auch genutzt, um Legacy-Workloads zu händeln. Das aufstrebende Tool KubeVirt kann beispielsweise mit virtuellen Maschinen arbeiten, die häufig geschäftskritische Legacy-Anwendungen stützen. „Das ist ein großer Schritt nach vorne für Kubernetes“, meint Thirumale. Er ist fest davon überzeugt, dass das die Chancen erhöht, dass Kubernetes künftig zum Mainstream wird – auch für bestehende Applikationen mit hohem Transaktionsvolumen, wie sie im Automotive-Bereich, dem Bankenwesen und von traditionellen Industrieunternehmen eingesetzt werden. Dass Legacy-Workloads in die Cloud-Native-Infrastruktur Einzug halten, ist übrigens nicht nur aus Modernisierungsperspektive interessant, sondern auch mit Blick auf die durch die Broadcom-Konsolidierungen verursachten Preiserhöhungen bei VMware.

Zur Wahrheit gehört aber auch, dass Legacy-Workloads unterschiedliche Anforderungen an Datenmigration, Backup, Disaster Recovery und Access Management aufwerfen, wie Thirumale erklärt: „Wenn dem Kubernetes-Datenmanagement neue Funktionen hinzugefügt werden, die nicht für Container, aber für virtuelle Maschinen erforderlich sind, birgt das für die Benutzer natürlich auch zusätzliche Komplexität.“

…und wächst

Der Portworx-Manager sieht außerdem hohes Potenzial für Kubernetes, wenn es um KI-Modelltraining und Inferenz-Workloads geht: „Künstliche Intelligenz und Kubernetes überschneiden sich zu fast 90 Prozent – und KI erfordert naturgemäß eine elastische Infrastruktur.“

Kubernetes auf neue, KI-native Applikationen anzuwenden und die Skalierbarkeit von KI-Inferenzmodellen auf Kubernetes-Clustern zu managen, stellt jedoch eine massive Herausforderung dar – wie Kevin Cochrane, CMO beim Virtualisierungsspazilisten Vultr, weiß: „Die betriebliche Disziplin und die Playbooks, um containerisierte Anwendungen auf Kubernetes zu hosten, müssen überarbeitet werden. Im Bereich der Tools, die eine integrierte, vollumfängliche KI-Modell-Pipeline unterstützen, gab es bislang wenig Fortschritte.“

Kubeflow, ein in Entwicklung befindliches CNCF-Projekt, will es künftig erleichtern, Machine-Learning-Modelle auf Kubernetes bereitzustellen und zu managen. In Kombination mit Kserve (für Framework-unabhängige KI-Inferenz) hat das Tool das Potenzial, die Workflows von Datenwissenschaftlern zu vereinfachen. „Tools wie diese machen es deutlich einfacher, KI zu nutzen, weil sie die Infrastruktur abstrahieren. So können Modelle leichter erstellt werden, was guten Geschäftsergebnissen zuträglich ist“, hält Chase Christiansen, Staff Solutions Engineer bei TileDB, fest.

Für KI-Inferenz und viele weitere Use Cases, bei denen die Nähe zu den Daten und die Latenz von Bedeutung sind, findet Kubernetes auch eine Rolle im Bereich Edge Computing – und bietet Optionen für kleinere Container-Implementierungen.

„Die Anwendungsfälle von Kubernetes am Edge nehmen mit Sicherheit zu“, ist Rishi überzeugt. Der Veeam-Manager verweist auf abgespeckte Kubernetes-Varianten, die besonders leichtgewichtige Edge-Container-Distributionen ermöglichen:

K3s, eine leichtgewichtige Kubernetes-Distribution für Umgebungen mit eingeschränkten Ressourcen, und

Bottlerocket, ein portables, Linux-basiertes Betriebssystem, um Container auszuführen.

„Am Edge müssen möglicherweise Zehntausende kleiner Cluster verwaltet werden. Das macht einen zentralisierten Mechanismus unabdingbar, um Container unter Verwendung einer heterogenen Laufzeitumgebung zu koordinieren und bereitzustellen“, gibt Raghu Vatte, Field CTO beim Edge-Spezialisten Zededa, zu bedenken. Er fügt hinzu: „Man möchte eine Anwendung nicht neu erstellen, nur weil man sie am Edge bereitstellt.“

Um Kubernetes-Workloads für verschiedene Clouds und Regionen portabel zu machen, empfiehlt Akamai-Evangelist Weil, proprietäre Wrapper zu vermeiden. Stattdessen hebt er den Wert von „Golden Path Templates“ hervor, die die Kompatibilität mit Kubernetes in seiner Open-Source-Form beibehielten und auf stabilen CNCF-Projekten wie OpenTelemetry, Argo, Prometheus oder Flatcar aufbauten: „Das kann die Back-End-Orchestrierung vereinfachen, die Anbieterabhängigkeit verringern und die nötige Flexibilität für Multi-Clouds ermöglichen.“

Besserung in Sicht!

Auch nach zehn Jahren ist Kubernetes noch immer komplex – selbst als Managed Service. Es gibt jedoch diverse Bemühungen, Abstraktionen zu entwickeln, die die Entwicklererfahrung und Zugänglichkeit der Plattform verbessern.

Und auch die Tools werden weiterentwickelt – in Zukunft könnte KI auch in diesen Bereich zum Einsatz kommen, um es zum Beispiel zu erleichtern, Kubernetes-Cluster zu monitoren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wird Kubernetes je einfacher?​ Weiterlesen »

Partizipatives Employer Branding – was für den Führungsstil spricht​

Allgemein

Führungskräfte, die sich dem Führungsstil des partizipativen Employer Branding verschrieben haben, rücken den Teamansatz in den Vordergrund und binden ihre Teammitglieder in die Entscheidungsprozesse ein.3rdtimeluckystudio – shutterstock.com Der Bestandteil “partizipativ” im Begriff “partizipatives Employer Branding” leitet sich vom lateinischen Wort “partizipare” ab, was „Teilhaben“ oder „Teilnehmen“ bedeutet. Und genau diese Wortherkunft macht bereits deutlich, worum es bei diesem Ansatz geht. Nämlich darum, die Mitarbeiterinnen und Mitarbeiter eines Unternehmens aktiv an der Gestaltung und Umsetzung von Unternehmensentscheidungen zu beteiligen.   Partizipatives Employer Branding ist ein strategischer Ansatz, der darauf abzielt, Mitarbeiter aktiv an der Gestaltung und Umsetzung von Entscheidungen im Unternehmen zu beteiligen. Laut Mariusz Bodek, Geschäftsführer der TÜV Rheinland Consulting (TRC), geht es dabei nicht nur um die bloße Mitbestimmung der Mitarbeiter, sondern um viel mehr. Nämlich darum, „eine Unternehmenskultur zu schaffen, in der sich jede Mitarbeiterin und jeder Mitarbeiter als wertvolles Mitglied und Gestalter fühlt.“  Für Führungskräfte heißt das, dass sie ihre Beschäftigten so weit wie möglich in Entscheidungsprozesse einbinden sollten. Sie schaffen den Raum, damit sich die Beschäftigten einbringen und gemeinsam Lösungen und Strategien erarbeiten können. „Partizipatives Employer Branding fördert eine offene Kommunikationskultur und eine flache Hierarchie, in der die Meinung der Mitarbeitenden gehört und geschätzt wird“, erklärt Bodek.   Dies sind einige der Gründe, warum dieser Führungsstil als partizipatives Employer Branding bezeichnet wird. Denn natürlich profitieren Betriebe nicht nur von einer höheren Leistungsfähigkeit und Motivation ihrer Mitarbeiter, sondern auch von einer stärkeren Bindung der Beschäftigten an den Arbeitgeber. Hinzu kommt, so der TRC-Geschäftsführer, dass Unternehmen, die sich an den Prinzipien des partizipativen Employer Branding orientieren, auch von einer verbesserten Innovationsfähigkeit und Anpassungsfähigkeit an sich verändernde Marktbedingungen profitieren.     Was partizipatives Employer Branding auszeichnet Partizipatives Employer Branding ist ein Führungsstil, der sich dadurch auszeichnet, dass trotz größtmöglicher Einbindung der Mitarbeiter keine Führungslosigkeit entsteht. “In letzter Instanz ist die Führungskraft für die Entscheidungen verantwortlich und trägt die Verantwortung, die im Team entwickelten Ideen kritisch zu bewerten und eine endgültige Entscheidung zu treffen“, erklärt Bodek. Ist die Entscheidung gefallen, steht die Führungskraft dafür ein. Und zwar nicht nur dann, wenn das Ergebnis positiv ist, sondern vor allem auch dann, wenn das Ergebnis nicht so ist, wie man es sich vielleicht vorgestellt hat.   Wertvoll wird der Ansatz aber auch dadurch, dass die Mitarbeiter die nötigen Freiräume erhalten, um ihre Ideen und Sichtweisen einzubringen. Da jeder einzelne unterschiedliche Stärken und Schwächen hat, bietet das partizipative Employer Branding genau den Rahmen, in dem alle profitieren können.  Für eine erfolgreiche Umsetzung muss die Führungskraft jedoch bereit sein, Verantwortung abzugeben und – zumindest teilweise – Moderationsaufgaben zu übernehmen. “Es ist wichtig, dass die Führungskraft die Mitarbeiter dabei unterstützt, ihre Ideen zu konkretisieren und in greifbare Ergebnisse umzusetzen”, betont Bodek. Gleichzeitig behalte die Führungskraft aber die letzte Entscheidungsgewalt über die Kommunikation mit den Stakeholdern, um Konsistenz und Professionalität nach außen zu wahren.  Zusammenfassend lässt sich sagen, dass dieser Führungsstil, wenn er optimal umgesetzt wird und beide Seiten ausgewogen berücksichtigt, Unternehmen in die Lage versetzt, von der Vielfalt der Perspektiven ihrer Mitarbeiterinnen und Mitarbeiter zu profitieren, ohne an Effizienz und Entscheidungsfähigkeit einzubüßen.    Rahmenbedingungen für partizipatives Employer Branding Partizipatives Employer Branding braucht bestimmte Rahmenbedingungen, um effektiv umgesetzt werden zu können. Dazu gehören:  1. Gegenseitige Wertschätzung: Mitarbeiter trauen sich nur dann, auch auf den ersten Blick unkonventionelle Lösungen zu formulieren, wenn sie sich in einem vertrauensvollen Umfeld befinden. Es ist Aufgabe der Führungskraft, ein solches Umfeld zu schaffen und den Mitarbeitern zu vermitteln, dass ihre Meinung wichtig ist und gehört wird. “Wertschätzung und Kommunikation auf Augenhöhe schaffen das Vertrauen, das für die Beteiligung und das Engagement der Mitarbeiter notwendig ist“, sagt Bodek.  2. Führung übernehmen: „Wenn die Führungskraft zu kollegial führt, könnten einige Mitarbeiter auf die Idee kommen, dass die Ansagen des Managements nicht klar genug sind oder dass Entscheidungen zu stark diskutiert werden müssen, bevor sie getroffen werden können“, ergänzt der Geschäftsführer. Das kann die Effizienz beeinträchtigen und zu Verzögerungen führen, wenn nicht rechtzeitig eine klare Richtung vorgegeben wird.  3. Ergebnis anvisieren: Die Führungskraft muss sicherstellen, dass die beteiligten Mitarbeiter das angestrebte Ergebnis verstehen und sich darauf konzentrieren können. Bodek: „Die Führungskraft sollte darauf achten, dass die Ziele und Erwartungen klar sind, um die Motivation und Effizienz der Mitarbeiter zu fördern”. Das bedeutet, dass eine klare Kommunikation und eine regelmäßige Überprüfung der Ziele unerlässlich sind, um sicherzustellen, dass alle Teammitglieder in die gleiche Richtung arbeiten und sich auf die Erreichung der festgelegten Ziele konzentrieren. Auf diese Weise werden Missverständnisse oder eine Zersplitterung der Bemühungen vermieden, die die Gesamtleistung des Teams beeinträchtigen könnten.  Mariusz Bodek, Geschäftsführer der TÜV Rheinland Consulting: „Partizipative Führung funktioniert nur, wenn Führungskräfte ihren Mitarbeitern das nötige Vertrauen entgegenbringen und ihnen Freiräume für eigenverantwortliches Handeln geben.“Bodek – Hassel Diese Kompetenzen braucht eine Führungskraft Bleibt die Frage, welche Skills die Führungskraft mitbringen muss, damit eine erfolgreiche Umsetzung dieses Führungsstils gelingen kann. Die Frage nach den Kompetenzen der Führungskraft ist berechtigt, denn im Gegensatz zu autoritären Führungsstilen verlangt der partizipative Ansatz ganz andere und teilweise weitergehende Kompetenzen. Unter anderem folgende:  1. Kommunikationsfähigkeit: Eine der Schlüsselkompetenzen ist die Fähigkeit, klar und einfühlsam zu kommunizieren. „Führungskräfte müssen in der Lage sein, so zu kommunizieren, dass die Mitarbeiterinnen und Mitarbeiter verstehen, was von ihnen erwartet wird. Dies muss aber auf eine wertschätzende, einfühlsame Weise geschehen“, erläutert Bodek. Eine falsch umgesetzte Kommunikation könne schnell als unverbindlich wahrgenommen werden und die Akzeptanz des partizipativen Prozesses gefährden. Wertschätzung und konstruktives Feedback seien hingegen gefragt. Eine gelungene Kommunikation auf Augenhöhe sei zentral, um ein Klima des gegenseitigen Respekts und der Zusammenarbeit zu fördern.  2. Empathie und Wertschätzung: Partizipatives Employer Branding basiert auf einem respektvollen Umgang miteinander. Die Führungskraft muss in der Lage sein, ein vertrauensvolles Umfeld zu schaffen, in dem sich die Mitarbeiter sicher fühlen, ihre Meinung äußern und neue Ideen einbringen zu können.  3. Offenheit und Transparenz: Eine offene Kommunikationskultur ist unerlässlich. Die Führungskraft muss bereit sein, die Meinungen und Ideen der Mitarbeiterinnen und Mitarbeiter ernst zu nehmen und nicht nur pro forma einzuholen. Bodek betont: “Eine offene Kommunikationskultur ist der Schlüssel, um das Vertrauen und die Mitwirkungsbereitschaft der Mitarbeitenden zu fördern. Das steigert nicht nur die Motivation und das Engagement der Beschäftigten, sondern auch das Vertrauen in die Führungskräfte.  4. Moderations- und Entscheidungskompetenz: Obwohl die Mitarbeiter aktiv in Entscheidungsprozesse eingebunden werden, trägt die Führungskraft die Verantwortung für die getroffenen Entscheidungen. Sie muss in der Lage sein, die Ideen und Vorschläge des Teams zu koordinieren, zu bewerten und gegebenenfalls zu einem Konsens zu führen. „Eine klare Führung übernimmt die Verantwortung für getroffene Entscheidungen und unterstützt die Mitarbeiter bei der Konsensfindung“, erklärt Bodek. Dies erfordert ein hohes Maß an Entscheidungsfähigkeit und die Fähigkeit, in komplexen Situationen souverän zu agieren.  5. Teamfähigkeit: Da beim partizipativen Employer Branding die gemeinsame Entscheidungsfindung im Vordergrund steht, muss die Führungskraft die Teamdynamik im Auge behalten und darauf achten, dass kein Mitarbeiter übervorteilt wird. Eine Führungskraft, die sich für diesen Führungsstil entscheidet, sollte den offenen Dialog zwischen allen Mitarbeitern fördern, die Teamidentität und den Teamzusammenhalt stärken sowie individuelle und kollektive Lernprozesse im Team unterstützen.  Vertrauen in die Mitarbeiter ist entscheidend „Partizipative Führung funktioniert nur, wenn Führungskräfte ihren Mitarbeitern das nötige Vertrauen entgegenbringen und ihnen Freiräume für eigenverantwortliches Handeln geben“, sagt Bodek. Vorgesetzte müssen darauf vertrauen, dass ihre Mitarbeiterinnen und Mitarbeiter Aufgaben eigenverantwortlich umsetzen können.  Dieser Führungsansatz stellt hohe Anforderungen an die Führungskraft: von ausgeprägter Kommunikationsfähigkeit und Entscheidungskompetenz über Empathie und Wertschätzung bis hin zur Fähigkeit, ein offenes und transparentes Arbeitsumfeld zu schaffen „Es ist eine Herausforderung, aber eine, die sich lohnt“, resümiert Bodek und ergänzt: “Partizipative Führung kann nicht nur die Motivation und Zufriedenheit der Mitarbeiterinnen und Mitarbeiter steigern, sondern auch die Innovations- und Wettbewerbsfähigkeit des Unternehmens langfristig sichern.”  

Partizipatives Employer Branding – was für den Führungsstil spricht​ Führungskräfte, die sich dem Führungsstil des partizipativen Employer Branding verschrieben haben, rücken den Teamansatz in den Vordergrund und binden ihre Teammitglieder in die Entscheidungsprozesse ein.3rdtimeluckystudio – shutterstock.com

Der Bestandteil “partizipativ” im Begriff “partizipatives Employer Branding” leitet sich vom lateinischen Wort “partizipare” ab, was „Teilhaben“ oder „Teilnehmen“ bedeutet. Und genau diese Wortherkunft macht bereits deutlich, worum es bei diesem Ansatz geht. Nämlich darum, die Mitarbeiterinnen und Mitarbeiter eines Unternehmens aktiv an der Gestaltung und Umsetzung von Unternehmensentscheidungen zu beteiligen.  

Partizipatives Employer Branding ist ein strategischer Ansatz, der darauf abzielt, Mitarbeiter aktiv an der Gestaltung und Umsetzung von Entscheidungen im Unternehmen zu beteiligen. Laut Mariusz Bodek, Geschäftsführer der TÜV Rheinland Consulting (TRC), geht es dabei nicht nur um die bloße Mitbestimmung der Mitarbeiter, sondern um viel mehr. Nämlich darum, „eine Unternehmenskultur zu schaffen, in der sich jede Mitarbeiterin und jeder Mitarbeiter als wertvolles Mitglied und Gestalter fühlt.“ 

Für Führungskräfte heißt das, dass sie ihre Beschäftigten so weit wie möglich in Entscheidungsprozesse einbinden sollten. Sie schaffen den Raum, damit sich die Beschäftigten einbringen und gemeinsam Lösungen und Strategien erarbeiten können. „Partizipatives Employer Branding fördert eine offene Kommunikationskultur und eine flache Hierarchie, in der die Meinung der Mitarbeitenden gehört und geschätzt wird“, erklärt Bodek.  

Dies sind einige der Gründe, warum dieser Führungsstil als partizipatives Employer Branding bezeichnet wird. Denn natürlich profitieren Betriebe nicht nur von einer höheren Leistungsfähigkeit und Motivation ihrer Mitarbeiter, sondern auch von einer stärkeren Bindung der Beschäftigten an den Arbeitgeber. Hinzu kommt, so der TRC-Geschäftsführer, dass Unternehmen, die sich an den Prinzipien des partizipativen Employer Branding orientieren, auch von einer verbesserten Innovationsfähigkeit und Anpassungsfähigkeit an sich verändernde Marktbedingungen profitieren.  

 

Was partizipatives Employer Branding auszeichnet

Partizipatives Employer Branding ist ein Führungsstil, der sich dadurch auszeichnet, dass trotz größtmöglicher Einbindung der Mitarbeiter keine Führungslosigkeit entsteht. “In letzter Instanz ist die Führungskraft für die Entscheidungen verantwortlich und trägt die Verantwortung, die im Team entwickelten Ideen kritisch zu bewerten und eine endgültige Entscheidung zu treffen“, erklärt Bodek. Ist die Entscheidung gefallen, steht die Führungskraft dafür ein. Und zwar nicht nur dann, wenn das Ergebnis positiv ist, sondern vor allem auch dann, wenn das Ergebnis nicht so ist, wie man es sich vielleicht vorgestellt hat.  

Wertvoll wird der Ansatz aber auch dadurch, dass die Mitarbeiter die nötigen Freiräume erhalten, um ihre Ideen und Sichtweisen einzubringen. Da jeder einzelne unterschiedliche Stärken und Schwächen hat, bietet das partizipative Employer Branding genau den Rahmen, in dem alle profitieren können. 

Für eine erfolgreiche Umsetzung muss die Führungskraft jedoch bereit sein, Verantwortung abzugeben und – zumindest teilweise – Moderationsaufgaben zu übernehmen. “Es ist wichtig, dass die Führungskraft die Mitarbeiter dabei unterstützt, ihre Ideen zu konkretisieren und in greifbare Ergebnisse umzusetzen”, betont Bodek. Gleichzeitig behalte die Führungskraft aber die letzte Entscheidungsgewalt über die Kommunikation mit den Stakeholdern, um Konsistenz und Professionalität nach außen zu wahren. 

Zusammenfassend lässt sich sagen, dass dieser Führungsstil, wenn er optimal umgesetzt wird und beide Seiten ausgewogen berücksichtigt, Unternehmen in die Lage versetzt, von der Vielfalt der Perspektiven ihrer Mitarbeiterinnen und Mitarbeiter zu profitieren, ohne an Effizienz und Entscheidungsfähigkeit einzubüßen. 

 

Rahmenbedingungen für partizipatives Employer Branding

Partizipatives Employer Branding braucht bestimmte Rahmenbedingungen, um effektiv umgesetzt werden zu können. Dazu gehören: 

1. Gegenseitige Wertschätzung: Mitarbeiter trauen sich nur dann, auch auf den ersten Blick unkonventionelle Lösungen zu formulieren, wenn sie sich in einem vertrauensvollen Umfeld befinden. Es ist Aufgabe der Führungskraft, ein solches Umfeld zu schaffen und den Mitarbeitern zu vermitteln, dass ihre Meinung wichtig ist und gehört wird. “Wertschätzung und Kommunikation auf Augenhöhe schaffen das Vertrauen, das für die Beteiligung und das Engagement der Mitarbeiter notwendig ist“, sagt Bodek. 

2. Führung übernehmen: „Wenn die Führungskraft zu kollegial führt, könnten einige Mitarbeiter auf die Idee kommen, dass die Ansagen des Managements nicht klar genug sind oder dass Entscheidungen zu stark diskutiert werden müssen, bevor sie getroffen werden können“, ergänzt der Geschäftsführer. Das kann die Effizienz beeinträchtigen und zu Verzögerungen führen, wenn nicht rechtzeitig eine klare Richtung vorgegeben wird. 

3. Ergebnis anvisieren: Die Führungskraft muss sicherstellen, dass die beteiligten Mitarbeiter das angestrebte Ergebnis verstehen und sich darauf konzentrieren können. Bodek: „Die Führungskraft sollte darauf achten, dass die Ziele und Erwartungen klar sind, um die Motivation und Effizienz der Mitarbeiter zu fördern”. Das bedeutet, dass eine klare Kommunikation und eine regelmäßige Überprüfung der Ziele unerlässlich sind, um sicherzustellen, dass alle Teammitglieder in die gleiche Richtung arbeiten und sich auf die Erreichung der festgelegten Ziele konzentrieren. Auf diese Weise werden Missverständnisse oder eine Zersplitterung der Bemühungen vermieden, die die Gesamtleistung des Teams beeinträchtigen könnten. 

Mariusz Bodek, Geschäftsführer der TÜV Rheinland Consulting: „Partizipative Führung funktioniert nur, wenn Führungskräfte ihren Mitarbeitern das nötige Vertrauen entgegenbringen und ihnen Freiräume für eigenverantwortliches Handeln geben.“Bodek – Hassel

Diese Kompetenzen braucht eine Führungskraft

Bleibt die Frage, welche Skills die Führungskraft mitbringen muss, damit eine erfolgreiche Umsetzung dieses Führungsstils gelingen kann. Die Frage nach den Kompetenzen der Führungskraft ist berechtigt, denn im Gegensatz zu autoritären Führungsstilen verlangt der partizipative Ansatz ganz andere und teilweise weitergehende Kompetenzen. Unter anderem folgende: 

1. Kommunikationsfähigkeit: Eine der Schlüsselkompetenzen ist die Fähigkeit, klar und einfühlsam zu kommunizieren. „Führungskräfte müssen in der Lage sein, so zu kommunizieren, dass die Mitarbeiterinnen und Mitarbeiter verstehen, was von ihnen erwartet wird. Dies muss aber auf eine wertschätzende, einfühlsame Weise geschehen“, erläutert Bodek. Eine falsch umgesetzte Kommunikation könne schnell als unverbindlich wahrgenommen werden und die Akzeptanz des partizipativen Prozesses gefährden. Wertschätzung und konstruktives Feedback seien hingegen gefragt. Eine gelungene Kommunikation auf Augenhöhe sei zentral, um ein Klima des gegenseitigen Respekts und der Zusammenarbeit zu fördern. 

2. Empathie und Wertschätzung: Partizipatives Employer Branding basiert auf einem respektvollen Umgang miteinander. Die Führungskraft muss in der Lage sein, ein vertrauensvolles Umfeld zu schaffen, in dem sich die Mitarbeiter sicher fühlen, ihre Meinung äußern und neue Ideen einbringen zu können. 

3. Offenheit und Transparenz: Eine offene Kommunikationskultur ist unerlässlich. Die Führungskraft muss bereit sein, die Meinungen und Ideen der Mitarbeiterinnen und Mitarbeiter ernst zu nehmen und nicht nur pro forma einzuholen. Bodek betont: “Eine offene Kommunikationskultur ist der Schlüssel, um das Vertrauen und die Mitwirkungsbereitschaft der Mitarbeitenden zu fördern. Das steigert nicht nur die Motivation und das Engagement der Beschäftigten, sondern auch das Vertrauen in die Führungskräfte. 

4. Moderations- und Entscheidungskompetenz: Obwohl die Mitarbeiter aktiv in Entscheidungsprozesse eingebunden werden, trägt die Führungskraft die Verantwortung für die getroffenen Entscheidungen. Sie muss in der Lage sein, die Ideen und Vorschläge des Teams zu koordinieren, zu bewerten und gegebenenfalls zu einem Konsens zu führen. „Eine klare Führung übernimmt die Verantwortung für getroffene Entscheidungen und unterstützt die Mitarbeiter bei der Konsensfindung“, erklärt Bodek. Dies erfordert ein hohes Maß an Entscheidungsfähigkeit und die Fähigkeit, in komplexen Situationen souverän zu agieren. 

5. Teamfähigkeit: Da beim partizipativen Employer Branding die gemeinsame Entscheidungsfindung im Vordergrund steht, muss die Führungskraft die Teamdynamik im Auge behalten und darauf achten, dass kein Mitarbeiter übervorteilt wird. Eine Führungskraft, die sich für diesen Führungsstil entscheidet, sollte den offenen Dialog zwischen allen Mitarbeitern fördern, die Teamidentität und den Teamzusammenhalt stärken sowie individuelle und kollektive Lernprozesse im Team unterstützen. 

Vertrauen in die Mitarbeiter ist entscheidend

„Partizipative Führung funktioniert nur, wenn Führungskräfte ihren Mitarbeitern das nötige Vertrauen entgegenbringen und ihnen Freiräume für eigenverantwortliches Handeln geben“, sagt Bodek. Vorgesetzte müssen darauf vertrauen, dass ihre Mitarbeiterinnen und Mitarbeiter Aufgaben eigenverantwortlich umsetzen können. 

Dieser Führungsansatz stellt hohe Anforderungen an die Führungskraft: von ausgeprägter Kommunikationsfähigkeit und Entscheidungskompetenz über Empathie und Wertschätzung bis hin zur Fähigkeit, ein offenes und transparentes Arbeitsumfeld zu schaffen „Es ist eine Herausforderung, aber eine, die sich lohnt“, resümiert Bodek und ergänzt: “Partizipative Führung kann nicht nur die Motivation und Zufriedenheit der Mitarbeiterinnen und Mitarbeiter steigern, sondern auch die Innovations- und Wettbewerbsfähigkeit des Unternehmens langfristig sichern.” 

Partizipatives Employer Branding – was für den Führungsstil spricht​ Weiterlesen »

Was ist TOGAF?​

Allgemein

The Open Group Architecture Framework – kurz TOGAF – kann Unternehmen in Sachen Enterprise Architecture entscheidend voranbringen. Foto: Tavarius – shutterstock.com TOGAF basiert auf TAFIM (Technical Architecture Framework for Information Management), einem IT-Management-Framework, das in den 1990er Jahren vom US-Verteidigungsministerium entwickelt wurde. Es wurde als Referenzmodell für die Unternehmensarchitektur veröffentlicht und bot einen Einblick in die technische Infrastruktur der Regierungsbehörde – einschließlich der Art und Weise, wie diese strukturiert, gewartet und konfiguriert wird, um den spezifischen Anforderungen gerecht zu werden. Seit dem Jahr 1999 verzichtet das Ministerium auf TAFIM. TOGAF – Definition The Open Group Architecture Framework (TOGAF) ist eine Enterprise-Architecture-Methodik, die einen übergeordneten Rahmen für die Entwicklung von Unternehmenssoftware bietet. TOGAF unterstützt Unternehmen dabei, den Entwicklungsprozesses systematisch zu organisieren. Der Ansatz zielt darauf ab: Fehler zu reduzieren, Zeitpläne zu erfüllen, Budgetrahmen einzuhalten und das Alignment zwischen IT und Business voranzutreiben, um hochwertige Ergebnisse zu erzielen. The Open Group Architecture Framework (TOGAF) wurde 1995 von der Open Group entwickelt. Im Jahr 2016 nutzten der Organisation zufolge 80 Prozent der Global-50- und 60 Prozent der Fortune-500-Unternehmen das Framework. TOGAF unternehmensintern einzusetzen, ist kostenlos möglich – für eine kommerzielle Nutzung muss bezahlt werden. Unternehmen haben die Option, Tools, Software oder Schulungsprogramme von der Open Group zertifizieren zu lassen. Derzeit gibt es sieben zertifizierte TOGAF Tools und 31 akkreditierte Kurse. Im Jahr 2022 kündigte die Open Group die jüngste Aktualisierung des Frameworks an und veröffentlichte TOGAF 10th Edition, die die vorherige Version 9.2 ersetzt. Die Aktualisierung soll es für Unternehmen noch einfacher machen, das Framework einzusetzen und entsprechende Best Practices zu implementieren. TOGAF – Framework Wie andere IT-Management-Frameworks unterstützt auch TOGAF Unternehmen dabei, Geschäfts- und IT-Ziele in Einklang zu bringen und gleichzeitig abteilungsübergreifende IT-Aufgaben zu organisieren. TOGAF hilft den Betrieben auch dabei, vor dem Projektbeginn Anforderungen zu definieren und organisatorische Weichen zu stellen, so dass der gesamte Prozess schnell und mit wenigen Fehlern ablaufen kann. Version 10 von TOGAF richtet den Fokus stärker auf Unternehmen, die agil arbeiten und erleichtert die Anwendung des Frameworks auf spezifische Unternehmensanforderungen. Die neue Version verwendet dazu eine modulare Struktur, die einfacher umzusetzen und zu implementieren ist, so dass das Rahmenwerk branchenübergreifend eingesetzt werden kann. Das TOGAF-Framework gliedert sich in zwei Hauptgruppen: die TOGAF-Grundlagen und die erweiterten Anleitungen. Erstere umfasst alle wesentlichen Elemente und Best Practices von TOGAF, die die Basis für das Framework bilden. Letztere enthält Anleitungen für bestimmte Themen, darunter agile Methoden sowie Geschäfts-, Daten-, Informations- und Sicherheitsarchitektur. Laut der Open Group bestehen die Zielsetzungen von TOGAF darin, sicherzustellen, dass alle die gleiche Sprache sprechen; die Bindung an proprietäre Lösungen zu vermeiden, indem offene Methoden für die Unternehmensarchitektur standardisiert werden; Zeit und Geld zu sparen und Ressourcen effektiver zu nutzen; einen nachweisbaren Return on Invest (RoI) zu erzielen; eine ganzheitliche Sicht auf die Unternehmenslandschaft zu ermöglichen; als modulares, skalierbares Rahmenwerk zu fungieren, das eine organisatorische Transformation ermöglicht; Organisationen aller Größen und Branchen zu ermöglichen, auf der Grundlage desselben Enterprise-Architecture-Standards zu arbeiten.Das Herzstück von TOGAF ist die Architecture Development Method (ADM). Diese lässt sich an die jeweiligen Anforderungen eines Unternehmens anpassen, was wiederum dessen Ansatz für die Informationsarchitektur beeinflussen kann. Die ADM unterstützt Betriebe auch bei der Entwicklung von Prozessen, die mehrere Kontrollpunkte umfassen und Anforderungen festschreiben, so dass sich Prozesse bei geringer Fehlerquote wiederverwenden lassen.TOGAF – Business-VorteileTOGAF unterstützt Unternehmen bei der strukturierten und organisierten Implementierung von Softwaretechnologien. Dabei liegt der Schwerpunkt auf Governance und darauf, Geschäftsziele zu erfüllen. Softwareentwicklung erfordert die Zusammenarbeit mehrerer Business Units innerhalb und außerhalb der IT. TOGAF kann dazu beitragen, die wichtigsten Interessengruppen auf eine gemeinsame Linie zu bringen.Dabei soll das Framework dazu beitragen, einen systematischen Ansatz zu schaffen, um die Enterprise Architecture und den Softwareentwicklungsprozess zu rationalisieren, damit letzterer – mit möglichst wenigen Fehlern oder Problemen – bei jeder Übergabe von Entwicklungsphasen reproduziert werden kann. Weil TOGAF dabei eine gemeinsame Sprache einführt, die die Kluft zwischen IT und Business überbrückt, kann der Einsatz dazu beitragen, bei allen Beteiligten mehr Klarheit zu schaffen.Anwender müssen TOGAF nicht komplett übernehmen. Die meisten Unternehmen sind in der Regel besser damit beraten, ihre eigenen Bedürfnisse zu evaluieren und dann festzustellen, welche Teile des Frameworks sie benötigen.TOGAF 10 – Das ist neuDie wichtigste Änderung, die mit TOGAF 10 Einzug gehalten hat, ist das neue modulare Format.Das Fundamental-Concepts-Modul umfasst die Dokumentation zu folgenden Themen:Einführung und KernkonzepteArchitecture Development MethodADM-TechnikenAnwendung der ADMArchitecture ContentEnterprise Architecture Capability und GovernanceDas Extended-Guidance-Modul umfasst Themen wie:Aufbau eines Enterprise-Architecture-TeamsSecurity ArchitectureBusiness ArchitectureData- und Information ArchitectureAgile MethodenReferenzmodelle und -methodenDie Open Group hat auch die Dokumentation gestrafft und alle redundanten und veralteten Inhalte entfernt. TOGAF 10 verspricht darüber hinaus einfachere Aktualisierungen, so dass Änderungen nach Bedarf und ohne Unterbrechung von Best Practices implementiert werden können. TOGAF – Tools Die Liste der TOGAF-zertifizierten Tools umfasst folgende Software: Avolution: ABACUS 6.0 (oder neuer) Bizzdesign: Bizzdesign Enterprise Studio & Horizzon BOC Group: ADOIT Mega International: HOPEX Enterprise Architecture Suite Orbus Software: iServer Business and IT Transformation Suite 2015 (oder neuer) Software AG: Alfabet Software AG: ARIS 9.0 (oder neuer) TOGAF – Zertifizierung & Schulung Eine TOGAF-Zertifizierung ist besonders für Enterprise Architects nützlich, da es sich um eine weit verbreitete Methodik und ein auf diesem Gebiet gängiges Framework handelt. Eine TOGAF-Zertifizierung ist herstellerunabhängig, wird weltweit anerkannt und weist die Fähigkeit nach, das Framework nutzen zu können, um Technologien zu implementieren und die Enterprise Architecture zu managen. Laut dem Gehaltsportal PayScale kann eine TOGAF-Zertifizierung das Gehalt verschiedener Job-Rollen um bis zu 20 Prozent steigern. Dazu gehören zum Beispiel: IT Enterprise Architect Solution Architect IT Architect Software Architect IT Director Um eine TOGAF-Zertifizierung zu erlangen, können Sie aus mehreren Schulungsprogrammen wählen, die Sie auf die Prüfung vorbereiten. Zu den Anbietern gehören unter anderem: Udemy Good E-Learning QA Simplilearn TÜV Rheinland Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist TOGAF?​ The Open Group Architecture Framework – kurz TOGAF – kann Unternehmen in Sachen Enterprise Architecture entscheidend voranbringen.
Foto: Tavarius – shutterstock.com

TOGAF basiert auf TAFIM (Technical Architecture Framework for Information Management), einem IT-Management-Framework, das in den 1990er Jahren vom US-Verteidigungsministerium entwickelt wurde. Es wurde als Referenzmodell für die Unternehmensarchitektur veröffentlicht und bot einen Einblick in die technische Infrastruktur der Regierungsbehörde – einschließlich der Art und Weise, wie diese strukturiert, gewartet und konfiguriert wird, um den spezifischen Anforderungen gerecht zu werden. Seit dem Jahr 1999 verzichtet das Ministerium auf TAFIM.

TOGAF – Definition

The Open Group Architecture Framework (TOGAF) ist eine Enterprise-Architecture-Methodik, die einen übergeordneten Rahmen für die Entwicklung von Unternehmenssoftware bietet. TOGAF unterstützt Unternehmen dabei, den Entwicklungsprozesses systematisch zu organisieren. Der Ansatz zielt darauf ab:

Fehler zu reduzieren,

Zeitpläne zu erfüllen,

Budgetrahmen einzuhalten und

das Alignment zwischen IT und Business voranzutreiben, um hochwertige Ergebnisse zu erzielen.

The Open Group Architecture Framework (TOGAF) wurde 1995 von der Open Group entwickelt. Im Jahr 2016 nutzten der Organisation zufolge 80 Prozent der Global-50- und 60 Prozent der Fortune-500-Unternehmen das Framework. TOGAF unternehmensintern einzusetzen, ist kostenlos möglich – für eine kommerzielle Nutzung muss bezahlt werden. Unternehmen haben die Option, Tools, Software oder Schulungsprogramme von der Open Group zertifizieren zu lassen. Derzeit gibt es sieben zertifizierte TOGAF Tools und 31 akkreditierte Kurse. Im Jahr 2022 kündigte die Open Group die jüngste Aktualisierung des Frameworks an und veröffentlichte TOGAF 10th Edition, die die vorherige Version 9.2 ersetzt. Die Aktualisierung soll es für Unternehmen noch einfacher machen, das Framework einzusetzen und entsprechende Best Practices zu implementieren.

TOGAF – Framework

Wie andere IT-Management-Frameworks unterstützt auch TOGAF Unternehmen dabei, Geschäfts- und IT-Ziele in Einklang zu bringen und gleichzeitig abteilungsübergreifende IT-Aufgaben zu organisieren. TOGAF hilft den Betrieben auch dabei, vor dem Projektbeginn Anforderungen zu definieren und organisatorische Weichen zu stellen, so dass der gesamte Prozess schnell und mit wenigen Fehlern ablaufen kann.

Version 10 von TOGAF richtet den Fokus stärker auf Unternehmen, die agil arbeiten und erleichtert die Anwendung des Frameworks auf spezifische Unternehmensanforderungen. Die neue Version verwendet dazu eine modulare Struktur, die einfacher umzusetzen und zu implementieren ist, so dass das Rahmenwerk branchenübergreifend eingesetzt werden kann.

Das TOGAF-Framework gliedert sich in zwei Hauptgruppen: die TOGAF-Grundlagen und die erweiterten Anleitungen. Erstere umfasst alle wesentlichen Elemente und Best Practices von TOGAF, die die Basis für das Framework bilden. Letztere enthält Anleitungen für bestimmte Themen, darunter agile Methoden sowie Geschäfts-, Daten-, Informations- und Sicherheitsarchitektur.

Laut der Open Group bestehen die Zielsetzungen von TOGAF darin,

sicherzustellen, dass alle die gleiche Sprache sprechen;

die Bindung an proprietäre Lösungen zu vermeiden, indem offene Methoden für die Unternehmensarchitektur standardisiert werden;

Zeit und Geld zu sparen und Ressourcen effektiver zu nutzen;

einen nachweisbaren Return on Invest (RoI) zu erzielen;

eine ganzheitliche Sicht auf die Unternehmenslandschaft zu ermöglichen;

als modulares, skalierbares Rahmenwerk zu fungieren, das eine organisatorische Transformation ermöglicht;

Organisationen aller Größen und Branchen zu ermöglichen, auf der Grundlage desselben Enterprise-Architecture-Standards zu arbeiten.Das Herzstück von TOGAF ist die Architecture Development Method (ADM). Diese lässt sich an die jeweiligen Anforderungen eines Unternehmens anpassen, was wiederum dessen Ansatz für die Informationsarchitektur beeinflussen kann. Die ADM unterstützt Betriebe auch bei der Entwicklung von Prozessen, die mehrere Kontrollpunkte umfassen und Anforderungen festschreiben, so dass sich Prozesse bei geringer Fehlerquote wiederverwenden lassen.TOGAF – Business-VorteileTOGAF unterstützt Unternehmen bei der strukturierten und organisierten Implementierung von Softwaretechnologien. Dabei liegt der Schwerpunkt auf Governance und darauf, Geschäftsziele zu erfüllen. Softwareentwicklung erfordert die Zusammenarbeit mehrerer Business Units innerhalb und außerhalb der IT. TOGAF kann dazu beitragen, die wichtigsten Interessengruppen auf eine gemeinsame Linie zu bringen.Dabei soll das Framework dazu beitragen, einen systematischen Ansatz zu schaffen, um die Enterprise Architecture und den Softwareentwicklungsprozess zu rationalisieren, damit letzterer – mit möglichst wenigen Fehlern oder Problemen – bei jeder Übergabe von Entwicklungsphasen reproduziert werden kann. Weil TOGAF dabei eine gemeinsame Sprache einführt, die die Kluft zwischen IT und Business überbrückt, kann der Einsatz dazu beitragen, bei allen Beteiligten mehr Klarheit zu schaffen.Anwender müssen TOGAF nicht komplett übernehmen. Die meisten Unternehmen sind in der Regel besser damit beraten, ihre eigenen Bedürfnisse zu evaluieren und dann festzustellen, welche Teile des Frameworks sie benötigen.TOGAF 10 – Das ist neuDie wichtigste Änderung, die mit TOGAF 10 Einzug gehalten hat, ist das neue modulare Format.Das Fundamental-Concepts-Modul umfasst die Dokumentation zu folgenden Themen:Einführung und KernkonzepteArchitecture Development MethodADM-TechnikenAnwendung der ADMArchitecture ContentEnterprise Architecture Capability und GovernanceDas Extended-Guidance-Modul umfasst Themen wie:Aufbau eines Enterprise-Architecture-TeamsSecurity ArchitectureBusiness ArchitectureData- und Information ArchitectureAgile MethodenReferenzmodelle und -methodenDie Open Group hat auch die Dokumentation gestrafft und alle redundanten und veralteten Inhalte entfernt. TOGAF 10 verspricht darüber hinaus einfachere Aktualisierungen, so dass Änderungen nach Bedarf und ohne Unterbrechung von Best Practices implementiert werden können.

TOGAF – Tools

Die Liste der TOGAF-zertifizierten Tools umfasst folgende Software:

Avolution: ABACUS 6.0 (oder neuer)

Bizzdesign: Bizzdesign Enterprise Studio & Horizzon

BOC Group: ADOIT

Mega International: HOPEX Enterprise Architecture Suite

Orbus Software: iServer Business and IT Transformation Suite 2015 (oder neuer)

Software AG: Alfabet

Software AG: ARIS 9.0 (oder neuer)

TOGAF – Zertifizierung & Schulung

Eine TOGAF-Zertifizierung ist besonders für Enterprise Architects nützlich, da es sich um eine weit verbreitete Methodik und ein auf diesem Gebiet gängiges Framework handelt. Eine TOGAF-Zertifizierung ist herstellerunabhängig, wird weltweit anerkannt und weist die Fähigkeit nach, das Framework nutzen zu können, um Technologien zu implementieren und die Enterprise Architecture zu managen.

Laut dem Gehaltsportal PayScale kann eine TOGAF-Zertifizierung das Gehalt verschiedener Job-Rollen um bis zu 20 Prozent steigern. Dazu gehören zum Beispiel:

IT Enterprise Architect

Solution Architect

IT Architect

Software Architect

IT Director

Um eine TOGAF-Zertifizierung zu erlangen, können Sie aus mehreren Schulungsprogrammen wählen, die Sie auf die Prüfung vorbereiten. Zu den Anbietern gehören unter anderem:

Udemy

Good E-Learning

QA

Simplilearn

TÜV Rheinland

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist TOGAF?​ Weiterlesen »

Trump und EU-Kommission gehen auf Konfrontationskurs​

Allgemein

width=”2193″ height=”1234″ sizes=”(max-width: 2193px) 100vw, 2193px”>Mit der zweiten Trump-Administration prallen wieder einmal Mal sehr unterschiedliche Kulturen im transatlantischen Verhältnis aufeinander.rawf8 – shutterstock.com Der seit kurzem amtierende US-Präsident Donald Trump habe die vertrauensvolle Beziehung zwischen den Vereinigten Staaten und Europa auf den Kopf gestellt, konstatierte die neue Wettbewerbskommissarin der EU, Teresa Ribera. Brüssel müsse jetzt für Verlässlichkeit und Stabilität sorgen, Faktoren, die es in Washington nicht mehr gebe. In einem Gespräch mit der Nachrichtenagentur Reuters forderte die Politikerin, Europa müsse zwar weiter mit dem Weißen Haus verhandeln und sich die Bedenken der US-Regierung in Handelsfragen anhören, man dürfe sich jedoch keine Veränderungen an EU-Gesetzen aufzwingen lassen.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?quality=50&strip=all 3000w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Terasa Ribera, oberste Hüterin des Wettbewerbs und Vizepräsidentin in der neuen EU-Kommission, bekräftigte, Europa werde an den eigenen Stärken und Prinzipien festhalten.Bogdan Hoyaux / EU-Commission „Wir müssen an unseren Stärken und Prinzipien festhalten“, bekräftigte Ribera gegenüber Reuters. Weder Menschenrechten noch die Einheit Europas seien verhandelbar, genau so wenig werde man Abstriche bei Demokratie und den eigenen Werten hinnehmen.   Trump und seine Gefolgsleute in der US-Regierung hatten zuletzt die EU wegen ihrer Vorschriften und Regularien kritisiert. Die von der EU gegen US-Technologieunternehmen verhängten Geldbußen seien eine Art Strafsteuer.  JD Vance: EU schränkt Meinungsfreiheit ein US-Vizepräsident J.D. Vance hatte seinen Auftritt auf der Münchener Sicherheitskonferenz Mitte Februar für eine Generalabrechnung mit Europa genutzt. Die Kommissare der EU würden freie Meinungsäußerung unterdrücken und mit Hilfe des Digital Services Act in bestimmten Situationen den Zugang zu Online-Plattformen und Suchmaschinen einschränken, erklärte er. Ist Trump der Booster für Europas digitale Souveränität? Ribera reagierte mit Unverständnis auf die Vorwürfe. „Wenn es ein Problem gibt, dann erklären Sie das bitte“, forderte die EU-Kommissarin den US-Politiker auf. „Das ergibt keinen Sinn.“ Auch Volker Wissing, Bundesminister für Digitales und Verkehr, machte klar, dass europäische Werte nicht verhandelbar seien, weder durch politischen Druck noch durch Marktübermacht. „Wer glaubt, europäische Regeln könnten von außen diktiert werden, irrt gewaltig“, betonte der Politiker. „Die EU-Kommission muss den Digital Services Act (DSA) konsequent durchsetzen – ohne Kompromisse und ohne Deals. Wer Meinungsfreiheit mit der Freiheit verwechselt, Hass und Desinformation zu verbreiten, verkennt die Grundlagen unserer Werte.“  width=”810″ height=”455″ sizes=”(max-width: 810px) 100vw, 810px”>Wer Meinungsfreiheit mit der Freiheit verwechselt, Hass und Desinformation zu verbreiten, verkennt die Grundlagen unserer Werte, kontert Digitalminister Volker Wissing die Kritik von US-Vize J.D. Vance.Bundesministerium für Digitales und Verkehr Ribera kündigte an, die EU könne schon im März entscheiden, ob sich Apple und Meta an die europäischen Regeln gehalten haben. Beide US-Konzerne stehen seit rund einem Jahr unter Beobachtung der Kartellwächter. Ihnen drohen hohe Geldbußen, sollte sich herausstellen, dass sie gegen den Digital Markets Act verstoßen haben. Die EU-Kommissarin wies Spekulationen zurück, die Entscheidungen könnten sich angesichts der massiven Kritik seitens der US-Administration verzögern. „Es wird nächsten Monat Entscheidungen geben“, bekräftigte Ribera.  Droht mit Trump ein regulatorischer Wilder Westen? Auch die Social-Media-Plattform X von Trump-Buddy Elon Musk bleibe weiter unter Beobachtung, kündigte die spanische Politikerin an. Musks Rolle innerhalb der US-Regierung spiele dabei keine Rolle.  Amazon droht Milliarden-Strafe in Italien Dass europäische Behörden keinen Spaß verstehen, wenn Regeln und Gesetze verletzt werden, bekommt gerade Amazon in Italien zu spüren. Staatsanwälte prüfen dort derzeit, ob der weltgrößte Online-Händler den italienischen Fiskus um 1,2 Milliarden Euro an Mehrwertsteuer geprellt hat. Ein Gesetz in Italien verpflichtet E-Commerce-Plattformen seit 2019 dazu, die anfallende Mehrwertsteuer von Drittanbietern außerhalb der EU begleichen zu müssen, wenn diese über die Plattform Waren in Italien verkauften.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”> Die Untersuchungen der Staatsanwaltschaft betreffen den Zeitraum von 2019 bis 2021. Im Dezember seien die Ermittlungen abgeschlossen worden, hieß es in verschiedenen Medienberichten. Inklusive Bußgelder droht Amazon eine Strafzahlung von über drei Milliarden Euro, verlautete aus Reihen der Guardia di Finanza. Man werde die Untersuchungen nicht kommentieren, hieß es seitens Amazons in einem Bericht des französischen Nachrichtenportals France 24. Man sei jedoch zur Einhaltung aller geltenden Steuergesetze verpflichtet, beteuert der Online-Händler.  Steuerparadies Luxemburg: Amazon zahlt in Europa wieder keine Steuern Amazons Steuerpraktiken stehen schon seit Jahren in der Kritik. Trotz Milliarden-Umsätzen verschiebe der Konzern seine Gewinne in Steueroasen wie Luxemburg, um Steuern zu vermeiden, schimpfte bereits 2022 die britische Labour-Abgeordnete Margret Hodge. Die EU-Kommission auf den einen sowie Amazon und Luxemburg auf der anderen Seite streiten seit Jahren darüber, ob die Steuervorteile von Amazon in Luxemburg nach den EU-Beihilfevorschriften rechtswidrig oder regelkonform sind. Amazon selbst beteuert, man arbeite überall in voller Übereinstimmung mit den lokalen Steuergesetzen.   

Trump und EU-Kommission gehen auf Konfrontationskurs​ width=”2193″ height=”1234″ sizes=”(max-width: 2193px) 100vw, 2193px”>Mit der zweiten Trump-Administration prallen wieder einmal Mal sehr unterschiedliche Kulturen im transatlantischen Verhältnis aufeinander.rawf8 – shutterstock.com

Der seit kurzem amtierende US-Präsident Donald Trump habe die vertrauensvolle Beziehung zwischen den Vereinigten Staaten und Europa auf den Kopf gestellt, konstatierte die neue Wettbewerbskommissarin der EU, Teresa Ribera. Brüssel müsse jetzt für Verlässlichkeit und Stabilität sorgen, Faktoren, die es in Washington nicht mehr gebe. In einem Gespräch mit der Nachrichtenagentur Reuters forderte die Politikerin, Europa müsse zwar weiter mit dem Weißen Haus verhandeln und sich die Bedenken der US-Regierung in Handelsfragen anhören, man dürfe sich jedoch keine Veränderungen an EU-Gesetzen aufzwingen lassen. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?quality=50&strip=all 3000w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Teresa-Ribera.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Terasa Ribera, oberste Hüterin des Wettbewerbs und Vizepräsidentin in der neuen EU-Kommission, bekräftigte, Europa werde an den eigenen Stärken und Prinzipien festhalten.Bogdan Hoyaux / EU-Commission

„Wir müssen an unseren Stärken und Prinzipien festhalten“, bekräftigte Ribera gegenüber Reuters. Weder Menschenrechten noch die Einheit Europas seien verhandelbar, genau so wenig werde man Abstriche bei Demokratie und den eigenen Werten hinnehmen.  

Trump und seine Gefolgsleute in der US-Regierung hatten zuletzt die EU wegen ihrer Vorschriften und Regularien kritisiert. Die von der EU gegen US-Technologieunternehmen verhängten Geldbußen seien eine Art Strafsteuer. 

JD Vance: EU schränkt Meinungsfreiheit ein

US-Vizepräsident J.D. Vance hatte seinen Auftritt auf der Münchener Sicherheitskonferenz Mitte Februar für eine Generalabrechnung mit Europa genutzt. Die Kommissare der EU würden freie Meinungsäußerung unterdrücken und mit Hilfe des Digital Services Act in bestimmten Situationen den Zugang zu Online-Plattformen und Suchmaschinen einschränken, erklärte er.

Ist Trump der Booster für Europas digitale Souveränität?

Ribera reagierte mit Unverständnis auf die Vorwürfe. „Wenn es ein Problem gibt, dann erklären Sie das bitte“, forderte die EU-Kommissarin den US-Politiker auf. „Das ergibt keinen Sinn.“ Auch Volker Wissing, Bundesminister für Digitales und Verkehr, machte klar, dass europäische Werte nicht verhandelbar seien, weder durch politischen Druck noch durch Marktübermacht. „Wer glaubt, europäische Regeln könnten von außen diktiert werden, irrt gewaltig“, betonte der Politiker. „Die EU-Kommission muss den Digital Services Act (DSA) konsequent durchsetzen – ohne Kompromisse und ohne Deals. Wer Meinungsfreiheit mit der Freiheit verwechselt, Hass und Desinformation zu verbreiten, verkennt die Grundlagen unserer Werte.“ 

width=”810″ height=”455″ sizes=”(max-width: 810px) 100vw, 810px”>Wer Meinungsfreiheit mit der Freiheit verwechselt, Hass und Desinformation zu verbreiten, verkennt die Grundlagen unserer Werte, kontert Digitalminister Volker Wissing die Kritik von US-Vize J.D. Vance.Bundesministerium für Digitales und Verkehr

Ribera kündigte an, die EU könne schon im März entscheiden, ob sich Apple und Meta an die europäischen Regeln gehalten haben. Beide US-Konzerne stehen seit rund einem Jahr unter Beobachtung der Kartellwächter. Ihnen drohen hohe Geldbußen, sollte sich herausstellen, dass sie gegen den Digital Markets Act verstoßen haben. Die EU-Kommissarin wies Spekulationen zurück, die Entscheidungen könnten sich angesichts der massiven Kritik seitens der US-Administration verzögern. „Es wird nächsten Monat Entscheidungen geben“, bekräftigte Ribera. 

Droht mit Trump ein regulatorischer Wilder Westen?

Auch die Social-Media-Plattform X von Trump-Buddy Elon Musk bleibe weiter unter Beobachtung, kündigte die spanische Politikerin an. Musks Rolle innerhalb der US-Regierung spiele dabei keine Rolle. 

Amazon droht Milliarden-Strafe in Italien

Dass europäische Behörden keinen Spaß verstehen, wenn Regeln und Gesetze verletzt werden, bekommt gerade Amazon in Italien zu spüren. Staatsanwälte prüfen dort derzeit, ob der weltgrößte Online-Händler den italienischen Fiskus um 1,2 Milliarden Euro an Mehrwertsteuer geprellt hat. Ein Gesetz in Italien verpflichtet E-Commerce-Plattformen seit 2019 dazu, die anfallende Mehrwertsteuer von Drittanbietern außerhalb der EU begleichen zu müssen, wenn diese über die Plattform Waren in Italien verkauften. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”>

Die Untersuchungen der Staatsanwaltschaft betreffen den Zeitraum von 2019 bis 2021. Im Dezember seien die Ermittlungen abgeschlossen worden, hieß es in verschiedenen Medienberichten. Inklusive Bußgelder droht Amazon eine Strafzahlung von über drei Milliarden Euro, verlautete aus Reihen der Guardia di Finanza. Man werde die Untersuchungen nicht kommentieren, hieß es seitens Amazons in einem Bericht des französischen Nachrichtenportals France 24. Man sei jedoch zur Einhaltung aller geltenden Steuergesetze verpflichtet, beteuert der Online-Händler. 

Steuerparadies Luxemburg: Amazon zahlt in Europa wieder keine Steuern

Amazons Steuerpraktiken stehen schon seit Jahren in der Kritik. Trotz Milliarden-Umsätzen verschiebe der Konzern seine Gewinne in Steueroasen wie Luxemburg, um Steuern zu vermeiden, schimpfte bereits 2022 die britische Labour-Abgeordnete Margret Hodge. Die EU-Kommission auf den einen sowie Amazon und Luxemburg auf der anderen Seite streiten seit Jahren darüber, ob die Steuervorteile von Amazon in Luxemburg nach den EU-Beihilfevorschriften rechtswidrig oder regelkonform sind. Amazon selbst beteuert, man arbeite überall in voller Übereinstimmung mit den lokalen Steuergesetzen.  

Trump und EU-Kommission gehen auf Konfrontationskurs​ Weiterlesen »

Machen Chatbots Ärzte besser?​

Allgemein

Macht KI die Ärzte besser? Dieser Frage widmen sich eine ganze Reihe von Forschungsprojekten. shutterstock.com – Thitisan Im letzten Jahr durften Geräte, welche von Künstlicher Intelligenz (KI) unterstützt wurden, schon im OP-Saal mithelfen. Wie weit sie allerdings auch schon Menschen im Vorfeld von medizinischen Eingriffen unterstützen können, wollten Forscher nun herausfinden. LLMs verbessern die Patientenversorgung Eine Studie, deren Ergebnisse in Nature Medicine veröffentlich wurden, hat gezeigt, dass KI-gestützte Chatbots Ärzte bei ihren Diagnosen effizient unterstützen können. Hierfür wurde am Beth Israel Deaconess Medical Center untersucht, wie generative KI (GenAI) Ärzten zur Seite steht. Mit Large-Language-Model (LLM)-Zugang trafen Ärzte demzufolge sicherere Entscheidungen und  hatten mehr Zeit, sich ihren Patienten zu widmen. Die Forscher warnen jedoch vor der Komplexität medizinischer Entscheidungen und betonen die Notwendigkeit strenger Validierung. Bessere Entscheidungen und weniger Schäden dank KI Die Studie bewertete die Entscheidungsfähigkeit von 92 Ärzten anhand von fünf hypothetischen Patientenfällen. Ärzte, die einen Chatbot nutzten, trafen bessere Entscheidungen als jene mit konventionellen Ressourcen, verbrachten mehr Zeit pro Fall und reduzierten das Risiko für leichte bis mittelschwere Schäden (3,7 Prozent vs. 5,3 Prozent). Der Anteil schwerer Schäden blieb in beiden Gruppen gleich hoch. Laut der Forschungsleitung verbesserte die KI vor allem das Verständnis für Patientenkommunikation und soziale Faktoren. Sie hatte aber keinen Einfluss auf Komplikationserkennung oder Medikamentenentscheidungen. KI als Ergänzung, nicht als Ersatz Das Ergebnis der Nature-Medicine-Studie stimmt mit einer früheren Studie aus dem Jahr 2024 überein. Diese zeigte bereits, dass GenAI in klinischen Entscheidungsprozessen mit menschlicher Argumentation gleichziehen oder sie sogar übertreffen kann. Die Studie von 2024, die im Journal of the American Medical Association (JAMA) veröffentlicht wurde, verglich das klinische Denken von Ärzten und ChatGPT (GPT-4) anhand von 20 Fällen. Während die Diagnosegenauigkeit ähnlich war, erzielte der Chatbot teils höhere Punktzahlen, machte aber auch häufiger Fehler. Die Forscher sahen damals KI als Ergänzung, nicht als Ersatz für Ärzte an. Die neue Studie unterscheidet sich durch veränderte Kontrollpunkte und den Fokus auf komplexe Management-Entscheidungen. Statt KI direkt mit Ärzten zu vergleichen, wurde nun der Einfluss von KI-Unterstützung auf Ärzte untersucht. KI kann aber auch hier als Kontrollinstanz zur Fehlervermeidung dienen und Ärzten helfen, mehr Zeit für Patienten zu haben, so die Forscher. Die Studie mit einer verbesserten GPT-4-Version zeigt, dass Chatbots nicht nur einfache Aufgaben übernehmen, sondern auch komplexe Entscheidungen unterstützen könnten. Test geht in die zweite Phase Mit diesen Tests ist die Forschung allerdings noch nicht abgeschlossen, vielmehr soll es weitere Phasen geben: Die nächste Phase des Chatbot-Tests hat bereits neue Rohdaten geliefert, die nun analysiert werden sollen. Die Forscher untersuchen dabei verschiedene Chatbot-Typen, Benutzeroberflächen und die Schulung von Ärzten in der Nutzung von LLMs, um deren Einfluss auf die Leistung zu bewerten. In der zweiten Phase sollen dann erstmals Echtzeit-Patientendaten statt archivierter Fälle verwendet werden. Zudem wollen die Forscher sichere, HIPAA-konforme LLMs testen, um die Auswirkungen in realen klinischen Umgebungen zu analysieren. 

Machen Chatbots Ärzte besser?​ Macht KI die Ärzte besser? Dieser Frage widmen sich eine ganze Reihe von Forschungsprojekten.
shutterstock.com – Thitisan

Im letzten Jahr durften Geräte, welche von Künstlicher Intelligenz (KI) unterstützt wurden, schon im OP-Saal mithelfen. Wie weit sie allerdings auch schon Menschen im Vorfeld von medizinischen Eingriffen unterstützen können, wollten Forscher nun herausfinden.

LLMs verbessern die Patientenversorgung

Eine Studie, deren Ergebnisse in Nature Medicine veröffentlich wurden, hat gezeigt, dass KI-gestützte Chatbots Ärzte bei ihren Diagnosen effizient unterstützen können. Hierfür wurde am Beth Israel Deaconess Medical Center untersucht, wie generative KI (GenAI) Ärzten zur Seite steht. Mit Large-Language-Model (LLM)-Zugang trafen Ärzte demzufolge sicherere Entscheidungen und  hatten mehr Zeit, sich ihren Patienten zu widmen. Die Forscher warnen jedoch vor der Komplexität medizinischer Entscheidungen und betonen die Notwendigkeit strenger Validierung.

Bessere Entscheidungen und weniger Schäden dank KI

Die Studie bewertete die Entscheidungsfähigkeit von 92 Ärzten anhand von fünf hypothetischen Patientenfällen. Ärzte, die einen Chatbot nutzten, trafen bessere Entscheidungen als jene mit konventionellen Ressourcen, verbrachten mehr Zeit pro Fall und reduzierten das Risiko für leichte bis mittelschwere Schäden (3,7 Prozent vs. 5,3 Prozent). Der Anteil schwerer Schäden blieb in beiden Gruppen gleich hoch.

Laut der Forschungsleitung verbesserte die KI vor allem das Verständnis für Patientenkommunikation und soziale Faktoren. Sie hatte aber keinen Einfluss auf Komplikationserkennung oder Medikamentenentscheidungen.

KI als Ergänzung, nicht als Ersatz

Das Ergebnis der Nature-Medicine-Studie stimmt mit einer früheren Studie aus dem Jahr 2024 überein. Diese zeigte bereits, dass GenAI in klinischen Entscheidungsprozessen mit menschlicher Argumentation gleichziehen oder sie sogar übertreffen kann.

Die Studie von 2024, die im Journal of the American Medical Association (JAMA) veröffentlicht wurde, verglich das klinische Denken von Ärzten und ChatGPT (GPT-4) anhand von 20 Fällen. Während die Diagnosegenauigkeit ähnlich war, erzielte der Chatbot teils höhere Punktzahlen, machte aber auch häufiger Fehler. Die Forscher sahen damals KI als Ergänzung, nicht als Ersatz für Ärzte an.

Die neue Studie unterscheidet sich durch veränderte Kontrollpunkte und den Fokus auf komplexe Management-Entscheidungen. Statt KI direkt mit Ärzten zu vergleichen, wurde nun der Einfluss von KI-Unterstützung auf Ärzte untersucht.

KI kann aber auch hier als Kontrollinstanz zur Fehlervermeidung dienen und Ärzten helfen, mehr Zeit für Patienten zu haben, so die Forscher. Die Studie mit einer verbesserten GPT-4-Version zeigt, dass Chatbots nicht nur einfache Aufgaben übernehmen, sondern auch komplexe Entscheidungen unterstützen könnten.

Test geht in die zweite Phase

Mit diesen Tests ist die Forschung allerdings noch nicht abgeschlossen, vielmehr soll es weitere Phasen geben:

Die nächste Phase des Chatbot-Tests hat bereits neue Rohdaten geliefert, die nun analysiert werden sollen. Die Forscher untersuchen dabei verschiedene Chatbot-Typen, Benutzeroberflächen und die Schulung von Ärzten in der Nutzung von LLMs, um deren Einfluss auf die Leistung zu bewerten.

In der zweiten Phase sollen dann erstmals Echtzeit-Patientendaten statt archivierter Fälle verwendet werden. Zudem wollen die Forscher sichere, HIPAA-konforme LLMs testen, um die Auswirkungen in realen klinischen Umgebungen zu analysieren.

Machen Chatbots Ärzte besser?​ Weiterlesen »

Cloud-Speicher für Unternehmen – ein Kaufratgeber​

Allgemein

Enterprise-taugliche Cloud-Speicher decken diverse Funktionsbereiche ab. Cybersicherheit und Datenschutz spielen dabei eine zentrale Rolle. tete_escape | shutterstock.com Services, mit denen Unternehmen Dateien für die interne Nutzung synchronisieren und teilen können, gibt es schon seit mehr als 20 Jahren. Dabei haben sich diese Dienste, die – in erster Linie unter Analysten – auch unter der Bezeichnung „Enterprise File Synchronization and Sharing Services“ (EFSS) bekannt sind, inzwischen zu Content-Collaboration-Plattformen für Unternehmensnutzer entwickelt. Parallel haben auch viele Anbieter von Content-Management-Plattformen EFSS-Funktionen in ihre Produkte integriert. Das lässt die Grenzen zwischen den Softwarekategorien weiter verschwimmen, was es den Anwenderunternehmen wiederum erschwert, den Überblick zu wahren. Wenn Sie gerade abwinken wollen, weil sie bereits einen Cloud-Storage-Service nutzen und damit zufrieden sind, erklärt IDC-Chefanalystin Holly Muscolino, warum Sie sich nicht auf ihren „EFSS-Lorbeeren“ ausruhen sollten: „Es lohnt sich, Ihre Optionen mit Blick auf eine einheitliche, modulare, föderierte und KI-fähige Content-Sharing-Plattform zu prüfen, die sich an sämtliche Ihrer Use Cases anpassen lässt.“ In diesem Artikel erfahren Sie: wie sich Cloud-Speicherdienste heute definieren, welche Trends den EFSS-Markt aktuell treiben, was Cloud-Storage-Services leisten sollten, welche Anbieter in diesem Bereich führend sind und welche Fragen Sie sich und Ihrem Provider vor einem Investment stellen sollten.  Was ist EFSS? Enterprise File Synchronization and Sharing Services ermöglichen Unternehmensnutzern, Dokumente – oder allgemeiner gesprochen Inhalte – über diverse Mobile- und Desktop-Devices: in der Cloud abzulegen, zu bearbeiten, herunterzuladen, zu synchronisieren sowie für andere Nutzer freizugeben. Dateien, Dokumente oder ganze Ordner können so nicht nur für interne User, sondern auch für externe Partner wie Zulieferer zugänglich gemacht werden. Cloud-Speicher-Services, die für den Enterprise-Einsatz konzipiert sind, stehen im Regelfall als App für Android, iOS, macOS und Windows zur Verfügung. Damit die Datensychronisation möglichst reibungslos abläuft, speichern die EFSS-Anbieter in der Regel eine Kopie der Benutzerdaten auf ihren Cloud-Servern. Entsprechend hohe Priorität genießt bei den Anbietern auch das Thema Cybersicherheit, respektive Datenschutz und Compliance.   Der Markt für Cloud-Speicherdienste Mit Blick auf den Umsatz werde der Markt für Enterprise-taugliche Onlinespeicherdienste derzeit von vier Unternehmen dominiert, so IDC-Analystin Muscolino. Nämlich: Microsoft, Google, Box und Dropbox. „All diese Anbieter haben inzwischen Funktionen hinzugefügt, die weit über Synchronisierung und Freigaben hinausgehen. Diese erweiterten Serviceangebote wachsen schneller als der gesamte Markt für Enterprise Content Management [ECM]“, hält Muscolino fest. Aus übergeordneter Perspektive handle es sich jedoch um ein Segment, das stark von Modernisierung, Konsolidierung und Substitution geprägt sei, so die IDC-Expertin. Das kann auch Cheryl McKinnon, Principal Analyst bei Forrester Research, bestätigen: „Während einige ECM-Anbieter ihre Produkte in den letzten Jahren um dokumentenzentrierte Funktionen ergänzt haben, wurden Tools wie OneDrive, Dropbox und Box um Workflow Automation, elektronische Signaturen oder optimierte Governance-Tools erweitert.“ Laut der Forrester-Analystin sei insbesondere Box ein gutes Beispiel dafür, wie sich die Cloud-Speicherdienste weiterentwickelt haben: „Neben den gewohnten Funktionen, hat Box einen API-gesteuerten Plattformansatz vorangetrieben. Das ermöglicht Anwendern, bei Bedarf eigene Content-Management-Applikationen zu entwickeln.“ KI-basierte Funktionen fasst McKinnon als weiteren Innovationsbereich innerhalb des EFSS-Markts auf. GenAI-Funktionen kämen laut IDC-Expertin Muscolino allerdings inzwischen bei fast allen relevanten Anbietern zum Einsatz: „Die Funktionen, die in diesem Bereich angeboten werden, ähneln sich sehr stark. Es geht bisher vor allem darum, Dokumente zusammenzufassen, zu übersetzen oder zu durchsuchen.“ Was Cloud-Storage-Lösungen für Unternehmen leisten sollten Wie Sie vielleicht bereits erahnen, kann das Funktionsangebot von Cloud-Speicherdiensten extrem breit gefächert ausfallen. Ganz allgemein sollten moderne EFSS-Services Folgendes bieten: Berechtigungs- und/oder rollenbasierte Zugriffskontrollen für geteilte Dokumente; Funktionen, um Dokumente zu bearbeiten und wiederherzustellen; die Möglichkeit, den Versionsverlauf zu tracken; die Option, freigegebene Links mit einem Ablaufdatum sowie Passwortschutz zu versehen; Support für E-Signaturen und elektronische Formulare; GenAI-Basisfunktionen; APIs zu Anpassungs- und Integrationszwecken – zum Beispiel mit Blick auf Unternehmenssoftware wie Microsoft Office oder ECM-Plattformen; Auditing-, Analytics– und Reporting-Funktionen; ein Dashboard für Administratoren; die Möglichkeit, Daten zu extrahieren; Data-Retention-Richtlinien; Workflow-Management- und -Automatisierungs-Funktionen; Unterstützung für Active Directory/LDAP; Single-Sign-on- (SSO) oder Zwei- beziehungsweise Mehrfaktorauthentifizierungs (MFA)-Optionen; Ende-zu-Ende-Verschlüsselung; Malware-Detection-Funktionen; Compliance mit regulatorischen Standards wie der DSGVO; Cloud-basierte, On-Premises- und hybride Serviceangebote; föderierten, Repository-übergreifenden Datenzugriff. Möglicherweise gehen einige der genannten Funktionen über den Bedarf Ihrer Organisation hinaus. 7 wichtige Cloud-Speicher-Serviceanbieter Diverse Anbieter offerieren Cloud-Storage-Services – allerdings sind viele Onlinespeicher-Angebote nicht für den Unternehmenseinsatz geeignet. Wir konzentrieren uns bei dieser Anbieterübersicht deshalb auf die Offerings, die laut den Expertinnen von IDC und Forrester Research im Enterprise-Bereich „eine Überlegung wert sind“. Dabei stehen insbesondere die gebotenen Sicherheits- und Compliance-Funktionen im Fokus. Box for Enterprise Box bündelt in seinem Angebot für Unternehmen eine Reihe von spezifischen Funktionen. Dazu gehören: ein Workflow-Automation-„Builder“, der es ermöglicht, dateibasierte Prozesse im No-Code-Verfahren zu automatisieren, digitale Whiteboards für die Zusammenarbeit, Entwickler-Tools und APIs sowie Integrationsmöglichkeiten für mehr als 1.500 populäre Unternehmensanwendungen wie Microsoft 365, Google, Slack oder ServiceNow.  Geht es um administrative Kontrollmöglichkeiten, stellt Box for Enterprise außerdem Analytics-, Reporting- und Auditing-Funktionen zur Verfügung. Das User Interface des Cloud-Speicher-Service enthält, den entsprechenden Preisplan vorausgesetzt, auch Generative-AI-Funktionen.   Zu den Sicherheits- und Compliance-Funktionen gehören bei Box unter anderem: AES-256-Bit-Verschlüsselung, Support für SSO und MFA, Schutz vor Datenlecks und Malware sowie Data-Retention-Richtlinien. Darüber hinaus ist die Lösung (unter anderem) DSGVO-, ITAR-, HIPAA-, PCI DSS- und ISMAP-konform. Dropbox Enterprise Auch Dropbox hat ein spezielles Enterprise-Paket geschnürt. Dieses zeichnen neben den bekannten Funktionen (Dateien speichern und teilen) unter anderem Management-Funktionen für Dateien und Ordner sowie Lizenzen aus, die über ein Dashboard bereitgestellt werden. Außerdem unterstützt der Onlinespeicher-Service für Unternehmen unter anderem auch elektronische Signaturen und enthält Analysefunktionen sowie einen Versionsverlauf. Über eine Erweiterung sind zudem auch Data-Governance-Funktionen verfügbar. Darüber hinaus bietet Dropbox Enterprise Integrationsmöglichkeiten für diverse Unternehmensapplikationen und -Plattformen – beispielsweise Autodesk, Google Workspace, Microsoft 365, Hubspot oder AWS.  Im Bereich Cybersicherheit bietet der Cloud-Storage-Service zum Beispiel folgende Funktionen: Support für SSO und MFA, 256-Bit-AES- und SSL/TLS-Verschlüsselung, Key Management, Schwachstellen-Testing, Darkweb-Monitoring, Ransomware-Detction und -Recovery und Warnmeldungen bei verdächtigen Anmeldeversuchen. Dropbox for Business enttäuscht auch mit Blick auf die Compliance nicht. Der Enterprise-Onlinespeicher ist unter anderem DSGVO-, ISO-27001-, NIST und SOC3-konform. Egnyte Der US-Anbieter Egnyte bezeichnet sein Cloud-Speicher-Angebot als Plattform für „Unified Content Management, Data Security und KI“. Im Kern stehen dennoch weiterhin Funktionen für Dateisynchronisation und -freigabe. Diese werden beispielsweise von einem KI-Assistenten flankiert, der Dokumente zusammenfassen kann und natürlichsprachliche Abfragen ermöglicht. Der Cloud-Storage-Service von Egnyte unterstützt außerdem Audits und Versions-Tracking und bietet zudem Funktionen für Data Recovery. Dieser Anbieter bietet auch branchenspezifische Lösungen, unter anderem für: Finanzdienstleister, Life-Sciences-Unternehmen, Kreativagenturen und Publisher sowie den öffentlichen Sektor. Was das Thema künstliche Intelligenz angeht, bringt der Cloud-Speicherdienst von Egnyte die Technologie in verschiedenen Bereichen zum Einsatz: Einerseits in Form von Knowledge Workers, die Dokumente und Dateien zusammenfassen, Schlüsselinformationen extrahieren oder Workflows triggern. Andererseits erleichtert GenAI auch die Compliance-Bemühungen in Form von automatisierten Dokumentenklassifizierungen und Datenschutzanfragen. Darüber hinaus kombiniert Egnyte generative KI auch mit Cybersecurity – in Form von automatisierter Anomalieerkennung, granularen Richtlinien und DLP-Kontrollmöglichkeiten für besonders sensible Daten.     Zu den „gewöhnlichen“ Sicherheitsfunktionen der Cloud-Speicherplattform zählen unter anderem rollenbasierte Zugriffskontrollen, Insider-Risikomanagement und Ransomware-Schutz. Egnyte bietet aus Compliance-Sicht unterschiedliche Lösungen an, beispielsweise eine „Secure Enclave Solution“, die den Richtlinien von DSGVO und CCPA entspricht. FileCloud Nicht gerade bescheiden bezeichnet sich der US-Anbieter FileCloud selbst als „die Nummer 1 für Dateifreigabe, Snychronisierung und Backup der Enterprise-Klasse“. Dieser Storage-Dienst steht sowohl Cloud-basiert als auch als On-Premises-Lösung zur Verfügung, die in Active Directory oder LDAP integriert werden kann. Zu den Funktionen gehören unter anderem: „Zero Trust“ Filesharing, KI-Datenklassifikation, Data Governance und Lifecycle Management, Workflow-Automatisierung und digitales Rechtemanagement. Darüber hinaus unterstützt der Cloud-Speicherdienst auch Data-Retention-Richtlinien und ist DSGVO-, HIPAA- und FINRA-konform (unter anderem). In punkto Sicherheitsfunktionen bemüht sich der Anbieter seinem eingangs genannten PR-Versprechen gerecht zu werden. Zum Beispiel mit: Support für SSO und MFA, Ransomware-Schutz, Datenverschlüsselung im Ruhezustand und während der Übertragung oder Anti-Virus-Scans. Microsoft-zentrischen Unternehmen kommt entgegen, dass für die Integration mit Office und Outlook sowie den zugehörigen mobilen Apps entsprechende Add-ons angeboten werden. Google Drive for Business Google Drive for Business ist das Unternehmensangebot des Suchmaschinenriesen und in den Preisplänen für Google Workspace enthalten. Für Unternehmen, die mit Google arbeiten, ist dieses Cloud-Storage-Angebot wahrscheinlich das bequemste und kosteneffizienteste. Über die gängigen Funktionen wie Dateien und Ordner mit Berechtigungen versehen und freigeben sowie bearbeiten und kommentieren, muss man nicht mehr viel Worte verlieren.   Erwähnenswert sind hingegen folgende Funktionen des Onlinespeichers von Google: eine zentralisierte Management-Konsole, eine KI-basierte Funktion, die vorhersagt, welche Dokumente Sie als Nächstes benötigen könnten, eine ML-basierte Suchfunktion, die Dateien anzeigen kann, die „möglicherweise Aufmerksamkeit erfordern“. Was Security und Data Governance angeht, bietet der Google-Service (je nach Preisplan) unter anderem: Richtlinien-basierte Zugriffskontrollen, Data Loss Prevention, Endpoint Management, Data-Retention-Richtlinien, Support für E-Signaturen und S/MIME-Verschlüsselung. Auch für Google Drive for Business stehen Plug-ins für Microsoft Outlook und Office zur Verfügung. Microsoft OneDrive for Business Wie im Fall von Google gilt auch bei Microsoft: Wenn Sie bereits ein 365-Abonnement haben, dürfte OneDrive for Business für Sie die komfortabelste und kostengünstige Option darstellen. Der Cloud-Speicher von Microsoft lässt sich naturgemäß nahtlos in Outlook und SharePoint einbinden. Zudem übernimmt OneDrive sämtliche Datenschutzfunktionen von Microsoft 365 (M365), einschließlich des rollenbasierten Zugriffs sowie Identity- und App-Management-Funktionen. Erwähnenswerte Sicherheits- und Compliance-Funktionen der DSGVO-konformen Lösung sind darüber hinaus: MFA, Compliance Monitoring und Reporting, Datenverschlüsselung, Data Loss Prevention und Data-Retention-Richtlinien. Tresorit Der Cloud-Speicher-Serviceanbieter Tresorit gehört seit 2021 mehrheitlich der Schweizer Post, agiert jedoch als eigenständiges Unternehmen. Als solches bewirbt es sein Cloud-Speicher-Angebot mit dem Versprechen „Schweizer Sicherheit gemäß höchster Standards“. Die Onlinespeicher-Lösung ist mit diversen Compliance-Standards konform, beispielsweise der DSGVO, ISO 27001 oder HIPAA und lässt sich darüber hinaus in vorhandene Unternehmensplattformen integrieren. Weitere nennenswerte Funktionen der Lösung sind zum Beispiel: Support für E-Signaturen, Audit- und Reporting, Versionshistorie sowie   Data-Retention-Richtlinien. Weil Tresorit mit seinem Cloud-Storage-Angebot vor allem Unternehmen adressiert, die ein besonders hohes Maß an Sicherheit benötigen, bringt diese Lösung einen umfassenden Katalog an Sicherheitsfunktionen mit. Ein Auszug: Ende-zu-Ende Datenverschlüsselung; Passwortschutz; Zugriffskontrollen; Aktivitätsprotokolle; Datenwiederherstellung; dynamische Wasserzeichen; SSO- und MFA-Unterstützung. Die Schweizer vermarkten ihre Cloud-Speicherlösung zudem als eine Möglichkeit, E-Mail-Dokumentenanhänge durch geteilte Links zu ersetzen. Um das zu realisieren, stehen auch Add-ons für Outlook und Gmail zur Verfügung. 9 Fragen vor dem Cloud-Storage-Investment Bevor Sie Ihr hart erkämpftes Budget für einen Cloud-Speicherdienst opfern, lohnt es sich, Antworten auf die folgenden neun Fragen zu finden. Entweder im Austausch mit sich selbst oder mit dem EFSS-Anbieter Ihrer Wahl. Wer wird/soll den Cloud-Storage-Service zu welchem Zweck nutzen? Wo müssen Ihre Daten gespeichert werden? Sollen diese teilweise lokal vorgehalten werden, sind Funktionen für föderierten Datenzugriff Pflicht. Setzen Sie unter Umständen bereits ein Content-Management-System oder Collaboration-Tools mit den gewünschten Funktionen ein (Stichwort Microsoft 365)? Ist der gewählte Cloud-Speicherdienst ausreichend benutzerfreundlich? Lassen sich Ihre Drittanbieter-Tools gut integrieren? Benötigen Sie erweiterte Funktionen wie Workflow-Management? Welche Sicherheitsanforderungen wollen oder müssen Sie für geteilte Inhalte anlegen? Welche Anforderungen haben Sie allgemein in Bezug auf Cybersicherheit? Werden die für Ihre Branche relevanten Compliance-Standards erfüllt? Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Cloud-Speicher für Unternehmen – ein Kaufratgeber​ Enterprise-taugliche Cloud-Speicher decken diverse Funktionsbereiche ab. Cybersicherheit und Datenschutz spielen dabei eine zentrale Rolle.
tete_escape | shutterstock.com

Services, mit denen Unternehmen Dateien für die interne Nutzung synchronisieren und teilen können, gibt es schon seit mehr als 20 Jahren. Dabei haben sich diese Dienste, die – in erster Linie unter Analysten – auch unter der Bezeichnung „Enterprise File Synchronization and Sharing Services“ (EFSS) bekannt sind, inzwischen zu Content-Collaboration-Plattformen für Unternehmensnutzer entwickelt. Parallel haben auch viele Anbieter von Content-Management-Plattformen EFSS-Funktionen in ihre Produkte integriert. Das lässt die Grenzen zwischen den Softwarekategorien weiter verschwimmen, was es den Anwenderunternehmen wiederum erschwert, den Überblick zu wahren.

Wenn Sie gerade abwinken wollen, weil sie bereits einen Cloud-Storage-Service nutzen und damit zufrieden sind, erklärt IDC-Chefanalystin Holly Muscolino, warum Sie sich nicht auf ihren „EFSS-Lorbeeren“ ausruhen sollten: „Es lohnt sich, Ihre Optionen mit Blick auf eine einheitliche, modulare, föderierte und KI-fähige Content-Sharing-Plattform zu prüfen, die sich an sämtliche Ihrer Use Cases anpassen lässt.“

In diesem Artikel erfahren Sie:

wie sich Cloud-Speicherdienste heute definieren,

welche Trends den EFSS-Markt aktuell treiben,

was Cloud-Storage-Services leisten sollten,

welche Anbieter in diesem Bereich führend sind und

welche Fragen Sie sich und Ihrem Provider vor einem Investment stellen sollten. 

Was ist EFSS?

Enterprise File Synchronization and Sharing Services ermöglichen Unternehmensnutzern, Dokumente – oder allgemeiner gesprochen Inhalte – über diverse Mobile- und Desktop-Devices:

in der Cloud abzulegen,

zu bearbeiten,

herunterzuladen,

zu synchronisieren sowie

für andere Nutzer freizugeben.

Dateien, Dokumente oder ganze Ordner können so nicht nur für interne User, sondern auch für externe Partner wie Zulieferer zugänglich gemacht werden. Cloud-Speicher-Services, die für den Enterprise-Einsatz konzipiert sind, stehen im Regelfall als App für Android, iOS, macOS und Windows zur Verfügung.

Damit die Datensychronisation möglichst reibungslos abläuft, speichern die EFSS-Anbieter in der Regel eine Kopie der Benutzerdaten auf ihren Cloud-Servern. Entsprechend hohe Priorität genießt bei den Anbietern auch das Thema Cybersicherheit, respektive Datenschutz und Compliance.  

Der Markt für Cloud-Speicherdienste

Mit Blick auf den Umsatz werde der Markt für Enterprise-taugliche Onlinespeicherdienste derzeit von vier Unternehmen dominiert, so IDC-Analystin Muscolino. Nämlich:

Microsoft,

Google,

Box und

Dropbox.

„All diese Anbieter haben inzwischen Funktionen hinzugefügt, die weit über Synchronisierung und Freigaben hinausgehen. Diese erweiterten Serviceangebote wachsen schneller als der gesamte Markt für Enterprise Content Management [ECM]“, hält Muscolino fest. Aus übergeordneter Perspektive handle es sich jedoch um ein Segment, das stark von Modernisierung, Konsolidierung und Substitution geprägt sei, so die IDC-Expertin.

Das kann auch Cheryl McKinnon, Principal Analyst bei Forrester Research, bestätigen: „Während einige ECM-Anbieter ihre Produkte in den letzten Jahren um dokumentenzentrierte Funktionen ergänzt haben, wurden Tools wie OneDrive, Dropbox und Box um Workflow Automation, elektronische Signaturen oder optimierte Governance-Tools erweitert.“

Laut der Forrester-Analystin sei insbesondere Box ein gutes Beispiel dafür, wie sich die Cloud-Speicherdienste weiterentwickelt haben: „Neben den gewohnten Funktionen, hat Box einen API-gesteuerten Plattformansatz vorangetrieben. Das ermöglicht Anwendern, bei Bedarf eigene Content-Management-Applikationen zu entwickeln.“

KI-basierte Funktionen fasst McKinnon als weiteren Innovationsbereich innerhalb des EFSS-Markts auf. GenAI-Funktionen kämen laut IDC-Expertin Muscolino allerdings inzwischen bei fast allen relevanten Anbietern zum Einsatz: „Die Funktionen, die in diesem Bereich angeboten werden, ähneln sich sehr stark. Es geht bisher vor allem darum, Dokumente zusammenzufassen, zu übersetzen oder zu durchsuchen.“

Was Cloud-Storage-Lösungen für Unternehmen leisten sollten

Wie Sie vielleicht bereits erahnen, kann das Funktionsangebot von Cloud-Speicherdiensten extrem breit gefächert ausfallen. Ganz allgemein sollten moderne EFSS-Services Folgendes bieten:

Berechtigungs- und/oder rollenbasierte Zugriffskontrollen für geteilte Dokumente;

Funktionen, um Dokumente zu bearbeiten und wiederherzustellen;

die Möglichkeit, den Versionsverlauf zu tracken;

die Option, freigegebene Links mit einem Ablaufdatum sowie Passwortschutz zu versehen;

Support für E-Signaturen und elektronische Formulare;

GenAI-Basisfunktionen;

APIs zu Anpassungs- und Integrationszwecken – zum Beispiel mit Blick auf Unternehmenssoftware wie Microsoft Office oder ECM-Plattformen;

Auditing-, Analytics– und Reporting-Funktionen;

ein Dashboard für Administratoren;

die Möglichkeit, Daten zu extrahieren;

Data-Retention-Richtlinien;

Workflow-Management- und -Automatisierungs-Funktionen;

Unterstützung für Active Directory/LDAP;

Single-Sign-on- (SSO) oder Zwei- beziehungsweise Mehrfaktorauthentifizierungs (MFA)-Optionen;

Ende-zu-Ende-Verschlüsselung;

Malware-Detection-Funktionen;

Compliance mit regulatorischen Standards wie der DSGVO;

Cloud-basierte, On-Premises- und hybride Serviceangebote;

föderierten, Repository-übergreifenden Datenzugriff.

Möglicherweise gehen einige der genannten Funktionen über den Bedarf Ihrer Organisation hinaus.

7 wichtige Cloud-Speicher-Serviceanbieter

Diverse Anbieter offerieren Cloud-Storage-Services – allerdings sind viele Onlinespeicher-Angebote nicht für den Unternehmenseinsatz geeignet. Wir konzentrieren uns bei dieser Anbieterübersicht deshalb auf die Offerings, die laut den Expertinnen von IDC und Forrester Research im Enterprise-Bereich „eine Überlegung wert sind“. Dabei stehen insbesondere die gebotenen Sicherheits- und Compliance-Funktionen im Fokus.

Box for Enterprise

Box bündelt in seinem Angebot für Unternehmen eine Reihe von spezifischen Funktionen. Dazu gehören:

ein Workflow-Automation-„Builder“, der es ermöglicht, dateibasierte Prozesse im No-Code-Verfahren zu automatisieren,

digitale Whiteboards für die Zusammenarbeit,

Entwickler-Tools und APIs sowie

Integrationsmöglichkeiten für mehr als 1.500 populäre Unternehmensanwendungen wie Microsoft 365, Google, Slack oder ServiceNow. 

Geht es um administrative Kontrollmöglichkeiten, stellt Box for Enterprise außerdem Analytics-, Reporting- und Auditing-Funktionen zur Verfügung. Das User Interface des Cloud-Speicher-Service enthält, den entsprechenden Preisplan vorausgesetzt, auch Generative-AI-Funktionen.  

Zu den Sicherheits- und Compliance-Funktionen gehören bei Box unter anderem:

AES-256-Bit-Verschlüsselung,

Support für SSO und MFA,

Schutz vor Datenlecks und Malware sowie

Data-Retention-Richtlinien.

Darüber hinaus ist die Lösung (unter anderem) DSGVO-, ITAR-, HIPAA-, PCI DSS- und ISMAP-konform.

Dropbox Enterprise

Auch Dropbox hat ein spezielles Enterprise-Paket geschnürt. Dieses zeichnen neben den bekannten Funktionen (Dateien speichern und teilen) unter anderem Management-Funktionen für Dateien und Ordner sowie Lizenzen aus, die über ein Dashboard bereitgestellt werden.

Außerdem unterstützt der Onlinespeicher-Service für Unternehmen unter anderem auch elektronische Signaturen und enthält Analysefunktionen sowie einen Versionsverlauf. Über eine Erweiterung sind zudem auch Data-Governance-Funktionen verfügbar. Darüber hinaus bietet Dropbox Enterprise Integrationsmöglichkeiten für diverse Unternehmensapplikationen und -Plattformen – beispielsweise Autodesk, Google Workspace, Microsoft 365, Hubspot oder AWS. 

Im Bereich Cybersicherheit bietet der Cloud-Storage-Service zum Beispiel folgende Funktionen:

Support für SSO und MFA,

256-Bit-AES- und SSL/TLS-Verschlüsselung,

Key Management,

Schwachstellen-Testing,

Darkweb-Monitoring,

Ransomware-Detction und -Recovery und

Warnmeldungen bei verdächtigen Anmeldeversuchen.

Dropbox for Business enttäuscht auch mit Blick auf die Compliance nicht. Der Enterprise-Onlinespeicher ist unter anderem DSGVO-, ISO-27001-, NIST und SOC3-konform.

Egnyte

Der US-Anbieter Egnyte bezeichnet sein Cloud-Speicher-Angebot als Plattform für „Unified Content Management, Data Security und KI“. Im Kern stehen dennoch weiterhin Funktionen für Dateisynchronisation und -freigabe. Diese werden beispielsweise von einem KI-Assistenten flankiert, der Dokumente zusammenfassen kann und natürlichsprachliche Abfragen ermöglicht. Der Cloud-Storage-Service von Egnyte unterstützt außerdem Audits und Versions-Tracking und bietet zudem Funktionen für Data Recovery.

Dieser Anbieter bietet auch branchenspezifische Lösungen, unter anderem für:

Finanzdienstleister,

Life-Sciences-Unternehmen,

Kreativagenturen und Publisher sowie

den öffentlichen Sektor.

Was das Thema künstliche Intelligenz angeht, bringt der Cloud-Speicherdienst von Egnyte die Technologie in verschiedenen Bereichen zum Einsatz:

Einerseits in Form von Knowledge Workers, die Dokumente und Dateien zusammenfassen, Schlüsselinformationen extrahieren oder Workflows triggern.

Andererseits erleichtert GenAI auch die Compliance-Bemühungen in Form von automatisierten Dokumentenklassifizierungen und Datenschutzanfragen.

Darüber hinaus kombiniert Egnyte generative KI auch mit Cybersecurity – in Form von automatisierter Anomalieerkennung, granularen Richtlinien und DLP-Kontrollmöglichkeiten für besonders sensible Daten.    

Zu den „gewöhnlichen“ Sicherheitsfunktionen der Cloud-Speicherplattform zählen unter anderem rollenbasierte Zugriffskontrollen, Insider-Risikomanagement und Ransomware-Schutz. Egnyte bietet aus Compliance-Sicht unterschiedliche Lösungen an, beispielsweise eine „Secure Enclave Solution“, die den Richtlinien von DSGVO und CCPA entspricht.

FileCloud

Nicht gerade bescheiden bezeichnet sich der US-Anbieter FileCloud selbst als „die Nummer 1 für Dateifreigabe, Snychronisierung und Backup der Enterprise-Klasse“. Dieser Storage-Dienst steht sowohl Cloud-basiert als auch als On-Premises-Lösung zur Verfügung, die in Active Directory oder LDAP integriert werden kann. Zu den Funktionen gehören unter anderem:

„Zero Trust“ Filesharing,

KI-Datenklassifikation,

Data Governance und Lifecycle Management,

Workflow-Automatisierung und

digitales Rechtemanagement.

Darüber hinaus unterstützt der Cloud-Speicherdienst auch Data-Retention-Richtlinien und ist DSGVO-, HIPAA- und FINRA-konform (unter anderem). In punkto Sicherheitsfunktionen bemüht sich der Anbieter seinem eingangs genannten PR-Versprechen gerecht zu werden. Zum Beispiel mit:

Support für SSO und MFA,

Ransomware-Schutz,

Datenverschlüsselung im Ruhezustand und während der Übertragung oder

Anti-Virus-Scans.

Microsoft-zentrischen Unternehmen kommt entgegen, dass für die Integration mit Office und Outlook sowie den zugehörigen mobilen Apps entsprechende Add-ons angeboten werden.

Google Drive for Business

Google Drive for Business ist das Unternehmensangebot des Suchmaschinenriesen und in den Preisplänen für Google Workspace enthalten. Für Unternehmen, die mit Google arbeiten, ist dieses Cloud-Storage-Angebot wahrscheinlich das bequemste und kosteneffizienteste. Über die gängigen Funktionen wie Dateien und Ordner mit Berechtigungen versehen und freigeben sowie bearbeiten und kommentieren, muss man nicht mehr viel Worte verlieren.  

Erwähnenswert sind hingegen folgende Funktionen des Onlinespeichers von Google:

eine zentralisierte Management-Konsole,

eine KI-basierte Funktion, die vorhersagt, welche Dokumente Sie als Nächstes benötigen könnten,

eine ML-basierte Suchfunktion, die Dateien anzeigen kann, die „möglicherweise Aufmerksamkeit erfordern“.

Was Security und Data Governance angeht, bietet der Google-Service (je nach Preisplan) unter anderem:

Richtlinien-basierte Zugriffskontrollen,

Data Loss Prevention,

Endpoint Management,

Data-Retention-Richtlinien,

Support für E-Signaturen und

S/MIME-Verschlüsselung.

Auch für Google Drive for Business stehen Plug-ins für Microsoft Outlook und Office zur Verfügung.

Microsoft OneDrive for Business

Wie im Fall von Google gilt auch bei Microsoft: Wenn Sie bereits ein 365-Abonnement haben, dürfte OneDrive for Business für Sie die komfortabelste und kostengünstige Option darstellen. Der Cloud-Speicher von Microsoft lässt sich naturgemäß nahtlos in Outlook und SharePoint einbinden.

Zudem übernimmt OneDrive sämtliche Datenschutzfunktionen von Microsoft 365 (M365), einschließlich des rollenbasierten Zugriffs sowie Identity- und App-Management-Funktionen. Erwähnenswerte Sicherheits- und Compliance-Funktionen der DSGVO-konformen Lösung sind darüber hinaus:

MFA,

Compliance Monitoring und Reporting,

Datenverschlüsselung,

Data Loss Prevention und

Data-Retention-Richtlinien.

Tresorit

Der Cloud-Speicher-Serviceanbieter Tresorit gehört seit 2021 mehrheitlich der Schweizer Post, agiert jedoch als eigenständiges Unternehmen. Als solches bewirbt es sein Cloud-Speicher-Angebot mit dem Versprechen „Schweizer Sicherheit gemäß höchster Standards“. Die Onlinespeicher-Lösung ist mit diversen Compliance-Standards konform, beispielsweise der DSGVO, ISO 27001 oder HIPAA und lässt sich darüber hinaus in vorhandene Unternehmensplattformen integrieren. Weitere nennenswerte Funktionen der Lösung sind zum Beispiel:

Support für E-Signaturen,

Audit- und Reporting,

Versionshistorie sowie  

Data-Retention-Richtlinien.

Weil Tresorit mit seinem Cloud-Storage-Angebot vor allem Unternehmen adressiert, die ein besonders hohes Maß an Sicherheit benötigen, bringt diese Lösung einen umfassenden Katalog an Sicherheitsfunktionen mit. Ein Auszug:

Ende-zu-Ende Datenverschlüsselung;

Passwortschutz;

Zugriffskontrollen;

Aktivitätsprotokolle;

Datenwiederherstellung;

dynamische Wasserzeichen;

SSO- und MFA-Unterstützung.

Die Schweizer vermarkten ihre Cloud-Speicherlösung zudem als eine Möglichkeit, E-Mail-Dokumentenanhänge durch geteilte Links zu ersetzen. Um das zu realisieren, stehen auch Add-ons für Outlook und Gmail zur Verfügung.

9 Fragen vor dem Cloud-Storage-Investment

Bevor Sie Ihr hart erkämpftes Budget für einen Cloud-Speicherdienst opfern, lohnt es sich, Antworten auf die folgenden neun Fragen zu finden. Entweder im Austausch mit sich selbst oder mit dem EFSS-Anbieter Ihrer Wahl.

Wer wird/soll den Cloud-Storage-Service zu welchem Zweck nutzen?

Wo müssen Ihre Daten gespeichert werden? Sollen diese teilweise lokal vorgehalten werden, sind Funktionen für föderierten Datenzugriff Pflicht.

Setzen Sie unter Umständen bereits ein Content-Management-System oder Collaboration-Tools mit den gewünschten Funktionen ein (Stichwort Microsoft 365)?

Ist der gewählte Cloud-Speicherdienst ausreichend benutzerfreundlich?

Lassen sich Ihre Drittanbieter-Tools gut integrieren?

Benötigen Sie erweiterte Funktionen wie Workflow-Management?

Welche Sicherheitsanforderungen wollen oder müssen Sie für geteilte Inhalte anlegen?

Welche Anforderungen haben Sie allgemein in Bezug auf Cybersicherheit?

Werden die für Ihre Branche relevanten Compliance-Standards erfüllt?

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Cloud-Speicher für Unternehmen – ein Kaufratgeber​ Weiterlesen »

Der Datenbank-Admin stirbt aus​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?quality=50&strip=all 3746w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Datenbank-Administratoren sterben aus. Um die Zukunft müssen sich die Spezialisten dennoch keine Sorgen machen – insofern sie offen für Change sind. Fractal Pictures | shutterstock.com Datenbankadministration stellt innerhalb der IT einen Bereich dar, dessen Attraktivität oft unterschätzt oder übersehen wird. Nichtsdestotrotz bleiben die Skills in diesem Bereich gefragt – den durch den KI-Boom ausgelösten Job-Unsicherheiten zum Trotz. Was nicht heißen soll, dass künstliche Intelligenz nicht auch hier für Umwälzungen sorgen wird. Insbesondere für den Job des Datenbankadministrators dürfte es in Zukunft eng werden. Ich würde sogar soweit gehen, zu behaupten, dass diese Rolle schon bald nur noch selten in den Organigrammen von Unternehmen auftauchen wird. Dennoch müssen Datenbank-Admins nicht befürchten, überflüssig zu werden. Im Gegenteil: Wenn sie jetzt an den richtigen Stellschrauben drehen, bieten sich mit Blick auf die kommenden Jahre attraktive Karrierechancen. Die Zukunft der Datenbankprofis Die Rolle des Datenbankadministrators könnte alleine schon deshalb demnächst von der Bildfläche verschwinden, weil sie die Gesamtheit der Aufgaben und Verantwortlichkeiten dieser Experten nicht mehr angemessen widerspiegelt. Die Skills, die für den Job nötig sind, bilden jedoch die künftige Grundlage für neue Rollen im Datenbankbereich. Um herauszufinden, wie diese konkret aussehen könnten, lohnt es sich, einen Blick auf Devops zu werfen. Denn dabei tun sich Parallelen auf: Ähnlich wie Devops-Spezialisten Dev- und Ops-Fähigkeiten vereinen, wird auch beim Thema Datenbank künftig der Fokus auf Infrastrukturentscheidungen und der Funktionsweise von Daten liegen. Zu den neuen Aufgaben und Entscheidungskompetenzen von Datenbank-Profis könnte beispielsweise zählen: zu bestimmen, welche Auswirkungen die Architektur auf die Interpretation von Daten hat, oder zu ermitteln, wie sich Datenprozesse durch Änderungen auf infrastruktureller Ebene effizienter gestalten lassen. Anstatt Performance-Reports zu wälzen und sich an den offensichtlichsten Ineffizienzen abzuarbeiten, werden die Datenbankexperten von morgen mit Blick auf die gesamte Daten-Pipeline agieren. Für die Datenbank-Admins von heute wird es deshalb vor allem darauf ankommen, sich neue Kompetenzen aus den Bereichen Datenanalyse und Data Science anzueignen. Insbesondere solche, die es ihnen ermöglichen, Daten im Kontext zu betrachten und das übergeordnete Bild von Datenbankoperationen zu erfassen. Um diesen Paradigmenwechsel zu veranschaulichen, sollte man sich vergegenwärtigen, wie Datenbank-Admins bisher die Query Performance betrachten: Traditionell fokussieren sie sich dabei auf die Reports und Abfragen mit den längsten Ausführungszeiten – und versuchen, diese zu optimieren. Im Ergebnis kann das zu einer besseren Performance führen. Was dabei allerdings unter den Tisch fällt, ist, wie oft diese Abfragen ausgeführt werden. Fallen sie etwa nur einmal pro Monat an, hält sich der Gesamtnutzen für den Betrieb stark in Grenzen. Dabei ließe sich der Impact deutlich vergrößern, wenn auch Queries mit bereits guter oder ausreichender Performance optimiert würden, die täglich genutzt werden. Um diese Art von Erkenntnissen gewinnen und die sich daraus ergebenden Möglichkeiten nutzen zu können, müssen Datenbankexperten künftig auch deutlich enger mit Development– und Business-Teams zusammenarbeiten. Nur so können sie zu einer umfassenderen Perspektive und einem besseren Verständnis für die Datenprozesse im Unternehmen kommen. Ich bin davon überzeugt, dass diejenigen, die bereit und in der Lage sind, diesen mentalen Wandel zu vollziehen, die kommenden Veränderungen nicht nur „überleben“, sondern massiv davon profitieren werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Der Datenbank-Admin stirbt aus​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?quality=50&strip=all 3746w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Fractal-Pictures_shutterstock_1684519021_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Datenbank-Administratoren sterben aus. Um die Zukunft müssen sich die Spezialisten dennoch keine Sorgen machen – insofern sie offen für Change sind. Fractal Pictures | shutterstock.com

Datenbankadministration stellt innerhalb der IT einen Bereich dar, dessen Attraktivität oft unterschätzt oder übersehen wird. Nichtsdestotrotz bleiben die Skills in diesem Bereich gefragt – den durch den KI-Boom ausgelösten Job-Unsicherheiten zum Trotz.

Was nicht heißen soll, dass künstliche Intelligenz nicht auch hier für Umwälzungen sorgen wird. Insbesondere für den Job des Datenbankadministrators dürfte es in Zukunft eng werden. Ich würde sogar soweit gehen, zu behaupten, dass diese Rolle schon bald nur noch selten in den Organigrammen von Unternehmen auftauchen wird.

Dennoch müssen Datenbank-Admins nicht befürchten, überflüssig zu werden. Im Gegenteil: Wenn sie jetzt an den richtigen Stellschrauben drehen, bieten sich mit Blick auf die kommenden Jahre attraktive Karrierechancen.

Die Zukunft der Datenbankprofis

Die Rolle des Datenbankadministrators könnte alleine schon deshalb demnächst von der Bildfläche verschwinden, weil sie die Gesamtheit der Aufgaben und Verantwortlichkeiten dieser Experten nicht mehr angemessen widerspiegelt. Die Skills, die für den Job nötig sind, bilden jedoch die künftige Grundlage für neue Rollen im Datenbankbereich. Um herauszufinden, wie diese konkret aussehen könnten, lohnt es sich, einen Blick auf Devops zu werfen.

Denn dabei tun sich Parallelen auf: Ähnlich wie Devops-Spezialisten Dev- und Ops-Fähigkeiten vereinen, wird auch beim Thema Datenbank künftig der Fokus auf Infrastrukturentscheidungen und der Funktionsweise von Daten liegen. Zu den neuen Aufgaben und Entscheidungskompetenzen von Datenbank-Profis könnte beispielsweise zählen:

zu bestimmen, welche Auswirkungen die Architektur auf die Interpretation von Daten hat, oder

zu ermitteln, wie sich Datenprozesse durch Änderungen auf infrastruktureller Ebene effizienter gestalten lassen.

Anstatt Performance-Reports zu wälzen und sich an den offensichtlichsten Ineffizienzen abzuarbeiten, werden die Datenbankexperten von morgen mit Blick auf die gesamte Daten-Pipeline agieren. Für die Datenbank-Admins von heute wird es deshalb vor allem darauf ankommen, sich neue Kompetenzen aus den Bereichen Datenanalyse und Data Science anzueignen. Insbesondere solche, die es ihnen ermöglichen, Daten im Kontext zu betrachten und das übergeordnete Bild von Datenbankoperationen zu erfassen.

Um diesen Paradigmenwechsel zu veranschaulichen, sollte man sich vergegenwärtigen, wie Datenbank-Admins bisher die Query Performance betrachten: Traditionell fokussieren sie sich dabei auf die Reports und Abfragen mit den längsten Ausführungszeiten – und versuchen, diese zu optimieren. Im Ergebnis kann das zu einer besseren Performance führen. Was dabei allerdings unter den Tisch fällt, ist, wie oft diese Abfragen ausgeführt werden. Fallen sie etwa nur einmal pro Monat an, hält sich der Gesamtnutzen für den Betrieb stark in Grenzen. Dabei ließe sich der Impact deutlich vergrößern, wenn auch Queries mit bereits guter oder ausreichender Performance optimiert würden, die täglich genutzt werden.

Um diese Art von Erkenntnissen gewinnen und die sich daraus ergebenden Möglichkeiten nutzen zu können, müssen Datenbankexperten künftig auch deutlich enger mit Development– und Business-Teams zusammenarbeiten. Nur so können sie zu einer umfassenderen Perspektive und einem besseren Verständnis für die Datenprozesse im Unternehmen kommen. Ich bin davon überzeugt, dass diejenigen, die bereit und in der Lage sind, diesen mentalen Wandel zu vollziehen, die kommenden Veränderungen nicht nur „überleben“, sondern massiv davon profitieren werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Der Datenbank-Admin stirbt aus​ Weiterlesen »

Networking wie ein alter Hase: So netzwerken Berufseinsteiger richtig​

Allgemein

Netzwerken erleichtert es Berufseinsteigern, mit neuen Personen und Recruitern ins Gespräch zu kommen. Foto: Nykonchuk Oleksii – shutterstock.comWer neu in den Arbeitsmarkt eintritt, ist jung, mit digitalen Technologien aufgewachsen und hochmotiviert – und bringt damit die besten Voraussetzungen mit, um im Berufsleben erfolgreich durchstarten zu können. Allerdings stehen Berufseinsteiger (zwecks besserer Lesbarkeit verwenden wir im weiteren Text die männliche Form) vor einer zentralen Herausforderung: In einer LinkedIn-Umfrage gaben 47 Prozent der Gen Z an, kein Netzwerk zu haben, das sie beim Start ins Berufsleben unterstützt. Dabei kann gerade ein starkes Netzwerk ein echter Karriere-Booster sein. Mehr als ein Drittel der Berufseinsteiger (37 Prozent) hat deswegen vor, aktiv am Aufbau ihres Netzwerks zu arbeiten.Richtig so. Denn wer schon am Anfang seiner Karriere Kontakte knüpft und sich mit anderen austauscht, kann frühzeitig davon profitieren – ich selbst schöpfe heute zum Beispiel auch immer noch täglich aus meinem Netzwerk, das ich mir seit Beginn meiner Karriere aufgebaut habe. Und auch wenn sich berufliches Netzwerken am Anfang vielleicht erst einmal etwas ungewohnt anfühlen mag: Niemand braucht Angst davor zu haben.5 Tipps für den Networking-EinstiegWenn man ein paar einfache Grundregeln beachtet, gelingt der Aufbau des eigenen Netzwerks im Handumdrehen. Hier einige Tipps:Jeder hat einmal klein angefangen: Ob man von seinem Netzwerk profitiert, hängt nicht davon ab, wie groß es ist – Klasse schlägt hier ganz klar Masse. Deshalb rate ich dazu, sich auf beruflichen Netzwerken im ersten Schritt mit Kollegen, Freunden, Familie und anderen Kontakten aus Studium oder Praktika zu verbinden. Man kann sich außerdem mit Menschen vernetzen, deren Werdegang inspiriert und die man gerne kennenlernen möchte. Mein Tipp: Am besten der Kontaktanfrage eine kurze Nachricht hinzufügen, in der man erklärt, warum man sich gerne vernetzen würde. Auch Networking-Events sind eine gute Möglichkeit, um neue Leute persönlich kennenzulernen. Der erste Eindruck entscheidet – auch im digitalen Raum: Das Profil auf Karrierenetzwerken ist eine digitale Visitenkarte. Im Profil-Abschnitt “Zusammenfassung” kann man den bisherigen Werdegang in ein paar kurzen Sätzen vorstellen. Ich empfehle außerdem, im Profil relevante Fähigkeiten und Schlüsselwörter zu verwenden. Das steigert die Sichtbarkeit in den Suchanfragen – und damit die Chance, mit neuen Personen und Recruitern ins Gespräch zu kommen. Das volle Potenzial nutzen: Auf beruflichen Plattformen kann man nicht nur Networking an sich betreiben – es ist auch die perfekte Anlaufstelle, um das Handwerk des Netzwerkens zu lernen. Gerade, wenn man als Berufseinsteiger ganz frisch aus dem Studium oder der Ausbildung kommt, bieten E-Learning Plattformen auch Kurse, um zu erlernen, wie man professionell netzwerkt. Durch “softes” Netzwerken von den Besten lernen: Gerade beim Thema Netzwerkaufbau kann es oft schwer sein, über den eigenen Schatten zu springen und die erste Hemmschwelle zu überwinden. Für den Anfang gibt es die Möglichkeit, Branchenexperten erst einmal nur zu folgen, um von deren Berufserfahrung und Fachwissen zu lernen und sich inspirieren zu lassen. Dieser softe Weg der Vernetzung kann die Berührungsängste vor dem “harten” Netzwerken nehmen. (mb) 

Networking wie ein alter Hase: So netzwerken Berufseinsteiger richtig​ Netzwerken erleichtert es Berufseinsteigern, mit neuen Personen und Recruitern ins Gespräch zu kommen.
Foto: Nykonchuk Oleksii – shutterstock.comWer neu in den Arbeitsmarkt eintritt, ist jung, mit digitalen Technologien aufgewachsen und hochmotiviert – und bringt damit die besten Voraussetzungen mit, um im Berufsleben erfolgreich durchstarten zu können. Allerdings stehen Berufseinsteiger (zwecks besserer Lesbarkeit verwenden wir im weiteren Text die männliche Form) vor einer zentralen Herausforderung: In einer LinkedIn-Umfrage gaben 47 Prozent der Gen Z an, kein Netzwerk zu haben, das sie beim Start ins Berufsleben unterstützt. Dabei kann gerade ein starkes Netzwerk ein echter Karriere-Booster sein. Mehr als ein Drittel der Berufseinsteiger (37 Prozent) hat deswegen vor, aktiv am Aufbau ihres Netzwerks zu arbeiten.Richtig so. Denn wer schon am Anfang seiner Karriere Kontakte knüpft und sich mit anderen austauscht, kann frühzeitig davon profitieren – ich selbst schöpfe heute zum Beispiel auch immer noch täglich aus meinem Netzwerk, das ich mir seit Beginn meiner Karriere aufgebaut habe. Und auch wenn sich berufliches Netzwerken am Anfang vielleicht erst einmal etwas ungewohnt anfühlen mag: Niemand braucht Angst davor zu haben.5 Tipps für den Networking-EinstiegWenn man ein paar einfache Grundregeln beachtet, gelingt der Aufbau des eigenen Netzwerks im Handumdrehen. Hier einige Tipps:Jeder hat einmal klein angefangen: Ob man von seinem Netzwerk profitiert, hängt nicht davon ab, wie groß es ist – Klasse schlägt hier ganz klar Masse. Deshalb rate ich dazu, sich auf beruflichen Netzwerken im ersten Schritt mit Kollegen, Freunden, Familie und anderen Kontakten aus Studium oder Praktika zu verbinden. Man kann sich außerdem mit Menschen vernetzen, deren Werdegang inspiriert und die man gerne kennenlernen möchte. Mein Tipp: Am besten der Kontaktanfrage eine kurze Nachricht hinzufügen, in der man erklärt, warum man sich gerne vernetzen würde. Auch Networking-Events sind eine gute Möglichkeit, um neue Leute persönlich kennenzulernen. Der erste Eindruck entscheidet – auch im digitalen Raum: Das Profil auf Karrierenetzwerken ist eine digitale Visitenkarte. Im Profil-Abschnitt “Zusammenfassung” kann man den bisherigen Werdegang in ein paar kurzen Sätzen vorstellen. Ich empfehle außerdem, im Profil relevante Fähigkeiten und Schlüsselwörter zu verwenden. Das steigert die Sichtbarkeit in den Suchanfragen – und damit die Chance, mit neuen Personen und Recruitern ins Gespräch zu kommen. Das volle Potenzial nutzen: Auf beruflichen Plattformen kann man nicht nur Networking an sich betreiben – es ist auch die perfekte Anlaufstelle, um das Handwerk des Netzwerkens zu lernen. Gerade, wenn man als Berufseinsteiger ganz frisch aus dem Studium oder der Ausbildung kommt, bieten E-Learning Plattformen auch Kurse, um zu erlernen, wie man professionell netzwerkt. Durch “softes” Netzwerken von den Besten lernen: Gerade beim Thema Netzwerkaufbau kann es oft schwer sein, über den eigenen Schatten zu springen und die erste Hemmschwelle zu überwinden. Für den Anfang gibt es die Möglichkeit, Branchenexperten erst einmal nur zu folgen, um von deren Berufserfahrung und Fachwissen zu lernen und sich inspirieren zu lassen. Dieser softe Weg der Vernetzung kann die Berührungsängste vor dem “harten” Netzwerken nehmen. (mb)

Networking wie ein alter Hase: So netzwerken Berufseinsteiger richtig​ Weiterlesen »

Low-Code und KI als Innovationstreiber in der Fertigung​

Allgemein

Low-Code hat sich in vielen Betrieben der Fertigungsindustrie mittlerweile als Innovationsmotor etabliert Mongta Studio/Shutterstock.com Für 84 Prozent der IT-Entscheider aus der fertigenden Industrie sind Low-Code und Künstliche Intelligenz ein klarer Innovationsmotor. Zu diesem Ergebnis kommt die Studie „The Low-Code Perspective“ von Mendix. Dabei ist Low-Code für die Befragten mittlerweile auch ein unverzichtbarer Bestandteil ihrer digitalen Transformation. Zudem ermögliche die Nutzung schnellere Innovationen. Die Studie wurde von Coleman Parkes im Auftrag von Mendix durchgeführt. Dazu wurden von 2.000 Führungskräften (30 Prozent Mitglieder der technischen C-Suite und 70 Prozent IT-Managerinnen und -Manager) in Unternehmen mit einer Mindestgröße von 1.500 Mitarbeitenden befragt. Die Studie wurde in den Benelux-Ländern, Deutschland, Japan, den USA und dem Vereinigten Königreich durchgeführt. In Deutschland gehören 35 Prozent der 400 Befragten der technischen C-Suite an. 65 Prozent sind IT-Managerinnen und -Manager. Die wichtigsten Studienresultate Die Studie „The Low-Code Perspective” kommt für die Fertigungsindustrie – insgesamt wurden die vier Bereiche Finanzdienstleistung, öffentlicher Sektor, Einzelhandel sowie Fertigung untersucht –, die mit 500 Teilnehmenden vertreten ist, zu folgenden Resultaten: Low-Code hat sich etabliert: 99 Prozent der befragten Fertigungsunternehmen nutzen Low-Code in ihrem Entwicklungsprozess. Low-Code versetzt Entwicklungsteams in die Lage, in großem Maßstab innovativ zu sein. Low-Code als strategischer Wegbereiter der Digitalisierung: Mehr als drei Viertel der Befragten nennen die Führungsebene als treibende Kraft für die Einführung von Low-Code. Die Technik wird als strategische Unternehmenstechnologie gesehen, die die digitale Transformation erleichtert und die betriebliche Effizienz steigert. Zudem gibt das Gros der IT-Führungskräfte an, dass ihr C-Level mit Blick auf die Zukunft Low-Code als einzige Programmieroption sieht. Low-Code und KI beschleunigen Innovation: 84 Prozent der IT-Führungskräfte aus der Fertigungsindustrie sind der Meinung, dass die Kombination von KI und Low-Code ihrem Unternehmen dabei hilft, in großem Maßstab zu innovieren – mehr als in jedem anderen befragten Sektor. Dennoch haben 69 Prozent Bedenken hinsichtlich der Governance im Zusammenhang mit KI-gestützter Programmierung. Digitale Transformation auf Platz 1: Die Beschleunigung der Digitalen Transformation steht ganz oben auf der Agenda der fertigenden Industrie. Etwas mehr als die Hälfte der IT-Führungskräften in der Fertigenden Industrie nennt sie als wichtigsten Anwendungsfall. Vorteile durch Low-Code Als einen der Hauptvorteile (83 Prozent) der Nutzung von Low-Code nennen die Befragten die Produktivität. Dies gilt insbesondere für technische Teams, die ehrgeizige Digitalisierungsziele erreichen wollen. Konsens herrscht auch darüber, dass diese Methodik die Betriebskosten senkt (77 Prozent), den Entwicklungsprozess optimiert und Innovationszyklen beschleunigt (je 76 Prozent. Zudem lasse sich damit die time-to-market verbessern. Überraschend ist, dass bereits 81 Prozent der Teilnehmer eine KI-gestützte Programmierung nutzen. Dabei ist den Führungskräften bewusst, wie wichtig die Aus- und Weiterbildung ihrer Mitarbeiter ist. So stimmen sie zu, dass mehr Schulungen stattfinden müssen, um sicherzustellen, dass Entwickler KI-gestützte Programmierung richtig einsetzen (86 Prozent). Ferner verstehe die Führungsebene in ihrer Organisation, dass sie ihr technisches Personal weiterbilden muss, um das Potenzial von Low-Code auszuschöpfen. Ebenso ist in vielen Unternehmen das Bewusstsein vorhanden, dass auch nicht-technische Mitarbeiter weitergebildet werden müssen, um mit Fusion Teams die Möglichkeiten von Low-Code in Gänze zu nutzen. 

Low-Code und KI als Innovationstreiber in der Fertigung​ Low-Code hat sich in vielen Betrieben der Fertigungsindustrie mittlerweile als Innovationsmotor etabliert
Mongta Studio/Shutterstock.com

Für 84 Prozent der IT-Entscheider aus der fertigenden Industrie sind Low-Code und Künstliche Intelligenz ein klarer Innovationsmotor. Zu diesem Ergebnis kommt die Studie „The Low-Code Perspective“ von Mendix. Dabei ist Low-Code für die Befragten mittlerweile auch ein unverzichtbarer Bestandteil ihrer digitalen Transformation. Zudem ermögliche die Nutzung schnellere Innovationen.

Die Studie wurde von Coleman Parkes im Auftrag von Mendix durchgeführt. Dazu wurden von 2.000 Führungskräften (30 Prozent Mitglieder der technischen C-Suite und 70 Prozent IT-Managerinnen und -Manager) in Unternehmen mit einer Mindestgröße von 1.500 Mitarbeitenden befragt. Die Studie wurde in den Benelux-Ländern, Deutschland, Japan, den USA und dem Vereinigten Königreich durchgeführt. In Deutschland gehören 35 Prozent der 400 Befragten der technischen C-Suite an. 65 Prozent sind IT-Managerinnen und -Manager.

Die wichtigsten Studienresultate

Die Studie „The Low-Code Perspective” kommt für die Fertigungsindustrie – insgesamt wurden die vier Bereiche Finanzdienstleistung, öffentlicher Sektor, Einzelhandel sowie Fertigung untersucht –, die mit 500 Teilnehmenden vertreten ist, zu folgenden Resultaten:

Low-Code hat sich etabliert:

99 Prozent der befragten Fertigungsunternehmen nutzen Low-Code in ihrem Entwicklungsprozess. Low-Code versetzt Entwicklungsteams in die Lage, in großem Maßstab innovativ zu sein.

Low-Code als strategischer Wegbereiter der Digitalisierung:

Mehr als drei Viertel der Befragten nennen die Führungsebene als treibende Kraft für die Einführung von Low-Code. Die Technik wird als strategische Unternehmenstechnologie gesehen, die die digitale Transformation erleichtert und die betriebliche Effizienz steigert. Zudem gibt das Gros der IT-Führungskräfte an, dass ihr C-Level mit Blick auf die Zukunft Low-Code als einzige Programmieroption sieht.

Low-Code und KI beschleunigen Innovation:

84 Prozent der IT-Führungskräfte aus der Fertigungsindustrie sind der Meinung, dass die Kombination von KI und Low-Code ihrem Unternehmen dabei hilft, in großem Maßstab zu innovieren – mehr als in jedem anderen befragten Sektor. Dennoch haben 69 Prozent Bedenken hinsichtlich der Governance im Zusammenhang mit KI-gestützter Programmierung.

Digitale Transformation auf Platz 1:

Die Beschleunigung der Digitalen Transformation steht ganz oben auf der Agenda der fertigenden Industrie. Etwas mehr als die Hälfte der IT-Führungskräften in der Fertigenden Industrie nennt sie als wichtigsten Anwendungsfall.

Vorteile durch Low-Code

Als einen der Hauptvorteile (83 Prozent) der Nutzung von Low-Code nennen die Befragten die Produktivität. Dies gilt insbesondere für technische Teams, die ehrgeizige Digitalisierungsziele erreichen wollen. Konsens herrscht auch darüber, dass diese Methodik die Betriebskosten senkt (77 Prozent), den Entwicklungsprozess optimiert und Innovationszyklen beschleunigt (je 76 Prozent. Zudem lasse sich damit die time-to-market verbessern.

Überraschend ist, dass bereits 81 Prozent der Teilnehmer eine KI-gestützte Programmierung nutzen. Dabei ist den Führungskräften bewusst, wie wichtig die Aus- und Weiterbildung ihrer Mitarbeiter ist. So stimmen sie zu, dass mehr Schulungen stattfinden müssen, um sicherzustellen, dass Entwickler KI-gestützte Programmierung richtig einsetzen (86 Prozent). Ferner verstehe die Führungsebene in ihrer Organisation, dass sie ihr technisches Personal weiterbilden muss, um das Potenzial von Low-Code auszuschöpfen. Ebenso ist in vielen Unternehmen das Bewusstsein vorhanden, dass auch nicht-technische Mitarbeiter weitergebildet werden müssen, um mit Fusion Teams die Möglichkeiten von Low-Code in Gänze zu nutzen.

Low-Code und KI als Innovationstreiber in der Fertigung​ Weiterlesen »

Mit KI gegen Unterseesabotage​

Allgemein

Das NATO KI-Tool „Mainsail“ soll den Schiffsverkehr überwachen. Hierbei werden Schiffsbewegungen analysiert und verdächtige Aktivitäten markiert. shutterstock – Benny Marty Die NATO hat nach eigenen Angaben ein neues Instrument entwickelt, mit dem Schiffe, die sich verdächtig verhalten, gekennzeichnet werden können. Die Lösung nutzt Künstliche Intelligenz (KI). Die Software mit dem Namen „Mainsail“ dient dazu, den Seeverkehr zu analysieren und kann Schiffe erkennen, die vom Kurs abzuweichen scheinen. Sollte die KI zu dem Schluss kommen, dass es sich hierbei um verdächtiges Verhalten handelt, wird das Schiff markiert. Mögliche Schäden an oder das Ausspionieren von unterseeischer Infrastruktur sollen so verhindert werden. Echtzeittechnologie für schnelle Reaktionen auf Bedrohungen Das NATO-Tool basiert auf KI-gestützten Algorithmen zur Überwachung des Schiffsverkehrs. Laut Eric Pouliquen, Direktor des NATO-Zentrums für maritime Forschung und Experimente, kann es Anomalien automatisch erkennen und verdächtige Schiffsbewegungen ohne manuelle Eingriffe analysieren. Nach Angaben der NATO nutzt die Software Satellitenbilder, Sonarsysteme und Unterwassersensoren. Das Militärbündnis geht davon aus, dass die Technologie ihr helfen wird, rasch auf neue Bedrohungen wie Sabotageversuche zu reagieren. Erste Tests haben sich laut dem Direktor als effektiv erwiesen. Großes Potenzial trotz sensorischer Schwächen Bedenken an dieser Technologie sind allerdings schon laut geworden: Einige Experten, darunter Hans Liwång von der schwedischen Verteidigungsuniversität, warnen, dass Instrumente wie Mainsail aufgrund der begrenzten Sensoren auf dem Meeresboden falsche Alarme auslösen könnten. Liwång erklärte, dass die Installation weiterer Sensoren ein rechtlich komplexer Prozess sei. In nationalen Gewässern dürften Sensoren für militärische Zwecke eingesetzt werden, aber in der Wirtschaftszone und in internationalen Gewässern sei dies weder möglich noch rechtlich zulässig. Sensoren könnten allerdings in der Nähe bestehender Infrastrukturen wie Kabel oder Windkraftanlagen platziert werden: Damit würde es jedoch immer nur eine begrenzte Anzahl an Sensoren auf dem Meeresboden geben. Die Kritiker sehen jedoch Potenzial für solche Werkzeuge auf der Meeresoberfläche, um Kollisionen oder Grundberührungen, wenn etwa Schiffe auf Grund laufen, zu erkennen. Die Informationen über Vorfälle am Meeresboden blieben jedoch weiterhin sehr begrenzt. NATO patrouilliert auf dem Meer Nach mehreren Vorfällen wie der Sabotage der Nord-Stream-Pipeline und beschädigten Unterseekabeln hat die NATO ihre Patrouillen verstärkt. Anfang Februar patrouillierten NATO-Minenjäger in der Öresundstraße, um die unterseeische Infrastruktur zu überwachen. Sie setzten hierbei leistungsstarke Sensoren und U-Boot-Drohnen ein, um Anzeichen von Unregelmäßigkeiten im Verkehr zu erkennen. Sander Klop von der Königlichen Niederländischen Marine betonte, dass die moderne Gesellschaft von Unterwasserinfrastrukturen abhängig sei. Sie müsse vor Schaden geschützt werden müssen, da Ausfälle an dieser Infrastruktur die Gesellschaft erheblich beeinträchtigen könnten. Probleme mit Kabeln sollten die Gesellschaft nicht stören Liwång widersprecht Klop und betont, dass Sabotageakte keine direkte Bedrohung für die Gesellschaft darstellen. Es seien viele Kabel und Rohre vorhanden. Dagegen wirke sich die Unsicherheit, die derartigen Anschläge verursachen, schwerwiegender auf die Menschen aus, als der verursachte Schaden. Er erklärte, dass Bürger heutzutage mehr Informationen über solche Geschehnisse auf See erhalten. Automatische Instrumente würden aber auch Herausforderungen mit sich bringen, da solche Daten früher nicht verfügbar waren. Viele Bürger könnten diese Daten nicht richtig einordnen und unter anderem bei Falschmeldungen in Panik geraten. Der Experte schlägt  vor, neben dem Schutz von Unterseekabeln auch alternative Routen sowie eine größere Anzahl von Kabeln zu nutzen. Zudem sollten für Strom und Daten eigene Kabel genutzt werden. Hiermit lasse sich die Gesellschaft widerstandsfähiger gegen Ausfälle durch Unfälle und Sabotage machen. 

Mit KI gegen Unterseesabotage​ Das NATO KI-Tool „Mainsail“ soll den Schiffsverkehr überwachen. Hierbei werden Schiffsbewegungen analysiert und verdächtige Aktivitäten markiert.
shutterstock – Benny Marty

Die NATO hat nach eigenen Angaben ein neues Instrument entwickelt, mit dem Schiffe, die sich verdächtig verhalten, gekennzeichnet werden können. Die Lösung nutzt Künstliche Intelligenz (KI).

Die Software mit dem Namen „Mainsail“ dient dazu, den Seeverkehr zu analysieren und kann Schiffe erkennen, die vom Kurs abzuweichen scheinen. Sollte die KI zu dem Schluss kommen, dass es sich hierbei um verdächtiges Verhalten handelt, wird das Schiff markiert. Mögliche Schäden an oder das Ausspionieren von unterseeischer Infrastruktur sollen so verhindert werden.

Echtzeittechnologie für schnelle Reaktionen auf Bedrohungen

Das NATO-Tool basiert auf KI-gestützten Algorithmen zur Überwachung des Schiffsverkehrs. Laut Eric Pouliquen, Direktor des NATO-Zentrums für maritime Forschung und Experimente, kann es Anomalien automatisch erkennen und verdächtige Schiffsbewegungen ohne manuelle Eingriffe analysieren.

Nach Angaben der NATO nutzt die Software Satellitenbilder, Sonarsysteme und Unterwassersensoren. Das Militärbündnis geht davon aus, dass die Technologie ihr helfen wird, rasch auf neue Bedrohungen wie Sabotageversuche zu reagieren.

Erste Tests haben sich laut dem Direktor als effektiv erwiesen.

Großes Potenzial trotz sensorischer Schwächen

Bedenken an dieser Technologie sind allerdings schon laut geworden: Einige Experten, darunter Hans Liwång von der schwedischen Verteidigungsuniversität, warnen, dass Instrumente wie Mainsail aufgrund der begrenzten Sensoren auf dem Meeresboden falsche Alarme auslösen könnten.

Liwång erklärte, dass die Installation weiterer Sensoren ein rechtlich komplexer Prozess sei. In nationalen Gewässern dürften Sensoren für militärische Zwecke eingesetzt werden, aber in der Wirtschaftszone und in internationalen Gewässern sei dies weder möglich noch rechtlich zulässig. Sensoren könnten allerdings in der Nähe bestehender Infrastrukturen wie Kabel oder Windkraftanlagen platziert werden: Damit würde es jedoch immer nur eine begrenzte Anzahl an Sensoren auf dem Meeresboden geben.

Die Kritiker sehen jedoch Potenzial für solche Werkzeuge auf der Meeresoberfläche, um Kollisionen oder Grundberührungen, wenn etwa Schiffe auf Grund laufen, zu erkennen. Die Informationen über Vorfälle am Meeresboden blieben jedoch weiterhin sehr begrenzt.

NATO patrouilliert auf dem Meer

Nach mehreren Vorfällen wie der Sabotage der Nord-Stream-Pipeline und beschädigten Unterseekabeln hat die NATO ihre Patrouillen verstärkt. Anfang Februar patrouillierten NATO-Minenjäger in der Öresundstraße, um die unterseeische Infrastruktur zu überwachen. Sie setzten hierbei leistungsstarke Sensoren und U-Boot-Drohnen ein, um Anzeichen von Unregelmäßigkeiten im Verkehr zu erkennen.

Sander Klop von der Königlichen Niederländischen Marine betonte, dass die moderne Gesellschaft von Unterwasserinfrastrukturen abhängig sei. Sie müsse vor Schaden geschützt werden müssen, da Ausfälle an dieser Infrastruktur die Gesellschaft erheblich beeinträchtigen könnten.

Probleme mit Kabeln sollten die Gesellschaft nicht stören

Liwång widersprecht Klop und betont, dass Sabotageakte keine direkte Bedrohung für die Gesellschaft darstellen. Es seien viele Kabel und Rohre vorhanden. Dagegen wirke sich die Unsicherheit, die derartigen Anschläge verursachen, schwerwiegender auf die Menschen aus, als der verursachte Schaden. Er erklärte, dass Bürger heutzutage mehr Informationen über solche Geschehnisse auf See erhalten. Automatische Instrumente würden aber auch Herausforderungen mit sich bringen, da solche Daten früher nicht verfügbar waren. Viele Bürger könnten diese Daten nicht richtig einordnen und unter anderem bei Falschmeldungen in Panik geraten.

Der Experte schlägt  vor, neben dem Schutz von Unterseekabeln auch alternative Routen sowie eine größere Anzahl von Kabeln zu nutzen. Zudem sollten für Strom und Daten eigene Kabel genutzt werden. Hiermit lasse sich die Gesellschaft widerstandsfähiger gegen Ausfälle durch Unfälle und Sabotage machen.

Mit KI gegen Unterseesabotage​ Weiterlesen »

Große Techunternehmen ersetzen Mitarbeitende durch KI​

Allgemein

Viele Techfirmen setzen verstärkt auf KI – dafür muss so mancher Mitarbeitende seinen Arbeitsplatz räumen und sich einen neuen Job suchen. shutterstock.com – Gorodenkoff Allem Gejammer über den Fachkräftemangel zum Trotz, setzen die großen Techfirmen  auch in diesem Jahr wieder jede Menge Mitarbeitende vor die Tür. Dabei spielt auch der Faktor Künstliche Intelligenz (KI) eine immer größere Rolle. KI-Tools können mehr und mehr Aufgaben von Menschen übernehmen. Unternehmen fällt es dementsprechend leicht, unliebsames Personal loszuwerden und zu ersetzen. IBM und Sophos planen Stellenabbau Für Schlagzeilen rund um Entlassungen sorgten in den ersten Wochen des Jahres Amazon, Meta, Microsoft, Salesforce und Workday. Nun reihen sich auch IBM und Sophos in den Reigen der Unternehmen ein, die ihre Belegschaften weiter ausdünnen wollen. Nach Informationen des britischen Nachrichtenportals The Register, das sich auf anonyme Quellen beruft, wollen beide Anbieter zwischen drei und sechs Prozent ihrer Mitarbeitenden auf die Straße setzen. IBM verschärft Rückkehrpflicht ins Büro IBM führt für Mitarbeitende im Bereich Finance & Operations eine Return-to-Office-Richtlinie (RTO) ein, die mindestens drei Präsenztage pro Woche verlangt. Betroffene Mitarbeitende in den USA müssen bis Anfang 2025 in die Nähe von Raleigh (North Carolina) oder Poughkeepsie (New York) ziehen, andernfalls droht die Kündigung. Wer sich weigert, IBMs Rückkehrbefehl zu befolgen, wird unter Druck gesetzt, mit einer möglichen Entlassung als letzte Konsequenz. Diese „sanfte Entlassung“ soll offizielle Kündigungen vermeiden und verhindern, dass IBM den Eindruck erweckt, gezielt Stellen abzubauen. Finance & Operations als Kostenfaktor im Visier Der Techkonzern plant, Kostensenkungen und Stellenabbau in ähnlichem Tempo wie 2024 fortzusetzen, was dem Bericht zufolge etwa 9.000 Entlassungen im Jahr 2025 bedeuten könnten – rund drei Prozent der Belegschaft. 2024 hatte sich IBM den Personalabbau bereits 700 Millionen Dollar kosten lassen, nachdem 2023 etwa 3.900 Stellen gestrichen wurden. IBM betrachtet vor allem den Geschäftsbereich Finance & Operations als hohen Kostenfaktor und setzt verstärkt auf KI, um Kosten zu sparen und Stellen abzubauen. Außerdem wird das Outsourcing forciert und es sollen vermehrt Hochschulabsolventen eingestellt werden. Die Einsparungen sollen in wachstumsstärkere Bereiche wie die Beratung fließen. Weitere Aufgaben sollen durch KI kompensiert werden, insbesondere dem firmeneigenen KI-Dienst „watsonx“ soll dabei eine Schlüsselrolle zukommen: In den nächsten fünf Jahren plant IBM KI verstärkt zu nutzen, um seine Belegschaft zu reduzieren. Neueinstellungen wiederum sollen vor allem in den vielversprechenden Wachstumsbereichen KI, Machine Learning und Data Science erfolgen. Weniger strategische Rollen werden schrittweise abgebaut. Sophos streicht Stellen nach Secureworks-Übernahme Der Sicherheitssoftwarehersteller Sophos entlässt ebenfalls einen Teil seiner Belegschaft, berichtet The Register. Anders als bei IBM geht dem jedoch eine Übernahme voraus: Das britische Unternehmen hat den Managed Detection and Response-Anbieter Secureworks für 859 Millionen Dollar übernommen. Die Entlassungen erfolgten demzufolge, weil einige Funktionen doppelt vorhanden waren. Insgesamt hat Sophos etwa sechs Prozent seiner Mannschaft entlassen. Da sich Sophos in Privatbesitz befindet und keine Angaben zur Zahl seiner Mitarbeitenden macht, würde dies, bei schätzungsweise 4.500 bis 5.000 Menschen auf der Gehaltsliste, bis zu 300 Abgänge bedeuten. Entlassen wurden Mitarbeitende aus beiden Unternehmen. Gründe für diese personellen Veränderungen sind laut einem Sprecher unter anderem die sich verändernde Sicherheitslandschaft und die Anpassung der Geschäftsziele. Es ist nicht das erste Mal, dass Secureworks Angestellte auf die Straße setzt. Bereits 2023 entließ das Unternehmen 24 Prozent seiner Belegschaft. Hier war eine Einstellungsoffensive während der COVID-19-Pandemie vorausgegangen. Darüber hinaus bleibt abzuwarten, ob nicht auch Sophos den Weg anderer Cybersicherheitsunternehmen einschlägt und weitere Prozesse per KI automatisiert. 

Große Techunternehmen ersetzen Mitarbeitende durch KI​ Viele Techfirmen setzen verstärkt auf KI – dafür muss so mancher Mitarbeitende seinen Arbeitsplatz räumen und sich einen neuen Job suchen.
shutterstock.com – Gorodenkoff

Allem Gejammer über den Fachkräftemangel zum Trotz, setzen die großen Techfirmen  auch in diesem Jahr wieder jede Menge Mitarbeitende vor die Tür. Dabei spielt auch der Faktor Künstliche Intelligenz (KI) eine immer größere Rolle. KI-Tools können mehr und mehr Aufgaben von Menschen übernehmen. Unternehmen fällt es dementsprechend leicht, unliebsames Personal loszuwerden und zu ersetzen.

IBM und Sophos planen Stellenabbau

Für Schlagzeilen rund um Entlassungen sorgten in den ersten Wochen des Jahres Amazon, Meta, Microsoft, Salesforce und Workday. Nun reihen sich auch IBM und Sophos in den Reigen der Unternehmen ein, die ihre Belegschaften weiter ausdünnen wollen. Nach Informationen des britischen Nachrichtenportals The Register, das sich auf anonyme Quellen beruft, wollen beide Anbieter zwischen drei und sechs Prozent ihrer Mitarbeitenden auf die Straße setzen.

IBM verschärft Rückkehrpflicht ins Büro

IBM führt für Mitarbeitende im Bereich Finance & Operations eine Return-to-Office-Richtlinie (RTO) ein, die mindestens drei Präsenztage pro Woche verlangt. Betroffene Mitarbeitende in den USA müssen bis Anfang 2025 in die Nähe von Raleigh (North Carolina) oder Poughkeepsie (New York) ziehen, andernfalls droht die Kündigung.

Wer sich weigert, IBMs Rückkehrbefehl zu befolgen, wird unter Druck gesetzt, mit einer möglichen Entlassung als letzte Konsequenz. Diese „sanfte Entlassung“ soll offizielle Kündigungen vermeiden und verhindern, dass IBM den Eindruck erweckt, gezielt Stellen abzubauen.

Finance & Operations als Kostenfaktor im Visier

Der Techkonzern plant, Kostensenkungen und Stellenabbau in ähnlichem Tempo wie 2024 fortzusetzen, was dem Bericht zufolge etwa 9.000 Entlassungen im Jahr 2025 bedeuten könnten – rund drei Prozent der Belegschaft. 2024 hatte sich IBM den Personalabbau bereits 700 Millionen Dollar kosten lassen, nachdem 2023 etwa 3.900 Stellen gestrichen wurden.

IBM betrachtet vor allem den Geschäftsbereich Finance & Operations als hohen Kostenfaktor und setzt verstärkt auf KI, um Kosten zu sparen und Stellen abzubauen. Außerdem wird das Outsourcing forciert und es sollen vermehrt Hochschulabsolventen eingestellt werden. Die Einsparungen sollen in wachstumsstärkere Bereiche wie die Beratung fließen.

Weitere Aufgaben sollen durch KI kompensiert werden, insbesondere dem firmeneigenen KI-Dienst „watsonx“ soll dabei eine Schlüsselrolle zukommen: In den nächsten fünf Jahren plant IBM KI verstärkt zu nutzen, um seine Belegschaft zu reduzieren. Neueinstellungen wiederum sollen vor allem in den vielversprechenden Wachstumsbereichen KI, Machine Learning und Data Science erfolgen. Weniger strategische Rollen werden schrittweise abgebaut.

Sophos streicht Stellen nach Secureworks-Übernahme

Der Sicherheitssoftwarehersteller Sophos entlässt ebenfalls einen Teil seiner Belegschaft, berichtet The Register. Anders als bei IBM geht dem jedoch eine Übernahme voraus: Das britische Unternehmen hat den Managed Detection and Response-Anbieter Secureworks für 859 Millionen Dollar übernommen. Die Entlassungen erfolgten demzufolge, weil einige Funktionen doppelt vorhanden waren. Insgesamt hat Sophos etwa sechs Prozent seiner Mannschaft entlassen.

Da sich Sophos in Privatbesitz befindet und keine Angaben zur Zahl seiner Mitarbeitenden macht, würde dies, bei schätzungsweise 4.500 bis 5.000 Menschen auf der Gehaltsliste, bis zu 300 Abgänge bedeuten. Entlassen wurden Mitarbeitende aus beiden Unternehmen.

Gründe für diese personellen Veränderungen sind laut einem Sprecher unter anderem die sich verändernde Sicherheitslandschaft und die Anpassung der Geschäftsziele.

Es ist nicht das erste Mal, dass Secureworks Angestellte auf die Straße setzt. Bereits 2023 entließ das Unternehmen 24 Prozent seiner Belegschaft. Hier war eine Einstellungsoffensive während der COVID-19-Pandemie vorausgegangen.

Darüber hinaus bleibt abzuwarten, ob nicht auch Sophos den Weg anderer Cybersicherheitsunternehmen einschlägt und weitere Prozesse per KI automatisiert.

Große Techunternehmen ersetzen Mitarbeitende durch KI​ Weiterlesen »

So funktioniert Risk Management​

Allgemein

Risk Management wird für Unternehmen gerade in unsicheren Zeiten immer wichtiger. Wird es vernachlässigt, droht der Absturz. Foto: Orla – shutterstock.comGerade in Krisenzeiten, wie der überstandenen Corona-Pandemie und dem Ukraine-Krieg, sehen sich Firmen weltweit Geschäftsrisiken ausgesetzt. Lieferengpässe, Betriebsunterbrechungen und Umsatzausfälle drohen, so manches Unternehmen in Schlagseite zu bringen oder im schlimmsten Fall sogar in die Insolvenz zu treiben. Damit das nicht geschieht, ist es in dieser Situation umso wichtiger, wirtschaftliche Veränderungen und die damit verbundenen Risiken rechtzeitig zu erkennen und die daraus resultierenden Folgen richtig einzuschätzen. An dieser Stelle kommt das Risikomanagement ins Spiel.Risk Management – DefinitionUnternehmerisches Handeln ist immer mit Risiken verbunden. Gerade wenn Liefer- und Produktionsprozesse eng getaktet und granular miteinander verzahnt sind, steigt die Komplexität innerhalb der Organisationen, und damit auch die Anfälligkeit für Ausfälle, wenn eines dieser Rädchen stillsteht.Um diese Risiken bestmöglich im Griff zu behalten, haben viele Unternehmen ein sogenanntes Risk Management etabliert, um Prozessketten möglichst unterbrechungsfrei am Laufen zu halten. Das Risikomanagement in Unternehmen ist dafür zuständig, potenzielle Gefahren wie Ausfallrisiken, Marktrisiken sowie Compliance-Risiken frühzeitig zu erkennen und diese zu bewerten.Nach der Bewertung folgt die Entwicklung von Plänen, welche die negativen Auswirkungen auf das betroffene Unternehmen minimieren sollen. Außerdem gilt es, Strategien und Fahrpläne für eine Risikokommunikation – intern wie extern – zu entwickeln. Risikomanagement – Funktion im UnternehmenAufgabe des Enterprise Risk Management (ERM) ist es, das Ertrag-Risiko-Profil eines Unternehmens zu optimieren, um die Insolvenzrisiken zu minimieren (Risikosteuerung). Kann sich ein Betrieb als robust und krisensicher präsentieren, steigt auch dessen Credit Rating, was wiederum positiven Einfluss auf mögliche Kunden und die Aktionäre haben könnte.Ziel des Risikomanagements ist es, dem Management fundierte Analysen verschiedener potenzieller Probleme sowie möglicher Lösungen vorzulegen. Auf Grundlage dieser Daten und Berichte können sich zukünftige unternehmensrelevante Entscheidungen besser und zielsicherer treffen lassen.Risk Management – PhasenGenerell gilt, dass nicht jedes Unternehmen denselben Risiken ausgesetzt ist. Unterschiedliche Branchen müssen sich mit unterschiedlichen Gefahren auseinandersetzen. Jedes Risiko muss anders behandelt werden. Die International Organization for Standardization (ISO) bietet Unternehmen ein Framework für ihr Risikomanagement an, welches in den ISO-31000-Prinzipien festgehalten wurde. Da die Normen im Umgang mit Risiken weitgehend vorgegeben sind, bleiben die fünf Phasen des Risk Managements für alle Betriebe gleich.Risikoidentifizierung: Im ersten Schritt müssen mögliche Risiken für ein Unternehmen identifiziert und beschrieben werden. Bei den Gefahren kann es sich zum Beispiel um Marktrisiken, finanzielle Risiken oder betriebliche Risiken wie einen Lieferengpass handeln. Aber auch ungenutzte Chancen, die sich auf dem Markt ergeben, können schnell zu Risiken werden. Bereits identifizierte “Risks” sollten in einem Risikoregister dokumentiert und im Auge behalten werden.Risikoanalyse: Im zweiten Schritt analysiert man relevante Einzelrisiken aus sogenannten Risikofeldern. Dabei werden die Risiken systematisch hinsichtlich ihrer Eintrittswahrscheinlichkeit sowie quantitativer Auswirkungen für das Unternehmen definiert und beschrieben.Risikobewertung: Mit Hilfe einer Chancen-Risiken-Matrix, in welcher die Eintrittswahrscheinlichkeit dem potenziellen Schadensausmaß gegenübergestellt wird, lassen sich Risiken bewerten. Auch quantitative Bewertungen können anhand der Szenarioanalyse oder eines Worst-Case-Szenario getroffen werden. Die Szenarioanalyse entwirft eine Story aus verschiedenen, das Unternehmen betreffenden Annahmen. Auf Basis dieser spezifischen Annahmen werden die finanziellen Auswirkungen für das Unternehmen quantifiziert und mögliche Maßnahmen abgeleitet.Risikominderung: In diesem Schritt entwickelt das Risk-Management-Team nach abgeschlossener Priorisierung verschiedene Strategien und Pläne, um Risiken minimieren oder kontrollieren zu können.Risikoüberwachung: Um Veränderungen und mögliche Verschlimmerungen frühzeitig zu erkennen, müssen Risiken kontinuierlich überwacht werden. Das ist heute umso wichtiger, weil sich Märkte, Wettbewerbssituationen und Kundenansprüche schnell verändern. Durch genaues Monitoring lässt sich so außerdem feststellen, ob die Risikominderungspläne erfolgreich sind oder nicht. Risikomanagement – EinsatzbereicheÜberwiegend kommt Risk Management in Branchen wie dem Finanzwesen, also in Banken und Versicherungen zum Einsatz, um hohe finanzielle Schäden zu vermeiden. Des Weiteren analysieren Risikomanager im Finanzwesen Konjunkturschwankungen, mögliche Zins- und Inflationsrisiken sowie aktuelle Marktbedingungen. Darüber hinaus schreiben regulatorische Vorschriften den Finanzinstituten vor, sich um die mit ihren Geschäften verbundenen Risiken zu kümmern. Beispielsweise gibt es in Deutschland die Mindestanforderungen an das Risikomanagement (MaRisk), die von der Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) formuliert und laufend neu angepasst werden.Auch in der Unternehmensberatung sind Risikomanager gefragt, die zum Beispiel Unternehmensfusionen und die dabei entstehenden Gefahren analysieren und bewerten. So erstellen Unternehmensberater Pläne, welche dem Führungspersonal eine fundierte Handlungsgrundlage bieten. Ziel ist dabei in jeder Branche die von unternehmerischem Handeln ausgehenden Risiken zu minimieren.Angesichts der Erfahrungen der zurückliegenden Corona-Jahre mit unterbrochenen Lieferketten und damit verbundenen Produktionsausfällen gehen heute allerdings verstärkt auch Unternehmen anderer Branchen dazu über, ein Risk Management einzurichten. Dazu zählen beispielsweise produzierende Branchen wie die Automobilhersteller, aber auch der Handel. Risk Management – ZuständigkeitenNicht jedes Unternehmen beschäftigt einen dedizierten Risk Manager oder kann es sich leisten, eine ganze Abteilung dafür aufzubieten. In manchen Firmen übernimmt deshalb ein gemischtes Team von Controllern, Mitarbeitern des Qualitätsmanagements sowie Treasurer (meist nur im Finanzwesen) die Aufgaben des Risikomanagements. Das Controlling erstellt zum Beispiel Risikostatistiken, Risikoanalysen sowie Forecasts.Der Nachteil eines in den Fachabteilungen aufgehängten Risk Management kann sein, dass die damit betrauten Mitarbeiter potenzielle Gefahren für das Geschäft nur durch ihre Fachbereichsbrille sehen. Ein Gesamtblick auf mögliche Risiken fehlt oder bleibt womöglich lückenhaft, weil er sich aus verschiedenen Einzelperspektiven zusammensetzt. Sind die Organisationsstrukturen eines Betriebs einfach aufgebaut und die prozessualen Zusammenhänge transparent und überschaubar, kann es ausreichen, das Risikomanagement dezentral in einem Bereich wie dem Controlling aufzuhängen.Sobald jedoch Strukturen komplexer werden und das Geflecht aus Produktion, Zulieferern und Logistik weit verzweigt aufgespannt ist, empfiehlt es sich, ein dediziertes Risk Management mit der Funktion und Rolle eines Risk Managers einzurichten. Für ein Unternehmen mit Risk Manager bieten sich folgende Vorteile:Single Point of Contact: Der Risikomanager sollte Überblick über das gesamte Unternehmen haben, um Fragen des Führungspersonals zu verschiedenen Risikobereichen kompetent beantworten zu können. Als direkter Ansprechpartner trägt der Risk Manager dazu bei, Effektivität und Effizienz eines Unternehmens zu steigern.Objektivität: Als Bindeglied zwischen Fachabteilungen ist es die Aufgabe eines Risk Managers jegliche Belange, die den Geschäftsbetrieb beinflussen, objektiv zu betrachten. Risikomanager haben also keine “Abteilungsbrille” auf, um Risiken aus verschiedenen Einzelstandpunkten, wie dem Controlling und Qualitätsmanagement, einzuschätzen.Flexibilität: Ein Risk Manager muss verschiedenste Skills mitbringen – von mathematischen und programmiertechnischen Fähigkeiten bis hin zum Verständnis von komplexen wirtschaftlichen Zusammenhängen. Gerade in Krisensituationen ist es zudem auch wichtig, dass Risikomanager flexibel mn Unternehmen eingesetzt werden können.Risikomanagement – Software und ToolsWer Risiken früh erkennt, hat mehr Zeit zu handeln. Da die Identifizierung zum Großteil auf der Analyse von Daten basiert, bietet sich eine Unterstützung in Form von Softwaretools an. Ein sogenanntes Risikomanagement-Informationssystem (RMIS) hat zahlreiche Vorteile.Höhere Effizienz: Alle Zahlen und Daten laufen an einem SPOT (Single Point of Truth) zusammen und können zu jeder Zeit von überall aus abgerufen werden. In aller Regel laufen die Daten automatisch in so einem System zusammen und müssen nicht manuell aus verschiedenen Teilen des Unternehmens eingesammelt werden. Wichtig dabei: Die Qualität der Daten muss passen. Manuelle Prüfungen an dieser Stelle sind aufwendig und außerdem fehleranfällig. Idealerweise bieten die RMIS-Systeme Funktionen, um Daten auf Richtigkeit und Plausibilität zu prüfen. Dies erleichtert die Auswertung und daraus folgende Identifizierung von Risiken.Datenintegrität: Die häufigsten Fehler im Umgang mit Daten entstehen durch menschliche Fehler. Beim hin- und her-kopieren von Daten aus unterschiedlichen Quellen können bestimmte Informationen verändert oder komplett verloren gehen. Das weitverbreitete “Management by Excel” System hilft an dieser Stelle nicht weiter und sollte abgelöst werden.Verbessertes Reporting: Ein RMIS hilft Unternehmen dabei, die oft über Abteilungen verteilten Daten zu bündeln. So ermöglicht die Software eine schnelle Erstellung von Managementberichten. Durch diese Zeitersparnis bleibt den Risk Managern mehr Zeit für ihre wirklichen Aufgaben wie Risiken zu bewerten sowie Entscheidungen zu treffen.Neben den klassischen Risk-Management-Tools hat sich in den vergangenen Jahren immer stärker der Bereich Governance, Risk & Compliance (GRC) etabliert. Er fasst das Risikomanagement ein Stück weiter und bezieht die Themenfelder Governance und Compliance mit ein. Dabei geht es beispielsweise darum, Regularien einzuhalten und regelkonform mit sensiblen Daten umzugehen. Verstöße dagegen können Unternehmen teuer kommen. Neben Strafzahlungen kann die Reputation des betroffenen Unternehmens darunter leiden und Schaden nehmen. Entsprechende Vorfälle bilden also auch ein gewisses Risiko für den Geschäftsbetrieb.Der Markt für RMIS- und GRC-Software ist fragmentiert. Neben einer Reihe von kleineren Spezialanbietern offerieren auch Softwaregrößen wie SAP und Oracle Funktionen für GRC im Rahmen ihrer Business-Software-Suiten. Darüber hinaus haben sich einzelne Hersteller mit ihren Risikomanagement-Lösungen auch auf bestimmte Bereiche im Geschäftsbetrieb ihrer Kunden fokussiert, beispielsweise um Risiken in Lieferketten oder Projekten besser erkennen und handeln zu können. (ba/fm) 

So funktioniert Risk Management​ Risk Management wird für Unternehmen gerade in unsicheren Zeiten immer wichtiger. Wird es vernachlässigt, droht der Absturz.
Foto: Orla – shutterstock.comGerade in Krisenzeiten, wie der überstandenen Corona-Pandemie und dem Ukraine-Krieg, sehen sich Firmen weltweit Geschäftsrisiken ausgesetzt. Lieferengpässe, Betriebsunterbrechungen und Umsatzausfälle drohen, so manches Unternehmen in Schlagseite zu bringen oder im schlimmsten Fall sogar in die Insolvenz zu treiben. Damit das nicht geschieht, ist es in dieser Situation umso wichtiger, wirtschaftliche Veränderungen und die damit verbundenen Risiken rechtzeitig zu erkennen und die daraus resultierenden Folgen richtig einzuschätzen. An dieser Stelle kommt das Risikomanagement ins Spiel.Risk Management – DefinitionUnternehmerisches Handeln ist immer mit Risiken verbunden. Gerade wenn Liefer- und Produktionsprozesse eng getaktet und granular miteinander verzahnt sind, steigt die Komplexität innerhalb der Organisationen, und damit auch die Anfälligkeit für Ausfälle, wenn eines dieser Rädchen stillsteht.Um diese Risiken bestmöglich im Griff zu behalten, haben viele Unternehmen ein sogenanntes Risk Management etabliert, um Prozessketten möglichst unterbrechungsfrei am Laufen zu halten. Das Risikomanagement in Unternehmen ist dafür zuständig, potenzielle Gefahren wie Ausfallrisiken, Marktrisiken sowie Compliance-Risiken frühzeitig zu erkennen und diese zu bewerten.Nach der Bewertung folgt die Entwicklung von Plänen, welche die negativen Auswirkungen auf das betroffene Unternehmen minimieren sollen. Außerdem gilt es, Strategien und Fahrpläne für eine Risikokommunikation – intern wie extern – zu entwickeln.

Risikomanagement – Funktion im UnternehmenAufgabe des Enterprise Risk Management (ERM) ist es, das Ertrag-Risiko-Profil eines Unternehmens zu optimieren, um die Insolvenzrisiken zu minimieren (Risikosteuerung). Kann sich ein Betrieb als robust und krisensicher präsentieren, steigt auch dessen Credit Rating, was wiederum positiven Einfluss auf mögliche Kunden und die Aktionäre haben könnte.Ziel des Risikomanagements ist es, dem Management fundierte Analysen verschiedener potenzieller Probleme sowie möglicher Lösungen vorzulegen. Auf Grundlage dieser Daten und Berichte können sich zukünftige unternehmensrelevante Entscheidungen besser und zielsicherer treffen lassen.Risk Management – PhasenGenerell gilt, dass nicht jedes Unternehmen denselben Risiken ausgesetzt ist. Unterschiedliche Branchen müssen sich mit unterschiedlichen Gefahren auseinandersetzen. Jedes Risiko muss anders behandelt werden. Die International Organization for Standardization (ISO) bietet Unternehmen ein Framework für ihr Risikomanagement an, welches in den ISO-31000-Prinzipien festgehalten wurde. Da die Normen im Umgang mit Risiken weitgehend vorgegeben sind, bleiben die fünf Phasen des Risk Managements für alle Betriebe gleich.Risikoidentifizierung: Im ersten Schritt müssen mögliche Risiken für ein Unternehmen identifiziert und beschrieben werden. Bei den Gefahren kann es sich zum Beispiel um Marktrisiken, finanzielle Risiken oder betriebliche Risiken wie einen Lieferengpass handeln. Aber auch ungenutzte Chancen, die sich auf dem Markt ergeben, können schnell zu Risiken werden. Bereits identifizierte “Risks” sollten in einem Risikoregister dokumentiert und im Auge behalten werden.Risikoanalyse: Im zweiten Schritt analysiert man relevante Einzelrisiken aus sogenannten Risikofeldern. Dabei werden die Risiken systematisch hinsichtlich ihrer Eintrittswahrscheinlichkeit sowie quantitativer Auswirkungen für das Unternehmen definiert und beschrieben.Risikobewertung: Mit Hilfe einer Chancen-Risiken-Matrix, in welcher die Eintrittswahrscheinlichkeit dem potenziellen Schadensausmaß gegenübergestellt wird, lassen sich Risiken bewerten. Auch quantitative Bewertungen können anhand der Szenarioanalyse oder eines Worst-Case-Szenario getroffen werden. Die Szenarioanalyse entwirft eine Story aus verschiedenen, das Unternehmen betreffenden Annahmen. Auf Basis dieser spezifischen Annahmen werden die finanziellen Auswirkungen für das Unternehmen quantifiziert und mögliche Maßnahmen abgeleitet.Risikominderung: In diesem Schritt entwickelt das Risk-Management-Team nach abgeschlossener Priorisierung verschiedene Strategien und Pläne, um Risiken minimieren oder kontrollieren zu können.Risikoüberwachung: Um Veränderungen und mögliche Verschlimmerungen frühzeitig zu erkennen, müssen Risiken kontinuierlich überwacht werden. Das ist heute umso wichtiger, weil sich Märkte, Wettbewerbssituationen und Kundenansprüche schnell verändern. Durch genaues Monitoring lässt sich so außerdem feststellen, ob die Risikominderungspläne erfolgreich sind oder nicht.

Risikomanagement – EinsatzbereicheÜberwiegend kommt Risk Management in Branchen wie dem Finanzwesen, also in Banken und Versicherungen zum Einsatz, um hohe finanzielle Schäden zu vermeiden. Des Weiteren analysieren Risikomanager im Finanzwesen Konjunkturschwankungen, mögliche Zins- und Inflationsrisiken sowie aktuelle Marktbedingungen. Darüber hinaus schreiben regulatorische Vorschriften den Finanzinstituten vor, sich um die mit ihren Geschäften verbundenen Risiken zu kümmern. Beispielsweise gibt es in Deutschland die Mindestanforderungen an das Risikomanagement (MaRisk), die von der Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) formuliert und laufend neu angepasst werden.Auch in der Unternehmensberatung sind Risikomanager gefragt, die zum Beispiel Unternehmensfusionen und die dabei entstehenden Gefahren analysieren und bewerten. So erstellen Unternehmensberater Pläne, welche dem Führungspersonal eine fundierte Handlungsgrundlage bieten. Ziel ist dabei in jeder Branche die von unternehmerischem Handeln ausgehenden Risiken zu minimieren.Angesichts der Erfahrungen der zurückliegenden Corona-Jahre mit unterbrochenen Lieferketten und damit verbundenen Produktionsausfällen gehen heute allerdings verstärkt auch Unternehmen anderer Branchen dazu über, ein Risk Management einzurichten. Dazu zählen beispielsweise produzierende Branchen wie die Automobilhersteller, aber auch der Handel. Risk Management – ZuständigkeitenNicht jedes Unternehmen beschäftigt einen dedizierten Risk Manager oder kann es sich leisten, eine ganze Abteilung dafür aufzubieten. In manchen Firmen übernimmt deshalb ein gemischtes Team von Controllern, Mitarbeitern des Qualitätsmanagements sowie Treasurer (meist nur im Finanzwesen) die Aufgaben des Risikomanagements. Das Controlling erstellt zum Beispiel Risikostatistiken, Risikoanalysen sowie Forecasts.Der Nachteil eines in den Fachabteilungen aufgehängten Risk Management kann sein, dass die damit betrauten Mitarbeiter potenzielle Gefahren für das Geschäft nur durch ihre Fachbereichsbrille sehen. Ein Gesamtblick auf mögliche Risiken fehlt oder bleibt womöglich lückenhaft, weil er sich aus verschiedenen Einzelperspektiven zusammensetzt. Sind die Organisationsstrukturen eines Betriebs einfach aufgebaut und die prozessualen Zusammenhänge transparent und überschaubar, kann es ausreichen, das Risikomanagement dezentral in einem Bereich wie dem Controlling aufzuhängen.Sobald jedoch Strukturen komplexer werden und das Geflecht aus Produktion, Zulieferern und Logistik weit verzweigt aufgespannt ist, empfiehlt es sich, ein dediziertes Risk Management mit der Funktion und Rolle eines Risk Managers einzurichten. Für ein Unternehmen mit Risk Manager bieten sich folgende Vorteile:Single Point of Contact: Der Risikomanager sollte Überblick über das gesamte Unternehmen haben, um Fragen des Führungspersonals zu verschiedenen Risikobereichen kompetent beantworten zu können. Als direkter Ansprechpartner trägt der Risk Manager dazu bei, Effektivität und Effizienz eines Unternehmens zu steigern.Objektivität: Als Bindeglied zwischen Fachabteilungen ist es die Aufgabe eines Risk Managers jegliche Belange, die den Geschäftsbetrieb beinflussen, objektiv zu betrachten. Risikomanager haben also keine “Abteilungsbrille” auf, um Risiken aus verschiedenen Einzelstandpunkten, wie dem Controlling und Qualitätsmanagement, einzuschätzen.Flexibilität: Ein Risk Manager muss verschiedenste Skills mitbringen – von mathematischen und programmiertechnischen Fähigkeiten bis hin zum Verständnis von komplexen wirtschaftlichen Zusammenhängen. Gerade in Krisensituationen ist es zudem auch wichtig, dass Risikomanager flexibel mn Unternehmen eingesetzt werden können.Risikomanagement – Software und ToolsWer Risiken früh erkennt, hat mehr Zeit zu handeln. Da die Identifizierung zum Großteil auf der Analyse von Daten basiert, bietet sich eine Unterstützung in Form von Softwaretools an. Ein sogenanntes Risikomanagement-Informationssystem (RMIS) hat zahlreiche Vorteile.Höhere Effizienz: Alle Zahlen und Daten laufen an einem SPOT (Single Point of Truth) zusammen und können zu jeder Zeit von überall aus abgerufen werden. In aller Regel laufen die Daten automatisch in so einem System zusammen und müssen nicht manuell aus verschiedenen Teilen des Unternehmens eingesammelt werden. Wichtig dabei: Die Qualität der Daten muss passen. Manuelle Prüfungen an dieser Stelle sind aufwendig und außerdem fehleranfällig. Idealerweise bieten die RMIS-Systeme Funktionen, um Daten auf Richtigkeit und Plausibilität zu prüfen. Dies erleichtert die Auswertung und daraus folgende Identifizierung von Risiken.Datenintegrität: Die häufigsten Fehler im Umgang mit Daten entstehen durch menschliche Fehler. Beim hin- und her-kopieren von Daten aus unterschiedlichen Quellen können bestimmte Informationen verändert oder komplett verloren gehen. Das weitverbreitete “Management by Excel” System hilft an dieser Stelle nicht weiter und sollte abgelöst werden.Verbessertes Reporting: Ein RMIS hilft Unternehmen dabei, die oft über Abteilungen verteilten Daten zu bündeln. So ermöglicht die Software eine schnelle Erstellung von Managementberichten. Durch diese Zeitersparnis bleibt den Risk Managern mehr Zeit für ihre wirklichen Aufgaben wie Risiken zu bewerten sowie Entscheidungen zu treffen.Neben den klassischen Risk-Management-Tools hat sich in den vergangenen Jahren immer stärker der Bereich Governance, Risk & Compliance (GRC) etabliert. Er fasst das Risikomanagement ein Stück weiter und bezieht die Themenfelder Governance und Compliance mit ein. Dabei geht es beispielsweise darum, Regularien einzuhalten und regelkonform mit sensiblen Daten umzugehen. Verstöße dagegen können Unternehmen teuer kommen. Neben Strafzahlungen kann die Reputation des betroffenen Unternehmens darunter leiden und Schaden nehmen. Entsprechende Vorfälle bilden also auch ein gewisses Risiko für den Geschäftsbetrieb.Der Markt für RMIS- und GRC-Software ist fragmentiert. Neben einer Reihe von kleineren Spezialanbietern offerieren auch Softwaregrößen wie SAP und Oracle Funktionen für GRC im Rahmen ihrer Business-Software-Suiten. Darüber hinaus haben sich einzelne Hersteller mit ihren Risikomanagement-Lösungen auch auf bestimmte Bereiche im Geschäftsbetrieb ihrer Kunden fokussiert, beispielsweise um Risiken in Lieferketten oder Projekten besser erkennen und handeln zu können. (ba/fm)

So funktioniert Risk Management​ Weiterlesen »

Fehler im Recruiting-Prozess: So vergraulen Sie Fachkräfte​

Allgemein

Unternehmen, die ihre Recruiting-Prozesse schwerfällig gestalten, stoßen bei Fachkräften schnell auf Ablehnung. Foto: ViDI Studio – shutterstock.comDer Fachkräftemangel sorgt dafür, dass zahlreiche IT-Stellen in Deutschland monatelang unbesetzt bleiben. Begibt man sich auf die Suche nach einem Talent und erhält vielleicht sogar seine Aufmerksamkeit, sollte man alles daran setzen, dass diese nicht wieder verschwindet. Fehler im Bewerbungsprozess können schnell dazu führen, dass die wertvolle Fachkraft das Interesse verliert und sich einem der zahlreichen anderen potenziellen Arbeitgeber zuwendet. Die folgenden sieben Fehler sollten Sie also unbedingt vermeiden. 1. Schwache ArbeitgebermarkeDen ersten Fehler machen Sie schon, bevor der eigentliche Bewerbungsprozess überhaupt beginnt: Sie sorgen sich nicht um Ihre Employer Brand, Ihre Arbeitgebermarke. Das geht häufig mit der Einstellung einher, dass das eigene Unternehmen ohnehin ein attraktiver Arbeitsplatz ist – ohne, dass dafür passende Bedingungen oder Anreize geschaffen werden müssen. Wird dem Thema Employer Branding zu wenig oder gar keine Aufmerksamkeit geschenkt, kann dies zur Folge haben, dass die Bewerber:innen ganz ausbleiben. Denn vor der Bewerbung werden die Talente sämtliche Kanäle nutzen, um sich über den potentiellen neuen Arbeitgeber zu informieren. Dazu zählen beispielsweise die unternehmenseigene Karriereseite, Social-Media-Profile und Arbeitgeber-Bewertungsportale. Wirken diese Kanäle ungepflegt, veraltet, weisen Rechtschreibfehler auf oder ergeben kein stimmiges Gesamtbild, dann schwächt das die Arbeitgebermarke. Beim Employer Branding zählt der erste Eindruck. Deshalb sollten Sie es richtig machen – und dafür sorgen, dass Ihre Karriereseite und Ihre Social-Media-Profile überzeugen. 2. Schlechte StellenanzeigenZugegebenermaßen ist die Bandbreite möglicher Fehler bei der Stellenanzeige ziemlich groß. Klar: Auch hier ist es eher unvorteilhaft, wenn sich Rechtschreibfehler häufen. Aber das ist nicht das einzige potentielle Ausschlusskriterium. Schlechte Stellenausschreibungen sind langweilig formuliert, unpräzise und lassen den Leser oder die Leserin im Unklaren darüber, ob die Stelle zu ihm oder ihr passen würde. Auch eine Stellenanzeige, die deutlich länger als eine Seite ist oder ein klares Ungleichgewicht zwischen Anforderungen an Bewerber:innen und angebotenen Benefits des Unternehmens aufweist, ist ein absolutes No-Go. Bei der Wahl des Stellentitels werden ebenfalls häufig Fehler gemacht: Oft ist er zu kompliziert oder einfach abwegig. Viele Jobbörsen werden aber nach bestimmten Stichworten durchsucht; verwendet man diese beim Verfassen der Stellenausschreibung nicht, taucht die Anzeige nicht im Suchergebnis auf. Denken und fühlen Sie sich in Ihre Kandidat:innen hinein und überlegen Sie, nach welchen Informationen sie suchen, welche Ansprüche sie haben und wie Sie diese bestmöglich erfüllen können. Wenn Sie Ihre potentiellen Bewerber:innen ins Zentrum Ihrer Bemühungen rücken, werden Sie automatisch Vieles richtig machen. 3. Zu hohe AnsprücheSicher – für Ihre Firma wollen Sie nur das Beste und dazu gehören auch die besten Mitarbeitenden. Aber zeichnen sich diese tatsächlich durch zahlreiche Qualifikationen aus? Zu hohe Ansprüche im Recruiting können sich als großer Fehler erweisen, der den Einstellungsprozess verzögern oder sogar gänzlich aufhalten kann. Sie sollten schon beim Schreiben der Stellenausschreibung sorgfältig abwägen, welche Wünsche unverzichtbar und welche eher schwer realisierbar sind. Außerdem sollte der Zusammenhang zwischen beschriebenen Anforderungen und Aufgaben immer erkennbar sein – sonst könnten viele Kandidat:innen von Ihrem Stellenprofil abgeschreckt werden und auf eine Bewerbung verzichten. Insbesondere bei der Suche nach IT-Expert:innen sollten Sie herausfinden, welche Voraussetzungen auf Seiten der Bewerbenden tatsächlich notwendig sind: Braucht es wirklich ein abgeschlossenes Informatikstudium, um die vakante Stelle zu besetzen? Oder reichen anderweitig erlernte Kenntnisse aus? Manche Fähigkeiten kann man sich auch im Job aneignen – was ein neues Teammitglied, das für Ihr Unternehmen brennt, sicherlich tun wird. 4. Aufwändige BewerbungsprozesseBewerber:innen legen heute im Recruiting Wert auf einen schnell ablaufenden sowie gut organisierten Bewerbungsprozess, andernfalls sehen sie von einer Bewerbung ab. Deshalb sollten Sie gut überlegen, welche Bewerbungsformen sie zulassen und anbieten möchten. Auch Bewerbungsformulare, die Schwachstellen aufweisen, zu viele oder sogar die falschen Fragen stellen und das Verfahren somit zu kompliziert machen, sollten vermieden werden. Lange Ladezeiten oder technische Fehler ebenfalls. Wollen Sie es Ihren Bewerber:innen so einfach wie möglich machen, ermöglichen Sie One-Klick-Bewerbungen. In diesem Fall können Interessent:innen zur Bewerbung auf eine ausgeschriebene Stelle ihre Profildaten direkt von Karrierenetzwerken wie LinkedIn oder Xing an das Unternehmen übermitteln. Das bedeutet eine wesentliche Zeitersparnis. 5. Lahmes FeedbackViele Unternehmen vergraulen ihre Kandidat:innen, weil sie insgesamt zu lange brauchen, um auf eingegangene Bewerbungen zu antworten, einen Termin zum Vorstellungsgespräch zu vereinbaren und im Anschluss an dieses eine Zu- oder Absage zu erteilen. Bedenken Sie: Die wenigsten Jobsuchenden bewerben sich ausschließlich auf eine Stelle. Kann ein anderes Unternehmen einen schnelleren und reibungsloseren Prozess bieten, gehen Sie höchstwahrscheinlich leer aus. In Sachen Tempo gilt die Faustregel: Länger als 48 Stunden sollten Sie für eine Rückmeldung nicht brauchen.6. Mangelnde Wertschätzung Viele Unternehmen gehen noch immer von einem Arbeitgebermarkt aus. Soll heißen: Sie erwarten, dass sie von Fachkräften umworben werden, die die vakante Stelle ergattern wollen. Was sie nicht sehen, ist, dass der Fachkräftemangel schon vor einiger Zeit für einen Umschwung gesorgt hat. Aus dem Arbeitgeber- ist ein Arbeitnehmermarkt geworden. Es ist also an den Unternehmen selbst, die wertvollen Talente zu umwerben und sie so für sich zu gewinnen. Ausschlaggebend ist dabei nicht selten die Wertschätzung, die Unternehmen Ihren Bewerbenden entgegenbringen. Doch auch hier passieren häufig Fehler. Beispielsweise dann, wenn ein Kandidat oder eine Kandidatin keine feste Ansprechperson hat, an die er oder sie sich wenden kann und die sich regelmäßig mit Updates meldet. Auch mangelndes Feedback und eine intransparente Gestaltung des Bewerbungsprozesses fallen negativ ins Gewicht – denn Ihre Kandidat:innen verdienen es, zu wissen, woran sie sind. 7. Onboarding unterschätzenDas Talent hat zugesagt, der Vertrag ist unterschrieben. Recruiting beendet – oder? Nicht ganz, denn einer der wichtigsten Abschnitte beginnt erst jetzt: das Onboarding. Gutes und effizientes Onboarding heißt, einen Neuankömmling schnell und in die neue Arbeitswelt sowie Teamumgebung einzugliedern. Wird die Einarbeitung des neuen Teammitglieds unterschätzt, kann es sein, dass es sich schon nach wenigen Wochen oder Monaten wieder aus dem Unternehmen verabschiedet. Strukturiertes Onboarding dient deshalb dazu, einer solchen negativen Entwicklung vorzubeugen. Ziel muss es sein, den individuellen Bedürfnissen neuer Arbeitskolleg:innen bestmöglich Rechnung zu tragen. Zu diesem Zweck ist es hilfreich, schon im Vorfeld Erkundigungen bei Bewerber:innen einzuziehen. Nach der Einstellung können Einzelgespräche dafür sorgen, gemeinsame Erwartungen und Ziele abzustimmen und durch die Einarbeitung sowie Hilfestellung geeigneter Teammitglieder die Mitarbeiterbindung sicherzustellen. (pg)So optimieren Sie StellenanzeigenTipps für das ideale Jobangebot Foto: Brian A Jackson – shutterstock.comDer Stellenanzeige kommt in Zeiten des Fachkräftemangels besondere Bedeutung zu. Wollen Unternehmen die Aufmerksamkeit von Jobsuchenden erregen, muss nicht nur der Aufbau einer Stellenausschreibung perfekt sein, sondern auch noch auf weitere Details geachtet werden. Welche sehen Sie hier.Auf das Design achten Foto: PureSolution – shutterstock.comDas Design der Stellenanzeige kann maßgeblichen Einfluss darauf nehmen, ob sie auf Bewerbende attraktiv oder uninteressant wirkt. Um optisch anzusprechen und die Anzeige aufzulockern, sollten aussagekräftige und thematisch passende Bilder eingebettet werden, ohne die Anzeige jedoch zu überladen. Vorzugsweise sollten sie Menschen zeigen – die der gewünschten Zielgruppe am nächsten kommen. Auch das Firmenlogo darf nicht fehlen: Dieses sollte links oder mittig im Kopf der Ausschreibung integriert werden. Der Text kann durch eine Abwechslung von Stichpunkten und Fließtext sowie ein Layout mit zwei Spalten optisch aufgelockert werden. Hierbei gilt: die wichtigsten Informationen sollten in der linken Spalte genannt werden.Die Zielgruppe kennen Foto: Rawpixel.com – shutterstock.comBevor eine Stellenausschreibung mit den passenden Texten oder dem passenden Layout versehen werden kann, muss klar sein, welche Zielgruppe sich von ihr angesprochen fühlen soll. Dabei kann die Erstellung einer Candidate Persona helfen, die typischerweise an der vakanten Stelle interessiert wäre. Wie alt ist diese Person? Was erwartet sie von einer freien Stelle oder einem potentiellen Arbeitgeber? Welche Kommunikation erwartet sie und worauf sie legt sie Wert? Sind Antworten auf all diese Fragen gefunden, kann man diese als Leitfaden zur Erstellung der Stellenausschreibung nutzen.Allgemeines Gleichbehandlungsgesetz (AGG) berücksichtigen Foto: Pusteflower9024 – shutterstock.comHierbei geht es weniger um eine Empfehlung als vielmehr um eine Pflicht: Bei der Formulierung einer Stellenanzeige muss das AGG, auch Antidiskriminierungsgesetz, eingehalten werden! Personenbezogene Merkmale wie beispielsweise Alter, Geschlecht und Herkunft dürfen bei der Profilbeschreibung keine Rolle spielen. Das erfordert möglichst neutrale Formulierungen – und auch den Verzicht auf indirekte Einschränkungen wie beispielsweise den Wunsch nach einer spezifischen Muttersprache.Stellenanzeigen breit streuen Foto: PopTika – shutterstock.com Um die Wahrscheinlichkeit ein passendes Talent zu finden, zu erhöhen, sollte die Stellenanzeigen möglichst breit gestreut werden und nicht nur auf der eigenen Karriereseite und in den gängigen Online-Jobbörsen veröffentlicht werden. Auch über Karrierenetzwerke und (je nach Zielgruppe) Social Media lässt sich Reichweite generieren, die das Recruiting vorantreiben kann. IT-Fachkräfte sind rar gesät. Neben dem passiven Schalten einer Stellenausschreibung ist auch das aktive Ansprechen potentieller Kandidat:innen – das sogenannte Active Sourcing – empfehlenswert. 

Fehler im Recruiting-Prozess: So vergraulen Sie Fachkräfte​ Unternehmen, die ihre Recruiting-Prozesse schwerfällig gestalten, stoßen bei Fachkräften schnell auf Ablehnung.
Foto: ViDI Studio – shutterstock.comDer Fachkräftemangel sorgt dafür, dass zahlreiche IT-Stellen in Deutschland monatelang unbesetzt bleiben. Begibt man sich auf die Suche nach einem Talent und erhält vielleicht sogar seine Aufmerksamkeit, sollte man alles daran setzen, dass diese nicht wieder verschwindet. Fehler im Bewerbungsprozess können schnell dazu führen, dass die wertvolle Fachkraft das Interesse verliert und sich einem der zahlreichen anderen potenziellen Arbeitgeber zuwendet. Die folgenden sieben Fehler sollten Sie also unbedingt vermeiden. 1. Schwache ArbeitgebermarkeDen ersten Fehler machen Sie schon, bevor der eigentliche Bewerbungsprozess überhaupt beginnt: Sie sorgen sich nicht um Ihre Employer Brand, Ihre Arbeitgebermarke. Das geht häufig mit der Einstellung einher, dass das eigene Unternehmen ohnehin ein attraktiver Arbeitsplatz ist – ohne, dass dafür passende Bedingungen oder Anreize geschaffen werden müssen. Wird dem Thema Employer Branding zu wenig oder gar keine Aufmerksamkeit geschenkt, kann dies zur Folge haben, dass die Bewerber:innen ganz ausbleiben. Denn vor der Bewerbung werden die Talente sämtliche Kanäle nutzen, um sich über den potentiellen neuen Arbeitgeber zu informieren. Dazu zählen beispielsweise die unternehmenseigene Karriereseite, Social-Media-Profile und Arbeitgeber-Bewertungsportale. Wirken diese Kanäle ungepflegt, veraltet, weisen Rechtschreibfehler auf oder ergeben kein stimmiges Gesamtbild, dann schwächt das die Arbeitgebermarke. Beim Employer Branding zählt der erste Eindruck. Deshalb sollten Sie es richtig machen – und dafür sorgen, dass Ihre Karriereseite und Ihre Social-Media-Profile überzeugen. 2. Schlechte StellenanzeigenZugegebenermaßen ist die Bandbreite möglicher Fehler bei der Stellenanzeige ziemlich groß. Klar: Auch hier ist es eher unvorteilhaft, wenn sich Rechtschreibfehler häufen. Aber das ist nicht das einzige potentielle Ausschlusskriterium. Schlechte Stellenausschreibungen sind langweilig formuliert, unpräzise und lassen den Leser oder die Leserin im Unklaren darüber, ob die Stelle zu ihm oder ihr passen würde. Auch eine Stellenanzeige, die deutlich länger als eine Seite ist oder ein klares Ungleichgewicht zwischen Anforderungen an Bewerber:innen und angebotenen Benefits des Unternehmens aufweist, ist ein absolutes No-Go. Bei der Wahl des Stellentitels werden ebenfalls häufig Fehler gemacht: Oft ist er zu kompliziert oder einfach abwegig. Viele Jobbörsen werden aber nach bestimmten Stichworten durchsucht; verwendet man diese beim Verfassen der Stellenausschreibung nicht, taucht die Anzeige nicht im Suchergebnis auf. Denken und fühlen Sie sich in Ihre Kandidat:innen hinein und überlegen Sie, nach welchen Informationen sie suchen, welche Ansprüche sie haben und wie Sie diese bestmöglich erfüllen können. Wenn Sie Ihre potentiellen Bewerber:innen ins Zentrum Ihrer Bemühungen rücken, werden Sie automatisch Vieles richtig machen. 3. Zu hohe AnsprücheSicher – für Ihre Firma wollen Sie nur das Beste und dazu gehören auch die besten Mitarbeitenden. Aber zeichnen sich diese tatsächlich durch zahlreiche Qualifikationen aus? Zu hohe Ansprüche im Recruiting können sich als großer Fehler erweisen, der den Einstellungsprozess verzögern oder sogar gänzlich aufhalten kann. Sie sollten schon beim Schreiben der Stellenausschreibung sorgfältig abwägen, welche Wünsche unverzichtbar und welche eher schwer realisierbar sind. Außerdem sollte der Zusammenhang zwischen beschriebenen Anforderungen und Aufgaben immer erkennbar sein – sonst könnten viele Kandidat:innen von Ihrem Stellenprofil abgeschreckt werden und auf eine Bewerbung verzichten. Insbesondere bei der Suche nach IT-Expert:innen sollten Sie herausfinden, welche Voraussetzungen auf Seiten der Bewerbenden tatsächlich notwendig sind: Braucht es wirklich ein abgeschlossenes Informatikstudium, um die vakante Stelle zu besetzen? Oder reichen anderweitig erlernte Kenntnisse aus? Manche Fähigkeiten kann man sich auch im Job aneignen – was ein neues Teammitglied, das für Ihr Unternehmen brennt, sicherlich tun wird. 4. Aufwändige BewerbungsprozesseBewerber:innen legen heute im Recruiting Wert auf einen schnell ablaufenden sowie gut organisierten Bewerbungsprozess, andernfalls sehen sie von einer Bewerbung ab. Deshalb sollten Sie gut überlegen, welche Bewerbungsformen sie zulassen und anbieten möchten. Auch Bewerbungsformulare, die Schwachstellen aufweisen, zu viele oder sogar die falschen Fragen stellen und das Verfahren somit zu kompliziert machen, sollten vermieden werden. Lange Ladezeiten oder technische Fehler ebenfalls. Wollen Sie es Ihren Bewerber:innen so einfach wie möglich machen, ermöglichen Sie One-Klick-Bewerbungen. In diesem Fall können Interessent:innen zur Bewerbung auf eine ausgeschriebene Stelle ihre Profildaten direkt von Karrierenetzwerken wie LinkedIn oder Xing an das Unternehmen übermitteln. Das bedeutet eine wesentliche Zeitersparnis. 5. Lahmes FeedbackViele Unternehmen vergraulen ihre Kandidat:innen, weil sie insgesamt zu lange brauchen, um auf eingegangene Bewerbungen zu antworten, einen Termin zum Vorstellungsgespräch zu vereinbaren und im Anschluss an dieses eine Zu- oder Absage zu erteilen. Bedenken Sie: Die wenigsten Jobsuchenden bewerben sich ausschließlich auf eine Stelle. Kann ein anderes Unternehmen einen schnelleren und reibungsloseren Prozess bieten, gehen Sie höchstwahrscheinlich leer aus. In Sachen Tempo gilt die Faustregel: Länger als 48 Stunden sollten Sie für eine Rückmeldung nicht brauchen.6. Mangelnde Wertschätzung Viele Unternehmen gehen noch immer von einem Arbeitgebermarkt aus. Soll heißen: Sie erwarten, dass sie von Fachkräften umworben werden, die die vakante Stelle ergattern wollen. Was sie nicht sehen, ist, dass der Fachkräftemangel schon vor einiger Zeit für einen Umschwung gesorgt hat. Aus dem Arbeitgeber- ist ein Arbeitnehmermarkt geworden. Es ist also an den Unternehmen selbst, die wertvollen Talente zu umwerben und sie so für sich zu gewinnen. Ausschlaggebend ist dabei nicht selten die Wertschätzung, die Unternehmen Ihren Bewerbenden entgegenbringen. Doch auch hier passieren häufig Fehler. Beispielsweise dann, wenn ein Kandidat oder eine Kandidatin keine feste Ansprechperson hat, an die er oder sie sich wenden kann und die sich regelmäßig mit Updates meldet. Auch mangelndes Feedback und eine intransparente Gestaltung des Bewerbungsprozesses fallen negativ ins Gewicht – denn Ihre Kandidat:innen verdienen es, zu wissen, woran sie sind. 7. Onboarding unterschätzenDas Talent hat zugesagt, der Vertrag ist unterschrieben. Recruiting beendet – oder? Nicht ganz, denn einer der wichtigsten Abschnitte beginnt erst jetzt: das Onboarding. Gutes und effizientes Onboarding heißt, einen Neuankömmling schnell und in die neue Arbeitswelt sowie Teamumgebung einzugliedern. Wird die Einarbeitung des neuen Teammitglieds unterschätzt, kann es sein, dass es sich schon nach wenigen Wochen oder Monaten wieder aus dem Unternehmen verabschiedet. Strukturiertes Onboarding dient deshalb dazu, einer solchen negativen Entwicklung vorzubeugen. Ziel muss es sein, den individuellen Bedürfnissen neuer Arbeitskolleg:innen bestmöglich Rechnung zu tragen. Zu diesem Zweck ist es hilfreich, schon im Vorfeld Erkundigungen bei Bewerber:innen einzuziehen. Nach der Einstellung können Einzelgespräche dafür sorgen, gemeinsame Erwartungen und Ziele abzustimmen und durch die Einarbeitung sowie Hilfestellung geeigneter Teammitglieder die Mitarbeiterbindung sicherzustellen. (pg)So optimieren Sie StellenanzeigenTipps für das ideale Jobangebot
Foto: Brian A Jackson – shutterstock.comDer Stellenanzeige kommt in Zeiten des Fachkräftemangels besondere Bedeutung zu. Wollen Unternehmen die Aufmerksamkeit von Jobsuchenden erregen, muss nicht nur der Aufbau einer Stellenausschreibung perfekt sein, sondern auch noch auf weitere Details geachtet werden. Welche sehen Sie hier.Auf das Design achten
Foto: PureSolution – shutterstock.comDas Design der Stellenanzeige kann maßgeblichen Einfluss darauf nehmen, ob sie auf Bewerbende attraktiv oder uninteressant wirkt. Um optisch anzusprechen und die Anzeige aufzulockern, sollten aussagekräftige und thematisch passende Bilder eingebettet werden, ohne die Anzeige jedoch zu überladen. Vorzugsweise sollten sie Menschen zeigen – die der gewünschten Zielgruppe am nächsten kommen. Auch das Firmenlogo darf nicht fehlen: Dieses sollte links oder mittig im Kopf der Ausschreibung integriert werden. Der Text kann durch eine Abwechslung von Stichpunkten und Fließtext sowie ein Layout mit zwei Spalten optisch aufgelockert werden. Hierbei gilt: die wichtigsten Informationen sollten in der linken Spalte genannt werden.Die Zielgruppe kennen
Foto: Rawpixel.com – shutterstock.comBevor eine Stellenausschreibung mit den passenden Texten oder dem passenden Layout versehen werden kann, muss klar sein, welche Zielgruppe sich von ihr angesprochen fühlen soll. Dabei kann die Erstellung einer Candidate Persona helfen, die typischerweise an der vakanten Stelle interessiert wäre. Wie alt ist diese Person? Was erwartet sie von einer freien Stelle oder einem potentiellen Arbeitgeber? Welche Kommunikation erwartet sie und worauf sie legt sie Wert? Sind Antworten auf all diese Fragen gefunden, kann man diese als Leitfaden zur Erstellung der Stellenausschreibung nutzen.Allgemeines Gleichbehandlungsgesetz (AGG) berücksichtigen
Foto: Pusteflower9024 – shutterstock.comHierbei geht es weniger um eine Empfehlung als vielmehr um eine Pflicht: Bei der Formulierung einer Stellenanzeige muss das AGG, auch Antidiskriminierungsgesetz, eingehalten werden! Personenbezogene Merkmale wie beispielsweise Alter, Geschlecht und Herkunft dürfen bei der Profilbeschreibung keine Rolle spielen. Das erfordert möglichst neutrale Formulierungen – und auch den Verzicht auf indirekte Einschränkungen wie beispielsweise den Wunsch nach einer spezifischen Muttersprache.Stellenanzeigen breit streuen
Foto: PopTika – shutterstock.com Um die Wahrscheinlichkeit ein passendes Talent zu finden, zu erhöhen, sollte die Stellenanzeigen möglichst breit gestreut werden und nicht nur auf der eigenen Karriereseite und in den gängigen Online-Jobbörsen veröffentlicht werden. Auch über Karrierenetzwerke und (je nach Zielgruppe) Social Media lässt sich Reichweite generieren, die das Recruiting vorantreiben kann. IT-Fachkräfte sind rar gesät. Neben dem passiven Schalten einer Stellenausschreibung ist auch das aktive Ansprechen potentieller Kandidat:innen – das sogenannte Active Sourcing – empfehlenswert.

Fehler im Recruiting-Prozess: So vergraulen Sie Fachkräfte​ Weiterlesen »

Checkliste für KI-Agentenplattformen​

Allgemein

Damit Ihre KI-Agenten richtig abheben, sollten Sie bei der Auswahl einer KI-Agentenplattformen verschiedene Aspekte beachten.ZinetroN/Shutterstock.com Angesichts der rasanten Entwicklung der agentenbasierten KI wird Ihr IT-Team womöglich noch in diesem Jahr von der Evaluierung und Bereitstellung einzelner KI-Softwarepakete von Drittanbietern zu benutzerdefinierten KI-Agenten übergehen. Integriert in Ihre kundenorientierten und internen Geschäftsanwendungen verspricht die Technologie, die Automatisierung und Produktivität noch weiter zu steigern.   Da alle KI-Tools, einschließlich der Plattformen für den Bau von KI-Agenten, ständig weiterentwickelt und aktualisiert werden, und zwar oft täglich, sollten Sie bei der Auswahl dieser Tools und der Entscheidung für eine Plattform einige Dinge beachten. Hier sind einige Punkte, die über die grundlegenden Funktionen und den Preis hinausgehen, aber dennoch für den Erfolg entscheidend sein können.  1. Evaluierung der Entwicklungsumgebung für Agenten Die Anbieter von KI-Agenten kennen sich oft gut mit großen Sprachmodellen (Large Language Models, LLMs) und deren Anbietern aus und verstehen die Vor- und Nachteile eines Modells gegenüber einem anderen. Sie verfügen jedoch möglicherweise über weniger Kenntnisse über Benutzerschnittstellen und eine kundenorientierte Sicht auf ihre Entwicklungsumgebung. Die Folge: Ihr gesamtes Studio kann sich häufig ändern, so dass Sie möglicherweise Agenten erstellen und gleichzeitig auf neuere Versionen Ihres Studios migrieren müssen.  Stellen Sie daher sicher, dass die Umgebung intuitiv ist, dass Sie Ihre Agenten darin leicht testen können und dass erweiterte Optionen für Ihre Agenten verfügbar sind, wie etwa Kurz- und Langzeitgedächtnis. Sie sollte auch Funktionen für verantwortungsvolle KI – Reflexion, Erdung und Kontextrelevanz – und sichere KI – Fairness und Voreingenommenheit, Toxizitätsprüfung, Human-in-the-Loop und PII-Redigierung – enthalten. Darüber hinaus sollten Sie auf einen Blick sehen können, wie viele Credits Sie im Rahmen Ihres Abonnements verbraucht haben und welche Mehrwertfunktionen zur Verfügung stehen, wie etwa die Möglichkeit, die Rolle und die Anweisungen an Ihren Agenten mithilfe von KI zu verbessern.  2. Ausführliche API-Dokumentation  Nachdem Sie Ihre Agenten auf der KI-Agenten-Builder-Plattform erstellt haben, besteht der nächste Schritt darin, diese Agenten mit Hilfe von API-Calls in Ihren eigenen Anwendungen zu implementieren. Suchen Sie nach umfassender Dokumentation auf API-Ebene, aber auch nach Informationen auf höherer Ebene, die die Reihenfolge bei der Bereitstellung von Agenten im laufenden Betrieb und so weiter erläutern. Hier kann eine klare Dokumentation Ihrem eigenen IT-Team helfen, sich einzuarbeiten und die erforderliche Abfolge zu erlernen. Die darin enthaltenen Anweisungen erleichtern es ihnen zu lernen,   die Umgebung einzurichten,  RAGs zu erstellen und zu schulen, Agenten zu bauen und mit ihnen zu interagieren, und Anfragen zu bearbeiten.  Sie benötigen außerdem eine klare Dokumentation darüber,   wie die Token-Nutzung überwacht und berichtet wird,  wie historische Anfragen, die Leistung von KI-Agenten und die Sicherheitsleistung überwacht und angezeigt werden, und  wie die Integration mit anderen Systemen erfolgt.   Mit diesen Informationen kann die Entwicklungs- und Testzeit oft halbiert werden, da es viel weniger Rückfragen zwischen Ihrem IT-Team und dem Agentenanbieter gibt, um Fragen und Probleme zu lösen.  3. Zugang zu professionellen Dienstleistungen und Support  Da sich die Umgebung des Agenten-Builders aufgrund kontinuierlicher Innovationen ständig ändert, ist es wichtig, dass Ihr Anbieter über professionelle Dienstleistungen und Support verfügt. Auf diese Weise kann er Ihr Team bei der Implementierung unterstützen. Diese Möglichkeit kann enorm dazu beitragen, Vertrauen in die Technologie des Anbieters aufzubauen.  Suchen Sie nach Anbietern, die großzügigen Support bieten und bereit sind, mit Ihrem Team zusammenzuarbeiten und eine Partnerschaft einzugehen, um Ihre Agenten an ihr Ziel zu bringen. Noch besser ist es, wenn Sie Zugang zum Managementteam haben, das Sie strategisch beraten kann, wie Sie die Plattform optimal nutzen und von verschiedenen Programmen wie AWS-Partnerschaften und eigene Partnerprogrammen profitieren können.  4. Hohe Systemverfügbarkeit sicherstellen  Die Systemverfügbarkeit der KI-Agent-Infrastruktur kann häufig über API-Calls überwacht werden und ist für erfolgreiche Implementierungen von entscheidender Bedeutung. Da es sich bei vielen der KI-Agenten-Builder-Plattformen um Startups handelt, kann es gelegentlich zu Ausfallzeiten in der Umgebung kommen, wenn sie auf neuere Versionen ihrer Plattform migrieren oder andere Änderungen an ihren APIs und ihrer Agenten-, RAG- und Tooling-Umgebung vornehmen.  Suchen Sie daher nach integrierten Funktionen, um dies zu überwachen, etwa über API-Calls oder Möglichkeiten, sich zur Fehlerbehebung einfach an jemanden im Unternehmen zu wenden. Bei der Leistungsüberwachung von KI-Agenten sollten Sie auf die Reaktionszeit, die Genauigkeit und die Verfügbarkeit des Agenten achten. Überprüfen Sie bei der Fehlerquote die Häufigkeit und die Art der Fehler, die der Agent macht, beispielsweise falsche Antworten, Halluzinationen und Fehler beim Abrufen von Informationen. In einigen Fällen verlieren die Agenten einfach den Kontext, daher ist es wichtig, Parameter wie das Kurz- und Langzeitgedächtnis zu untersuchen und genau herauszufinden, wie viele Schlussfolgerungen der Agent in seinem Kontextgedächtnis behält.  5. Die Produkt-Roadmap erkunden  Sobald Sie die obigen Überlegungen zum Aufbau und zur Bereitstellung von Agenten in Produktionsqualität abgeschlossen haben, sollten Sie auch die Produkt-Roadmap des Anbieters erkunden. Gibt es beispielsweise, wenn die Agenten Texte generieren, auch Pläne für den Übergang zu multimodalen Inhalten mit Audio, Bildern und Video? Gibt es geplante Funktionserweiterungen, die Sie wahrscheinlich für Ihre eigenen Bereitstellungen benötigen werden?  Die zukünftige Unterstützung von Tools und Integrationen von Drittanbietern ist ebenfalls von entscheidender Bedeutung. Wenn die Agenten des Anbieters beispielsweise eine Integration mit X für Social-Media-Posts bieten, ist dann auch eine Unterstützung für LinkedIn geplant? Gibt es fertige Beispiele für die Einführung neuer Funktionen?  Die gute Nachricht ist, dass KI-Agent-Builder-Plattformen von Tag zu Tag besser werden, mit intuitiveren Benutzeroberflächen, umfangreicherer Dokumentation, mehr Integrationen und mehr Anwendungsfällen. Wenn Sie mit einer robusten KI-Agent-Builder-Plattform als Partner zusammenarbeiten, kann sich Ihr IT-Team weniger auf die KI-Installation und mehr auf die Geschäftsregeln, Benutzeroberflächen und Integrationen konzentrieren, die Ihre Agent-Implementierungen erfolgreich machen.  

Checkliste für KI-Agentenplattformen​ Damit Ihre KI-Agenten richtig abheben, sollten Sie bei der Auswahl einer KI-Agentenplattformen verschiedene Aspekte beachten.ZinetroN/Shutterstock.com

Angesichts der rasanten Entwicklung der agentenbasierten KI wird Ihr IT-Team womöglich noch in diesem Jahr von der Evaluierung und Bereitstellung einzelner KI-Softwarepakete von Drittanbietern zu benutzerdefinierten KI-Agenten übergehen. Integriert in Ihre kundenorientierten und internen Geschäftsanwendungen verspricht die Technologie, die Automatisierung und Produktivität noch weiter zu steigern.  

Da alle KI-Tools, einschließlich der Plattformen für den Bau von KI-Agenten, ständig weiterentwickelt und aktualisiert werden, und zwar oft täglich, sollten Sie bei der Auswahl dieser Tools und der Entscheidung für eine Plattform einige Dinge beachten. Hier sind einige Punkte, die über die grundlegenden Funktionen und den Preis hinausgehen, aber dennoch für den Erfolg entscheidend sein können. 

1. Evaluierung der Entwicklungsumgebung für Agenten

Die Anbieter von KI-Agenten kennen sich oft gut mit großen Sprachmodellen (Large Language Models, LLMs) und deren Anbietern aus und verstehen die Vor- und Nachteile eines Modells gegenüber einem anderen. Sie verfügen jedoch möglicherweise über weniger Kenntnisse über Benutzerschnittstellen und eine kundenorientierte Sicht auf ihre Entwicklungsumgebung. Die Folge: Ihr gesamtes Studio kann sich häufig ändern, so dass Sie möglicherweise Agenten erstellen und gleichzeitig auf neuere Versionen Ihres Studios migrieren müssen. 

Stellen Sie daher sicher, dass die Umgebung intuitiv ist, dass Sie Ihre Agenten darin leicht testen können und dass erweiterte Optionen für Ihre Agenten verfügbar sind, wie etwa Kurz- und Langzeitgedächtnis. Sie sollte auch Funktionen für verantwortungsvolle KI – Reflexion, Erdung und Kontextrelevanz – und sichere KI – Fairness und Voreingenommenheit, Toxizitätsprüfung, Human-in-the-Loop und PII-Redigierung – enthalten. Darüber hinaus sollten Sie auf einen Blick sehen können, wie viele Credits Sie im Rahmen Ihres Abonnements verbraucht haben und welche Mehrwertfunktionen zur Verfügung stehen, wie etwa die Möglichkeit, die Rolle und die Anweisungen an Ihren Agenten mithilfe von KI zu verbessern. 

2. Ausführliche API-Dokumentation 

Nachdem Sie Ihre Agenten auf der KI-Agenten-Builder-Plattform erstellt haben, besteht der nächste Schritt darin, diese Agenten mit Hilfe von API-Calls in Ihren eigenen Anwendungen zu implementieren. Suchen Sie nach umfassender Dokumentation auf API-Ebene, aber auch nach Informationen auf höherer Ebene, die die Reihenfolge bei der Bereitstellung von Agenten im laufenden Betrieb und so weiter erläutern. Hier kann eine klare Dokumentation Ihrem eigenen IT-Team helfen, sich einzuarbeiten und die erforderliche Abfolge zu erlernen. Die darin enthaltenen Anweisungen erleichtern es ihnen zu lernen,  

die Umgebung einzurichten, 

RAGs zu erstellen und zu schulen,

Agenten zu bauen und mit ihnen zu interagieren, und

Anfragen zu bearbeiten. 

Sie benötigen außerdem eine klare Dokumentation darüber,  

wie die Token-Nutzung überwacht und berichtet wird, 

wie historische Anfragen, die Leistung von KI-Agenten und die Sicherheitsleistung überwacht und angezeigt werden, und 

wie die Integration mit anderen Systemen erfolgt.  

Mit diesen Informationen kann die Entwicklungs- und Testzeit oft halbiert werden, da es viel weniger Rückfragen zwischen Ihrem IT-Team und dem Agentenanbieter gibt, um Fragen und Probleme zu lösen. 

3. Zugang zu professionellen Dienstleistungen und Support 

Da sich die Umgebung des Agenten-Builders aufgrund kontinuierlicher Innovationen ständig ändert, ist es wichtig, dass Ihr Anbieter über professionelle Dienstleistungen und Support verfügt. Auf diese Weise kann er Ihr Team bei der Implementierung unterstützen. Diese Möglichkeit kann enorm dazu beitragen, Vertrauen in die Technologie des Anbieters aufzubauen. 

Suchen Sie nach Anbietern, die großzügigen Support bieten und bereit sind, mit Ihrem Team zusammenzuarbeiten und eine Partnerschaft einzugehen, um Ihre Agenten an ihr Ziel zu bringen. Noch besser ist es, wenn Sie Zugang zum Managementteam haben, das Sie strategisch beraten kann, wie Sie die Plattform optimal nutzen und von verschiedenen Programmen wie AWS-Partnerschaften und eigene Partnerprogrammen profitieren können. 

4. Hohe Systemverfügbarkeit sicherstellen 

Die Systemverfügbarkeit der KI-Agent-Infrastruktur kann häufig über API-Calls überwacht werden und ist für erfolgreiche Implementierungen von entscheidender Bedeutung. Da es sich bei vielen der KI-Agenten-Builder-Plattformen um Startups handelt, kann es gelegentlich zu Ausfallzeiten in der Umgebung kommen, wenn sie auf neuere Versionen ihrer Plattform migrieren oder andere Änderungen an ihren APIs und ihrer Agenten-, RAG- und Tooling-Umgebung vornehmen. 

Suchen Sie daher nach integrierten Funktionen, um dies zu überwachen, etwa über API-Calls oder Möglichkeiten, sich zur Fehlerbehebung einfach an jemanden im Unternehmen zu wenden. Bei der Leistungsüberwachung von KI-Agenten sollten Sie auf die Reaktionszeit, die Genauigkeit und die Verfügbarkeit des Agenten achten. Überprüfen Sie bei der Fehlerquote die Häufigkeit und die Art der Fehler, die der Agent macht, beispielsweise falsche Antworten, Halluzinationen und Fehler beim Abrufen von Informationen. In einigen Fällen verlieren die Agenten einfach den Kontext, daher ist es wichtig, Parameter wie das Kurz- und Langzeitgedächtnis zu untersuchen und genau herauszufinden, wie viele Schlussfolgerungen der Agent in seinem Kontextgedächtnis behält. 

5. Die Produkt-Roadmap erkunden 

Sobald Sie die obigen Überlegungen zum Aufbau und zur Bereitstellung von Agenten in Produktionsqualität abgeschlossen haben, sollten Sie auch die Produkt-Roadmap des Anbieters erkunden. Gibt es beispielsweise, wenn die Agenten Texte generieren, auch Pläne für den Übergang zu multimodalen Inhalten mit Audio, Bildern und Video? Gibt es geplante Funktionserweiterungen, die Sie wahrscheinlich für Ihre eigenen Bereitstellungen benötigen werden? 

Die zukünftige Unterstützung von Tools und Integrationen von Drittanbietern ist ebenfalls von entscheidender Bedeutung. Wenn die Agenten des Anbieters beispielsweise eine Integration mit X für Social-Media-Posts bieten, ist dann auch eine Unterstützung für LinkedIn geplant? Gibt es fertige Beispiele für die Einführung neuer Funktionen? 

Die gute Nachricht ist, dass KI-Agent-Builder-Plattformen von Tag zu Tag besser werden, mit intuitiveren Benutzeroberflächen, umfangreicherer Dokumentation, mehr Integrationen und mehr Anwendungsfällen. Wenn Sie mit einer robusten KI-Agent-Builder-Plattform als Partner zusammenarbeiten, kann sich Ihr IT-Team weniger auf die KI-Installation und mehr auf die Geschäftsregeln, Benutzeroberflächen und Integrationen konzentrieren, die Ihre Agent-Implementierungen erfolgreich machen. 

Checkliste für KI-Agentenplattformen​ Weiterlesen »

Berufserfahrung richtig darstellen: So bewerbe ich mich als “alter Hase”​

Allgemein

Nachdem bei älteren Bewerbern Zeugnisse so gut wie keine Rolle mehr spielen, besteht bei ihnen die große Herausforderung, ihr Können und ihre Erfahrung ins rechte Licht zu rücken, was einigen durchaus Schwierigkeiten bereitet, wie Personalexperten feststellen. Foto: fizkes – shutterstock.comIn jeder gut sortierten Buchhandlung findet man zahlreiche Bewerbungsratgeber. Diese wenden sich in der Regel jedoch primär an (Hoch-)Schulabgänger. Sucht man hingegen entsprechende Ratgeber für berufserfahrene Fach- und Führungskräfte, dann lautet das Ergebnis meist: Fehlanzeige. Nur sehr wenige Ratgeber streifen ihre Situation.“Dabei ist die Ausgangslage von berufserfahrenen Stellensuchern und Newcomern im Markt sehr verschieden”, betont Thomas Fischer, Senior Consultant bei der Unternehmensberatung Kraus und Partner, Bruchsal. Einem frischgebackenen Betriebswirt oder Jurist stehen noch fast alle Wege offen. “Anders ist dies bei Stellensuchern, die schon zehn oder gar 20 Jahre Berufserfahrung haben. Bei ihnen sind die beruflichen Weichen gestellt.” Das schränkt ihr mögliches Arbeitsfeld ein. Hinzu kommt: Während auf den Abschlusszeugnissen der frischgebackenen (Hoch-)Schulabsolventen die Druckerschwärze oft noch feucht ist, sind die Zeugnisse ihrer älteren Berufskollegen meist schon vergilbt. “Sie sagen wenig über ihr aktuelles Können aus”, stellt Fischer, der Unternehmen häufig bei Personalabbau- und Newplacement-Projekten unterstützt, nüchtern fest. “Denn im Verlauf ihres Berufslebens wuchsen sie oft in ganz neue Aufgabenfelder hinein.”Alarmsignale wahrnehmenEin weiterer Unterschied: Für Singles, die die erste Festanstellung suchen, ist es meist relativ egal, ob die Stellensuche sie nach Berlin oder München verschlägt. Anders ist dies bei Berufserfahrenen mit Kind und Kegel. Sie müssen bei der Wahl des Arbeitsortes mehr bedenken. Trotzdem müssen speziell die Akademiker unter ihnen sich oft bundesweit bewerben. “Denn je spezialisierter und qualifizierter ihre bisherigen Aufgaben waren, umso rarer sind die Jobs, die ihrem Profil entsprechen”, erklärt Claudia Christ, Spabrücken, die als Coach häufig Berufstätige in Karrierefragen berät.Deshalb rät sie gerade älteren Arbeitnehmern, genau darauf zu achten, wann der Zeitpunkt für das Entwickeln einer neuen beruflichen Perspektive naht. Diesen verpassen viele. Denn ein Student, der seine Bachelor- oder Masterarbeit schreibt, weiß genau: “In sechs Monaten ist mein Studium beendet. Also sollte ich allmählich Bewerbungsfotos machen.” So harte Signale, dass die Zeit reif ist, sich neu zu orientieren, gibt es bei Berufstätigen oft nicht. “Meist sind die Signale eher schwach”, betont Christ. Zum Beispiel: Der Chef gibt wichtige Aufgaben plötzlich einem Kollegen. Oder die versprochene Gehaltserhöhung bleibt aus, oder, in der Chefetage herrscht hektische Betriebsamkeit.Gefahr nicht verdrängenFragt man ältere Arbeitslose, ob ihre Kündigung überraschend kam, dann gestehen viele: Sie war absehbar. Sie verdrängten die Bedrohung jedoch. Aus nachvollziehbaren Gründen, betont Claudia Christ: “Ältere Arbeitnehmer müssen, wenn sie ihre Stelle verlieren, oft ihre gesamte Lebensplanung überdenken.” Deshalb lautet ihr Tipp für Berufstätige: “Hört die Signale, statt die Augen zu verschließen.” Denn Personalleiter sind Bewerbern, die noch eine Stelle haben, “meist gewogener als Bewerbern, deren Stirn bereits das Kainsmal ‘arbeitslos’ ziert.” Hinzu kommt: Je mehr Zeit zum Bewerben bleibt, umso größer ist die Chance, im Umkreis eine Stelle zu finden. Zudem agieren (Noch-)Jobinhaber selbstbewusster. Ein Problem vieler älterer Stellensucher ist: Sie können ihre Kompetenz nur schwer belegen. Denn ihre 15 oder 20 Jahre alten Diplome sagen wenig über ihr aktuelles Können aus. “Und Arbeitszeugnisse beschreiben meist nur vage die ausgeübten Tätigkeiten”, betont der Organisationsberater Klaus Doll aus Neustadt an der Weinstraße. Zudem schenken viele Personaler ihnen wenig Vertrauen. Denn sie wissen nicht, ob der alte Arbeitgeber das Zeugnis so positiv formulierte, um die Abfindung zu sparen, oder weil der Bewerber wirklich spitze ist.Erfahrungen analysierenHier helfen oft Beschreibungen, welche Probleme der Bewerber bei seinem alten Arbeitgeber löste. “Sind in ihnen kurz und prägnant die Aufgabenstellungen nebst Problemlöseschritten skizziert, macht dies die Kompetenz transparent”, betont Doll.Insgesamt gilt: Von “alten Hasen” erwarten Unternehmen aussagekräftigere Bewerbungen als von Berufsanfängern. Schreiben Berufseinsteiger im Anschreiben “Mit Interesse las ich Ihre Anzeige”, um anschließend nochmals kurz ihren Lebenslauf zu schildern, wird ihnen dies verziehen. Von Berufserfahrenen erwarten die Betriebe präzisere Aussagen darüber, warum sie sich bewerben und wertvolle Mitarbeiter wären.Dies gilt laut Aussagen von Klaus Doll auch in Zeiten wieLe in den aktuellen, in denen viele Unternehmen zwar händeringend Mitarbeiter suchen: “jedoch meist nicht irgendwelche, sondern hochqualifizierte, die im Idealfall fast keine Einarbeitungszeit benötigen”.Spezielle Kenntnisse ermittelnDies potenziellen Arbeitgebern in ihren Bewerbungen schriftlich darzulegen, fällt vielen berufserfahrenen Bewerbern schwer. Denn sie wissen nicht: Welche “Pfunde” kann ich in die Waagschale werfen? Sie verweisen oft nur auf ihr fachliches Know-how und ihre Branchenkenntnis. “Unternehmen haben aber auch unterschiedliche Strukturen und Kulturen. Deshalb haben sie auch spezifische Probleme und Verfahren, diese zu lösen. Folglich brauchen sie auch unterschiedliche Mitarbeiter”, erklärt Fischer.Hierfür ein Beispiel: Fach- und Führungskräfte in mittelständischen Betrieben benötigen meist eine breitere Qualifikation als Konzern-Mitarbeiter, denn in Klein- und Mittelbetrieben gibt es nicht so viele Spezialisten zum Delegieren von Aufgaben. Außerdem dürfen sich ihre Mitarbeiter nicht “zu schade” sein, auch mal Briefe einzutüten. “Ein Stellensucher, der in einem kleinen Familienbetrieb arbeitet, kann just dies beim Bewerben in die Waagschale werfen – auch bei Großunternehmen, die ihre Organisation in kleinere, flexiblere Einheiten untergliedern möchten”, erläutert Fischer. Solche speziellen Fähigkeiten und Erfahrungen sollten ältere Arbeitsuchende bei sich ermitteln, damit sie sich gezielt bewerben können. Denn, dass sie berufserfahrene Experten sind, das sollte sich auch in ihrem Vorgehen beim Bewerben widerspiegeln.Lesen Sie auch: Babyboomer gehen 

Berufserfahrung richtig darstellen: So bewerbe ich mich als “alter Hase”​ Nachdem bei älteren Bewerbern Zeugnisse so gut wie keine Rolle mehr spielen, besteht bei ihnen die große Herausforderung, ihr Können und ihre Erfahrung ins rechte Licht zu rücken, was einigen durchaus Schwierigkeiten bereitet, wie Personalexperten feststellen.
Foto: fizkes – shutterstock.comIn jeder gut sortierten Buchhandlung findet man zahlreiche Bewerbungsratgeber. Diese wenden sich in der Regel jedoch primär an (Hoch-)Schulabgänger. Sucht man hingegen entsprechende Ratgeber für berufserfahrene Fach- und Führungskräfte, dann lautet das Ergebnis meist: Fehlanzeige. Nur sehr wenige Ratgeber streifen ihre Situation.“Dabei ist die Ausgangslage von berufserfahrenen Stellensuchern und Newcomern im Markt sehr verschieden”, betont Thomas Fischer, Senior Consultant bei der Unternehmensberatung Kraus und Partner, Bruchsal. Einem frischgebackenen Betriebswirt oder Jurist stehen noch fast alle Wege offen. “Anders ist dies bei Stellensuchern, die schon zehn oder gar 20 Jahre Berufserfahrung haben. Bei ihnen sind die beruflichen Weichen gestellt.” Das schränkt ihr mögliches Arbeitsfeld ein.

Hinzu kommt: Während auf den Abschlusszeugnissen der frischgebackenen (Hoch-)Schulabsolventen die Druckerschwärze oft noch feucht ist, sind die Zeugnisse ihrer älteren Berufskollegen meist schon vergilbt. “Sie sagen wenig über ihr aktuelles Können aus”, stellt Fischer, der Unternehmen häufig bei Personalabbau- und Newplacement-Projekten unterstützt, nüchtern fest. “Denn im Verlauf ihres Berufslebens wuchsen sie oft in ganz neue Aufgabenfelder hinein.”Alarmsignale wahrnehmenEin weiterer Unterschied: Für Singles, die die erste Festanstellung suchen, ist es meist relativ egal, ob die Stellensuche sie nach Berlin oder München verschlägt. Anders ist dies bei Berufserfahrenen mit Kind und Kegel. Sie müssen bei der Wahl des Arbeitsortes mehr bedenken. Trotzdem müssen speziell die Akademiker unter ihnen sich oft bundesweit bewerben. “Denn je spezialisierter und qualifizierter ihre bisherigen Aufgaben waren, umso rarer sind die Jobs, die ihrem Profil entsprechen”, erklärt Claudia Christ, Spabrücken, die als Coach häufig Berufstätige in Karrierefragen berät.Deshalb rät sie gerade älteren Arbeitnehmern, genau darauf zu achten, wann der Zeitpunkt für das Entwickeln einer neuen beruflichen Perspektive naht. Diesen verpassen viele. Denn ein Student, der seine Bachelor- oder Masterarbeit schreibt, weiß genau: “In sechs Monaten ist mein Studium beendet. Also sollte ich allmählich Bewerbungsfotos machen.” So harte Signale, dass die Zeit reif ist, sich neu zu orientieren, gibt es bei Berufstätigen oft nicht. “Meist sind die Signale eher schwach”, betont Christ. Zum Beispiel: Der Chef gibt wichtige Aufgaben plötzlich einem Kollegen. Oder die versprochene Gehaltserhöhung bleibt aus, oder, in der Chefetage herrscht hektische Betriebsamkeit.Gefahr nicht verdrängenFragt man ältere Arbeitslose, ob ihre Kündigung überraschend kam, dann gestehen viele: Sie war absehbar. Sie verdrängten die Bedrohung jedoch. Aus nachvollziehbaren Gründen, betont Claudia Christ: “Ältere Arbeitnehmer müssen, wenn sie ihre Stelle verlieren, oft ihre gesamte Lebensplanung überdenken.” Deshalb lautet ihr Tipp für Berufstätige: “Hört die Signale, statt die Augen zu verschließen.” Denn Personalleiter sind Bewerbern, die noch eine Stelle haben, “meist gewogener als Bewerbern, deren Stirn bereits das Kainsmal ‘arbeitslos’ ziert.” Hinzu kommt: Je mehr Zeit zum Bewerben bleibt, umso größer ist die Chance, im Umkreis eine Stelle zu finden. Zudem agieren (Noch-)Jobinhaber selbstbewusster.

Ein Problem vieler älterer Stellensucher ist: Sie können ihre Kompetenz nur schwer belegen. Denn ihre 15 oder 20 Jahre alten Diplome sagen wenig über ihr aktuelles Können aus. “Und Arbeitszeugnisse beschreiben meist nur vage die ausgeübten Tätigkeiten”, betont der Organisationsberater Klaus Doll aus Neustadt an der Weinstraße. Zudem schenken viele Personaler ihnen wenig Vertrauen. Denn sie wissen nicht, ob der alte Arbeitgeber das Zeugnis so positiv formulierte, um die Abfindung zu sparen, oder weil der Bewerber wirklich spitze ist.Erfahrungen analysierenHier helfen oft Beschreibungen, welche Probleme der Bewerber bei seinem alten Arbeitgeber löste. “Sind in ihnen kurz und prägnant die Aufgabenstellungen nebst Problemlöseschritten skizziert, macht dies die Kompetenz transparent”, betont Doll.Insgesamt gilt: Von “alten Hasen” erwarten Unternehmen aussagekräftigere Bewerbungen als von Berufsanfängern. Schreiben Berufseinsteiger im Anschreiben “Mit Interesse las ich Ihre Anzeige”, um anschließend nochmals kurz ihren Lebenslauf zu schildern, wird ihnen dies verziehen. Von Berufserfahrenen erwarten die Betriebe präzisere Aussagen darüber, warum sie sich bewerben und wertvolle Mitarbeiter wären.Dies gilt laut Aussagen von Klaus Doll auch in Zeiten wieLe in den aktuellen, in denen viele Unternehmen zwar händeringend Mitarbeiter suchen: “jedoch meist nicht irgendwelche, sondern hochqualifizierte, die im Idealfall fast keine Einarbeitungszeit benötigen”.Spezielle Kenntnisse ermittelnDies potenziellen Arbeitgebern in ihren Bewerbungen schriftlich darzulegen, fällt vielen berufserfahrenen Bewerbern schwer. Denn sie wissen nicht: Welche “Pfunde” kann ich in die Waagschale werfen? Sie verweisen oft nur auf ihr fachliches Know-how und ihre Branchenkenntnis. “Unternehmen haben aber auch unterschiedliche Strukturen und Kulturen. Deshalb haben sie auch spezifische Probleme und Verfahren, diese zu lösen. Folglich brauchen sie auch unterschiedliche Mitarbeiter”, erklärt Fischer.Hierfür ein Beispiel: Fach- und Führungskräfte in mittelständischen Betrieben benötigen meist eine breitere Qualifikation als Konzern-Mitarbeiter, denn in Klein- und Mittelbetrieben gibt es nicht so viele Spezialisten zum Delegieren von Aufgaben. Außerdem dürfen sich ihre Mitarbeiter nicht “zu schade” sein, auch mal Briefe einzutüten. “Ein Stellensucher, der in einem kleinen Familienbetrieb arbeitet, kann just dies beim Bewerben in die Waagschale werfen – auch bei Großunternehmen, die ihre Organisation in kleinere, flexiblere Einheiten untergliedern möchten”, erläutert Fischer. Solche speziellen Fähigkeiten und Erfahrungen sollten ältere Arbeitsuchende bei sich ermitteln, damit sie sich gezielt bewerben können. Denn, dass sie berufserfahrene Experten sind, das sollte sich auch in ihrem Vorgehen beim Bewerben widerspiegeln.Lesen Sie auch: Babyboomer gehen

Berufserfahrung richtig darstellen: So bewerbe ich mich als “alter Hase”​ Weiterlesen »

Clicks for iPhone 16 im Test – clevere iPhone-Tastaturhülle (nicht) für jedermann​

Allgemein

Eugen Wegmann Auf einen Blick Pro Angenehmes Tippgefühl Viele clevere Tastenkürzel Tastaturbeleuchtung Mehr Platz auf dem Bildschirm Kontra Sehr unhandlich am iPhone 16 Pro Max Langwierige Einrichtung Kein deutsches Tastaturlayout Merklicher Akkuverbrauch Fazit Die „Clicks for iPhone“ ist eins der interessantesten Zubehörprodukte fürs iPhone in den vergangenen Jahren. Die Kombination aus iPhone-Hülle und Tastatur bringt physische Tasten aufs Apple-Handy und macht auf dem Bildschirm mehr Platz für Inhalt, da die Bildschirmtastatur wegfällt, und Kurzbefehle auf bestimmte Tastenkombinationen legen zu können, ist ein unglaublich cleverer Trick.Das Design wirkt durchdacht, die Verarbeitung ist gut, aber besonders auf den Plus- und Pro-Max-Modellen des iPhones wird die Handhabung auf Dauer sehr anstrengend. Die Wermutstropfen sind eine langwierige Einrichtung und ein fehlendes deutsches Tastaturlayout, weshalb ich die Hülle aktuell nur den härtesten Verfechtern von physischen Tasten empfehlen kann. „Clicks“, die einzige Tastaturhülle fürs iPhone auf dem Markt, wurde Anfang des Jahres vorgestellt und gehört zu der Gattung Zubehör, bei der sich die Geister unweigerlich scheiden werden. Unser Autor Stephan Wiesend hat sie beispielsweise schon im Januar 2024 zum Flop erklärt. Ich hingegen war neugierig. Das Konzept an sich ist kein dummes, nur etwas aus der Zeit gefallen, denn spätestens mit dem Niedergang von Blackberry ist auch die Ära der Smartphones mit Tastatur zu Ende gegangen. Vielleicht bin ich für solche Konzepte auch einfach empfänglich, schließlich gehöre ich zu der (wahrscheinlich relativ kleinen) Gruppe von Menschen, die eine ganze Weile mit Tastatur-Smartphones verbracht haben und in schwachen Momenten sehnsüchtig zurückblicken. Wahrscheinlich ist es ein Jahr später noch zu früh, darüber zu urteilen, ob Stephan schon jetzt recht behalten hat oder ob Clicks in seiner speziellen Nische überleben kann. Was man dem kleinen Unternehmen jedoch zugute heißen kann, ist, dass es pünktlich zur Vorstellung des iPhone 16 eine überarbeitete Version der Tastaturhülle gab. Dabei wurde nicht nur die Passform an die beiden neuen Geräte angepasst, sondern auch Änderungen sowohl an der Tastatur als auch an der Verarbeitung vorgenommen. Eugen Wegmann Design & Verarbeitung Drei Farben Gute Verarbeitung Kein deutsches Layout Sieht man von der Tastatur am unteren Ende ab, handelt es sich bei Clicks um eine gewöhnliche iPhone-Hülle, die in drei Farben kommt: Surf, Spice und Onyx – Blau, Ocker und Schwarz. Clicks wird nicht explizit als Schutzhülle vermarktet, bietet konstruktionsbedingt aber einen gewissen Schutz für Ihr iPhone. Das liegt einfach in der Natur der Sache. Der Rahmen besteht aus einem relativ starren Silikon, die Rückseite aus einem Stück Hartplastik, in das kreisförmig Magnete für Magsafe eingelassen sind. Auf der Innenseite werden sie mit einem Mikrofaserstoff abgedeckt, ähnlich wie die Original-Hüllen von Apple. Die Tasten bestehen aus Aluminium und fühlen sich deshalb sehr hochwertig an, bei der Kamerasteuerung haben sich die Designer für einen simplen Ausschnitt entschieden. So weit, so normal. Dann wäre da an der Unterkante der Innenseite aber noch der USB-C-Anschluss, mit dem Sie die Clicks mit Ihrem iPhone verbinden und der durch die Tastatur hindurch ans untere Ende verlängert wird, damit Sie Ihr iPhone auch laden und mit Carplay verbinden können. Eugen Wegmann Der Blickfang und die Hauptfunktion ist selbstverständlich die Tastatur mit ihren 37 schwarzen, optional beleuchteten Tasten. Diese sind im Sinne der Ergonomie leicht eingedellt und auf der linken Seite etwas nach links geneigt, auf der rechten Seite etwas nach rechts. Alle Haupttasten sind doppelt und teilweise dreifach belegt, die wichtigsten Sonderzeichen auf die jeweilige Taste gedruckt. Daneben gibt es in der unteren Zeile noch drei Zusatztasten: Eine für die Spracheingabe (beziehungsweise für die Hintergrundbeleuchtung), eine, um die virtuelle iPhone-Tastatur bei Bedarf ein- und wieder auszublenden und eine dritte Clicks-Taste für spezielle Tastenkürzel wie Kurzbefehle. Eugen Wegmann Auf der Rückseite der Tastatur befindet sich ein Deckel, der mit einem Stück Kunstleder bezogen ist und hinter dem die Technik untergebracht ist. Wenn Sie wissen möchten, wie es im Inneren aussieht, dann können Sie gern ins letzte Viertel des Videos des Youtube-Channels Jerryrigeverything werfen, wo das Gerät auseinandergenommen wird. Probleme und Lösungen fürs QWERTY-Layout Die Clicks ist aktuell nur mit amerikanischem QWERTY-Layout erhältlich, was sie im deutschsprachigen Raum direkt ziemlich unattraktiv macht. Während man sich ans Layout selbst recht schnell gewöhnt – nur Z und Y sind vertauscht –, ist das weitaus größere Problem, dass die Sekundärbelegung überhaupt nicht dem entspricht, was iOS ausgibt, wenn die Systemtastatur auf Deutsch eingestellt ist. Stellt man die Systemtastatur auf Englisch um, verliert man wiederum sämtliche deutsche Autokorrekturen. Es gibt dafür eine (leider nicht ganz optimale) Lösung: In iOS ist es möglich, zwei Sprachen mit einer Tastatur zu verwenden. Dabei erkennt das System in den meisten Fällen, wann Sie in welcher Sprache schreiben, und passt die Vorschläge der Autokorrektur dementsprechend an. Sie können also als Tastatur Englisch (QWERTY) einstellen und ihr Englisch (USA) und Deutsch als Sprachen zuweisen. Das löst das Sonderzeichenproblem weitestgehend – mit Ausnahme von Umlauten und dem „ß“, die es auf der QWERTY-Tastatur selbstverständlich nicht gibt. Abhilfe schafft hier in vielen Fällen die Autokorrektur: Schreiben Sie ein Wort mit „ss“ statt „ß“, wird Ihnen oberhalb der Textzeile die korrekte Schreibweise vorgeschlagen. Dasselbe gilt für Umlaute: in der Regel werden a, o, u zu ä, ö, ü. Wenn die Autokorrektur nicht hilft, können Sie die entsprechende Taste (s, a, o, u) lange drücken und aus dem Überhangmenü auf dem Bildschirm den entsprechenden Umlaut auswählen. Das gilt selbstverständlich auch für Varianten anderer Sprachen, also z.B. á, à, â. Eugen Wegmann Ergonomie & Haptik Großartiges haptisches Feedback Pro-Max-Version unhandlich Setzt zweihändige Bedienung voraus Tastenfetischisten kommen bei Clicks auf Ihre Kosten. Der Druckpunkt ist angenehm, das Klick-Geräusch auch. Die Tastengröße und die Abstände sind groß genug, sofern Sie keine wirklich großen Finger haben. Eugen Wegmann Die bringt wegen Ihrer Größe allerdings zwei nicht unerhebliche Probleme mit sich. Das Geringere davon ist, dass sie die einhändige Bedienung Ihres iPhones praktisch unmöglich macht und Sie dazu zwingt, das iPhone in zwei Händen zu halten. Das ist im Grunde auch bitter nötig, denn das weitaus größere Problem, zumindest bei der Variante der Clicks fürs iPhone Pro Max (und wahrscheinlich auch fürs Plus), ist die Gewichtsverteilung. Mit der Clicks werden die ohnehin schon langen iPhone-Modelle noch länger und dadurch auch ihre Hebelwirkung größer, wenn Sie sie in einem typischen Winkel von 20 bis 70 Grad zum Boden in der Hand halten. Das beste Tippgefühl kann nichts daran ändern, dass nach einer Weile die Handgelenke wehtun. Eugen Wegmann Dabei haben die Entwickler der Clicks schon viel dafür getan, den Schwerpunkt möglichst nah an die Hände zu bringen: Neben den Tasten und der ganzen Technik befinden sich hinter der Kunstlederklappe auf der Rückseite nämlich noch ein paar Gewichte. Möglicherweise ist die Clicks fürs normale iPhone oder das Pro-iPhone ohne Max angenehmer, aus Mangel einer solchen Variante kann ich aber nur spekulieren. Funktionen & Software Tastenkombinationen für Kurzbefehle Clicks-App für Anpassungen und Updates USB-C-Passthrough Neben der eigentlichen physischen Tastatur ist die geheime Superkraft der Clicks die Möglichkeit, jede einzelne Taste mit Kurzbefehlen zu belegen. Das erfordert allerdings einen relativ hohen Aufwand, denn das muss alles eingerichtet werden. Clicks verwendet für die Zuweisung von Kurzbefehlen eine Funktion in den Barrierefreiheitsoptionen, die es ermöglicht, das iPhone mit einer externen Tastatur zu steuern. Die Einrichtung ist nicht kompliziert, aber langwierig. Es gibt auch ein (englischsprachiges) Video, in dem alles Schritt für Schritt (für Schritt… für Schritt…) erklärt wird. Glücklicherweise hat Clicks die dazugehörige App inzwischen so erweitert, dass einige grundlegende Kurzbefehle einfach eingerichtet werden können. Darüber hinaus müssen Sie entsprechende Kurzbefehle aber anderswo suchen oder selbst erstellen. Das ist leider nicht ganz trivial, denn die Kurzbefehl-App ist zwar vielseitig, dafür aber auch unübersichtlich und für Laien. Ein Kurzbefehl, den ich selbst einrichten musste, öffnet das Kontrollzentrum, was systemseitig tatsächlich auch erst seit iOS 18.1 überhaupt möglich ist. Zu den Kurzbefehlen, die Clicks in der App vorschlägt, gehören beispielsweise Instagram zu starten, einen bestimmten Kontakt anzurufen, einen Fokusmodus zu aktivieren, im Taschenrechner Trinkgeld zu berechnen und viele mehr. In der App können Sie außerdem das Verhalten einiger anderer Tasten konfigurieren – etwa, ob die Eingabetaste eine Nachricht verschickt oder einen Zeilenumbruch einfügt –, ob und wann die Clicks in den Stand-by-Modus geht und ob und wie stark die Tastenbeleuchtung ist. Wenn Sie Ihr iPhone per Kabel im Auto für Carplay verwenden, müssen Sie entweder in der App oder per Tastenkombination (123+Leertaste) vom Tastaturmodus in den Datenmodus wechseln, da USB-C auf dem iPhone nicht beides gleichzeitig kann. Immerhin kann das iPhone auch mit Hülle geladen werden. Akkulaufzeit Da sich die Clicks per USB-C mit dem iPhone verbindet, benötigt sie keinen eigenen Akku, sondern wird vom iPhone mit Strom versorgt. Das hat Folgen für die Akkulaufzeit des iPhones, obwohl der Hersteller versichert, dass die Auswirkungen vernachlässigbar sind. In meinen Tests hat die Clicks über den Tag verteilt laut iOS-Batterieverbrauch sage und schreibe zwischen 20 und 25 Prozent Akku beansprucht. An einem meiner Testtage kam nur „Slay the Spire“ ansatzweise an diesen Verbrauch heran, das allerdings in einer deutlich kürzeren Zeit. Das ist in jedem Fall kein Zuckerschlecken, und an manchen Tagen musste ich ganz schön zittern, wenn die Batterieanzeige meines iPhone 16 Pro Max unter die 10-Prozent-Marke rutschte – und darüber hinaus –, der Weg zur nächsten Steckdose aber noch weit war. In der Clicks-App gibt es zwei Stellschrauben, um den Stromverbrauch der Hülle zu senken: die Tastenbeleuchtung und den Stromsparmodus. Am sinnvollsten ist es, die Tastaturbeleuchtung komplett aus- und nur bei Bedarf einzuschalten, denn sie ist in der Regel der größte Stromfresser. Selbst in der Dunkelheit leuchtet der Bildschirm stark genug, dass sich die weißen Buchstaben auf der Tastatur noch passabel erkennen lassen. Der Stromsparmodus hingegen ist eine zweischneidige Angelegenheit. Dabei wird die Clicks nach einer bestimmten Zeit einfach ausgeschaltet, was zunächst absolut sinnvoll erscheint. Das hat aber zum Nachteil, dass es immer wieder einen wirklich merkwürdig langen Moment dauert, bis sich die Clicks erneut einschaltet und mit dem iPhone verbindet. Das ist besonders ätzend, wenn Sie das iPhone nach einer Weile in die Hand nehmen, schnell einen Kurzbefehl ausführen möchten, und drei-, viermal die Tastenkombination drücken, bis überhaupt etwas passiert. Sie tauschen also eine etwas höhere Akkulaufzeit gegen eine nervige Unannehmlichkeit ein. Wofür Sie sich entscheiden, bleibt Ihnen überlassen. (Ich empfehle, den Stromsparmodus auszuschalten.) Preis & Verfügbarkeit Die „Clicks for iPhone“ ist ausschließlich im Shop des Herstellers für die gesamte iPhone-15-Reihe und iPhone-16-Reihe verfügbar. Beim iPhone 14 unterstützt Clicks nur das 14 Pro und 14 Pro Max. Die Preise hängen von der Größe Ihres iPhones ab: 129 Euro werden fällig, wenn Sie ein normales oder ein iPhone Pro besitzen, 149 Euro, wenn Plus oder Pro Max. Eugen Wegmann Für wen lohnt sich die Clicks-Tastaturhülle? Ich will ganz ehrlich sein: Für den Alltagsgebrauch eines Durchschnittsmenschen lohnt sich die Clicks nicht, und mit großer Wahrscheinlichkeit gehören Sie zu dieser Gruppe. Die Tastaturhülle ist ein absolutes Nischenprodukt und richtet sich an Produktivitäts-Junkies, die viele lange Texte am iPhone schreiben, eine Handvoll Kurzbefehle per Tastendruck ausführen und im Bestfall auch noch ein wenig mit ihrem Zubehör in der Öffentlichkeit auffallen wollen. Außerdem richtet sich Clicks an Menschen, die nie so wirklich darüber hinweggekommen sind, dass es keine Smartphones mit Tastaturen mehr gibt. Gehören Sie zu beiden Gruppen, ist die Clicks freilich das perfekte Zubehör für Sie. Dennoch muss ich zugeben: Die Clicks ist eins der interessanteren Zubehör-Geräte, die in den vergangenen Jahren fürs iPhone auf den Markt gekommen sind, und die Möglichkeit, alle Tasten mit Kurzbefehlen zu belegen, hat unheimlich großes Potenzial, wenn Sie die Muße haben, sich ein paar Stündchen damit auseinanderzusetzen und es einzurichten. Wenn Sie nicht schon jetzt vor Begeisterung platzen, ist die Clicks allenfalls ein nettes und nicht allzu günstiges Spielzeug, das nach ein paar Einsätzen in der Schublade landet. Solange die Clicks allerdings nicht mit QWERTZ-Layout verfügbar ist, kann ich eine Empfehlung nur den härtesten Verfechtern von Hardware-Tastaturen am Smartphone empfehlen. (Macwelt) 

Clicks for iPhone 16 im Test – clevere iPhone-Tastaturhülle (nicht) für jedermann​ Eugen Wegmann

Auf einen Blick

Pro

Angenehmes Tippgefühl

Viele clevere Tastenkürzel

Tastaturbeleuchtung

Mehr Platz auf dem Bildschirm

Kontra

Sehr unhandlich am iPhone 16 Pro Max

Langwierige Einrichtung

Kein deutsches Tastaturlayout

Merklicher Akkuverbrauch

Fazit

Die „Clicks for iPhone“ ist eins der interessantesten Zubehörprodukte fürs iPhone in den vergangenen Jahren. Die Kombination aus iPhone-Hülle und Tastatur bringt physische Tasten aufs Apple-Handy und macht auf dem Bildschirm mehr Platz für Inhalt, da die Bildschirmtastatur wegfällt, und Kurzbefehle auf bestimmte Tastenkombinationen legen zu können, ist ein unglaublich cleverer Trick.Das Design wirkt durchdacht, die Verarbeitung ist gut, aber besonders auf den Plus- und Pro-Max-Modellen des iPhones wird die Handhabung auf Dauer sehr anstrengend. Die Wermutstropfen sind eine langwierige Einrichtung und ein fehlendes deutsches Tastaturlayout, weshalb ich die Hülle aktuell nur den härtesten Verfechtern von physischen Tasten empfehlen kann.

„Clicks“, die einzige Tastaturhülle fürs iPhone auf dem Markt, wurde Anfang des Jahres vorgestellt und gehört zu der Gattung Zubehör, bei der sich die Geister unweigerlich scheiden werden. Unser Autor Stephan Wiesend hat sie beispielsweise schon im Januar 2024 zum Flop erklärt. Ich hingegen war neugierig. Das Konzept an sich ist kein dummes, nur etwas aus der Zeit gefallen, denn spätestens mit dem Niedergang von Blackberry ist auch die Ära der Smartphones mit Tastatur zu Ende gegangen.

Vielleicht bin ich für solche Konzepte auch einfach empfänglich, schließlich gehöre ich zu der (wahrscheinlich relativ kleinen) Gruppe von Menschen, die eine ganze Weile mit Tastatur-Smartphones verbracht haben und in schwachen Momenten sehnsüchtig zurückblicken.

Wahrscheinlich ist es ein Jahr später noch zu früh, darüber zu urteilen, ob Stephan schon jetzt recht behalten hat oder ob Clicks in seiner speziellen Nische überleben kann. Was man dem kleinen Unternehmen jedoch zugute heißen kann, ist, dass es pünktlich zur Vorstellung des iPhone 16 eine überarbeitete Version der Tastaturhülle gab. Dabei wurde nicht nur die Passform an die beiden neuen Geräte angepasst, sondern auch Änderungen sowohl an der Tastatur als auch an der Verarbeitung vorgenommen.

Eugen Wegmann

Design & Verarbeitung

Drei Farben

Gute Verarbeitung

Kein deutsches Layout

Sieht man von der Tastatur am unteren Ende ab, handelt es sich bei Clicks um eine gewöhnliche iPhone-Hülle, die in drei Farben kommt: Surf, Spice und Onyx – Blau, Ocker und Schwarz. Clicks wird nicht explizit als Schutzhülle vermarktet, bietet konstruktionsbedingt aber einen gewissen Schutz für Ihr iPhone. Das liegt einfach in der Natur der Sache.

Der Rahmen besteht aus einem relativ starren Silikon, die Rückseite aus einem Stück Hartplastik, in das kreisförmig Magnete für Magsafe eingelassen sind. Auf der Innenseite werden sie mit einem Mikrofaserstoff abgedeckt, ähnlich wie die Original-Hüllen von Apple. Die Tasten bestehen aus Aluminium und fühlen sich deshalb sehr hochwertig an, bei der Kamerasteuerung haben sich die Designer für einen simplen Ausschnitt entschieden. So weit, so normal.

Dann wäre da an der Unterkante der Innenseite aber noch der USB-C-Anschluss, mit dem Sie die Clicks mit Ihrem iPhone verbinden und der durch die Tastatur hindurch ans untere Ende verlängert wird, damit Sie Ihr iPhone auch laden und mit Carplay verbinden können.

Eugen Wegmann

Der Blickfang und die Hauptfunktion ist selbstverständlich die Tastatur mit ihren 37 schwarzen, optional beleuchteten Tasten. Diese sind im Sinne der Ergonomie leicht eingedellt und auf der linken Seite etwas nach links geneigt, auf der rechten Seite etwas nach rechts. Alle Haupttasten sind doppelt und teilweise dreifach belegt, die wichtigsten Sonderzeichen auf die jeweilige Taste gedruckt.

Daneben gibt es in der unteren Zeile noch drei Zusatztasten: Eine für die Spracheingabe (beziehungsweise für die Hintergrundbeleuchtung), eine, um die virtuelle iPhone-Tastatur bei Bedarf ein- und wieder auszublenden und eine dritte Clicks-Taste für spezielle Tastenkürzel wie Kurzbefehle.

Eugen Wegmann

Auf der Rückseite der Tastatur befindet sich ein Deckel, der mit einem Stück Kunstleder bezogen ist und hinter dem die Technik untergebracht ist. Wenn Sie wissen möchten, wie es im Inneren aussieht, dann können Sie gern ins letzte Viertel des Videos des Youtube-Channels Jerryrigeverything werfen, wo das Gerät auseinandergenommen wird.

Probleme und Lösungen fürs QWERTY-Layout

Die Clicks ist aktuell nur mit amerikanischem QWERTY-Layout erhältlich, was sie im deutschsprachigen Raum direkt ziemlich unattraktiv macht. Während man sich ans Layout selbst recht schnell gewöhnt – nur Z und Y sind vertauscht –, ist das weitaus größere Problem, dass die Sekundärbelegung überhaupt nicht dem entspricht, was iOS ausgibt, wenn die Systemtastatur auf Deutsch eingestellt ist. Stellt man die Systemtastatur auf Englisch um, verliert man wiederum sämtliche deutsche Autokorrekturen.

Es gibt dafür eine (leider nicht ganz optimale) Lösung: In iOS ist es möglich, zwei Sprachen mit einer Tastatur zu verwenden. Dabei erkennt das System in den meisten Fällen, wann Sie in welcher Sprache schreiben, und passt die Vorschläge der Autokorrektur dementsprechend an. Sie können also als Tastatur Englisch (QWERTY) einstellen und ihr Englisch (USA) und Deutsch als Sprachen zuweisen.

Das löst das Sonderzeichenproblem weitestgehend – mit Ausnahme von Umlauten und dem „ß“, die es auf der QWERTY-Tastatur selbstverständlich nicht gibt. Abhilfe schafft hier in vielen Fällen die Autokorrektur: Schreiben Sie ein Wort mit „ss“ statt „ß“, wird Ihnen oberhalb der Textzeile die korrekte Schreibweise vorgeschlagen.

Dasselbe gilt für Umlaute: in der Regel werden a, o, u zu ä, ö, ü. Wenn die Autokorrektur nicht hilft, können Sie die entsprechende Taste (s, a, o, u) lange drücken und aus dem Überhangmenü auf dem Bildschirm den entsprechenden Umlaut auswählen. Das gilt selbstverständlich auch für Varianten anderer Sprachen, also z.B. á, à, â.

Eugen Wegmann

Ergonomie & Haptik

Großartiges haptisches Feedback

Pro-Max-Version unhandlich

Setzt zweihändige Bedienung voraus

Tastenfetischisten kommen bei Clicks auf Ihre Kosten. Der Druckpunkt ist angenehm, das Klick-Geräusch auch. Die Tastengröße und die Abstände sind groß genug, sofern Sie keine wirklich großen Finger haben.

Eugen Wegmann

Die bringt wegen Ihrer Größe allerdings zwei nicht unerhebliche Probleme mit sich. Das Geringere davon ist, dass sie die einhändige Bedienung Ihres iPhones praktisch unmöglich macht und Sie dazu zwingt, das iPhone in zwei Händen zu halten.

Das ist im Grunde auch bitter nötig, denn das weitaus größere Problem, zumindest bei der Variante der Clicks fürs iPhone Pro Max (und wahrscheinlich auch fürs Plus), ist die Gewichtsverteilung. Mit der Clicks werden die ohnehin schon langen iPhone-Modelle noch länger und dadurch auch ihre Hebelwirkung größer, wenn Sie sie in einem typischen Winkel von 20 bis 70 Grad zum Boden in der Hand halten. Das beste Tippgefühl kann nichts daran ändern, dass nach einer Weile die Handgelenke wehtun.

Eugen Wegmann

Dabei haben die Entwickler der Clicks schon viel dafür getan, den Schwerpunkt möglichst nah an die Hände zu bringen: Neben den Tasten und der ganzen Technik befinden sich hinter der Kunstlederklappe auf der Rückseite nämlich noch ein paar Gewichte. Möglicherweise ist die Clicks fürs normale iPhone oder das Pro-iPhone ohne Max angenehmer, aus Mangel einer solchen Variante kann ich aber nur spekulieren.

Funktionen & Software

Tastenkombinationen für Kurzbefehle

Clicks-App für Anpassungen und Updates

USB-C-Passthrough

Neben der eigentlichen physischen Tastatur ist die geheime Superkraft der Clicks die Möglichkeit, jede einzelne Taste mit Kurzbefehlen zu belegen. Das erfordert allerdings einen relativ hohen Aufwand, denn das muss alles eingerichtet werden. Clicks verwendet für die Zuweisung von Kurzbefehlen eine Funktion in den Barrierefreiheitsoptionen, die es ermöglicht, das iPhone mit einer externen Tastatur zu steuern. Die Einrichtung ist nicht kompliziert, aber langwierig. Es gibt auch ein (englischsprachiges) Video, in dem alles Schritt für Schritt (für Schritt… für Schritt…) erklärt wird.

Glücklicherweise hat Clicks die dazugehörige App inzwischen so erweitert, dass einige grundlegende Kurzbefehle einfach eingerichtet werden können. Darüber hinaus müssen Sie entsprechende Kurzbefehle aber anderswo suchen oder selbst erstellen. Das ist leider nicht ganz trivial, denn die Kurzbefehl-App ist zwar vielseitig, dafür aber auch unübersichtlich und für Laien. Ein Kurzbefehl, den ich selbst einrichten musste, öffnet das Kontrollzentrum, was systemseitig tatsächlich auch erst seit iOS 18.1 überhaupt möglich ist.

Zu den Kurzbefehlen, die Clicks in der App vorschlägt, gehören beispielsweise Instagram zu starten, einen bestimmten Kontakt anzurufen, einen Fokusmodus zu aktivieren, im Taschenrechner Trinkgeld zu berechnen und viele mehr.

In der App können Sie außerdem das Verhalten einiger anderer Tasten konfigurieren – etwa, ob die Eingabetaste eine Nachricht verschickt oder einen Zeilenumbruch einfügt –, ob und wann die Clicks in den Stand-by-Modus geht und ob und wie stark die Tastenbeleuchtung ist.

Wenn Sie Ihr iPhone per Kabel im Auto für Carplay verwenden, müssen Sie entweder in der App oder per Tastenkombination (123+Leertaste) vom Tastaturmodus in den Datenmodus wechseln, da USB-C auf dem iPhone nicht beides gleichzeitig kann. Immerhin kann das iPhone auch mit Hülle geladen werden.

Akkulaufzeit

Da sich die Clicks per USB-C mit dem iPhone verbindet, benötigt sie keinen eigenen Akku, sondern wird vom iPhone mit Strom versorgt. Das hat Folgen für die Akkulaufzeit des iPhones, obwohl der Hersteller versichert, dass die Auswirkungen vernachlässigbar sind.

In meinen Tests hat die Clicks über den Tag verteilt laut iOS-Batterieverbrauch sage und schreibe zwischen 20 und 25 Prozent Akku beansprucht. An einem meiner Testtage kam nur „Slay the Spire“ ansatzweise an diesen Verbrauch heran, das allerdings in einer deutlich kürzeren Zeit.

Das ist in jedem Fall kein Zuckerschlecken, und an manchen Tagen musste ich ganz schön zittern, wenn die Batterieanzeige meines iPhone 16 Pro Max unter die 10-Prozent-Marke rutschte – und darüber hinaus –, der Weg zur nächsten Steckdose aber noch weit war.

In der Clicks-App gibt es zwei Stellschrauben, um den Stromverbrauch der Hülle zu senken: die Tastenbeleuchtung und den Stromsparmodus.

Am sinnvollsten ist es, die Tastaturbeleuchtung komplett aus- und nur bei Bedarf einzuschalten, denn sie ist in der Regel der größte Stromfresser. Selbst in der Dunkelheit leuchtet der Bildschirm stark genug, dass sich die weißen Buchstaben auf der Tastatur noch passabel erkennen lassen.

Der Stromsparmodus hingegen ist eine zweischneidige Angelegenheit. Dabei wird die Clicks nach einer bestimmten Zeit einfach ausgeschaltet, was zunächst absolut sinnvoll erscheint. Das hat aber zum Nachteil, dass es immer wieder einen wirklich merkwürdig langen Moment dauert, bis sich die Clicks erneut einschaltet und mit dem iPhone verbindet. Das ist besonders ätzend, wenn Sie das iPhone nach einer Weile in die Hand nehmen, schnell einen Kurzbefehl ausführen möchten, und drei-, viermal die Tastenkombination drücken, bis überhaupt etwas passiert.

Sie tauschen also eine etwas höhere Akkulaufzeit gegen eine nervige Unannehmlichkeit ein. Wofür Sie sich entscheiden, bleibt Ihnen überlassen. (Ich empfehle, den Stromsparmodus auszuschalten.)

Preis & Verfügbarkeit

Die „Clicks for iPhone“ ist ausschließlich im Shop des Herstellers für die gesamte iPhone-15-Reihe und iPhone-16-Reihe verfügbar. Beim iPhone 14 unterstützt Clicks nur das 14 Pro und 14 Pro Max. Die Preise hängen von der Größe Ihres iPhones ab: 129 Euro werden fällig, wenn Sie ein normales oder ein iPhone Pro besitzen, 149 Euro, wenn Plus oder Pro Max.

Eugen Wegmann

Für wen lohnt sich die Clicks-Tastaturhülle?

Ich will ganz ehrlich sein: Für den Alltagsgebrauch eines Durchschnittsmenschen lohnt sich die Clicks nicht, und mit großer Wahrscheinlichkeit gehören Sie zu dieser Gruppe.

Die Tastaturhülle ist ein absolutes Nischenprodukt und richtet sich an Produktivitäts-Junkies, die viele lange Texte am iPhone schreiben, eine Handvoll Kurzbefehle per Tastendruck ausführen und im Bestfall auch noch ein wenig mit ihrem Zubehör in der Öffentlichkeit auffallen wollen. Außerdem richtet sich Clicks an Menschen, die nie so wirklich darüber hinweggekommen sind, dass es keine Smartphones mit Tastaturen mehr gibt. Gehören Sie zu beiden Gruppen, ist die Clicks freilich das perfekte Zubehör für Sie.

Dennoch muss ich zugeben: Die Clicks ist eins der interessanteren Zubehör-Geräte, die in den vergangenen Jahren fürs iPhone auf den Markt gekommen sind, und die Möglichkeit, alle Tasten mit Kurzbefehlen zu belegen, hat unheimlich großes Potenzial, wenn Sie die Muße haben, sich ein paar Stündchen damit auseinanderzusetzen und es einzurichten.

Wenn Sie nicht schon jetzt vor Begeisterung platzen, ist die Clicks allenfalls ein nettes und nicht allzu günstiges Spielzeug, das nach ein paar Einsätzen in der Schublade landet. Solange die Clicks allerdings nicht mit QWERTZ-Layout verfügbar ist, kann ich eine Empfehlung nur den härtesten Verfechtern von Hardware-Tastaturen am Smartphone empfehlen.

(Macwelt)

Clicks for iPhone 16 im Test – clevere iPhone-Tastaturhülle (nicht) für jedermann​ Weiterlesen »

7 Tools, um quelloffen zusammenzuarbeiten​

Allgemein

Um die Zusammenarbeit von Teams zu optimieren, stehen Ihnen auch Open-Source-Optionen offen. Foto: Giedriius – shutterstock.com Der digitale Arbeitsplatz fokussiert vor allem auf Collaboration. Weil immer mehr Teams remote beziehungsweise hybrid arbeiten, ist der Bedarf an innovativer Software in diesem Bereich ausgeprägter denn je. Dabei stehen die verfügbaren, quelloffenen Lösungen den kommerziellen in nichts nach – im Gegenteil. Open-Source-Projekte drehen sich von Natur aus um Kreativität und Kollaboration. Zusammenzuarbeiten, um Software zu kreieren, mag ein wenig “meta” erscheinen, aber die Ergebnisse können sich sehen lassen, wie die folgenden Collaboration-Tools zeigen. Open Source Collaboration Tools: Top 7 Wir haben sieben Open-Source-Projekte für Sie zusammengestellt, die das Zeug dazu haben, die Zusammenarbeit in Ihren Teams zu fördern – unabhängig davon, ob es sich um verteilte oder hybride Teams handelt. Jitsi Remote Work und Video Calls sind seit der Pandemie fester Bestandteil unserer Arbeitswelt. Jitsi ist ein Open-Source-Projekt, das sowohl den browser-seitigen Code als auch die serverseitige Bridge bereitstellt, um eigene Gespräche aufsetzen zu können, ohne auf Zoom oder Google Meet angewiesen zu sein. Sie können alles auf Ihrer eigenen Hardware laufen lassen oder das Projekt unterstützen, indem Sie sich für den Jitsi Service anmelden. Zulip Viele Teams müssen Besprechungen sowohl in Echtzeit als auch asynchron abhalten können. In diesem Fall könnte Zulip die Messaging-Plattform Ihrer Wahl sein. Als Open-Source-Alternative zu Slack ermöglicht Zulip Ihnen die Kontrolle über den Code. Darüber hinaus stehen benutzerdefinierte Apps für alle wichtigen Smartphone- und Desktop-Plattformen bereit. Mattermost Dieses selbstgehostete Messaging-Tool unterstützt das Team-Messaging, ist allerdings speziell für die Softwareentwicklung konzipiert. Das Projekt hebt sich neben einer lebhaften Community auch durch seine Sammlung von Softwareentwicklungs-Playbooks mit speziellen Funktionen wie Checklisten und Coding-Retrospektiven ab. Mattermost ist auch als Webanwendung und als mobiles Tool verfügbar. Kolab Geht es um Team Management, führt kaum ein Weg an Kolab vorbei. Das quelloffene Tool organisiert Meilensteine, verfolgt Projekte und hat ein Auge auf die einzelnen Teammitglieder, während alle auf ein gemeinsames Ziel hinarbeiten. Kolab bietet auch Funktionen für Team-Blogging, Projektdokumentation und Gruppendiskussionen. NextCloud Das Team von NextCloud hat einige der besten Open-Source-Projekte für Collaboration-Zwecke im Bereich E-Mail, Chat und Kalender zusammengetragen. Diese Bestandteile wurden in eine stabile Distribution zusammengepackt, die jeder zu Hause oder im Büro installieren kann. Dabei bleibt das Backend jederzeit unter eigener Kontrolle. Group Office Dokumente, Diashows oder Tabellenkalkulationen zu erstellen, ist das Lebenselixier vieler Büroarbeiter. Group Office ist eine Groupware-Plattform, die sowohl diese grundlegenden Aufgaben als auch viele andere wichtige Büro-Management-Tasks unterstützt. Zu den Funktionen gehören Zeiterfassungsbögen, Rechnungsstellung und Customer Relationship Management. Die Grundlagen werden in der Community-Edition unterstützt, aber das Unternehmen bietet auch professionelle Dienstleistungen und kundenspezifische Entwicklungsoptionen an. GitLab Entwickler sind mit Versionskontrollsystemen wie Git vertraut. Sie nutzen sie, um den Überblick über den Code zu behalten und Versionsänderungen aufzuzeichnen. GitLab ist eine Alternative zu GitHub, die Collaboration und Code Management für Entwickler erleichtert. Dieses Tool eignet sich besonders gut für DevOps-Teams und beinhaltet Security-Management- und DevOps-Funktionen in einer DevOps-Pipeline. Die gehostete Version ist kostenpflichtig, für den lokalen Betrieb steht eine Community-Edition zur Verfügung. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Tools, um quelloffen zusammenzuarbeiten​ Um die Zusammenarbeit von Teams zu optimieren, stehen Ihnen auch Open-Source-Optionen offen.
Foto: Giedriius – shutterstock.com

Der digitale Arbeitsplatz fokussiert vor allem auf Collaboration. Weil immer mehr Teams remote beziehungsweise hybrid arbeiten, ist der Bedarf an innovativer Software in diesem Bereich ausgeprägter denn je. Dabei stehen die verfügbaren, quelloffenen Lösungen den kommerziellen in nichts nach – im Gegenteil.

Open-Source-Projekte drehen sich von Natur aus um Kreativität und Kollaboration. Zusammenzuarbeiten, um Software zu kreieren, mag ein wenig “meta” erscheinen, aber die Ergebnisse können sich sehen lassen, wie die folgenden Collaboration-Tools zeigen.

Open Source Collaboration Tools: Top 7

Wir haben sieben Open-Source-Projekte für Sie zusammengestellt, die das Zeug dazu haben, die Zusammenarbeit in Ihren Teams zu fördern – unabhängig davon, ob es sich um verteilte oder hybride Teams handelt.

Jitsi

Remote Work und Video Calls sind seit der Pandemie fester Bestandteil unserer Arbeitswelt. Jitsi ist ein Open-Source-Projekt, das sowohl den browser-seitigen Code als auch die serverseitige Bridge bereitstellt, um eigene Gespräche aufsetzen zu können, ohne auf Zoom oder Google Meet angewiesen zu sein. Sie können alles auf Ihrer eigenen Hardware laufen lassen oder das Projekt unterstützen, indem Sie sich für den Jitsi Service anmelden.

Zulip

Viele Teams müssen Besprechungen sowohl in Echtzeit als auch asynchron abhalten können. In diesem Fall könnte Zulip die Messaging-Plattform Ihrer Wahl sein. Als Open-Source-Alternative zu Slack ermöglicht Zulip Ihnen die Kontrolle über den Code. Darüber hinaus stehen benutzerdefinierte Apps für alle wichtigen Smartphone- und Desktop-Plattformen bereit.

Mattermost

Dieses selbstgehostete Messaging-Tool unterstützt das Team-Messaging, ist allerdings speziell für die Softwareentwicklung konzipiert. Das Projekt hebt sich neben einer lebhaften Community auch durch seine Sammlung von Softwareentwicklungs-Playbooks mit speziellen Funktionen wie Checklisten und Coding-Retrospektiven ab. Mattermost ist auch als Webanwendung und als mobiles Tool verfügbar.

Kolab

Geht es um Team Management, führt kaum ein Weg an Kolab vorbei. Das quelloffene Tool organisiert Meilensteine, verfolgt Projekte und hat ein Auge auf die einzelnen Teammitglieder, während alle auf ein gemeinsames Ziel hinarbeiten. Kolab bietet auch Funktionen für Team-Blogging, Projektdokumentation und Gruppendiskussionen.

NextCloud

Das Team von NextCloud hat einige der besten Open-Source-Projekte für Collaboration-Zwecke im Bereich E-Mail, Chat und Kalender zusammengetragen. Diese Bestandteile wurden in eine stabile Distribution zusammengepackt, die jeder zu Hause oder im Büro installieren kann. Dabei bleibt das Backend jederzeit unter eigener Kontrolle.

Group Office

Dokumente, Diashows oder Tabellenkalkulationen zu erstellen, ist das Lebenselixier vieler Büroarbeiter. Group Office ist eine Groupware-Plattform, die sowohl diese grundlegenden Aufgaben als auch viele andere wichtige Büro-Management-Tasks unterstützt. Zu den Funktionen gehören Zeiterfassungsbögen, Rechnungsstellung und Customer Relationship Management. Die Grundlagen werden in der Community-Edition unterstützt, aber das Unternehmen bietet auch professionelle Dienstleistungen und kundenspezifische Entwicklungsoptionen an.

GitLab

Entwickler sind mit Versionskontrollsystemen wie Git vertraut. Sie nutzen sie, um den Überblick über den Code zu behalten und Versionsänderungen aufzuzeichnen. GitLab ist eine Alternative zu GitHub, die Collaboration und Code Management für Entwickler erleichtert. Dieses Tool eignet sich besonders gut für DevOps-Teams und beinhaltet Security-Management- und DevOps-Funktionen in einer DevOps-Pipeline. Die gehostete Version ist kostenpflichtig, für den lokalen Betrieb steht eine Community-Edition zur Verfügung.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Tools, um quelloffen zusammenzuarbeiten​ Weiterlesen »

Nach oben scrollen
×