Computerhaus Quickborn

März 2025

Alle Kunden immer erreichen – die neue Cloud-Kommunikation​

Allgemein

Eine vernetzte Kommunikationsplattformen ermöglicht es den Mitarbeitern für ihre Kunden überall und jederzeit erreichbar und auch unterwegs produktiv zu sein, so wie es der Workload gerade erfordert. Diese Plattformen nutzen Cloud-Technologien, um Funktionen wie Messaging, Sprach- und Videoanrufe, Datei- und Bildschirmfreigabe sowie Teamkollaboration bereitzustellen. Die Vorteile dafür liegen auf der Hand und reichen von der Echtzeitkommunikation über die nahtlose Kollaboration bis hin zur Skalierbarkeit der Dienste und hohen Sicherheitsstandards. Eine derart leistungsstarke, Cloud-basierte Kommunikation ist längst nicht mehr nur für Konzerne erschwinglich. Inzwischen stehen auch kleinen und mittelständischen Unternehmen Plattformen zur Verfügung, die in wenigen Tagen einsatzbereit sind und dabei maximale Datensicherheit und einen hervorragenden Datenschutz bieten. Wie KMU eine vernetzte Kommunikationsplattform einführen und ganz einfach etwa auch mit etwa Microsoft Teams, Outlook, Ihrem CRM oder mit Google-Tools verbinden, zeigt ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit Vodafone und RingCentral. Sie erfahren wie sie mit Omnichannel-Erweiterungen neue Kommunikationswege zu Ihren Kunden öffnen und alle Kanäle, auch WhatsApp & Co., übersichtlich in einer Inbox managen. Stefana Pickert von Vodafone und Tobias Lauderbach von RingCentral zeigen außerdem, wie skalierbare Lizenzen dafür sorgen, dass die Kosten dabei im Rahmen bleiben. Der Fachjournalist Sven Hansel wird den Webcast moderieren. Registrieren Sie sich jetzt 

Alle Kunden immer erreichen – die neue Cloud-Kommunikation​ Eine vernetzte Kommunikationsplattformen ermöglicht es den Mitarbeitern für ihre Kunden überall und jederzeit erreichbar und auch unterwegs produktiv zu sein, so wie es der Workload gerade erfordert. Diese Plattformen nutzen Cloud-Technologien, um Funktionen wie Messaging, Sprach- und Videoanrufe, Datei- und Bildschirmfreigabe sowie Teamkollaboration bereitzustellen. Die Vorteile dafür liegen auf der Hand und reichen von der Echtzeitkommunikation über die nahtlose Kollaboration bis hin zur Skalierbarkeit der Dienste und hohen Sicherheitsstandards.

Eine derart leistungsstarke, Cloud-basierte Kommunikation ist längst nicht mehr nur für Konzerne erschwinglich. Inzwischen stehen auch kleinen und mittelständischen Unternehmen Plattformen zur Verfügung, die in wenigen Tagen einsatzbereit sind und dabei maximale Datensicherheit und einen hervorragenden Datenschutz bieten.

Wie KMU eine vernetzte Kommunikationsplattform einführen und ganz einfach etwa auch mit etwa Microsoft Teams, Outlook, Ihrem CRM oder mit Google-Tools verbinden, zeigt ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit Vodafone und RingCentral. Sie erfahren wie sie mit Omnichannel-Erweiterungen neue Kommunikationswege zu Ihren Kunden öffnen und alle Kanäle, auch WhatsApp & Co., übersichtlich in einer Inbox managen. Stefana Pickert von Vodafone und Tobias Lauderbach von RingCentral zeigen außerdem, wie skalierbare Lizenzen dafür sorgen, dass die Kosten dabei im Rahmen bleiben. Der Fachjournalist Sven Hansel wird den Webcast moderieren.

Registrieren Sie sich jetzt

Alle Kunden immer erreichen – die neue Cloud-Kommunikation​ Weiterlesen »

Robotics: Von GenAI zu Physical AI​

Allgemein

Mit physikalischer KI sollen Roboter künftig autonom agieren. OATZ To Go FACTORY/Shutterstock.com GenAI war gestern – zumindest im Bereich der Robotik. Wenn die Fabriken der Zukunft zum Leben erwachen, erhält KI Arme und Beine. Denn die Verschmelzung von KI mit der physischen Welt soll die Robotik in eine neue Dimension katapultieren. Dabei bezeichnet Physical AI eine Weiterentwicklung von GenAI. KI-Modelle werden nicht mehr nur mit unstrukturierten Daten trainiert, sondern auch mit Daten aus der realen, physischen Welt. Dazu gehören Sensordaten, Videodaten, thermische Daten etc. Diese Trainingsgrundlage ermöglicht es den KI-Modellen, auf Veränderungen in ihrer Umgebung zu reagieren. Roboter mit Physical AI trainieren Welche Bedeutung diese KI-Evolution in der Praxis hat, verdeutlichen Sarat Maitin, Leiter der Industrie X Practice bei Accenture in der DACH-Region, und Carsten Harnisch, Leiter Robotics bei der KION Gruppe: Roboter folgen künftig nicht länger stur programmierten Bahnen, sondern reagieren intelligent auf ihre Umwelt, indem sie diese in Echtzeit erfassen und interpretieren. Oder wie es Maitin formuliert: „Roboter werden flexibler und beherrschen nicht mehr nur die singuläre Anwendung, für die sie programmiert sind. Als Multipurpose Robot sind sie in Zukunft flexibel einsetzbar und eröffnen völlig neue Dimensionen der Zusammenarbeit.“ Selbständige Roboter Ziel ist der selbstlernende Roboter. Letztlich soll der Roboter sich mit Hilfe physikalischer KI wie ein menschlicher Fahrer im Straßenverkehr verhalten und Hindernisse erkennen, alternative Routen wählen sowie aus seiner Umgebung lernen. Noch lassen sich bestehende Roboter kaum flexibel einsetzen. Das soll sich mit Physical AI ändern. Suwin66/Shutterstock.com Darin sieht denn auch Harnisch eine der großen Chancen der physikalischen KI: „Während die Automatisierung in idealen, sogenannten Greenfield-Umgebungen bereits gut funktioniert, stoßen klassische, „dumme“ automatisierte Fahrzeuge in realen Lagerumgebungen mit Menschen und dynamischen Hindernissen an ihre Grenzen.“ Symbiose aus virtueller und realer Welt Ein wichtiger Aspekt in der Entwicklung physikalischer KI ist die Nutzung von Simulationen. Die Symbiose aus virtueller und realer Welt könnte zu dem Gamechanger werden, wenn es ein digitaler Zwilling, gespeist von Live-Daten, ermöglicht, zukünftige Szenarien in Sekundenschnelle zu simulieren. Um dies zu realisieren, setzen Accenture und KION auf das Mega Blueprint von Nvidia mit seinem Cosmos World Foundation Model Platform. Es erlaubt, KI-Modelle mit enormen Mengen an Videodaten zu trainieren und diese mit Live-Daten aus realen Anwendungen anzureichern. Der Digitale Zwilling wird dynamisch Dazu setzen Accenture und KION beispielsweise eine intelligente Kamera ein. Sie trackt etwa im Lagerbereich Menschen, Ladungsträger und manuelle Fahrzeuge wie Gabelstapler. Diese Informationen sollen dann in die Cloud fließen und eine optimierte Orchestrierung der automatisierten Fahrzeuge ermöglichen, sodass diese beispielsweise Bereiche mit vielen Personen meiden können. Auf diese Weise, so Maitin, erweitere Physical AI das Industrial Metaverse – das sich bislang stark auf die visuelle Darstellung des Digitalen Zwillings fokussierte – um die Fähigkeit, Zustandssimulationen dieser virtuellen Umgebung mithilfe von mit industriellen Sensordaten trainierten KI-Modellen durchzuführen. Sprich, es können dynamisch veränderbare virtuelle Umwelten generiert und zur Schulung von Robotern genutzt werden. Stiehlt China auch hier Europa die Show? Auf die Marktreife der Technologie angesprochen, geben sich Maitin und Harnisch vorsichtig optimistisch. Grundsätzlich seien die verschiedenen einzelnen Komponenten wie intelligente Kameras verfügbar. Letztlich hänge die Verfügbarkeit marktreifer Lösungen von der Entwicklungsgeschwindigkeit ab. Angesichts der rasanten Fortschritte in anderen Regionen, insbesondere in China, mahnen die beiden Experten, dass sich Europa und Deutschland sputen müssen, um den Anschluss nicht zu verpassen. 

Robotics: Von GenAI zu Physical AI​ Mit physikalischer KI sollen Roboter künftig autonom agieren.
OATZ To Go FACTORY/Shutterstock.com

GenAI war gestern – zumindest im Bereich der Robotik. Wenn die Fabriken der Zukunft zum Leben erwachen, erhält KI Arme und Beine. Denn die Verschmelzung von KI mit der physischen Welt soll die Robotik in eine neue Dimension katapultieren.

Dabei bezeichnet Physical AI eine Weiterentwicklung von GenAI. KI-Modelle werden nicht mehr nur mit unstrukturierten Daten trainiert, sondern auch mit Daten aus der realen, physischen Welt. Dazu gehören Sensordaten, Videodaten, thermische Daten etc. Diese Trainingsgrundlage ermöglicht es den KI-Modellen, auf Veränderungen in ihrer Umgebung zu reagieren.

Roboter mit Physical AI trainieren

Welche Bedeutung diese KI-Evolution in der Praxis hat, verdeutlichen Sarat Maitin, Leiter der Industrie X Practice bei Accenture in der DACH-Region, und Carsten Harnisch, Leiter Robotics bei der KION Gruppe: Roboter folgen künftig nicht länger stur programmierten Bahnen, sondern reagieren intelligent auf ihre Umwelt, indem sie diese in Echtzeit erfassen und interpretieren.

Oder wie es Maitin formuliert: „Roboter werden flexibler und beherrschen nicht mehr nur die singuläre Anwendung, für die sie programmiert sind. Als Multipurpose Robot sind sie in Zukunft flexibel einsetzbar und eröffnen völlig neue Dimensionen der Zusammenarbeit.“

Selbständige Roboter

Ziel ist der selbstlernende Roboter. Letztlich soll der Roboter sich mit Hilfe physikalischer KI wie ein menschlicher Fahrer im Straßenverkehr verhalten und Hindernisse erkennen, alternative Routen wählen sowie aus seiner Umgebung lernen.

Noch lassen sich bestehende Roboter kaum flexibel einsetzen. Das soll sich mit Physical AI ändern.
Suwin66/Shutterstock.com

Darin sieht denn auch Harnisch eine der großen Chancen der physikalischen KI: „Während die Automatisierung in idealen, sogenannten Greenfield-Umgebungen bereits gut funktioniert, stoßen klassische, „dumme“ automatisierte Fahrzeuge in realen Lagerumgebungen mit Menschen und dynamischen Hindernissen an ihre Grenzen.“

Symbiose aus virtueller und realer Welt

Ein wichtiger Aspekt in der Entwicklung physikalischer KI ist die Nutzung von Simulationen. Die Symbiose aus virtueller und realer Welt könnte zu dem Gamechanger werden, wenn es ein digitaler Zwilling, gespeist von Live-Daten, ermöglicht, zukünftige Szenarien in Sekundenschnelle zu simulieren.

Um dies zu realisieren, setzen Accenture und KION auf das Mega Blueprint von Nvidia mit seinem Cosmos World Foundation Model Platform. Es erlaubt, KI-Modelle mit enormen Mengen an Videodaten zu trainieren und diese mit Live-Daten aus realen Anwendungen anzureichern.

Der Digitale Zwilling wird dynamisch

Dazu setzen Accenture und KION beispielsweise eine intelligente Kamera ein. Sie trackt etwa im Lagerbereich Menschen, Ladungsträger und manuelle Fahrzeuge wie Gabelstapler. Diese Informationen sollen dann in die Cloud fließen und eine optimierte Orchestrierung der automatisierten Fahrzeuge ermöglichen, sodass diese beispielsweise Bereiche mit vielen Personen meiden können.

Auf diese Weise, so Maitin, erweitere Physical AI das Industrial Metaverse – das sich bislang stark auf die visuelle Darstellung des Digitalen Zwillings fokussierte – um die Fähigkeit, Zustandssimulationen dieser virtuellen Umgebung mithilfe von mit industriellen Sensordaten trainierten KI-Modellen durchzuführen. Sprich, es können dynamisch veränderbare virtuelle Umwelten generiert und zur Schulung von Robotern genutzt werden.

Stiehlt China auch hier Europa die Show?

Auf die Marktreife der Technologie angesprochen, geben sich Maitin und Harnisch vorsichtig optimistisch. Grundsätzlich seien die verschiedenen einzelnen Komponenten wie intelligente Kameras verfügbar.

Letztlich hänge die Verfügbarkeit marktreifer Lösungen von der Entwicklungsgeschwindigkeit ab. Angesichts der rasanten Fortschritte in anderen Regionen, insbesondere in China, mahnen die beiden Experten, dass sich Europa und Deutschland sputen müssen, um den Anschluss nicht zu verpassen.

Robotics: Von GenAI zu Physical AI​ Weiterlesen »

KI kann auch Vorständen den Kopf kosten​

Allgemein

width=”1500″ height=”844″ sizes=”(max-width: 1500px) 100vw, 1500px”>Gekündigt wegen gescheiterter KI-Strategie? Aus Sicht vieler CEOs ist das möglich.Hryshchyshen Serhii – shutterstock.com Lange Zeit ging man davon aus, dass der breite Einsatz von generativer künstlicher Intelligenz vor allem einfachen Mitarbeitern den Job kosten könnte. Doch wie eine Umfrage der KI-Plattform Dataiku unter 500 internationalen CEOs (darunter 100 Chefs deutscher Unternehmen) zeigt, sind auch Top-Managementpositionen nicht mehr sicher.   So räumen 95 Prozent der deutschen CEOs ein, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.   Und fast ebenso viele CEOs (93 Prozent) sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.   Darüber hinaus glaubt fast die Hälfte (49 Prozent) der CEOs deutscher Unternehmen, dass sie drei bis vier Teammitglieder, die sich mit strategischer Planung beschäftigen, durch KI ersetzen könnten.   13 Prozent stimmten zu, dass sie sieben oder mehr Führungskräfte für die gleiche Aufgabe entbehren könnten.  Der Erfolgsdruck steigt  Aber auch für die CEOs selbst ist KI zu einem Karrierefaktor geworden. Nicht nur gab ein Großteil der Befragten an, dass ihre direkte Beteiligung an KI-Entscheidungen im letzten Jahr zugenommen hat und sie an mehr als der Hälfte aller KI-Entscheidungen des Unternehmens beteiligt waren.   In der Umfrage äußerten auch 69 Prozent der deutschen CEOs die Befürchtung, innerhalb der nächsten zwei Jahre möglicherweise ihren Job zu verlieren, wenn es ihnen nicht gelingt, messbare KI-gestützte Geschäftsgewinne zu erzielen. Ähnlich viele CEOs halten es für sehr wahrscheinlich, dass ein CEO-Kollege vor Ende 2025 aufgrund einer gescheiterten KI-Strategie oder einer KI-bezogenen Krise entlassen wird.  Wie die Antworten zeigen, ist ein gewisser Erfolgsdruck nicht von der Hand zu weisen. Darüber hinaus räumt mehr als die Hälfte (54 Prozent) der CEOs ein, dass mindestens ein Wettbewerber bereits eine überlegene KI-Strategie entwickelt hat.  AI Washing ist weit verbreitet  Die logische Schlussfolgerung: Die Unternehmensführung muss dringend über bloße KI-Ambitionen hinausgehen und konkrete Maßnahmen ergreifen. Doch damit ist es bislang nicht weit her, wie die Studie zeigt.   So haben deutsche CEOs den Verdacht, dass es bei durchschnittlich 39 Prozent ihrer KI-Initiativen eher um die Außendarstellung als um die Wirkung geht – also um AI-Washing. Mit anderen Worten: Sie wurden entwickelt, um Innovation zu signalisieren und die Reputation zu verbessern, anstatt einen signifikanten geschäftlichen Nutzen zu bringen.  Für den “Global AI Confessions Report: CEO Edition“ (Zugriff gegen Daten), der von The Harris Poll im Auftrag von Dataiku durchgeführt wurde, wurden mehr als 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die 100 befragten deutschen CEOs repräsentieren Unternehmen mit einem Jahresumsatz von über 250 Millionen Euro und mehr als 500 Mitarbeitenden.  

KI kann auch Vorständen den Kopf kosten​ width=”1500″ height=”844″ sizes=”(max-width: 1500px) 100vw, 1500px”>Gekündigt wegen gescheiterter KI-Strategie? Aus Sicht vieler CEOs ist das möglich.Hryshchyshen Serhii – shutterstock.com

Lange Zeit ging man davon aus, dass der breite Einsatz von generativer künstlicher Intelligenz vor allem einfachen Mitarbeitern den Job kosten könnte. Doch wie eine Umfrage der KI-Plattform Dataiku unter 500 internationalen CEOs (darunter 100 Chefs deutscher Unternehmen) zeigt, sind auch Top-Managementpositionen nicht mehr sicher.  

So räumen 95 Prozent der deutschen CEOs ein, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.  

Und fast ebenso viele CEOs (93 Prozent) sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.  

Darüber hinaus glaubt fast die Hälfte (49 Prozent) der CEOs deutscher Unternehmen, dass sie drei bis vier Teammitglieder, die sich mit strategischer Planung beschäftigen, durch KI ersetzen könnten.  

13 Prozent stimmten zu, dass sie sieben oder mehr Führungskräfte für die gleiche Aufgabe entbehren könnten. 

Der Erfolgsdruck steigt 

Aber auch für die CEOs selbst ist KI zu einem Karrierefaktor geworden. Nicht nur gab ein Großteil der Befragten an, dass ihre direkte Beteiligung an KI-Entscheidungen im letzten Jahr zugenommen hat und sie an mehr als der Hälfte aller KI-Entscheidungen des Unternehmens beteiligt waren.  

In der Umfrage äußerten auch 69 Prozent der deutschen CEOs die Befürchtung, innerhalb der nächsten zwei Jahre möglicherweise ihren Job zu verlieren, wenn es ihnen nicht gelingt, messbare KI-gestützte Geschäftsgewinne zu erzielen. Ähnlich viele CEOs halten es für sehr wahrscheinlich, dass ein CEO-Kollege vor Ende 2025 aufgrund einer gescheiterten KI-Strategie oder einer KI-bezogenen Krise entlassen wird. 

Wie die Antworten zeigen, ist ein gewisser Erfolgsdruck nicht von der Hand zu weisen. Darüber hinaus räumt mehr als die Hälfte (54 Prozent) der CEOs ein, dass mindestens ein Wettbewerber bereits eine überlegene KI-Strategie entwickelt hat. 

AI Washing ist weit verbreitet 

Die logische Schlussfolgerung: Die Unternehmensführung muss dringend über bloße KI-Ambitionen hinausgehen und konkrete Maßnahmen ergreifen. Doch damit ist es bislang nicht weit her, wie die Studie zeigt.  

So haben deutsche CEOs den Verdacht, dass es bei durchschnittlich 39 Prozent ihrer KI-Initiativen eher um die Außendarstellung als um die Wirkung geht – also um AI-Washing. Mit anderen Worten: Sie wurden entwickelt, um Innovation zu signalisieren und die Reputation zu verbessern, anstatt einen signifikanten geschäftlichen Nutzen zu bringen. 

Für den “Global AI Confessions Report: CEO Edition“ (Zugriff gegen Daten), der von The Harris Poll im Auftrag von Dataiku durchgeführt wurde, wurden mehr als 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die 100 befragten deutschen CEOs repräsentieren Unternehmen mit einem Jahresumsatz von über 250 Millionen Euro und mehr als 500 Mitarbeitenden. 

KI kann auch Vorständen den Kopf kosten​ Weiterlesen »

Intel hat einen neuen CEO​

Allgemein

Lip-Bu Tan ist neuer Chief Executive Officer bei Intel.Intel Weißer Rauch bei Intel: Der strauchelnde Chipkonzern hat bekanntgegeben, mit Lip-Bu Tan einen neuen CEO gefunden zu haben. Der Amerikaner mit malayischen Wurzeln war zuvor CEO bei Cadence Systems, einem Unternehmen, das auf Electronic Design Automation (EDA) spezialisiert ist und beispielsweise integrierte Schaltkreise und Leiterplatten herstellt. Auf das Toolset von Cadence verlässt sich auch Intel, um (kosten)effizient zu produzieren.   Tan ist also auch mit der Halbleiterindustrie bestens vertraut – und war bis 2024 bereits Board-Mitglied bei Intel, bevor er den Posten offiziell wegen „anderer Verpflichtungen“ verließ. Wie die Nachrichtenagentur Reuters berichtet, sollen diese Verpflichtungen jedoch vor allem daraus entstanden sein, dass Tan mit der quälend langsamen Turnaround-Strategie des Intel Boards nicht einverstanden war. “Kein Garant für Erfolg” Zum 18. März soll Tan nun die Interims-Co-CEOs David Zinsner und Michelle Johnston Holthaus ablösen. Das Duo hatte die Zügel bei Intel im Dezember 2024 übernommen, nachdem Ex-CEO Gelsinger in den Ruhestand gezwungen wurde. Zinsner bleibt Executive Vice President und CFO bei Intel, Johnston Holthaus CEO von Intel Products. Bei den gebeutelten Intel-Investoren scheint die Ernennung von Lip-Bu Tan auf Zustimmung zu stoßen: Die Aktie des Chipunternehmens konnte auf Grundlage der News nachbörslich um mehr als 11 Prozent zulegen. Und auch Analysten nehmen die Nachricht positiv auf. Zum Beispiel der selbständige Berater Jack Gold: „Für die Intel Corporation ist es eine gute Sache, einen Branchenveteranen zum neuen CEO zu ernennen, der über ein tiefgreifendes Verständnis der Halbleiterindustrie verfügt, sowohl in Bezug auf das Produktdesign als auch auf die Anforderungen der Chipfertigung. Insbesondere mit Blick auf letzteren Bereich muss Intel seine Tools benutzerfreundlicher und für potenzielle Kunden zugänglicher gestalten.“ Oder Alvin Nguyen, Senior Analyst bei Forrester Research: „Ich denke Lip-Bu Tan versteht das Geschäft sehr gut. Intel hatte nur sehr wenige CEO-Optionen mit dem richtigen Hintergrund – er war eine davon“. Seine Einschätzung begründet der Forrester-Mann mit den Errungenschaften des neuen Intel-CEO bei seinem Ex-Arbeitgeber, schränkt dabei jedoch ein: „Er hat bei Cadence einen tollen Job gemacht, aber es handelt sich auch um einen anderen Bereich der Halbleiterindustrie. Es ist also kein Garant dafür, dass er auch Erfolg bei Intel haben wird.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Intel hat einen neuen CEO​ Lip-Bu Tan ist neuer Chief Executive Officer bei Intel.Intel

Weißer Rauch bei Intel: Der strauchelnde Chipkonzern hat bekanntgegeben, mit Lip-Bu Tan einen neuen CEO gefunden zu haben. Der Amerikaner mit malayischen Wurzeln war zuvor CEO bei Cadence Systems, einem Unternehmen, das auf Electronic Design Automation (EDA) spezialisiert ist und beispielsweise integrierte Schaltkreise und Leiterplatten herstellt. Auf das Toolset von Cadence verlässt sich auch Intel, um (kosten)effizient zu produzieren.  

Tan ist also auch mit der Halbleiterindustrie bestens vertraut – und war bis 2024 bereits Board-Mitglied bei Intel, bevor er den Posten offiziell wegen „anderer Verpflichtungen“ verließ. Wie die Nachrichtenagentur Reuters berichtet, sollen diese Verpflichtungen jedoch vor allem daraus entstanden sein, dass Tan mit der quälend langsamen Turnaround-Strategie des Intel Boards nicht einverstanden war.

“Kein Garant für Erfolg”

Zum 18. März soll Tan nun die Interims-Co-CEOs David Zinsner und Michelle Johnston Holthaus ablösen. Das Duo hatte die Zügel bei Intel im Dezember 2024 übernommen, nachdem Ex-CEO Gelsinger in den Ruhestand gezwungen wurde. Zinsner bleibt Executive Vice President und CFO bei Intel, Johnston Holthaus CEO von Intel Products.

Bei den gebeutelten Intel-Investoren scheint die Ernennung von Lip-Bu Tan auf Zustimmung zu stoßen: Die Aktie des Chipunternehmens konnte auf Grundlage der News nachbörslich um mehr als 11 Prozent zulegen. Und auch Analysten nehmen die Nachricht positiv auf. Zum Beispiel der selbständige Berater Jack Gold: „Für die Intel Corporation ist es eine gute Sache, einen Branchenveteranen zum neuen CEO zu ernennen, der über ein tiefgreifendes Verständnis der Halbleiterindustrie verfügt, sowohl in Bezug auf das Produktdesign als auch auf die Anforderungen der Chipfertigung. Insbesondere mit Blick auf letzteren Bereich muss Intel seine Tools benutzerfreundlicher und für potenzielle Kunden zugänglicher gestalten.“

Oder Alvin Nguyen, Senior Analyst bei Forrester Research: „Ich denke Lip-Bu Tan versteht das Geschäft sehr gut. Intel hatte nur sehr wenige CEO-Optionen mit dem richtigen Hintergrund – er war eine davon“. Seine Einschätzung begründet der Forrester-Mann mit den Errungenschaften des neuen Intel-CEO bei seinem Ex-Arbeitgeber, schränkt dabei jedoch ein: „Er hat bei Cadence einen tollen Job gemacht, aber es handelt sich auch um einen anderen Bereich der Halbleiterindustrie. Es ist also kein Garant dafür, dass er auch Erfolg bei Intel haben wird.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Intel hat einen neuen CEO​ Weiterlesen »

Incremental Forever Backup: 3 Wege zur inkrementellen Datensicherung​

Allgemein

Welche Form der inkrementellen Datensicherung ist für Ihren Fall die richtige? Foto: VectorMine – shutterstock.comEine traditionelle Datensicherung beginnt mit einem anfänglichen Voll-Backup, gefolgt von einer Reihe inkrementeller oder kumulativer Sicherungen (auch als differenzielle Datensicherung bezeichnet). Nach einer gewissen Zeit führen Sie eine weitere vollständige Sicherung und weitere inkrementelle Sicherungen durch.Mit dem Aufkommen von Disk-basierten Backup-Systemen hat sich jedoch das Konzept des Incremental Forever Backup durchgesetzt. Allerdings gibt es drei Wege, dieses umzusetzen. Idealerweise führen Sie mit jedem dieser Ansätze Backup- und Recovery-Testläufe durch, um den zu ermitteln, der für Ihren Fall die beste Performance liefert.1. Inkrementelles Backup auf File-LevelDer erste Incremental-Forever-Backup-Typ funktioniert auf Dateiebene. Der File-Level-Ansatz existiert bereits seit den 1990er Jahren und verdankt seinem Namen dem Umstand, dass die Entscheidung darüber, ob etwas ins Backup einfließt, auf Dateiebene getroffen wird. Wird die betreffende Datei verändert, wird auch ihr Änderungsdatum (beziehungsweise das Archiv-Bit in Windows) angepasst und das gesamte File gesichert – selbst wenn die Änderung nur ein Byte betrifft.Um als inkrementelle Backup-Lösung mit “Forever”-Zusatz durchzugehen, muss das betreffende Produkt lediglich eine vollständige Datensicherung, gefolgt von inkrementellen Backups durchführen. Eine erneute, vollständige Datensicherung entfällt. Einige kommerzielle Lösungen in diesem Bereich werden zwar als Forever-Backup vermarktet, setzen dabei jedoch weiterhin auf mehrere Voll-Backups, nur dass diese synthetischer Natur sind. Das sind keine echten Incremental-Forever-Backup-Lösungen.Der Grund für diese Unterscheidung: Es bietet Vorteile, nur ein vollständiges Backup durchzuführen, die darüber hinausgehen, Verarbeitungszeiten und Netzwerkverkehr auf dem Backup-Client zu reduzieren. Zum Beispiel reduziert das auch die Menge der Daten, die im Datensicherungssystem abgelegt werden müssen und damit auch die Kopiervorgänge. Ein Incremental-Forever-Backup-Ansatz ist zudem ein guter Startpunkt in Richtung Deduplizierung. Schließlich müssen selbst synthetische Voll-Backups dedupliziert werden – was eine Verschwendung von Rechenleistung darstellt. Der größte Vorteil von Lösungen dieser Art besteht allerdings darin, dass keine CPU-Verarbeitung, kein Netzwerk und kein Speicherplatz für zusätzliche vollständige Backups verschwendet wird. Das führt in der Konsequenz außerdem dazu, dass Datensicherungen auch weniger Zeit in Anspruch nehmen.Ein weiterer Vorteil: Das System “weiß” von vorneherein, welche Versionen welcher Dateien bei einem Restore wiederhergestellt werden müssen – und kann dann auch nur diese Dateien wiederherstellen (im Gegensatz zu einem vollständigen Backup). Das sorgt für weitere Zeit- und Nervenersparnisse. Allerdings ist diese Methode zur Datensicherung nicht mit Bandmedien kompatibel.Dennoch ist der inkrementelle Datensicherungsansatz auf File-Ebene nicht mehr gebräuchlich.2. Incremental Backup auf Block-LevelEin weiterer Ansatz für Incremental-Forever-Backups ist die Datensicherung auf Blockebene. Block-Level- und File-Level-Ansatz ähneln sich insofern, als sie ein einziges vollständiges Backup und eine Reihe von inkrementellen Sicherungen durchführt.Die Entscheidung darüber, was wie gesichert wird, wird dabei entsprechend auf Bit- oder Blockebene gefällt. Damit dieser Ansatz funktioniert, muss die zugrundeliegende Applikation eine Bitmap der Daten und Teile, die sich verändern, vorhalten. Das bezeichnet man als Changed Block Tracking (CBT). In Virtualisierungsumgebungen wird das in der Regel durch den Hypervisor bereitgestellt, etwa VMware oder Hyper-V. Wenn es Zeit für das nächste Backup ist, fragt die Datensicherungssoftware nach der Bitmap der Blöcke, die sich seit dem letzten inkrementellen Backup verändert haben. So entsteht eine genaue Übersicht darüber, welche Blöcke in das aktuelle, inkrementelle Backup auf Blockebene aufgenommen werden müssen. Eine Incremental-Forever-Backup-Lösung auf Blockebene muss auch den Standort der einzelnen Blöcke nach der Sicherung tracken, weil sie diese Informationen im Falle einer Wiederherstellung benötigt. Obwohl nicht ausschließlich in Virtualisierungsumgebungen zu finden, werden Lösungen dieser Art in der Regel dort eingesetzt.Die Vorteile der Forever-Backups auf Block-Ebene: Die Datenmenge, die vom Backup-Client zum Backup-Server übertragen werden muss, wird erheblich reduziert, was bei der Sicherung von Remote-Systemen nützlich sein kann. Einige Backup-Lösungen, die für Laptops und Remote-Büros entwickelt wurden, verwenden einen inkrementellen Forever-Backup-Ansatz. Die Herausforderung besteht dabei darin, dass der CBT-Prozess von irgendetwas bereitgestellt werden muss – und nicht jedes System ist dazu in der Lage. Diese Art von Sicherungsprozess funktioniert nur mit Disk-basierten Festplatten, da eine einzelne Datei im Fall eines Bandmediums auf mehrere Bänder verteilt werden könnte – eine Wiederherstellung würde damit ewig dauern.Der inkrementelle Ansatz auf Blockebene ist wahrscheinlich der populärste der hier vorgestellten Methoden zur Forever-Datensicherung und verbraucht weniger Rechenressourcen als Source Deduplication – funktioniert aber nur, wenn CBT verfügbar ist.3. Datensicherung mit Source DeduplicationDie letzte Art der inkrementellen Forever-Datensicherung wird als Source Deduplication Software bezeichnet. Bei diesem Ansatz steht der Deduplizierungsprozess ganz am Anfang der Datensicherung (also an der Quelle). Die Entscheidung darüber, ob ein neues Datenpaket an das Backup-System übertragen werden soll oder nicht, wird am Backup-Client getroffen. Dieser Incremental-Forever-Backup-Ansatz ist so konzipiert, dass bekannte Daten-“Chunks” nicht noch einmal gesichert werden. Ein Chunk bezeichnet dabei eine Sammlung von Bytes beliebiger Größe. Das kann dazu führen, dass sogar noch weniger Daten gesichert werden als beim Block-Level-Ansatz.Weil Source-Deduplication-Systeme die Datenmenge, die vom Backup-Client zur Backup-Lösung gesichert wird, stärker reduziert als jeder andere Ansatz, ist Source Deduplication auch der effizienteste Weg, wenn es darum geht, Remote-Systeme zu sichern. Deswegen nutzen auch die allermeisten Datensicherungs-Lösungen mit Remote-Fokus Source Deduplication. Der größte Nachteil dieses Ansatzes besteht darin, dass möglicherweise Änderungen an Ihrer Backup-Software nötig werden, um ihn nutzen zu können.Der Source-Deduplication-Ansatz ist im Vergleich zum File-Level- und Block-Level-Konzept universeller einsetzbar – aber nicht sonderlich weit verbreitet. Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World. 

Incremental Forever Backup: 3 Wege zur inkrementellen Datensicherung​ Welche Form der inkrementellen Datensicherung ist für Ihren Fall die richtige?
Foto: VectorMine – shutterstock.comEine traditionelle Datensicherung beginnt mit einem anfänglichen Voll-Backup, gefolgt von einer Reihe inkrementeller oder kumulativer Sicherungen (auch als differenzielle Datensicherung bezeichnet). Nach einer gewissen Zeit führen Sie eine weitere vollständige Sicherung und weitere inkrementelle Sicherungen durch.Mit dem Aufkommen von Disk-basierten Backup-Systemen hat sich jedoch das Konzept des Incremental Forever Backup durchgesetzt. Allerdings gibt es drei Wege, dieses umzusetzen. Idealerweise führen Sie mit jedem dieser Ansätze Backup- und Recovery-Testläufe durch, um den zu ermitteln, der für Ihren Fall die beste Performance liefert.1. Inkrementelles Backup auf File-LevelDer erste Incremental-Forever-Backup-Typ funktioniert auf Dateiebene. Der File-Level-Ansatz existiert bereits seit den 1990er Jahren und verdankt seinem Namen dem Umstand, dass die Entscheidung darüber, ob etwas ins Backup einfließt, auf Dateiebene getroffen wird. Wird die betreffende Datei verändert, wird auch ihr Änderungsdatum (beziehungsweise das Archiv-Bit in Windows) angepasst und das gesamte File gesichert – selbst wenn die Änderung nur ein Byte betrifft.Um als inkrementelle Backup-Lösung mit “Forever”-Zusatz durchzugehen, muss das betreffende Produkt lediglich eine vollständige Datensicherung, gefolgt von inkrementellen Backups durchführen. Eine erneute, vollständige Datensicherung entfällt. Einige kommerzielle Lösungen in diesem Bereich werden zwar als Forever-Backup vermarktet, setzen dabei jedoch weiterhin auf mehrere Voll-Backups, nur dass diese synthetischer Natur sind. Das sind keine echten Incremental-Forever-Backup-Lösungen.Der Grund für diese Unterscheidung: Es bietet Vorteile, nur ein vollständiges Backup durchzuführen, die darüber hinausgehen, Verarbeitungszeiten und Netzwerkverkehr auf dem Backup-Client zu reduzieren. Zum Beispiel reduziert das auch die Menge der Daten, die im Datensicherungssystem abgelegt werden müssen und damit auch die Kopiervorgänge. Ein Incremental-Forever-Backup-Ansatz ist zudem ein guter Startpunkt in Richtung Deduplizierung. Schließlich müssen selbst synthetische Voll-Backups dedupliziert werden – was eine Verschwendung von Rechenleistung darstellt. Der größte Vorteil von Lösungen dieser Art besteht allerdings darin, dass keine CPU-Verarbeitung, kein Netzwerk und kein Speicherplatz für zusätzliche vollständige Backups verschwendet wird. Das führt in der Konsequenz außerdem dazu, dass Datensicherungen auch weniger Zeit in Anspruch nehmen.Ein weiterer Vorteil: Das System “weiß” von vorneherein, welche Versionen welcher Dateien bei einem Restore wiederhergestellt werden müssen – und kann dann auch nur diese Dateien wiederherstellen (im Gegensatz zu einem vollständigen Backup). Das sorgt für weitere Zeit- und Nervenersparnisse. Allerdings ist diese Methode zur Datensicherung nicht mit Bandmedien kompatibel.Dennoch ist der inkrementelle Datensicherungsansatz auf File-Ebene nicht mehr gebräuchlich.2. Incremental Backup auf Block-LevelEin weiterer Ansatz für Incremental-Forever-Backups ist die Datensicherung auf Blockebene. Block-Level- und File-Level-Ansatz ähneln sich insofern, als sie ein einziges vollständiges Backup und eine Reihe von inkrementellen Sicherungen durchführt.Die Entscheidung darüber, was wie gesichert wird, wird dabei entsprechend auf Bit- oder Blockebene gefällt. Damit dieser Ansatz funktioniert, muss die zugrundeliegende Applikation eine Bitmap der Daten und Teile, die sich verändern, vorhalten. Das bezeichnet man als Changed Block Tracking (CBT). In Virtualisierungsumgebungen wird das in der Regel durch den Hypervisor bereitgestellt, etwa VMware oder Hyper-V. Wenn es Zeit für das nächste Backup ist, fragt die Datensicherungssoftware nach der Bitmap der Blöcke, die sich seit dem letzten inkrementellen Backup verändert haben. So entsteht eine genaue Übersicht darüber, welche Blöcke in das aktuelle, inkrementelle Backup auf Blockebene aufgenommen werden müssen. Eine Incremental-Forever-Backup-Lösung auf Blockebene muss auch den Standort der einzelnen Blöcke nach der Sicherung tracken, weil sie diese Informationen im Falle einer Wiederherstellung benötigt. Obwohl nicht ausschließlich in Virtualisierungsumgebungen zu finden, werden Lösungen dieser Art in der Regel dort eingesetzt.Die Vorteile der Forever-Backups auf Block-Ebene: Die Datenmenge, die vom Backup-Client zum Backup-Server übertragen werden muss, wird erheblich reduziert, was bei der Sicherung von Remote-Systemen nützlich sein kann. Einige Backup-Lösungen, die für Laptops und Remote-Büros entwickelt wurden, verwenden einen inkrementellen Forever-Backup-Ansatz. Die Herausforderung besteht dabei darin, dass der CBT-Prozess von irgendetwas bereitgestellt werden muss – und nicht jedes System ist dazu in der Lage. Diese Art von Sicherungsprozess funktioniert nur mit Disk-basierten Festplatten, da eine einzelne Datei im Fall eines Bandmediums auf mehrere Bänder verteilt werden könnte – eine Wiederherstellung würde damit ewig dauern.Der inkrementelle Ansatz auf Blockebene ist wahrscheinlich der populärste der hier vorgestellten Methoden zur Forever-Datensicherung und verbraucht weniger Rechenressourcen als Source Deduplication – funktioniert aber nur, wenn CBT verfügbar ist.3. Datensicherung mit Source DeduplicationDie letzte Art der inkrementellen Forever-Datensicherung wird als Source Deduplication Software bezeichnet. Bei diesem Ansatz steht der Deduplizierungsprozess ganz am Anfang der Datensicherung (also an der Quelle). Die Entscheidung darüber, ob ein neues Datenpaket an das Backup-System übertragen werden soll oder nicht, wird am Backup-Client getroffen. Dieser Incremental-Forever-Backup-Ansatz ist so konzipiert, dass bekannte Daten-“Chunks” nicht noch einmal gesichert werden. Ein Chunk bezeichnet dabei eine Sammlung von Bytes beliebiger Größe. Das kann dazu führen, dass sogar noch weniger Daten gesichert werden als beim Block-Level-Ansatz.Weil Source-Deduplication-Systeme die Datenmenge, die vom Backup-Client zur Backup-Lösung gesichert wird, stärker reduziert als jeder andere Ansatz, ist Source Deduplication auch der effizienteste Weg, wenn es darum geht, Remote-Systeme zu sichern. Deswegen nutzen auch die allermeisten Datensicherungs-Lösungen mit Remote-Fokus Source Deduplication. Der größte Nachteil dieses Ansatzes besteht darin, dass möglicherweise Änderungen an Ihrer Backup-Software nötig werden, um ihn nutzen zu können.Der Source-Deduplication-Ansatz ist im Vergleich zum File-Level- und Block-Level-Konzept universeller einsetzbar – aber nicht sonderlich weit verbreitet.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.

Incremental Forever Backup: 3 Wege zur inkrementellen Datensicherung​ Weiterlesen »

Hat AWS seinen Schneid verloren?​

Allgemein

Wie steht es um den Führungsanspruch eines Tech-Giganten, der Fokusgruppen plant, statt konkrete Technologien oder Systeme?AWS Amazon Web Services (AWS) konnte seine Dominanz auf dem Cloud-Computing-Markt bislang aufrechterhalten und dient inzwischen schon seit mehr als einem Jahrzehnt vielen Unternehmen als Rückgrat ihrer Transformationsbemühungen. Die jüngsten Entwicklungen bei der Serviceabteilung von Amazon legen allerdings nahe, dass AWS künftig möglicherweise nicht mehr der Innovationstreiber für Enterprise-Technologien sein wird, der er bislang war. Das verdeutlicht insbesondere die jüngste Ankündigung von Amazon Web Services im Bereich Agentic AI: Statt mit neuen Produkten oder Services zu innovieren, will AWS – wie Reuters berichtet – eine Fokusgruppe zum Thema einrichten. Das ist angesichts der Marktposition des Konzerns nicht nur ziemlich enttäuschend – bereits die Tonalität der Ankündigung erweckt außerdem den Eindruck, als würde der Cloud-Gigant zunehmend um Relevanz ringen. „Agentic AI hat das Potenzial zum nächsten Multimillionen-Dollar-Geschäft für AWS zu werden“, wird CEO Matt Garman von der Nachrichtenagentur zitiert. Das riecht in erster Linie nach einer Strategie, um dem Konzern Zeit zu verschaffen, nachdem wichtige Entwicklungen verschlafen wurden. Stabile Seitenlage? In der hart umkämpften Cloud-Welt von heute reichen Fast-Follower-Strategien längst nicht mehr aus. Allerdings scheint AWS zunehmend nur noch darauf zu reagieren, was seine Konkurrenten tun – statt selbst Innovationen an den Start zu bringen. Letzteres war einst das Steckenpferd von Amazon Web Services, das unter anderem die Grundlage für den gesamten Infrastructure-as-a-Service-Markt geschaffen hat. Diese Zeiten könnten vorbei sein. Wichtige AWS-Konkurrenten wie OpenAI, Microsoft, Salesforce und auch Google (Cloud) haben längst damit begonnen, neue KI-Marktchancen zu erschließen, die über GenAI-Chatbots hinausgehen. Seitens AWS gibt es diesbezüglich vor allem Consumer-Funktionen: Dass Alexa künftig selbständig Uber-Fahrten buchen und Webseiten navigieren kann, dürfte für Unternehmen weniger interessant sein. Um es auf den Punkt zu bringen: Geht’s um KI-Agenten, scheint Amazon Web Services nicht mehr als eine größere Idee vorweisen zu können, deren Innenleben aber vor allem eines zu sein scheint: leer. Unternehmen erwarten umsetzbare Innovationen, also Tools und Systeme, die sofort eingesetzt werden können und einen Mehrwert realisieren. Momentan sieht es zumindest so aus, als würde AWS lieber erst einmal abwarten wollen, was die anderen mit Blick auf KI-Agenten so auf die Beine stellen – und ob sich das am Ende überhaupt lohnt. Ein gefährlicher Ansatz, der sich rächen könnte, wenn sich Unternehmenskunden fragen müssen, ob AWS noch der richtige Partner ist, um innovationsgetriebenes Wachstum zu realisieren. Schließlich wird die Innovationserlahmung auch noch von einem allgemeinen Trend ergänzt: War die Public Cloud einst für viele Unternehmen gesetzt, sehen sich viele Firmen heute nach Alternativen um – beziehungsweise haben hybride, diversifizierte Technologiestrategien für sich entdeckt. Dazu gehört zum Beispiel auch, Private-Cloud-Instanzen für benutzerdefinierte Workloads einzusetzen, die weder skaliert noch mit anderen Anwendern geteilt werden müssen. Auch Colocation-Anbieter und Managed Service Provider erfreuen sich steigender Beliebtheit – unter anderem, weil die Kosten bei diesen Modellen in vielen Fällen besser planbar sind als bei Public-Cloud-Angeboten. Reanimationsmaßnahmen Amazon Web Services hat also beim besten Willen keine Zeit, sich weiter auf seinen Lorbeeren auszuruhen. Um seinemRuf als Innovator künftig wieder gerecht werden zu können, müsste AWS seine Herangehensweise ändern: Statt auf „Innovation via Pressemitteilung“ zu setzen, wäre der Konzern besser damit beraten, schnell und mit mehr strategischer Weitsicht konkrete Systeme bereitzustellen, die die Anwender weiterbringen. AWS sollte erkennen, dass seine Marktmacht nur so stark ist wie das Vertrauen, das seine Kunden ihm entgegenbringen. Eine Rolle als „Mitläufer“ und „Nachzügler“ lässt diesen Trust erodieren. Das Gegenmittel: Eine explizite Innovations-Roadmap und mehr Lösungen, die reale Probleme lösen. Unternehmenskunden suchen auf der AWS re:Invent längst nicht mehr nach bombastischen Präsentationen, sondern nach Antworten auf die komplexen geschäftlichen Herausforderungen von heute. Das AWS-Management hat die Mittel, um das Unternehmen neu auszurichten. Um das auch erfolgreich zu tun, gilt es vor allem, die alte Risikofreude wiederzubeleben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hat AWS seinen Schneid verloren?​ Wie steht es um den Führungsanspruch eines Tech-Giganten, der Fokusgruppen plant, statt konkrete Technologien oder Systeme?AWS

Amazon Web Services (AWS) konnte seine Dominanz auf dem Cloud-Computing-Markt bislang aufrechterhalten und dient inzwischen schon seit mehr als einem Jahrzehnt vielen Unternehmen als Rückgrat ihrer Transformationsbemühungen. Die jüngsten Entwicklungen bei der Serviceabteilung von Amazon legen allerdings nahe, dass AWS künftig möglicherweise nicht mehr der Innovationstreiber für Enterprise-Technologien sein wird, der er bislang war.

Das verdeutlicht insbesondere die jüngste Ankündigung von Amazon Web Services im Bereich Agentic AI: Statt mit neuen Produkten oder Services zu innovieren, will AWS – wie Reuters berichtet – eine Fokusgruppe zum Thema einrichten. Das ist angesichts der Marktposition des Konzerns nicht nur ziemlich enttäuschend – bereits die Tonalität der Ankündigung erweckt außerdem den Eindruck, als würde der Cloud-Gigant zunehmend um Relevanz ringen.

„Agentic AI hat das Potenzial zum nächsten Multimillionen-Dollar-Geschäft für AWS zu werden“, wird CEO Matt Garman von der Nachrichtenagentur zitiert. Das riecht in erster Linie nach einer Strategie, um dem Konzern Zeit zu verschaffen, nachdem wichtige Entwicklungen verschlafen wurden.

Stabile Seitenlage?

In der hart umkämpften Cloud-Welt von heute reichen Fast-Follower-Strategien längst nicht mehr aus. Allerdings scheint AWS zunehmend nur noch darauf zu reagieren, was seine Konkurrenten tun – statt selbst Innovationen an den Start zu bringen. Letzteres war einst das Steckenpferd von Amazon Web Services, das unter anderem die Grundlage für den gesamten Infrastructure-as-a-Service-Markt geschaffen hat. Diese Zeiten könnten vorbei sein.

Wichtige AWS-Konkurrenten wie OpenAI, Microsoft, Salesforce und auch Google (Cloud) haben längst damit begonnen, neue KI-Marktchancen zu erschließen, die über GenAI-Chatbots hinausgehen. Seitens AWS gibt es diesbezüglich vor allem Consumer-Funktionen: Dass Alexa künftig selbständig Uber-Fahrten buchen und Webseiten navigieren kann, dürfte für Unternehmen weniger interessant sein. Um es auf den Punkt zu bringen: Geht’s um KI-Agenten, scheint Amazon Web Services nicht mehr als eine größere Idee vorweisen zu können, deren Innenleben aber vor allem eines zu sein scheint: leer.

Unternehmen erwarten umsetzbare Innovationen, also Tools und Systeme, die sofort eingesetzt werden können und einen Mehrwert realisieren. Momentan sieht es zumindest so aus, als würde AWS lieber erst einmal abwarten wollen, was die anderen mit Blick auf KI-Agenten so auf die Beine stellen – und ob sich das am Ende überhaupt lohnt. Ein gefährlicher Ansatz, der sich rächen könnte, wenn sich Unternehmenskunden fragen müssen, ob AWS noch der richtige Partner ist, um innovationsgetriebenes Wachstum zu realisieren.

Schließlich wird die Innovationserlahmung auch noch von einem allgemeinen Trend ergänzt: War die Public Cloud einst für viele Unternehmen gesetzt, sehen sich viele Firmen heute nach Alternativen um – beziehungsweise haben hybride, diversifizierte Technologiestrategien für sich entdeckt. Dazu gehört zum Beispiel auch, Private-Cloud-Instanzen für benutzerdefinierte Workloads einzusetzen, die weder skaliert noch mit anderen Anwendern geteilt werden müssen. Auch Colocation-Anbieter und Managed Service Provider erfreuen sich steigender Beliebtheit – unter anderem, weil die Kosten bei diesen Modellen in vielen Fällen besser planbar sind als bei Public-Cloud-Angeboten.

Reanimationsmaßnahmen

Amazon Web Services hat also beim besten Willen keine Zeit, sich weiter auf seinen Lorbeeren auszuruhen. Um seinemRuf als Innovator künftig wieder gerecht werden zu können, müsste AWS seine Herangehensweise ändern:

Statt auf „Innovation via Pressemitteilung“ zu setzen, wäre der Konzern besser damit beraten, schnell und mit mehr strategischer Weitsicht konkrete Systeme bereitzustellen, die die Anwender weiterbringen.

AWS sollte erkennen, dass seine Marktmacht nur so stark ist wie das Vertrauen, das seine Kunden ihm entgegenbringen. Eine Rolle als „Mitläufer“ und „Nachzügler“ lässt diesen Trust erodieren. Das Gegenmittel: Eine explizite Innovations-Roadmap und mehr Lösungen, die reale Probleme lösen.

Unternehmenskunden suchen auf der AWS re:Invent längst nicht mehr nach bombastischen Präsentationen, sondern nach Antworten auf die komplexen geschäftlichen Herausforderungen von heute. Das AWS-Management hat die Mittel, um das Unternehmen neu auszurichten. Um das auch erfolgreich zu tun, gilt es vor allem, die alte Risikofreude wiederzubeleben. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hat AWS seinen Schneid verloren?​ Weiterlesen »

Woran Machine Learning scheitert​

Allgemein

Machine-Learning-Projekte sind kein Selbstläufer.Gorodenkoff | shutterstock.com Machine Learning (ML) fokussiert als Teilbereich der künstlichen Intelligenz (KI) darauf, Algorithmen zu trainieren, damit diese prädiktive Entscheidungen auf der Grundlage großer Datensätze treffen können. Zu den Anwendungsfällen für maschinelles Lernen gehören unter anderem: Produktempfehlungen, Bilderkennung, Betrugserkennung, Übersetzungen und Diagnose-Tools. ML einzusetzen, gehört inzwischen in vielen Branchen zum guten Ton – Tendenz steigend: Die Marktforscher von Fortune Business Insights prognostizieren, dass der globale Markt für Machine Learning bis zum Jahr 2030 ein Volumen von knapp 226 Milliarden Dollar erreichen wird (2023: 26 Milliarden Dollar). Auch wenn die potenziellen Benefits verlockend erscheinen: Maschinelles Lernen ist kein Selbstläufer – und birgt Risiken. Welche das in erster Linie sind und wie Sie am besten mit ihnen umgehen, haben wir mit Tech-Experten und -Analysten diskutiert. 1. Halluzinationen Wenn ein Large Language Model (LLM) Muster oder Objekte wahrnimmt, die entweder nicht existieren oder für den Menschen nicht wahrnehmbar sind, spricht man in Zusammenhang mit ML von einer Halluzination. Tritt diese gehäuft in generiertem Code oder im Rahmen von Chatbot-Konversationen auf, sind unbrauchbare oder kontraproduktive Outputs die Folge. Laut Camden Swita, Head of AI/ML beim Plattformanbieter New Relic, haben die Halluzinationsbedenken in Zusammenhang mit maschinellem Lernen ein neues Allzeithoch erreicht. „Aktuelle [interne] Research-Ergebnisse deuten darauf hin, dass das Gros der ML-Ingenieure Anzeichen für Halluzinationen in ihren LLMs festgestellt hat“, warnt der New-Relic-Experte und rät dazu, den Fokus nicht nur darauf zu legen, Inhalte zu generieren. Vielmehr, so Swita, müssten Entwickler Zusammenfassungs-Tasks stärker gewichten – und fortschrittliche Techniken wie Retrieval Augmented Generation (RAG) einsetzen. „Um zu verhindern, dass irreführende Informationen produziert werden, empfiehlt es sich darüber hinaus, KI-Outputs in validierten und regulierten Datenquellen zu verankern“, konstatiert Swita. 2. Model Bias Model Bias – oder Modellverzerrungen – sind ein weiterer Machine-Learning-Unheilsbringer. Dabei handelt es sich um systematische Fehler des Modells, die zu konsistent falschen Vorhersagen oder Bewertungen führen können. „Die Daten, die genutzt werden, um ML-Modelle zu trainieren, müssen vielfältig sein und eine akkurate Gruppenrepräsentation enthalten“, erklärt Sheldon Arora, CEO des Personaldienstleisters StaffDNA. Welche Maßnahmen und Methoden nötig sind, um das zu gewährleisten, weiß KI-Experte Swita: „Zu den Best Practices, um Bias-behaftete Inhalte zu identifizieren und zu korrigieren, gehören eine kontinuierliche Überwachung, Warnmechanismen und Inhaltsfilter. Mit Hilfe dieser Methoden können Organisationen zudem KI-Frameworks entwickeln, die validierten Content priorisieren.“ Davon abgesehen, so Swita, gelte es, Systeme in einem dynamischen Ansatz kontinuierlich weiterzuentwickeln, um mit der rasanten Entwicklungsgeschwindigkeit der KI-Modelle Schritt halten zu können. 3. Rechtliche & ethische Bedenken Maschinelles Lernen ist mit bestimmten rechtlichen und ethischen Risiken verbunden, die sowohl für die Benutzer als auch die Entwickler Folgen haben können. Zu den rechtlichen Risiken gehören: Bias-getriebene Diskriminierung, Datenschutzverletzungen, Security-Lecks und Verstöße gegen das Recht auf geistiges Eigentum. Zu den ethischen Risiken gehören: Datenmissbrauch, Transparenz- und Rechenschaftspflicht-Mängel. KI-Spezialist Swita betont an dieser Stelle abermals die Bedeutung von vertrauenswürdigen, validierten Daten: Rechtliche und ethische Risiken in Zusammenhang mit KI können Organisationen minimieren, indem sie sich an den Regularien und Standards in den Bereichen Data Governance und Datenschutz ausrichten.“ 4. Schlechte Datenqualität Wenig überraschend führt eine mangelhafte Datenqualität zu fehlerhaften ML-Modellen und inakzeptablen Ergebnissen. Daten von Gartner zeigen, dass die Mehrheit der Unternehmen in diesem Bereich Probleme hat, hält Peter Krensky, Senior Analyst im KI-Team der Marktforscher, fest: „Führungskräfte und KI-Praktiker befinden sich in einem Spannungsfeld: Auf der einen Seite gilt es, Daten für Prototypen vorzubereiten, auf der anderen die Einsatzfähigkeit für die echte Welt sicherzustellen.“ Um dieses Dilemma aufzulösen und Vertrauen sowie Anpassungsfähigkeit zu fördern, sollten Organisationen den Perfektionismus hinter sich lassen und stattdessen Ansätze verfolgen, die die Governance mit dem angestrebten Zweck der Daten in Einklang bringen, so der Gartner-Analyst. Auch StaffDNA-CEO Arora hält hochwertige Daten für unverzichtbar, um zuverlässige ML-Modelle auf die Beine zu stellen. Um eine adäquate Datenqualität zu gewährleisten, empfiehlt der Manager zwei wesentliche Maßnahmen: „Daten sollten regelmäßig bereinigt werden. Zudem können Preprocessing-Techniken zu genauen Ergebnissen beitragen.“ Zusätzlich zu ungenauen und anderweitig fehlerhaften Daten können Organisationen auch mit irrelevanten Daten konfrontiert sein. Diese lassen sich mit Hilfe von Datenvisualisierungen oder statistischen Analysen identifizieren und anschließend aus den Datensätzen entfernen – vor dem Modelltraining. 5. Model Over- & Underfitting Auch die Machine-Learning-Modelle selbst können in entsprechenden Projekten zur Fehlerquelle werden.  Von Model Overfitting spricht man dabei, wenn ein Modell „zu eng“ auf einen spezifischen Trainingsdatensatz ausgerichtet ist. Das führt zu einer schlechten Performance: Ein solches Modell ist nicht in der Lage, neue Daten gut zu generalisieren. Beim Model Underfitting ist das Modell hingegen zu simpel, um die Beziehung zwischen Input- und Output-Variablen erfassen zu können. Das Resultat ist ein Modell, das sowohl mit Blick auf bekannte als auch neue Daten schlecht abschneidet. Elvis Sun, Software Engineer bei Google, erklärt, wie Teams im Unternehmen diese Probleme adressieren: „Mit Cross-Validation lässt sich die Modell-Performance mit Blick auf externe Daten und Generalisierungsfähigkeiten bewerten. Zudem können Regularisierungstechniken wie L1 oder L2 dazu beitragen, Overfitting zu verhindern, weil sie simplere Lösungen propagieren, die breiter einsetzbar sind.“   6. Legacy-Inkompatibilitäten Um Machine Learning in bestehende Legacy-IT-Systeme einzubinden, muss auch die Infrastruktur entsprechend „ready“ sein. Um das sicherzustellen, gilt es, einen Integrationsprozess aufzusetzen, wie Damien Filiatrault, Gründer und CEO der auf Entwickler spezialisierten HR-Agentur Scalable Path, erklärt: „Legacy-Systeme, die die Infrastrukturanforderungen nicht erfüllen, können zu Ineffizienzen und unvollständigen Integrationen führen. Es ist deshalb unabdingbar, solche Systeme zunächst gründlich zu überprüfen.“ Laut dem Manager lassen sich Machine-Learning-Modelle über APIs und Microservices in kompatible Legacy-Systeme integrieren. Datenwissenschaftler und IT-Teams, die bei gestaffelten Rollouts funktionsübergreifend zusammenarbeiten, sorgten zudem für eine reibungslosere Einführung, so Filiatrault. 7. Skalierungsprobleme Weil Machine Learning (wenn es gut läuft) mit der Zeit zunehmend genutzt wird, kann auch die Skalierbarkeit zum Problem werden. Systeme, deren Leistung und Effizienz bei steigendem Datenvolumen, höherer Komplexität und wachsenden Anforderungen nachlässt, liefern wahrscheinlich keine zufriedenstellenden Outputs.   CEO Arora weiß, was dagegen hilft: „Nur Unternehmen, die auf skalierbare Cloud-Ressourcen setzen, sind in der Lage, mit wachsenden Datenmengen umzugehen.“ Je nach Größe der Datensätze könnten auch komplexere Modelle erforderlich sein, meint der Manager und empfiehlt verteilte Computing-Frameworks, um besonders große Datenmengen parallel verarbeiten zu können.   8. Transparenzmängel Laut Scalable-Path-Gründer Filiatraut sind manche Machine-Learning-Applikationen besonders Black-Box-affin, was es schwierig gestalte, ihre Ergebnisse zu erklären: „Im Gesundheitswesen und anderen Branchen mit hohen Datenschutzanforderungen kann sich dieser Mangel an Transparenz negativ auf das Benutzervertrauen auswirken“, meint der Manager. Seine Lösungsvorschläge für das Problem sind interpretierbare Modelle – oder Erklärungs-Frameworks wie SHAP. „Darüber hinaus können auch eine ordnungsgemäße Dokumentation und die Visualisierung von Entscheidungsprozessen dazu beitragen, das Vertrauen der User zu stärken und Compliance zu fördern“, so Filiatraut. 9. Domänenspezifische Wissenslücken Maschinelles Lernen effektiv einzusetzen, erfordert umfassendes, domänenspezifisches Wissen. „Unternehmen, die nicht über die richtigen Mitarbeiter in ihren Teams verfügen, haben ein Problem“, konstatiert auch Google-Softwareexperte Sun und fügt hinzu: „Der Erfolg von ML-Lösungen steht und fällt mit branchenspezifischen Datenstrukturen, Geschäftsprozessen und Compliance-Vorschriften.“ Um Wissenslücken zu schließen, empfiehlt der Google-Entwickler, ML-Experten eng mit Spezialisten aus anderen Bereichen zusammenarbeiten zu lassen: „Indem sie das technische Fachwissen der Machine-Learning-Experten mit dem situationsspezifischen Wissen der Fachexperten kombinieren, können Unternehmen bessere Modelle erstellen.“ Diese Art der Collaboration könne laut Sun in verschiedenen Bereichen von Modellentwicklung und -bereitstellung zum Einsatz kommen, zum Beispiel wenn es darum gehe: Probleme zu definieren, Trainingsdatensätze zu erstellen oder kontinuierliche Feedbackschleifen zu etablieren. 10. Nicht vorhandene ML-Skills Wie in diversen anderen Bereichen mangelt es auch im Bereich Machine Learning in vielen Unternehmen erheblich an Kompetenz. Das kann auch Gartner-Analyst Krensky bestätigen. Der KI-Experte schreibt das vor allem einem Defizit zu: “Viele Organisationen haben Schwierigkeiten mit dem Change Management. Das wäre aber entscheidend, um die Akzeptanz neuer Technologien zu fördern und Teams aufzusetzen, deren Fähigkeiten sich weiterentwickeln.“ Laut dem Gartner-Mann steuern Firmen dem am besten gegen, indem sie Reskilling-Initiativen im großen Stil fokussierten und die fachbereichsübergreifende Zusammenarbeit förderten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Woran Machine Learning scheitert​ Machine-Learning-Projekte sind kein Selbstläufer.Gorodenkoff | shutterstock.com

Machine Learning (ML) fokussiert als Teilbereich der künstlichen Intelligenz (KI) darauf, Algorithmen zu trainieren, damit diese prädiktive Entscheidungen auf der Grundlage großer Datensätze treffen können. Zu den Anwendungsfällen für maschinelles Lernen gehören unter anderem:

Produktempfehlungen,

Bilderkennung,

Betrugserkennung,

Übersetzungen und

Diagnose-Tools.

ML einzusetzen, gehört inzwischen in vielen Branchen zum guten Ton – Tendenz steigend: Die Marktforscher von Fortune Business Insights prognostizieren, dass der globale Markt für Machine Learning bis zum Jahr 2030 ein Volumen von knapp 226 Milliarden Dollar erreichen wird (2023: 26 Milliarden Dollar).

Auch wenn die potenziellen Benefits verlockend erscheinen: Maschinelles Lernen ist kein Selbstläufer – und birgt Risiken. Welche das in erster Linie sind und wie Sie am besten mit ihnen umgehen, haben wir mit Tech-Experten und -Analysten diskutiert.

1. Halluzinationen

Wenn ein Large Language Model (LLM) Muster oder Objekte wahrnimmt, die entweder nicht existieren oder für den Menschen nicht wahrnehmbar sind, spricht man in Zusammenhang mit ML von einer Halluzination. Tritt diese gehäuft in generiertem Code oder im Rahmen von Chatbot-Konversationen auf, sind unbrauchbare oder kontraproduktive Outputs die Folge.

Laut Camden Swita, Head of AI/ML beim Plattformanbieter New Relic, haben die Halluzinationsbedenken in Zusammenhang mit maschinellem Lernen ein neues Allzeithoch erreicht. „Aktuelle [interne] Research-Ergebnisse deuten darauf hin, dass das Gros der ML-Ingenieure Anzeichen für Halluzinationen in ihren LLMs festgestellt hat“, warnt der New-Relic-Experte und rät dazu, den Fokus nicht nur darauf zu legen, Inhalte zu generieren. Vielmehr, so Swita, müssten Entwickler Zusammenfassungs-Tasks stärker gewichten – und fortschrittliche Techniken wie Retrieval Augmented Generation (RAG) einsetzen.

„Um zu verhindern, dass irreführende Informationen produziert werden, empfiehlt es sich darüber hinaus, KI-Outputs in validierten und regulierten Datenquellen zu verankern“, konstatiert Swita.

2. Model Bias

Model Bias – oder Modellverzerrungen – sind ein weiterer Machine-Learning-Unheilsbringer. Dabei handelt es sich um systematische Fehler des Modells, die zu konsistent falschen Vorhersagen oder Bewertungen führen können. „Die Daten, die genutzt werden, um ML-Modelle zu trainieren, müssen vielfältig sein und eine akkurate Gruppenrepräsentation enthalten“, erklärt Sheldon Arora, CEO des Personaldienstleisters StaffDNA.

Welche Maßnahmen und Methoden nötig sind, um das zu gewährleisten, weiß KI-Experte Swita: „Zu den Best Practices, um Bias-behaftete Inhalte zu identifizieren und zu korrigieren, gehören eine kontinuierliche Überwachung, Warnmechanismen und Inhaltsfilter. Mit Hilfe dieser Methoden können Organisationen zudem KI-Frameworks entwickeln, die validierten Content priorisieren.“

Davon abgesehen, so Swita, gelte es, Systeme in einem dynamischen Ansatz kontinuierlich weiterzuentwickeln, um mit der rasanten Entwicklungsgeschwindigkeit der KI-Modelle Schritt halten zu können.

3. Rechtliche & ethische Bedenken

Maschinelles Lernen ist mit bestimmten rechtlichen und ethischen Risiken verbunden, die sowohl für die Benutzer als auch die Entwickler Folgen haben können.

Zu den rechtlichen Risiken gehören:

Bias-getriebene Diskriminierung,

Datenschutzverletzungen,

Security-Lecks und

Verstöße gegen das Recht auf geistiges Eigentum.

Zu den ethischen Risiken gehören:

Datenmissbrauch,

Transparenz- und

Rechenschaftspflicht-Mängel.

KI-Spezialist Swita betont an dieser Stelle abermals die Bedeutung von vertrauenswürdigen, validierten Daten: Rechtliche und ethische Risiken in Zusammenhang mit KI können Organisationen minimieren, indem sie sich an den Regularien und Standards in den Bereichen Data Governance und Datenschutz ausrichten.“

4. Schlechte Datenqualität

Wenig überraschend führt eine mangelhafte Datenqualität zu fehlerhaften ML-Modellen und inakzeptablen Ergebnissen. Daten von Gartner zeigen, dass die Mehrheit der Unternehmen in diesem Bereich Probleme hat, hält Peter Krensky, Senior Analyst im KI-Team der Marktforscher, fest: „Führungskräfte und KI-Praktiker befinden sich in einem Spannungsfeld: Auf der einen Seite gilt es, Daten für Prototypen vorzubereiten, auf der anderen die Einsatzfähigkeit für die echte Welt sicherzustellen.“

Um dieses Dilemma aufzulösen und Vertrauen sowie Anpassungsfähigkeit zu fördern, sollten Organisationen den Perfektionismus hinter sich lassen und stattdessen Ansätze verfolgen, die die Governance mit dem angestrebten Zweck der Daten in Einklang bringen, so der Gartner-Analyst.

Auch StaffDNA-CEO Arora hält hochwertige Daten für unverzichtbar, um zuverlässige ML-Modelle auf die Beine zu stellen. Um eine adäquate Datenqualität zu gewährleisten, empfiehlt der Manager zwei wesentliche Maßnahmen: „Daten sollten regelmäßig bereinigt werden. Zudem können Preprocessing-Techniken zu genauen Ergebnissen beitragen.“

Zusätzlich zu ungenauen und anderweitig fehlerhaften Daten können Organisationen auch mit irrelevanten Daten konfrontiert sein. Diese lassen sich mit Hilfe von Datenvisualisierungen oder statistischen Analysen identifizieren und anschließend aus den Datensätzen entfernen – vor dem Modelltraining.

5. Model Over- & Underfitting

Auch die Machine-Learning-Modelle selbst können in entsprechenden Projekten zur Fehlerquelle werden. 

Von Model Overfitting spricht man dabei, wenn ein Modell „zu eng“ auf einen spezifischen Trainingsdatensatz ausgerichtet ist. Das führt zu einer schlechten Performance: Ein solches Modell ist nicht in der Lage, neue Daten gut zu generalisieren.

Beim Model Underfitting ist das Modell hingegen zu simpel, um die Beziehung zwischen Input- und Output-Variablen erfassen zu können. Das Resultat ist ein Modell, das sowohl mit Blick auf bekannte als auch neue Daten schlecht abschneidet.

Elvis Sun, Software Engineer bei Google, erklärt, wie Teams im Unternehmen diese Probleme adressieren: „Mit Cross-Validation lässt sich die Modell-Performance mit Blick auf externe Daten und Generalisierungsfähigkeiten bewerten. Zudem können Regularisierungstechniken wie L1 oder L2 dazu beitragen, Overfitting zu verhindern, weil sie simplere Lösungen propagieren, die breiter einsetzbar sind.“  

6. Legacy-Inkompatibilitäten

Um Machine Learning in bestehende Legacy-IT-Systeme einzubinden, muss auch die Infrastruktur entsprechend „ready“ sein. Um das sicherzustellen, gilt es, einen Integrationsprozess aufzusetzen, wie Damien Filiatrault, Gründer und CEO der auf Entwickler spezialisierten HR-Agentur Scalable Path, erklärt: „Legacy-Systeme, die die Infrastrukturanforderungen nicht erfüllen, können zu Ineffizienzen und unvollständigen Integrationen führen. Es ist deshalb unabdingbar, solche Systeme zunächst gründlich zu überprüfen.“

Laut dem Manager lassen sich Machine-Learning-Modelle über APIs und Microservices in kompatible Legacy-Systeme integrieren. Datenwissenschaftler und IT-Teams, die bei gestaffelten Rollouts funktionsübergreifend zusammenarbeiten, sorgten zudem für eine reibungslosere Einführung, so Filiatrault.

7. Skalierungsprobleme

Weil Machine Learning (wenn es gut läuft) mit der Zeit zunehmend genutzt wird, kann auch die Skalierbarkeit zum Problem werden. Systeme, deren Leistung und Effizienz bei steigendem Datenvolumen, höherer Komplexität und wachsenden Anforderungen nachlässt, liefern wahrscheinlich keine zufriedenstellenden Outputs.  

CEO Arora weiß, was dagegen hilft: „Nur Unternehmen, die auf skalierbare Cloud-Ressourcen setzen, sind in der Lage, mit wachsenden Datenmengen umzugehen.“

Je nach Größe der Datensätze könnten auch komplexere Modelle erforderlich sein, meint der Manager und empfiehlt verteilte Computing-Frameworks, um besonders große Datenmengen parallel verarbeiten zu können.  

8. Transparenzmängel

Laut Scalable-Path-Gründer Filiatraut sind manche Machine-Learning-Applikationen besonders Black-Box-affin, was es schwierig gestalte, ihre Ergebnisse zu erklären: „Im Gesundheitswesen und anderen Branchen mit hohen Datenschutzanforderungen kann sich dieser Mangel an Transparenz negativ auf das Benutzervertrauen auswirken“, meint der Manager. Seine Lösungsvorschläge für das Problem sind interpretierbare Modelle – oder Erklärungs-Frameworks wie SHAP.

„Darüber hinaus können auch eine ordnungsgemäße Dokumentation und die Visualisierung von Entscheidungsprozessen dazu beitragen, das Vertrauen der User zu stärken und Compliance zu fördern“, so Filiatraut.

9. Domänenspezifische Wissenslücken

Maschinelles Lernen effektiv einzusetzen, erfordert umfassendes, domänenspezifisches Wissen. „Unternehmen, die nicht über die richtigen Mitarbeiter in ihren Teams verfügen, haben ein Problem“, konstatiert auch Google-Softwareexperte Sun und fügt hinzu: „Der Erfolg von ML-Lösungen steht und fällt mit branchenspezifischen Datenstrukturen, Geschäftsprozessen und Compliance-Vorschriften.“

Um Wissenslücken zu schließen, empfiehlt der Google-Entwickler, ML-Experten eng mit Spezialisten aus anderen Bereichen zusammenarbeiten zu lassen: „Indem sie das technische Fachwissen der Machine-Learning-Experten mit dem situationsspezifischen Wissen der Fachexperten kombinieren, können Unternehmen bessere Modelle erstellen.“

Diese Art der Collaboration könne laut Sun in verschiedenen Bereichen von Modellentwicklung und -bereitstellung zum Einsatz kommen, zum Beispiel wenn es darum gehe:

Probleme zu definieren,

Trainingsdatensätze zu erstellen oder

kontinuierliche Feedbackschleifen zu etablieren.

10. Nicht vorhandene ML-Skills

Wie in diversen anderen Bereichen mangelt es auch im Bereich Machine Learning in vielen Unternehmen erheblich an Kompetenz. Das kann auch Gartner-Analyst Krensky bestätigen. Der KI-Experte schreibt das vor allem einem Defizit zu: “Viele Organisationen haben Schwierigkeiten mit dem Change Management. Das wäre aber entscheidend, um die Akzeptanz neuer Technologien zu fördern und Teams aufzusetzen, deren Fähigkeiten sich weiterentwickeln.“

Laut dem Gartner-Mann steuern Firmen dem am besten gegen, indem sie Reskilling-Initiativen im großen Stil fokussierten und die fachbereichsübergreifende Zusammenarbeit förderten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Woran Machine Learning scheitert​ Weiterlesen »

Microsoft verleiht Oscars für Intelligent Manufacturing​

Allgemein

Roland Berger und Microsoft haben die Gewinner des diesjährigen „Europäischen Oscar der digitalen Fertigung“ ausgezeichnet. Jaguar PS/Shutterstock.com And the Winner is? Den oft als “Europäischen Oscar der digitalen Fertigung” bezeichneten MIMA-Preis haben Microsoft und die Unternehmensberatung Roland Berger nun zum sechsten Mal vergeben. Der Award würdigt Unternehmen, die mit ihren Pionierprojekten in den Bereichen Produktion, Einkauf, Supply Chain Management, Engineering und Operations einen wesentlichen Beitrag zur digitalen Transformation der Fertigungsindustrie leisten. Ein zentraler Aspekt aller diesjährigen Gewinnerprojekte ist der Einsatz von Künstlicher Intelligenz (KI). Es habe, so hieß es in der Laudatio, ein Übergang von Experimenten hin zu umfassenden KI-Implementierungen stattgefunden, was den Beginn einer neuen Ära markiere. Oder anders formuliert: KI ist zum „Turbo Charger“ der Intellectual Property (IP) der Unternehmen geworden. So verdeutlichen die Gewinnerprojekte des MIMA 2025 die transformative Kraft von KI, Daten und Cloud für die Fertigungsindustrie. And the Oscar goes to… Der MIMA wird bereits zum sechsten Mal vergeben. Microsoft Der Microsoft Intelligent Manufacturing Award 2025 wurde in sechs Kategorien vergeben. Dabei wählte die Jury unter 16 Finalisten die Projekte aus, die sich aus ihrer Sicht durch besondere Innovationskraft auszeichnen und das Potenzial haben, den digitalen Wandel in ihrer ganzen Branche anzuführen: Innovate: Philip Morris wurde für den Aufbau einer Smart Factory mit einer umfassenden und global skalierbaren digitalen Architektur geehrt. Scale: Zeiss Digital Innovation konnte in dieser Kategorie mit der Kombination von virtueller und physischer Messtechnik zur fortgeschrittenen Präzisionsfertigung und Integration der Qualitätssicherung in der Produktion punkten. Add Value: Cereal Docks und MIPU erhielten die Auszeichnung für ihre KI-gesteuerte, prädiktive Fabrik für die Lebensmittelproduktion. Durch die Nutzung von Industriedaten können sie den Energie- und Servicebedarf von Maschinen präzise vorhersagen. Disrupt: Diese Kategorie gewann der Sensortechnologie-Experten SICK mit seinem innovativen Dual-Approach-System für die Fertigung, Es kombiniert KI und Echtzeit-Prozesskontrolle, um die Effizienz zu steigern, Abfall zu reduzieren und die Ausbeute zu verbessern. Sustainability: Hier wurde Diehl Metering für seine industrielle Wassermanagementlösung ausgezeichnet. Das Unternehmen geht damit die globale Herausforderung der Wasserknappheit an. Das System erkennt, lokalisiert und prognostiziert Lecks in Wassernetzen mithilfe von intelligenten Sensoren und KI-Software. Overall Winner: Den Gesamtsieg errang Continental mit der Entwicklung einer KI-Lösung für das Anforderungsmanagement im Automobilsektor. Die Lösung extrahiert und klassifiziert Kundenanforderungen aus komplexen Dokumenten und ordnet sie vorhandenen Produktmerkmalen zu, wodurch der manuelle Aufwand erheblich reduziert wird. Die Projekte im Detail Philip Morris: Manufacturing of the Future Philip Morris Das Projekt “Manufacturing of the Future” von Philip Morris in Bologna zielt darauf ab, die Fertigung strategisch so auszurichten, dass sie zur Vision einer rauchfreien Zukunft beiträgt. Es basiert auf vier Säulen: Technologie, digitale Reife, Organisation und Kompetenzen. Im Bereich Smart Facility wurde ein Echtzeit-Facility-Control implementiert sowie ein interaktives, KI-gestütztes Dashboard entwickelt, um den Energie- und Wasserverbrauch zu reduzieren. Dies führte zu einer Reduktion des Energieverbrauchs um 30 Prozent und des Wasserverbrauchs um 45 Prozent. Im Bereich der Tabakverarbeitung wurde ein Primary Control Room eingerichtet, um die Gesamtproduktivität zu steigern. Durch die Installation von über 7.000 Sensoren konnte eine Fernsteuerung der Prozesse ermöglicht und ungeplante Stopps um über 70 Prozent reduziert werden. Im Bereich der Verpackung wurde Digital Secondary implementiert, um über 12.000 Datenpunkte pro Equipment zu analysieren. Dies führte zu einer Steigerung der Gesamteffizienz um mehr als 20 Prozent und einer Verbesserung der Qualität um 65 Prozent. Zeiss Digital Innovation: Geschlossener Kreislauf von Produktions- und Qualitätsprozesse. Zeiss Zeiss Digital Innovation hat eine Lösung für fortgeschrittene Präzisionsfertigung entwickelt, die es ermöglicht, Qualitätsdaten direkt in die Produktion zurückzuspielen, um Prozesse kontinuierlich zu optimieren. Die Lösung kombiniert virtuelle und physische Messtechnik, um die Qualitätssicherung direkt in der Produktion zu integrieren. Durch die Erfassung hochfrequenter Datenspuren der Maschine und die Korrelation mit physikalischen Modellen wird ein digitaler Prozesszwilling in nahezu Echtzeit erstellt. Die virtuelle Messtechnik ist dabei eine indirekte Messmethode, die auf mathematischen Modellen basiert. Die Lösung ermöglicht es, Ausschuss zu reduzieren, die Bearbeitungszeit zu verkürzen und komplexe Geometrien zu optimieren. In einem Beispiel konnte die Ausschussrate in der Hochvolumenproduktion um 90 Prozent reduziert werden. Cereal Docks und MIPU: Vorausschauende Fabrik für die Lebensmittelverarbeitung Cereal Docks Cereal Docks und MIPU haben in Italien eine KI-gesteuerte, prädiktive Fabrik für die Lebensmittelproduktion entwickelt. Sie nutzt industrielle Daten, um den Energie- und Servicebedarf von Maschinen präzise vorherzusagen. Hierzu wurden 220 Asset-spezifische Modelle identifiziert. Eine No-Code-Plattform ermöglicht es Wartungstechnikern, eigene Algorithmen zur Vorhersage des Maschinenzustands zu entwickeln. Algorithmen zur Optimierung des Energieverbrauchs ermöglichen es wiederum, den Energiebedarf der Anlage einen Tag im Voraus zu prognostizieren. Die eingesetzten Algorithmen erkennen 98 von 100 Ausfällen bis zu sechs Monate im Voraus. So konnten im vergangenen Jahr 470 Maschinenausfälle vermieden werden. Ferner gelang es, die CO2-Emissionen um zehn Prozent und den Gasverbrauch um acht Prozent zu senken. SICK: Ein dualer Ansatz für die Prozesssteuerung mit industrieller KI SICK AG Sick hat in Deutschland ein innovatives Dual-Approach-System für die Fertigung entwickelt. Es kombiniert KI und Echtzeit-Prozesskontrolle, um die Effizienz zu steigern, Abfall zu reduzieren und die Ausbeute zu verbessern. Das System basiert auf zwei Säulen: Der KI-gestützte Analyse von Feldrückläufern und einer Inline-Prozesskontrolle zur Unterstützung von Mitarbeitern an manuellen Arbeitsplätzen. Bei der Analyse von Feldrückläufern wird ein “Produkt-Fingerabdruck” anhand von zirka 5.000 Merkmalen pro Sensor erstellt. Die Inline-Prozesskontrolle überwacht den Produktionsprozess mithilfe von Streaming-Kameras, um Fehler in Echtzeit zu erkennen. Das System hat das Potenzial, Einsparungen von bis zu fünf Millionen Euro pro Jahr durch die Vermeidung von Fehlerkosten zu realisieren. Diehl Metering: Management von Wasserverlusten Diehl Metering Diehl Metering aus Deutschland bietet eine industrielle Wassermanagementlösung, die die globale Herausforderung der Wasserknappheit angeht. Dazu hat das Unternehmen eine Sensor-to-Value-Chain entwickelt, die es ermöglicht, Daten zu sammeln, zu übertragen und für Analysen und KI-Anwendungen zu nutzen. Dabei werden intelligente Sensoren und KI-Software eingesetzt, um Lecks in Wassernetzen zu erkennen, zu lokalisieren und vorherzusagen. Die Lösung hat das Potenzial, bis zu 40 Prozent des gepumpten Wassers einzusparen. Continental: KI-basierte Anforderungsanalyse Continental Continental hat eine KI-Lösung für das Anforderungsmanagement im Automobilsektor kreiert, die die Extraktion von Kundenanforderungen aus komplexen Dokumenten automatisiert und diese vorhandenen Produktmerkmalen zuordnet. Die KI hilft bei der Extraktion von Anforderungen aus juristischen oder Kundendokumenten und klassifiziert die extrahierten Elemente. Dabei enthält ein Projekt anfangs im Durchschnitt rund 30.000 Kundenanforderungen. Durch den Einsatz von KI kann Continental den manuellen Aufwand um bis zu 80 Prozent reduzieren. Die Lösung beschleunigt die Markteinführung neuer Produkte und steigert die Effizienz in Forschung und Entwicklung, da die Reaktions- und Entwicklungszeiten deutlich verkürzt werden. Zu den Finalisten des diesjährigen Wettbewerbs, die nicht prämiert wurden, zählen: Aira (Deutschland) Bosch (Deutschland) E.ON Digital Technology (Deutschland) Kongsberg Digital (Norwegen) MTEK Industry (Schweden) Sandvik Manufacturing Solutions (Schweden) Schneider Electric SE (Frankreich) VERIFI / Saint-Gobain (Frankreich) 

Microsoft verleiht Oscars für Intelligent Manufacturing​ Roland Berger und Microsoft haben die Gewinner des diesjährigen „Europäischen Oscar der digitalen Fertigung“ ausgezeichnet.
Jaguar PS/Shutterstock.com

And the Winner is? Den oft als “Europäischen Oscar der digitalen Fertigung” bezeichneten MIMA-Preis haben Microsoft und die Unternehmensberatung Roland Berger nun zum sechsten Mal vergeben. Der Award würdigt Unternehmen, die mit ihren Pionierprojekten in den Bereichen Produktion, Einkauf, Supply Chain Management, Engineering und Operations einen wesentlichen Beitrag zur digitalen Transformation der Fertigungsindustrie leisten.

Ein zentraler Aspekt aller diesjährigen Gewinnerprojekte ist der Einsatz von Künstlicher Intelligenz (KI). Es habe, so hieß es in der Laudatio, ein Übergang von Experimenten hin zu umfassenden KI-Implementierungen stattgefunden, was den Beginn einer neuen Ära markiere. Oder anders formuliert: KI ist zum „Turbo Charger“ der Intellectual Property (IP) der Unternehmen geworden. So verdeutlichen die Gewinnerprojekte des MIMA 2025 die transformative Kraft von KI, Daten und Cloud für die Fertigungsindustrie.

And the Oscar goes to…

Der MIMA wird bereits zum sechsten Mal vergeben.
Microsoft

Der Microsoft Intelligent Manufacturing Award 2025 wurde in sechs Kategorien vergeben. Dabei wählte die Jury unter 16 Finalisten die Projekte aus, die sich aus ihrer Sicht durch besondere Innovationskraft auszeichnen und das Potenzial haben, den digitalen Wandel in ihrer ganzen Branche anzuführen:

Innovate:

Philip Morris wurde für den Aufbau einer Smart Factory mit einer umfassenden und global skalierbaren digitalen Architektur geehrt.

Scale:

Zeiss Digital Innovation konnte in dieser Kategorie mit der Kombination von virtueller und physischer Messtechnik zur fortgeschrittenen Präzisionsfertigung und Integration der Qualitätssicherung in der Produktion punkten.

Add Value:

Cereal Docks und MIPU erhielten die Auszeichnung für ihre KI-gesteuerte, prädiktive Fabrik für die Lebensmittelproduktion. Durch die Nutzung von Industriedaten können sie den Energie- und Servicebedarf von Maschinen präzise vorhersagen.

Disrupt:

Diese Kategorie gewann der Sensortechnologie-Experten SICK mit seinem innovativen Dual-Approach-System für die Fertigung, Es kombiniert KI und Echtzeit-Prozesskontrolle, um die Effizienz zu steigern, Abfall zu reduzieren und die Ausbeute zu verbessern.

Sustainability:

Hier wurde Diehl Metering für seine industrielle Wassermanagementlösung ausgezeichnet. Das Unternehmen geht damit die globale Herausforderung der Wasserknappheit an. Das System erkennt, lokalisiert und prognostiziert Lecks in Wassernetzen mithilfe von intelligenten Sensoren und KI-Software.

Overall Winner:

Den Gesamtsieg errang Continental mit der Entwicklung einer KI-Lösung für das Anforderungsmanagement im Automobilsektor. Die Lösung extrahiert und klassifiziert Kundenanforderungen aus komplexen Dokumenten und ordnet sie vorhandenen Produktmerkmalen zu, wodurch der manuelle Aufwand erheblich reduziert wird.

Die Projekte im Detail

Philip Morris: Manufacturing of the Future

Philip Morris

Das Projekt “Manufacturing of the Future” von Philip Morris in Bologna zielt darauf ab, die Fertigung strategisch so auszurichten, dass sie zur Vision einer rauchfreien Zukunft beiträgt. Es basiert auf vier Säulen: Technologie, digitale Reife, Organisation und Kompetenzen.

Im Bereich Smart Facility wurde ein Echtzeit-Facility-Control implementiert sowie ein interaktives, KI-gestütztes Dashboard entwickelt, um den Energie- und Wasserverbrauch zu reduzieren. Dies führte zu einer Reduktion des Energieverbrauchs um 30 Prozent und des Wasserverbrauchs um 45 Prozent.

Im Bereich der Tabakverarbeitung wurde ein Primary Control Room eingerichtet, um die Gesamtproduktivität zu steigern. Durch die Installation von über 7.000 Sensoren konnte eine Fernsteuerung der Prozesse ermöglicht und ungeplante Stopps um über 70 Prozent reduziert werden.

Im Bereich der Verpackung wurde Digital Secondary implementiert, um über 12.000 Datenpunkte pro Equipment zu analysieren. Dies führte zu einer Steigerung der Gesamteffizienz um mehr als 20 Prozent und einer Verbesserung der Qualität um 65 Prozent.

Zeiss Digital Innovation: Geschlossener Kreislauf von Produktions- und Qualitätsprozesse.

Zeiss

Zeiss Digital Innovation hat eine Lösung für fortgeschrittene Präzisionsfertigung entwickelt, die es ermöglicht, Qualitätsdaten direkt in die Produktion zurückzuspielen, um Prozesse kontinuierlich zu optimieren. Die Lösung kombiniert virtuelle und physische Messtechnik, um die Qualitätssicherung direkt in der Produktion zu integrieren.

Durch die Erfassung hochfrequenter Datenspuren der Maschine und die Korrelation mit physikalischen Modellen wird ein digitaler Prozesszwilling in nahezu Echtzeit erstellt. Die virtuelle Messtechnik ist dabei eine indirekte Messmethode, die auf mathematischen Modellen basiert.

Die Lösung ermöglicht es, Ausschuss zu reduzieren, die Bearbeitungszeit zu verkürzen und komplexe Geometrien zu optimieren. In einem Beispiel konnte die Ausschussrate in der Hochvolumenproduktion um 90 Prozent reduziert werden.

Cereal Docks und MIPU: Vorausschauende Fabrik für die Lebensmittelverarbeitung

Cereal Docks

Cereal Docks und MIPU haben in Italien eine KI-gesteuerte, prädiktive Fabrik für die Lebensmittelproduktion entwickelt. Sie nutzt industrielle Daten, um den Energie- und Servicebedarf von Maschinen präzise vorherzusagen.

Hierzu wurden 220 Asset-spezifische Modelle identifiziert. Eine No-Code-Plattform ermöglicht es Wartungstechnikern, eigene Algorithmen zur Vorhersage des Maschinenzustands zu entwickeln. Algorithmen zur Optimierung des Energieverbrauchs ermöglichen es wiederum, den Energiebedarf der Anlage einen Tag im Voraus zu prognostizieren.

Die eingesetzten Algorithmen erkennen 98 von 100 Ausfällen bis zu sechs Monate im Voraus. So konnten im vergangenen Jahr 470 Maschinenausfälle vermieden werden. Ferner gelang es, die CO2-Emissionen um zehn Prozent und den Gasverbrauch um acht Prozent zu senken.

SICK: Ein dualer Ansatz für die Prozesssteuerung mit industrieller KI

SICK AG

Sick hat in Deutschland ein innovatives Dual-Approach-System für die Fertigung entwickelt. Es kombiniert KI und Echtzeit-Prozesskontrolle, um die Effizienz zu steigern, Abfall zu reduzieren und die Ausbeute zu verbessern.

Das System basiert auf zwei Säulen: Der KI-gestützte Analyse von Feldrückläufern und einer Inline-Prozesskontrolle zur Unterstützung von Mitarbeitern an manuellen Arbeitsplätzen. Bei der Analyse von Feldrückläufern wird ein “Produkt-Fingerabdruck” anhand von zirka 5.000 Merkmalen pro Sensor erstellt.

Die Inline-Prozesskontrolle überwacht den Produktionsprozess mithilfe von Streaming-Kameras, um Fehler in Echtzeit zu erkennen. Das System hat das Potenzial, Einsparungen von bis zu fünf Millionen Euro pro Jahr durch die Vermeidung von Fehlerkosten zu realisieren.

Diehl Metering: Management von Wasserverlusten

Diehl Metering

Diehl Metering aus Deutschland bietet eine industrielle Wassermanagementlösung, die die globale Herausforderung der Wasserknappheit angeht. Dazu hat das Unternehmen eine Sensor-to-Value-Chain entwickelt, die es ermöglicht, Daten zu sammeln, zu übertragen und für Analysen und KI-Anwendungen zu nutzen.

Dabei werden intelligente Sensoren und KI-Software eingesetzt, um Lecks in Wassernetzen zu erkennen, zu lokalisieren und vorherzusagen. Die Lösung hat das Potenzial, bis zu 40 Prozent des gepumpten Wassers einzusparen.

Continental: KI-basierte Anforderungsanalyse

Continental

Continental hat eine KI-Lösung für das Anforderungsmanagement im Automobilsektor kreiert, die die Extraktion von Kundenanforderungen aus komplexen Dokumenten automatisiert und diese vorhandenen Produktmerkmalen zuordnet. Die KI hilft bei der Extraktion von Anforderungen aus juristischen oder Kundendokumenten und klassifiziert die extrahierten Elemente. Dabei enthält ein Projekt anfangs im Durchschnitt rund 30.000 Kundenanforderungen.

Durch den Einsatz von KI kann Continental den manuellen Aufwand um bis zu 80 Prozent reduzieren. Die Lösung beschleunigt die Markteinführung neuer Produkte und steigert die Effizienz in Forschung und Entwicklung, da die Reaktions- und Entwicklungszeiten deutlich verkürzt werden.

Zu den Finalisten des diesjährigen Wettbewerbs, die nicht prämiert wurden, zählen:

Aira (Deutschland)

Bosch (Deutschland)

E.ON Digital Technology (Deutschland)

Kongsberg Digital (Norwegen)

MTEK Industry (Schweden)

Sandvik Manufacturing Solutions (Schweden)

Schneider Electric SE (Frankreich)

VERIFI / Saint-Gobain (Frankreich)

Microsoft verleiht Oscars für Intelligent Manufacturing​ Weiterlesen »

Bitkom-Umfrage: Digitalisierung droht deutsche Firmen abzuhängen​

Allgemein

Die Digitalisierung von Wirtschaft und Gesellschaft nimmt in Deutschland nur langsam Fahrt auf. Stokkete/Shutterstock.com Das rasante Entwicklungstempo und die Komplexität von KI, Big Data, IoT & Co. – gepaart mit Fachkräftemangel, Datenschutzauflagen und fehlenden Mitteln – machen deutschen Unternehmen zu schaffen. In einer repräsentativen Bitkom-Umfrage unter 603 Unternehmen räumte erstmals mehr als die Hälfte (53 Prozent) der Teilnehmer an, Probleme bei der Bewältigung der Digitalisierung zu haben. Vor einem Jahr waren es noch 48 Prozent, 2023 erst 39 Prozent und 2022 sogar nur 34 Prozent.   Gleichzeitig sehen nur noch knapp ein Drittel (32 Prozent) das eigene Unternehmen als Vorreiter bei der Digitalisierung (2024: 37 Prozent), aber 64 Prozent als Nachzügler (2024: 62 Prozent). Zwei Prozent meinen sogar, sie hätten den Anschluss verpasst (2024: 0 Prozent).   Wirtschaftskrise ist auch Digitalisierungskrise  Beim Blick auf die deutsche Wirtschaft zeichnet sich sogar ein noch drastischeres Bild ab:   82 Prozent der Unternehmen sind der Meinung, die aktuelle Krise der deutschen Wirtschaft sei auch eine Krise zögerlicher Digitalisierung.   73 Prozent sagen, durch zu langsame Digitalisierung habe die deutsche Wirtschaft Marktanteile verloren, und  78 Prozent befürchten, ohne Digitalisierung werde Deutschland wirtschaftlich absteigen.   Das Problem dabei sind unzureichende Gegenmaßnahmen.: So haben die meisten Unternehmen zwar die große Bedeutung von digitalen Technologien wie   Big Data (97 Prozent),   IoT (92 Prozent,   KI (90 Prozent) oder   Robotik (89 Prozent)  erkannt.   Bei der tatsächlichen Nutzung hinken sie aber – trotz leichter Verbesserung – immer noch deutlich hinterher:  Big Data nutzen bereits 44 Prozent (2024: 37 Prozent). Weitere 38 Prozent sind in der Planungs- oder Diskussionsphase.  Robotik wird von 38 Prozent (2024: 36 Prozent) eingesetzt, 34 Prozent überlegen dies derzeit.  Das Internet of Things (IoT) kommt in 37 Prozent der Unternehmen zum Einsatz (2024: 30 Prozent), 45 Prozent denken darüber nach.   Künstliche Intelligenz setzen inzwischen 17 Prozent (2024: 13 Prozent) ein, 40 Prozent sind in der Planungs- oder Diskussionsphase.  „Wir müssen digitale Technologien schneller in die Anwendung bringen. Eine Schlüsseltechnologie wie künstliche Intelligenz hat enormes Potenzial und verändert die Wettbewerbssituation ganzer Branchen – loslegen, ausprobieren und machen sollte unser Ansatz sein“, so Bitkom-Präsident Dr. Ralf Wintergerst.  Bitkom Research Digitale Geschäftsmodelle noch Mangelware  Und obwohl 46 Prozent der Unternehmen erkannt haben, dass sich ihr Geschäftsmodell durch die Digitalisierung verändert, fällt die Entwicklung eigener digitaler Geschäftsmodelle der Mehrheit (51 Prozent) schwer, weitere 31 Prozent entwickeln überhaupt keine digitalen Geschäftsmodelle.  Entsprechend überrascht es auch nicht, dass nur sieben Prozent der Unternehmen mindestens die Hälfte ihrer Umsätze mit digitalen Produkten und Dienstleistungen erzielen. Einen Anteil von 30 bis 50 Prozent am Gesamtumsatz haben Digitalumsätze derzeit bei 19 Prozent der Unternehmen. In beiden Kategorien gehen die Befragten nicht davon aus, dass diese Werte in den kommenden fünf Jahren steigen werden.  Etwas anders sieht es am unteren Ende der Skala aus. Haben heute 13 Prozent der Unternehmen keine Digital-Umsätze, so rechnen in fünf Jahren nur noch 4 Prozent damit. „Digital nimmt zu, aber vielleicht etwas zu langsam“, kommentiert Wintergerst die Werte. Er ergänzt: „Wenn wir Anschluss an die Spitzengruppe halten wollen, müssen wir ehrgeiziger und schneller werden.“  Immerhin: Trotz andauernder Rezession kündigten 29 Prozent der Unternehmen an, im laufenden Jahr mehr in ihre digitale Transformation zu investieren. 42 Prozent wollen ihre Digitalisierungsinvestitionen konstant halten, 18 Prozent etwas weniger und sieben Prozent deutlich weniger investieren.   Datenschutz als Digitalisierungs-Hemmnis  Bei der Frage nach den größten Hürden für ihre Digitalisierung wurden vor allem drei Ursachen häufig genannt.   An erster Stelle stehen die Anforderungen an den Datenschutz mit 88 Prozent, gefolgt von   dem Mangel an Fachkräften (74 Prozent), und   fehlender Zeit (60 Prozent).   Daneben beklagten etwa die Hälfte der Unternehmen fehlende finanzielle Mittel (55 Prozent) sowie fehlende marktfähige Lösungen (48 Prozent).   „Die Unternehmen haben die Zeichen der Zeit erkannt, sehen die Bedeutung der Digitalisierung und wollen mehr investieren – trotz schwieriger Konjunktur“, erklärte der Bitkom-Präsident. „Jetzt ist die deutsche und europäische Politik gefordert. Sie muss das viel zu enge Regulierungskorsett lockern und dafür sorgen, dass die nötigen Investitionen wirklich fließen.“  Was die derzeit laufende Regierungsbildung angeht, forderte Wintergerst ein eigenständiges Ministerium und einen Digitalminister, der aus der Wirtschaft kommt und nicht aus der Politik. Eine Digitalagentur, die die IT-Projekte des Bundes umsetze, sei zu schwach und reiche nicht aus. „Ansonsten geht Kleinstaaterei von Bund und Ländern immer so weiter“, erklärte der Bitkom-Sprecher.  

Bitkom-Umfrage: Digitalisierung droht deutsche Firmen abzuhängen​ Die Digitalisierung von Wirtschaft und Gesellschaft nimmt in Deutschland nur langsam Fahrt auf. Stokkete/Shutterstock.com

Das rasante Entwicklungstempo und die Komplexität von KI, Big Data, IoT & Co. – gepaart mit Fachkräftemangel, Datenschutzauflagen und fehlenden Mitteln – machen deutschen Unternehmen zu schaffen. In einer repräsentativen Bitkom-Umfrage unter 603 Unternehmen räumte erstmals mehr als die Hälfte (53 Prozent) der Teilnehmer an, Probleme bei der Bewältigung der Digitalisierung zu haben. Vor einem Jahr waren es noch 48 Prozent, 2023 erst 39 Prozent und 2022 sogar nur 34 Prozent.  

Gleichzeitig sehen nur noch knapp ein Drittel (32 Prozent) das eigene Unternehmen als Vorreiter bei der Digitalisierung (2024: 37 Prozent), aber 64 Prozent als Nachzügler (2024: 62 Prozent). Zwei Prozent meinen sogar, sie hätten den Anschluss verpasst (2024: 0 Prozent).  

Wirtschaftskrise ist auch Digitalisierungskrise 

Beim Blick auf die deutsche Wirtschaft zeichnet sich sogar ein noch drastischeres Bild ab:  

82 Prozent der Unternehmen sind der Meinung, die aktuelle Krise der deutschen Wirtschaft sei auch eine Krise zögerlicher Digitalisierung.  

73 Prozent sagen, durch zu langsame Digitalisierung habe die deutsche Wirtschaft Marktanteile verloren, und 

78 Prozent befürchten, ohne Digitalisierung werde Deutschland wirtschaftlich absteigen.  

Das Problem dabei sind unzureichende Gegenmaßnahmen.: So haben die meisten Unternehmen zwar die große Bedeutung von digitalen Technologien wie  

Big Data (97 Prozent),  

IoT (92 Prozent,  

KI (90 Prozent) oder  

Robotik (89 Prozent) 

erkannt.  

Bei der tatsächlichen Nutzung hinken sie aber – trotz leichter Verbesserung – immer noch deutlich hinterher: 

Big Data nutzen bereits 44 Prozent (2024: 37 Prozent). Weitere 38 Prozent sind in der Planungs- oder Diskussionsphase. 

Robotik wird von 38 Prozent (2024: 36 Prozent) eingesetzt, 34 Prozent überlegen dies derzeit. 

Das Internet of Things (IoT) kommt in 37 Prozent der Unternehmen zum Einsatz (2024: 30 Prozent), 45 Prozent denken darüber nach.  

Künstliche Intelligenz setzen inzwischen 17 Prozent (2024: 13 Prozent) ein, 40 Prozent sind in der Planungs- oder Diskussionsphase. 

„Wir müssen digitale Technologien schneller in die Anwendung bringen. Eine Schlüsseltechnologie wie künstliche Intelligenz hat enormes Potenzial und verändert die Wettbewerbssituation ganzer Branchen – loslegen, ausprobieren und machen sollte unser Ansatz sein“, so Bitkom-Präsident Dr. Ralf Wintergerst. 

Bitkom Research

Digitale Geschäftsmodelle noch Mangelware 

Und obwohl 46 Prozent der Unternehmen erkannt haben, dass sich ihr Geschäftsmodell durch die Digitalisierung verändert, fällt die Entwicklung eigener digitaler Geschäftsmodelle der Mehrheit (51 Prozent) schwer, weitere 31 Prozent entwickeln überhaupt keine digitalen Geschäftsmodelle. 

Entsprechend überrascht es auch nicht, dass nur sieben Prozent der Unternehmen mindestens die Hälfte ihrer Umsätze mit digitalen Produkten und Dienstleistungen erzielen. Einen Anteil von 30 bis 50 Prozent am Gesamtumsatz haben Digitalumsätze derzeit bei 19 Prozent der Unternehmen. In beiden Kategorien gehen die Befragten nicht davon aus, dass diese Werte in den kommenden fünf Jahren steigen werden. 

Etwas anders sieht es am unteren Ende der Skala aus. Haben heute 13 Prozent der Unternehmen keine Digital-Umsätze, so rechnen in fünf Jahren nur noch 4 Prozent damit. „Digital nimmt zu, aber vielleicht etwas zu langsam“, kommentiert Wintergerst die Werte. Er ergänzt: „Wenn wir Anschluss an die Spitzengruppe halten wollen, müssen wir ehrgeiziger und schneller werden.“ 

Immerhin: Trotz andauernder Rezession kündigten 29 Prozent der Unternehmen an, im laufenden Jahr mehr in ihre digitale Transformation zu investieren. 42 Prozent wollen ihre Digitalisierungsinvestitionen konstant halten, 18 Prozent etwas weniger und sieben Prozent deutlich weniger investieren.  

Datenschutz als Digitalisierungs-Hemmnis 

Bei der Frage nach den größten Hürden für ihre Digitalisierung wurden vor allem drei Ursachen häufig genannt.  

An erster Stelle stehen die Anforderungen an den Datenschutz mit 88 Prozent, gefolgt von  

dem Mangel an Fachkräften (74 Prozent), und  

fehlender Zeit (60 Prozent).  

Daneben beklagten etwa die Hälfte der Unternehmen fehlende finanzielle Mittel (55 Prozent) sowie fehlende marktfähige Lösungen (48 Prozent).  

„Die Unternehmen haben die Zeichen der Zeit erkannt, sehen die Bedeutung der Digitalisierung und wollen mehr investieren – trotz schwieriger Konjunktur“, erklärte der Bitkom-Präsident. „Jetzt ist die deutsche und europäische Politik gefordert. Sie muss das viel zu enge Regulierungskorsett lockern und dafür sorgen, dass die nötigen Investitionen wirklich fließen.“ 

Was die derzeit laufende Regierungsbildung angeht, forderte Wintergerst ein eigenständiges Ministerium und einen Digitalminister, der aus der Wirtschaft kommt und nicht aus der Politik. Eine Digitalagentur, die die IT-Projekte des Bundes umsetze, sei zu schwach und reiche nicht aus. „Ansonsten geht Kleinstaaterei von Bund und Ländern immer so weiter“, erklärte der Bitkom-Sprecher. 

Bitkom-Umfrage: Digitalisierung droht deutsche Firmen abzuhängen​ Weiterlesen »

Spanien verschärft die Regeln für KI-Inhalte​

Allgemein

Spanien setzt auf klare Vorschriften statt freiwilliger Selbstregulierung bei KI. So sollen manipulierte Bilder, Videos und Audioaufnahmen eingedämmt werden. shutterstock – RaffMaster Die spanische Regierung hat am 11. März 2025 einen Gesetzentwurf verabschiedet, der Unternehmen mit hohen Geldstrafen belegt, wenn sie von Künstlicher Intelligenz (KI) generierte Inhalte verwenden, ohne sie ordnungsgemäß als solche zu kennzeichnen. Hiermit sollen sogenannte „Deepfakes“ eingedämmt werden. Der Minister für digitale Transformation, Oscar Lopez, sagte unter anderem dem Nachrichtenportal Reuters, dass jeder für Deepfake-Angriffe anfällig sei. Hierbei kann es sich um Videos, Fotos oder Audioaufnahmen handeln, die durch KI-Algorithmen bearbeitet oder generiert wurden, aber als echt dargestellt werden. Gleichzeitig betonte der Minister, dass KI ein sehr mächtiges Werkzeug sei: Es könne genutzt werden, um Leben zu verbessern oder um Fehlinformationen zu verbreiten und die Demokratie anzugreifen. Freiwilligkeit versus gesetzliche Vorgaben Der vorgestellte Gesetzentwurf übernimmt Richtlinien aus der seit 2024 bestehenden KI-Verordnung der Europäischen Union, besser bekannt als EU AI Act. Der AI Act gilt als umfassender als vergleichbare Regelungen der USA. Dort setzen viele dieser Vorschriften darauf, dass Betroffene sie freiwillig einhalten. Ein einheitliches, im ganzen Land geltendes Gesetz gibt es dort ebenfalls nicht, stattdessen verabschieden die einzelnen Bundesstaaten eigene Regelungen. Hintergrund für dieses Vorgehen ist eine andere Philosophie: Statt KI-Technologie zu kontrollieren, sollen die US-amerikanischen Regeln die Führung der USA im Bereich KI vorantreiben. Härtere Regeln als EU AI Act und USA Der spanische Gesetzentwurf, der noch vom Unterhaus gebilligt werden muss, entspricht den Forderungen des AI Act. Er stuft es unter anderem als „schweres Vergehen“ ein, wenn KI-generierte Inhalten nicht ordnungsgemäß gekennzeichnet werden. Dies kann zu Geldstrafen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes führen. Schutz gefährdeter Gruppen vor KI-Einflüssen Der Gesetzentwurf verbietet auch andere Praktiken, wie unterschwellige Techniken – Töne und Bilder, die nicht wahrnehmbar sind – um gefährdete Gruppen zu manipulieren. Als konkretes Beispiel nannte Lopez Chatbots, die süchtige Menschen zum Glücksspiel verleiten, oder Spielzeug, das Kinder zu gefährlichen Handlungen anregt. Zusätzlich sollen Organisationen daran gehindert werden, Menschen anhand ihrer biometrischen Daten mit Hilfe von KI zu klassifizieren und sie auf der Grundlage ihres Verhaltens oder ihrer persönlichen Eigenschaften zu bewerten. Eine Ausnahme dieser Regel soll es allerdings geben: Behörden wäre es weiterhin gestattet, aus Gründen der nationalen Sicherheit biometrische Echtzeitüberwachungen im öffentlichen Raum vorzunehmen. Die neu geschaffene spanische KI-Aufsichtsbehörde Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) wird dafür zuständig sein, dass die neuen Vorschriften durchgesetzt werden. Von ihrer Aufsicht ausgenommen sind Sonderfälle in den Bereichen Datenschutz, Kriminalität, Wahlen, Kreditwürdigkeitsprüfungen, Versicherungen oder Kapitalmarktsysteme. Diese Bereiche werden weiterhin von den entsprechenden Aufsichtsbehörden überwacht. 

Spanien verschärft die Regeln für KI-Inhalte​ Spanien setzt auf klare Vorschriften statt freiwilliger Selbstregulierung bei KI. So sollen manipulierte Bilder, Videos und Audioaufnahmen eingedämmt werden.
shutterstock – RaffMaster

Die spanische Regierung hat am 11. März 2025 einen Gesetzentwurf verabschiedet, der Unternehmen mit hohen Geldstrafen belegt, wenn sie von Künstlicher Intelligenz (KI) generierte Inhalte verwenden, ohne sie ordnungsgemäß als solche zu kennzeichnen. Hiermit sollen sogenannte „Deepfakes“ eingedämmt werden.

Der Minister für digitale Transformation, Oscar Lopez, sagte unter anderem dem Nachrichtenportal Reuters, dass jeder für Deepfake-Angriffe anfällig sei. Hierbei kann es sich um Videos, Fotos oder Audioaufnahmen handeln, die durch KI-Algorithmen bearbeitet oder generiert wurden, aber als echt dargestellt werden.

Gleichzeitig betonte der Minister, dass KI ein sehr mächtiges Werkzeug sei: Es könne genutzt werden, um Leben zu verbessern oder um Fehlinformationen zu verbreiten und die Demokratie anzugreifen.

Freiwilligkeit versus gesetzliche Vorgaben

Der vorgestellte Gesetzentwurf übernimmt Richtlinien aus der seit 2024 bestehenden KI-Verordnung der Europäischen Union, besser bekannt als EU AI Act.

Der AI Act gilt als umfassender als vergleichbare Regelungen der USA. Dort setzen viele dieser Vorschriften darauf, dass Betroffene sie freiwillig einhalten. Ein einheitliches, im ganzen Land geltendes Gesetz gibt es dort ebenfalls nicht, stattdessen verabschieden die einzelnen Bundesstaaten eigene Regelungen. Hintergrund für dieses Vorgehen ist eine andere Philosophie: Statt KI-Technologie zu kontrollieren, sollen die US-amerikanischen Regeln die Führung der USA im Bereich KI vorantreiben.

Härtere Regeln als EU AI Act und USA

Der spanische Gesetzentwurf, der noch vom Unterhaus gebilligt werden muss, entspricht den Forderungen des AI Act. Er stuft es unter anderem als „schweres Vergehen“ ein, wenn KI-generierte Inhalten nicht ordnungsgemäß gekennzeichnet werden.

Dies kann zu Geldstrafen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes führen.

Schutz gefährdeter Gruppen vor KI-Einflüssen

Der Gesetzentwurf verbietet auch andere Praktiken, wie unterschwellige Techniken – Töne und Bilder, die nicht wahrnehmbar sind – um gefährdete Gruppen zu manipulieren. Als konkretes Beispiel nannte Lopez Chatbots, die süchtige Menschen zum Glücksspiel verleiten, oder Spielzeug, das Kinder zu gefährlichen Handlungen anregt.

Zusätzlich sollen Organisationen daran gehindert werden, Menschen anhand ihrer biometrischen Daten mit Hilfe von KI zu klassifizieren und sie auf der Grundlage ihres Verhaltens oder ihrer persönlichen Eigenschaften zu bewerten.

Eine Ausnahme dieser Regel soll es allerdings geben: Behörden wäre es weiterhin gestattet, aus Gründen der nationalen Sicherheit biometrische Echtzeitüberwachungen im öffentlichen Raum vorzunehmen.

Die neu geschaffene spanische KI-Aufsichtsbehörde Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) wird dafür zuständig sein, dass die neuen Vorschriften durchgesetzt werden.

Von ihrer Aufsicht ausgenommen sind Sonderfälle in den Bereichen

Datenschutz,

Kriminalität,

Wahlen,

Kreditwürdigkeitsprüfungen,

Versicherungen oder

Kapitalmarktsysteme.

Diese Bereiche werden weiterhin von den entsprechenden Aufsichtsbehörden überwacht.

Spanien verschärft die Regeln für KI-Inhalte​ Weiterlesen »

Geheimniskrämerei um IT-Gehälter​

Allgemein

width=”2071″ height=”1165″ sizes=”(max-width: 2071px) 100vw, 2071px”>Statt vorab über das Gehalt informiert zu werden, müssen sich viele Jobsuchende im Bewerbungsgespräch auf einen Gehaltspoker einlassen. Pormezz – shutterstock.com Gehaltsangaben in Stellenanzeigen erhöhen die Attraktivität für Bewerber enorm. Einer Arbeitnehmer-Umfrage von Censuswide im Auftrag von Indeed zufolge, wünscht sich die große Mehrheit der Deutschen (über 60 Prozent) Informationen zum Gehalt in Stellenangaben und würde sich zudem eher auf eine Stelle mit transparenten Angaben bewerben.  Deutsche Gehaltsverschwiegenheit  Die hiesigen Arbeitgeber scheint dies aber nicht sonderlich zu interessieren, wie eine aktuelle Stellenanalyse der Ökonomen des Indeed Hiring Labs aufzeigt: Gerade einmal 15,8 Prozent (mit Verweis auf Tarifangaben 23,7 Prozent) der Stellenanzeigen in Deutschland beinhalten Gehaltsangaben. Zum Vergleich:   Im Vereinigten Königreich liegt der Anteil bei durchschnittlich 70 Prozent, in Frankreich bei 50,7 Prozent, gefolgt von den Niederlanden und Irland mit 45,3 beziehungsweise 40,3 Prozent.   Damit belegt Deutschland im Vergleich sechs führender Volkswirtschaften in Europa den letzten Platz. Allein Italien schneidet mit 19,3 Prozent ähnlich niedrig wie Deutschland, aber dennoch besser ab.   Es ist daher nicht verwunderlich, dass die Deutschen sich sehr unwohl bei Fragen rund ums Gehalt fühlen, wie die Indeed-Umfrage belegt. Demnach würden nur 16 Prozent der befragten Arbeitnehmer ihre Kollegen nach der Höhe ihres Gehalts fragen.  Große Unterschiede zwischen Berufsgruppen  Charakteristisch dabei: Am transparentesten sind Stellenausschreibungen für Berufsgruppen, die als weniger attraktiv gelten und trotz der aktuellen Rezession in Deutschland vom Fachkräftemangel geprägt sind, etwa:  Reinigungsdienste (40,9 Prozent),   Transportwesen (37,1 Prozent) und Sicherheit (29,8 Prozent).  Besonders in Jobs mit wenig Konkurrenz und hohen Gehältern gibt es dagegen selten Informationen zur Bezahlung. Das gilt insbesondere für Tätigkeiten in der IT – einer Branche, die seit Monaten mit sinkenden Stellenanzeigen und Gehaltsrückgängen konfrontiert ist.   Mit einem Anteil von  6,7 Prozent (Softwareentwicklung),   7,0 Prozent (Data Analytics und Informationsmanagement), und   7,1 Prozent (IT-Support & IT-Infrastruktur),   werden in keiner anderen Branche öfter Angaben zum Verdienst verschwiegen, so die Indeed-Analyse. Dabei belegten Studien immer wieder, dass weniger Transparenz zu einer höheren Ungerechtigkeit führt und zur Benachteiligung bereits marginalisierter Gruppen, so die Jobexperten.   

Geheimniskrämerei um IT-Gehälter​ width=”2071″ height=”1165″ sizes=”(max-width: 2071px) 100vw, 2071px”>Statt vorab über das Gehalt informiert zu werden, müssen sich viele Jobsuchende im Bewerbungsgespräch auf einen Gehaltspoker einlassen. Pormezz – shutterstock.com

Gehaltsangaben in Stellenanzeigen erhöhen die Attraktivität für Bewerber enorm. Einer Arbeitnehmer-Umfrage von Censuswide im Auftrag von Indeed zufolge, wünscht sich die große Mehrheit der Deutschen (über 60 Prozent) Informationen zum Gehalt in Stellenangaben und würde sich zudem eher auf eine Stelle mit transparenten Angaben bewerben. 

Deutsche Gehaltsverschwiegenheit 

Die hiesigen Arbeitgeber scheint dies aber nicht sonderlich zu interessieren, wie eine aktuelle Stellenanalyse der Ökonomen des Indeed Hiring Labs aufzeigt: Gerade einmal 15,8 Prozent (mit Verweis auf Tarifangaben 23,7 Prozent) der Stellenanzeigen in Deutschland beinhalten Gehaltsangaben. Zum Vergleich:  

Im Vereinigten Königreich liegt der Anteil bei durchschnittlich 70 Prozent,

in Frankreich bei 50,7 Prozent,

gefolgt von den Niederlanden und Irland mit 45,3 beziehungsweise 40,3 Prozent.  

Damit belegt Deutschland im Vergleich sechs führender Volkswirtschaften in Europa den letzten Platz. Allein Italien schneidet mit 19,3 Prozent ähnlich niedrig wie Deutschland, aber dennoch besser ab.  

Es ist daher nicht verwunderlich, dass die Deutschen sich sehr unwohl bei Fragen rund ums Gehalt fühlen, wie die Indeed-Umfrage belegt. Demnach würden nur 16 Prozent der befragten Arbeitnehmer ihre Kollegen nach der Höhe ihres Gehalts fragen. 

Große Unterschiede zwischen Berufsgruppen 

Charakteristisch dabei: Am transparentesten sind Stellenausschreibungen für Berufsgruppen, die als weniger attraktiv gelten und trotz der aktuellen Rezession in Deutschland vom Fachkräftemangel geprägt sind, etwa: 

Reinigungsdienste (40,9 Prozent),  

Transportwesen (37,1 Prozent) und

Sicherheit (29,8 Prozent). 

Besonders in Jobs mit wenig Konkurrenz und hohen Gehältern gibt es dagegen selten Informationen zur Bezahlung. Das gilt insbesondere für Tätigkeiten in der IT – einer Branche, die seit Monaten mit sinkenden Stellenanzeigen und Gehaltsrückgängen konfrontiert ist.  

Mit einem Anteil von 

6,7 Prozent (Softwareentwicklung),  

7,0 Prozent (Data Analytics und Informationsmanagement), und  

7,1 Prozent (IT-Support & IT-Infrastruktur),  

werden in keiner anderen Branche öfter Angaben zum Verdienst verschwiegen, so die Indeed-Analyse. Dabei belegten Studien immer wieder, dass weniger Transparenz zu einer höheren Ungerechtigkeit führt und zur Benachteiligung bereits marginalisierter Gruppen, so die Jobexperten.  

Geheimniskrämerei um IT-Gehälter​ Weiterlesen »

Mit strategischer Portfolioausrichtung die Effizienz steigern​

Allgemein

Um die digitale Transformation voranzutreiben, müssen Unternehmen immer wieder neue Projekte ins Leben rufen. Gleichzeitig herrscht jedoch in nahezu allen Branchen derzeit ein hoher Budgetdruck. Das führt häufig dazu, dass Projekte nebeneinanderher betrieben werden und die Performance, die Ausrichtung an den Unternehmenszielen, eine optimale Ressourcenzuteilung, aber auch die Flexibilität und Transparenz der einzelnen Vorhaben zu kurz kommen – was den Erfolg einzelner Projekte wie auch den gesamten Transformationsprozess untergräbt. Damit strategische Initiativen trotz knapper Ressourcen den gewünschten Effekt erzielen, brauchen Unternehmen daher einen ganzheitlichen Ansatz, der Planung, Finanzierung und hybride Arbeitsmodelle nahtlos verbindet: SPM (Strategisches Portfolio Management) schafft hier den Durchbruch: Es synchronisiert Ressourcen, Budgets und Zeitpläne unternehmensweit mit den strategischen Zielen. Im COMPUTERWOCHE-Webcast in Zusammenarbeit mit Planview erklärt Sabrina Chrobok von Planview wie SPM aktuelle Herausforderungen im Projektportfoliomanagement löst. Sie erfahren außerdem, wie Sie volle Transparenz über Programme und Investments erhalten und wie die strategische Portfolioausrichtung Ihre Effizienz steigert. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Mit strategischer Portfolioausrichtung die Effizienz steigern​ Um die digitale Transformation voranzutreiben, müssen Unternehmen immer wieder neue Projekte ins Leben rufen. Gleichzeitig herrscht jedoch in nahezu allen Branchen derzeit ein hoher Budgetdruck. Das führt häufig dazu, dass Projekte nebeneinanderher betrieben werden und die Performance, die Ausrichtung an den Unternehmenszielen, eine optimale Ressourcenzuteilung, aber auch die Flexibilität und Transparenz der einzelnen Vorhaben zu kurz kommen – was den Erfolg einzelner Projekte wie auch den gesamten Transformationsprozess untergräbt.

Damit strategische Initiativen trotz knapper Ressourcen den gewünschten Effekt erzielen, brauchen Unternehmen daher einen ganzheitlichen Ansatz, der Planung, Finanzierung und hybride Arbeitsmodelle nahtlos verbindet: SPM (Strategisches Portfolio Management) schafft hier den Durchbruch: Es synchronisiert Ressourcen, Budgets und Zeitpläne unternehmensweit mit den strategischen Zielen.

Im COMPUTERWOCHE-Webcast in Zusammenarbeit mit Planview erklärt Sabrina Chrobok von Planview wie SPM aktuelle Herausforderungen im Projektportfoliomanagement löst. Sie erfahren außerdem, wie Sie volle Transparenz über Programme und Investments erhalten und wie die strategische Portfolioausrichtung Ihre Effizienz steigert. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Mit strategischer Portfolioausrichtung die Effizienz steigern​ Weiterlesen »

Astro-Tutorial: Plug & Play-Webentwicklung​

Allgemein

Astro verbindet Welten.Jurik Peter | shutterstock.com Astro ist ein JavaScript-Meta-Framework, das Reactive-View-Technologien wie React und Svelte orchestriert. Von anderen Meta-Frameworks wie Next.js und Remix hebt sich Astro dabei dadurch ab, dass es eine Vielzahl von Reactive-Funktionen und -Komponenten in einer leistungsstarken Meta-Umgebung zusammenbringt. Dabei generiert Astro sämtlichen statischen Content (insofern möglich) auf dem Server und isoliert Reactive-Komponenten auf „Inseln“. Die statischen Inhalte sind SEO-freundlich und ohne JavaScript verpackt – die reaktiven Komponenten so optimiert, dass sie nur den JavaScript-Code senden, der erforderlich ist. Das Ergebnis ist ein optimiertes und strukturiertes Frontend, das das Beste aus beiden Welten vereint. In diesem Artikel entwickeln wir eine einfache Beispiel-Applikation mit Astro, die React und Svelte zusammenführt. Ein Grundlagen-Tutorial zu dem Meta-Framework finden Sie hier. Eine Webanwendung mit Astro entwickeln Ein neues Projekt aufzusetzen, gestaltet sich dank Astros Befehlszeilen-Tool denkbar einfach: $ npm create astro@latest astro-svelte-react In diesem Fall können Sie alle Standardeinstellungen akzeptieren. Weiterführende Informationen zum Setup-Prozess von Astro hält die Dokumentation bereit. Im nächsten Schritt wechseln wir in das neue Verzeichnis und fügen React und Svelte als Integrationen hinzu. Dieser werden in astro.config.mjs hinzugefügt: $ npx astro add react $ npx astro add svelte Basierend auf diesen überschaubaren Schritten hat Astro bereits eine Landingpage unter src/pages/index.astro erstellt. Wenn Sie einen Blick darauf werfen möchten, führen Sie die App im Development-Mode aus: $ npx astro dev Nun können wir damit loslegen, Anwendungscode zu schreiben. Wir starten mit zwei einfachen Komponenten in React und Svelte. Diese können mit Astro im Komponenten-Verzeichnis unter Verwendung ihrer nativen Dateitypen ohne Einschränkung vermischt und angepasst werden. Im ersten Schritt kümmern wir uns um eine Svelte-Counter-Komponente, die sich im components-Verzeichnis befindet: // src/components/SvelteCounter.svelte Count: {count} Increment Hierbei handelt es sich um standardmäßigen Svelte-Code, der einen simplen Counter realisiert, dessen Wert sich bei einem Klick erhöht. Das script-Element enthält den JavaScript- und Markup-Code mit unserem View Template und ermöglicht Zugriff auf die Variablen und Funktionen, die wir innerhalb des Skripts erstellt haben. Dieselbe Vorgehensweise lässt sich auf die React-Komponente anwenden: // src/components/ReactCounter.jsx import { useState } from ‘react’; export default function Counter() { const [count, setCount] = useState(0); return ( Count: {count} setCount(count + 1)}>Increment ); } Die funktionale React-Komponente enthält einen Wert in useState und nutzt diesen, um eine Schaltfläche in JSX darzustellen. Wie eben bei Svelte erhöht sich auch hier der Wert, wenn der Button geklickt wird. Im nächsten Schritt führen wir die beiden Komponenten nun zusammen, indem wir src/pages/index.astro aktualisieren: — import ReactCounter from ‘../components/ReactCounter.jsx’; import SvelteCounter from ‘../components/SvelteCounter.svelte’; — Astro.js Demo Welcome to the InfoWorld Astro.js, Svelte, React Demo! React Counter Svelte Counter Die Syntax von Astro bringt —-Token (auch Script Fences genannt) zum Einsatz, um Code-Abschnitte zu kennzeichnen. Im View Template, das aus HTML besteht und Zugriff auf Komponenten und Code über spezielle Syntax-Erweiterungen bietet,  erstellen wir nun eine einfache Seite. Der für unsere Zwecke wichtigste Part sind dabei die beiden Komponentenreferenzen: Wenn wir die Seite nun besuchen, präsentieren sich unsere Komponenten Seite an Seite. Das mag nicht besonders beeindruckend erscheinen, ist aber auf technischer Ebene ein Wunderwerk. Schließlich stellen Svelte und React zwei völlig unterschiedliche Welten dar, die durch Astro nahtlos zusammengeführt werden. Wie reibungslos der gesamte Prozess dabei abläuft, ist besonders bemerkenswert. Falls Sie sich jetzt fragen, wie all das in der Praxis anwendbar ist: Stellen Sie sich vor, Sie haben bisher React verwendet, sich dann aber in Svelte verguckt – oder umgekehrt. Falls Sie für Ihre existierende Applikation das Framework wechseln möchten, fungiert Astro als eine Art „Superkraft“, wenn es darum geht, zu evaluieren, Prototypen zu erstellen und Anwendungen zu migrieren.   Noch wichtiger ist vielleicht die Fähigkeit von Astro, eine Vielzahl von Tools in einem gemeinsamen System zusammenzufassen. Im Astro-Universum werden Svelte und React wie Plugins behandelt. Client Directives Sie haben vielleicht die client:load-Attribute im obigen Codebeispiel bemerkt. Hierbei handelt es sich um Astro-Directives, mit dem sich das Verhalten der App auf verschiedene Arten feinabstimmen lässt. In diesem Fall teilt das Attribut der Engine mit, wann die Frontend-Komponente „bewässert“ werden soll – nämlich, sobald die Seite geladen wird. Astro ist im Grunde ein serverseitiges Framework – standardmäßig wird in Code-Klammern identifiziertes JavaScript entfernt. Im Wesentlichen will Astro alles auf dem Server rendern und den Clients ein vereinheitlichtes, optimiertes HTML-Only-Paket liefern. Weitere Informationen zu Client Directives finden Sie hier. Astros variabler Scope Wenn Sie Frontend-Interaktivität benötigen, können Sie diese wie wir mit einem Reactive-Framework oder mit Vanilla-JavaScript einrichten. In beiden Fällen arbeitet Astro Server-seitig. Das unterstreicht ein Blick auf den Support für Variablen, die in die HTML-Vorlagen eingefügt werden können. Ein Startwert in index.astro lässt sich zum Beispiel wie folgt erstellen: — import ReactCounter from ‘../components/ReactCounter.jsx’; import SvelteCounter from ‘../components/SvelteCounter.svelte’; const startingValue = Math.floor(Math.random() * 100); — // … This is on the server: {startingValue} Das sorgt dafür, dass der Zufallswert, der auf dem Server generiert wurde, auf der Client-Seite angezeigt wird. Würden wir diesen Wert auf dem Client verwenden wollen, könnten wir ihn als Parameter an die Komponenten übergeben. Dass die Svelte-Komponente einen Parameter akzeptiert, ließe sich wie folgt bewerkstelligen: Count: {count} Increment Beachten Sie im obenstehenden Code die Export-Syntax let startingValue. Das ist der Svelte-Jargon dafür, einen Übergabe-Parameter für das übergeordnete Element freizugeben. Um das auf der Indexseite zu nutzen, gehen Sie folgendermaßen vor: Auf identische Weise verfahren wir mit der React-Komponente: // index.astro // ReactCounter.jsx import { useState } from ‘react’; export default function Counter(props) { const [count, setCount] = useState(props.startingValue); return ( Count: {count} setCount(count + 1)}>Increment ); } React nutzt das erste Argument der Funktionskomponente, um eingehende Eigenschaften zu verarbeiten. Die einfache Anordnung von Astro hat es in sich: Angenommen, wir möchten unseren startingValue von einem Remote-Server abrufen. Das können wir ganz einfach tun, während er dennoch auf dem Server bleibt. Und zwar so: — import ReactCounter from ‘../components/ReactCounter.jsx’; import SvelteCounter from ‘../components/SvelteCounter.svelte’; const response = await fetch(‘https://www.random.org/integers/?num=1&min=0&max=100&col=1&base=10&format=plain’); const startingValue = await response.text(); — This is on the server from a remote API: {startingValue} Natürlich spricht auch nichts dagegen, eine konventionelle fetch-Anweisung innerhalb des Svelte- oder React-Codes zu verwenden, um den Wert aus einem Client-seitigen API-Call zu erhalten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Astro-Tutorial: Plug & Play-Webentwicklung​ Astro verbindet Welten.Jurik Peter | shutterstock.com

Astro ist ein JavaScript-Meta-Framework, das Reactive-View-Technologien wie React und Svelte orchestriert. Von anderen Meta-Frameworks wie Next.js und Remix hebt sich Astro dabei dadurch ab, dass es eine Vielzahl von Reactive-Funktionen und -Komponenten in einer leistungsstarken Meta-Umgebung zusammenbringt.

Dabei generiert Astro sämtlichen statischen Content (insofern möglich) auf dem Server und isoliert Reactive-Komponenten auf „Inseln“. Die statischen Inhalte sind SEO-freundlich und ohne JavaScript verpackt – die reaktiven Komponenten so optimiert, dass sie nur den JavaScript-Code senden, der erforderlich ist. Das Ergebnis ist ein optimiertes und strukturiertes Frontend, das das Beste aus beiden Welten vereint.

In diesem Artikel entwickeln wir eine einfache Beispiel-Applikation mit Astro, die React und Svelte zusammenführt. Ein Grundlagen-Tutorial zu dem Meta-Framework finden Sie hier.

Eine Webanwendung mit Astro entwickeln

Ein neues Projekt aufzusetzen, gestaltet sich dank Astros Befehlszeilen-Tool denkbar einfach:

$ npm create astro@latest astro-svelte-react

In diesem Fall können Sie alle Standardeinstellungen akzeptieren. Weiterführende Informationen zum Setup-Prozess von Astro hält die Dokumentation bereit.

Im nächsten Schritt wechseln wir in das neue Verzeichnis und fügen React und Svelte als Integrationen hinzu. Dieser werden in astro.config.mjs hinzugefügt:

$ npx astro add react
$ npx astro add svelte

Basierend auf diesen überschaubaren Schritten hat Astro bereits eine Landingpage unter src/pages/index.astro erstellt. Wenn Sie einen Blick darauf werfen möchten, führen Sie die App im Development-Mode aus:

$ npx astro dev

Nun können wir damit loslegen, Anwendungscode zu schreiben. Wir starten mit zwei einfachen Komponenten in React und Svelte. Diese können mit Astro im Komponenten-Verzeichnis unter Verwendung ihrer nativen Dateitypen ohne Einschränkung vermischt und angepasst werden.

Im ersten Schritt kümmern wir uns um eine Svelte-Counter-Komponente, die sich im components-Verzeichnis befindet:

// src/components/SvelteCounter.svelte

Count: {count}
Increment

Hierbei handelt es sich um standardmäßigen Svelte-Code, der einen simplen Counter realisiert, dessen Wert sich bei einem Klick erhöht. Das script-Element enthält den JavaScript- und Markup-Code mit unserem View Template und ermöglicht Zugriff auf die Variablen und Funktionen, die wir innerhalb des Skripts erstellt haben.

Dieselbe Vorgehensweise lässt sich auf die React-Komponente anwenden:

// src/components/ReactCounter.jsx
import { useState } from ‘react’;

export default function Counter() {
const [count, setCount] = useState(0);

return (

Count: {count}
setCount(count + 1)}>Increment

);
}

Die funktionale React-Komponente enthält einen Wert in useState und nutzt diesen, um eine Schaltfläche in JSX darzustellen. Wie eben bei Svelte erhöht sich auch hier der Wert, wenn der Button geklickt wird.

Im nächsten Schritt führen wir die beiden Komponenten nun zusammen, indem wir src/pages/index.astro aktualisieren:


import ReactCounter from ‘../components/ReactCounter.jsx’;
import SvelteCounter from ‘../components/SvelteCounter.svelte’;

Astro.js Demo

Welcome to the InfoWorld Astro.js, Svelte, React Demo!

React Counter

Svelte Counter

Die Syntax von Astro bringt —-Token (auch Script Fences genannt) zum Einsatz, um Code-Abschnitte zu kennzeichnen.

Im View Template, das aus HTML besteht und Zugriff auf Komponenten und Code über spezielle Syntax-Erweiterungen bietet,  erstellen wir nun eine einfache Seite. Der für unsere Zwecke wichtigste Part sind dabei die beiden Komponentenreferenzen:

Wenn wir die Seite nun besuchen, präsentieren sich unsere Komponenten Seite an Seite. Das mag nicht besonders beeindruckend erscheinen, ist aber auf technischer Ebene ein Wunderwerk. Schließlich stellen Svelte und React zwei völlig unterschiedliche Welten dar, die durch Astro nahtlos zusammengeführt werden. Wie reibungslos der gesamte Prozess dabei abläuft, ist besonders bemerkenswert.

Falls Sie sich jetzt fragen, wie all das in der Praxis anwendbar ist: Stellen Sie sich vor, Sie haben bisher React verwendet, sich dann aber in Svelte verguckt – oder umgekehrt. Falls Sie für Ihre existierende Applikation das Framework wechseln möchten, fungiert Astro als eine Art „Superkraft“, wenn es darum geht, zu evaluieren, Prototypen zu erstellen und Anwendungen zu migrieren.  

Noch wichtiger ist vielleicht die Fähigkeit von Astro, eine Vielzahl von Tools in einem gemeinsamen System zusammenzufassen. Im Astro-Universum werden Svelte und React wie Plugins behandelt.

Client Directives

Sie haben vielleicht die client:load-Attribute im obigen Codebeispiel bemerkt. Hierbei handelt es sich um Astro-Directives, mit dem sich das Verhalten der App auf verschiedene Arten feinabstimmen lässt. In diesem Fall teilt das Attribut der Engine mit, wann die Frontend-Komponente „bewässert“ werden soll – nämlich, sobald die Seite geladen wird.

Astro ist im Grunde ein serverseitiges Framework – standardmäßig wird in Code-Klammern identifiziertes JavaScript entfernt. Im Wesentlichen will Astro alles auf dem Server rendern und den Clients ein vereinheitlichtes, optimiertes HTML-Only-Paket liefern.

Weitere Informationen zu Client Directives finden Sie hier.

Astros variabler Scope

Wenn Sie Frontend-Interaktivität benötigen, können Sie diese wie wir mit einem Reactive-Framework oder mit Vanilla-JavaScript einrichten. In beiden Fällen arbeitet Astro Server-seitig. Das unterstreicht ein Blick auf den Support für Variablen, die in die HTML-Vorlagen eingefügt werden können. Ein Startwert in index.astro lässt sich zum Beispiel wie folgt erstellen:


import ReactCounter from ‘../components/ReactCounter.jsx’;
import SvelteCounter from ‘../components/SvelteCounter.svelte’;

const startingValue = Math.floor(Math.random() * 100);

// …
This is on the server: {startingValue}

Das sorgt dafür, dass der Zufallswert, der auf dem Server generiert wurde, auf der Client-Seite angezeigt wird. Würden wir diesen Wert auf dem Client verwenden wollen, könnten wir ihn als Parameter an die Komponenten übergeben. Dass die Svelte-Komponente einen Parameter akzeptiert, ließe sich wie folgt bewerkstelligen:

Count: {count}
Increment

Beachten Sie im obenstehenden Code die Export-Syntax let startingValue. Das ist der Svelte-Jargon dafür, einen Übergabe-Parameter für das übergeordnete Element freizugeben. Um das auf der Indexseite zu nutzen, gehen Sie folgendermaßen vor:

Auf identische Weise verfahren wir mit der React-Komponente:

// index.astro

// ReactCounter.jsx
import { useState } from ‘react’;

export default function Counter(props) {
const [count, setCount] = useState(props.startingValue);

return (

Count: {count}
setCount(count + 1)}>Increment

);
}

React nutzt das erste Argument der Funktionskomponente, um eingehende Eigenschaften zu verarbeiten.

Die einfache Anordnung von Astro hat es in sich: Angenommen, wir möchten unseren startingValue von einem Remote-Server abrufen. Das können wir ganz einfach tun, während er dennoch auf dem Server bleibt. Und zwar so:


import ReactCounter from ‘../components/ReactCounter.jsx’;
import SvelteCounter from ‘../components/SvelteCounter.svelte’;

const response = await fetch(‘https://www.random.org/integers/?num=1&min=0&max=100&col=1&base=10&format=plain’);
const startingValue = await response.text();

This is on the server from a remote API: {startingValue}

Natürlich spricht auch nichts dagegen, eine konventionelle fetch-Anweisung innerhalb des Svelte- oder React-Codes zu verwenden, um den Wert aus einem Client-seitigen API-Call zu erhalten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Astro-Tutorial: Plug & Play-Webentwicklung​ Weiterlesen »

Awareness schlägt AI-Wettrüsten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>(Generative) Künstliche Intelligenz nutzt aktuell primär den Angreifern – und zwingt Unternehmen zu noch mehr Aufmerksamkeit. Toey Andante/Shutterstock Das letzte “Das-Verändert-Wirklich-Alles”-Ereignis ist noch gar nicht so lange her, klingt in diesen Zeiten aber schon fast nostalgisch: Als das chinesische Startup DeepSeek Anfang des Jahres ihre generative KI “R1” vorstellte, war beim Blick hinter die branchentypischen Superlative schnell klar, dass die Innovationsgeschwindigkeit auch nüchtern betrachtet noch einmal zunehmen wird. Insbesondere die Aussicht, deutlich weniger Ressourcen für KI aufzuwenden, hat die Fantasie trotz vieler offener Fragen beflügelt – die Fantasie von Unternehmen genauso wie die der Cyberkriminellen. Mario Jandeck, Enginsight: “Gesetzliche Regulatorik wie NIS 2 hilft schon, vor allem als interne Argumentationshilfe. Noch wirksamer ist aber die Selbstregulatorik des Marktes, beispielsweise im Rahmen von Lieferketten.”www.susannnuernberger.net/Enginsight GmbH Durch die niedrigen Zugangshürden (entweder als Service oder gleich in Form von Open Source) ist Generative AI für jeden verfügbar, ungeachtet der kommerziellen, nicht-kommerziellen oder eben auch betrügerischen Absichten.Im Gegenteil: Die Angreiferseite hat sogar einen systemischen Vorteil namens “Trial and Error”. Cyberkriminelle sind in der komfortablen Position, einfach mal ausprobieren zu können, während in der Security niemand auf die Idee käme, einfach mal zu testen. Diese Asymmetrie anzuerkennen, macht für Christof Klaus vom Security-Dienstleister Myra den Kern der KI-Debatte in der IT-Sicherheit: “Unternehmen müssen in Bezug auf KI alle möglichen Angriffsvektoren identifizieren und absichern. Angreifer hingegen müssen nur eine einzige Schwachstelle finden. Daraus ergeben sich sehr deutliche Unterschiede in der Herangehensweise beim Einsatz neuer Technologien wie KI.” Andreas Hedderich, microfin: “Architektur und Tooling müssen sauber aufgebaut sein. Ist das nicht der Fall, entstehen Lücken, die mit AI auch viel schneller erkannt und ausgenutzt werden können. Gen AI bringt hier einen weiteren Layer rein, sowohl auf Angreifer- als auch auf Verteidigerseite.”microfin Unternehmensberatung GmbH Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” Angriffe werden zielgenauer und schneller Der Durchbruch von generativer AI hat laut Experten des Computerwoche-Roundtables “Generative AI in der Security” nicht zu einer fundamental neuen Bedrohungslage geführt. Gestärkt werden durch Sprachmodelle wie ChatGPT besonders altbekannte Vorgehensweisen, allen voran das Phishing. “Phishing ist heute eher ‘Spear Phishing’”, konstatiert Paul Schussmann von SecAttack, “weil es dank generativer KI auf das Ziel maßgeschneidert wird. Ich kann mit ChatGPT und Co. einfach viel mehr Informationen verarbeiten und dadurch zum Beispiel viel bessere und vor allem mehr zugeschnittene E-Mails generieren.” Malte Vollandt, Logicalis: „Sobald eine Phishing-Mail Geld oder Gehalt erwähnt, klicken die meisten, ohne nachzudenken. Emotionen schlagen Vorsicht.“Logicalis GmbH Will die Verteidigerseite auf diese Bedrohung reagieren, kann sie sich nicht einfach derselben Methoden bedienen. Large Language Models wie ChatGPT können vor allem generieren, aber die Erkennung und vor allem die Reaktion auf Bedrohungslagen gehört nicht zu ihren Stärken. “Generative KI wird in der Security beim Schutz fast gar nicht eingesetzt”, betont Paul Schussmann von MimeCast. “In der Verteidigung dieser “digitalen Enkeltricks” kommen andere KI Technologien zum Tragen, allen voran Machine Learning und Sprach-Analyse auf Detection- und Response-Ebene.” Um die systemischen Nachteile der Verteidigerseite auszugleichen, rät Malte Vollandt von Logicalis, auch unkonventionelle Vorgehensweisen in den Blick zu nehmen: „Die Zeitspanne zwischen der Entdeckung einer Sicherheitslücke und ihrer aktiven Ausnutzung hat sich durch AI von Tagen auf Minuten verkürzt. Das Kernproblem bleibt: Die Verteidiger müssen sich an Regeln halten, die Angreifer jedoch nicht. Daraus müssen wir lernen – und Red Teaming als kontinuierlichen Bestandteil der Sicherheitsstrategie etablieren, statt es als punktuelle Übung zu betrachten.“ Christof Klaus, Myra Security: “KI-Systeme müssen in ein Netzwerk von Alarmsystemen integriert werden und dürfen keine unkontrollierten autonomen Entscheidungen treffen. KI ist ein Echtzeit-Analysewerkzeug und muss in kontrollierte Prozesse integriert werden. Eine Technologie wie KI darf nicht allein entscheiden, ob ein Signal korrekt ist oder nicht. Sie kann nur Teil einer Kette sein.”Myra Security Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Red Teaming auf dem Vormarsch Dem “Red Teaming” – oder “ethischen Hacking” – fällt in einer KI-dominierten Zukunft eine Schlüsselrolle zu. Die Verteidigerseite erhält dadurch neue Möglichkeiten, indem sie die Perspektive wechselt und die Rolle des Angreifers einnimmt. Die IT “attackiert” ihre eigenen Systeme und kann so Schwachstellen identifizieren und Gegenmaßnahmen einleiten. Das ermöglicht eine proaktive Sicherheitsstrategie, in der Schwachstellen erkannt und behoben werden, bevor echte Angreifer sie ausnutzen. 2025: Das Jahr der Agents? Ein bedeutender Trend, der sowohl Angreifer als auch Verteidiger im Jahr 2025 beeinflussen wird, ist der Aufstieg der sogenannten AI Agents. Diese Systeme werden lokal auf jedem Endgerät installiert und gehen weit über traditionelle Automatisierung hinaus, indem sie nicht nur auf Befehle reagieren, sondern auch eigenständig KI-basiert Schlussfolgerungen ziehen, sich an frühere Interaktionen erinnern und Aktionen ausführen. Paul Schussmann, SecAttack: “Phishing ist heute “Spear Phishing”, weil es dank Gen AI auf das Ziel maßgeschneidert wird. Ich kann mit Chat GPT und Co. einfach viel mehr Informationen verarbeiten und dadurch z.B. viel besser mehrere zugeschnittene E-Mails generieren.”Paul Schussmann, Secattack Führende Technologieunternehmen wie zum Beispiel Google mit seinem Projekt “Mariner” investieren Milliardenbeträge in die Entwicklung solcher Agents. Laut Daniel Schormann von Reply wird das Jahr 2025 sogar das „Jahr der KI-Agents“ sein, in dem ein „Wettrüsten von KI gegen KI“ stattfinden wird. Angreifer- und Verteidigerseite werden demnach immer mehr Ressourcen aufwenden, um Sicherheitslücken zu identifizieren oder eben zu schließen. Im Bereich der IT-Security könnten AI Agents beispielsweise dazu genutzt werden, Bedrohungen in Echtzeit zu erkennen und automatisierte Gegenmaßnahmen einzuleiten. „KI-Agents sorgen dafür, dass sich Daten schneller analysieren lassen”, so Schormann. “Menschliche Arbeit wird dadurch einfacher, jedoch erfordert es weiterhin eine gezielte Steuerung durch die Anwender.“ Daniel Schormann, Spike Reply: “Phishing-Angriffe nehmen weiter zu und sind nahezu fehlerfrei – diese können von extern, aber auch von eigenen Mitarbeitern kommen. Die erste Reaktion darauf muss die Förderung eines gesunden Misstrauens bei den eigenen Mitarbeitern sein.”Spike Reply Der größte Nachteil von Agent-basierten Sicherheitslösungen ist allerdings ihr hoher Verwaltungsaufwand. Sie müssen auf jedem Endgerät installiert, regelmäßig aktualisiert und gewartet werden, was in großen oder dynamischen IT-Umgebungen zu einem erheblichen Mehraufwand führt. Zudem können Agents Systemressourcen belasten und die Performance beeinträchtigen. In manchen Fällen stellen sie sogar selbst ein Sicherheitsrisiko dar, etwa wenn sie Schwachstellen enthalten oder von Angreifern manipuliert werden. Auch die Kompatibilität kann ein Problem sein, insbesondere bei heterogenen IT-Landschaften oder cloudbasierten Infrastrukturen, wo Agenten nicht immer unterstützt werden. In solchen Fällen sind “Agentless”-Ansätze eine weitere Option, die ohne lokal installierte Software-Agenten auskommen und stattdessen APIs oder Cloud-native Funktionen nutzt. Das vereinfacht die Implementierung und Wartung, reduziert die Systembelastung und ermöglicht eine breitere Abdeckung, etwa für Cloud-Umgebungen oder IoT-Geräte. Da keine Agents auf Endgeräten laufen, ist die Lösung weniger anfällig für Manipulation und kann Bedrohungen in Echtzeit erkennen sowie Gegenmaßnahmen einleiten. Besonders für dynamische IT-Infrastrukturen bietet Agentless Security damit eine flexible, skalierbare und effiziente Schutzlösung. Security ist auch eine Mindset-Frage Trotz einer gewissen Aufrüstung und der dringend notwendigen Schließung von Bedrohungslücken durch Nutzung von künstlicher Intelligenz bleibt die Befolgung der Grundprinzipien funktionierender Security nach wie vor die wichtigste Tugend. Die Experten sind sich weitgehend einig, dass ein gesundes Misstrauen beziehungsweise. das Mindset, jederzeit angegriffen werden zu können, noch immer den wichtigsten Schutz darstellt. Andreas Bahr, OpenText: “KI-gestützte Cybersicherheit hilft dabei, Bedrohungen in Echtzeit zu erkennen und abzuwehren. Doch Technologie allein reicht nicht – geschulte Mitarbeiter mit einer Heads-up-Mentalität sind die erste Verteidigungslinie gegen Ransomware.”OpenText Schon zu viel Ruhe im System kann darauf hindeuten, dass bereits ein Angriff erfolgt ist, wie Mario Jandeck von Enginsight betont: “KI hilft, potenziell gefährliche Daten zu klassifizieren. Was aber, wenn diese KI auch kompromittiert wird?” Sieht man sich außerdem die Realität in deutschen Unternehmen an, sind große technologische Antworten auf Bedrohungslagen für ihn vor allem mittelfristig keine Option: “Im Mittelstand arbeiten zwei Kollegen in der IT-Abteilung, die die Security ‘irgendwie mitmachen’. Da ist dann ein Antiviren-Agent und eine Firewall in Betrieb und das war es. Dort stehen weder die nötigen Ressourcen bereit, noch gibt es genug Dienstleister, um ein angemessenes Niveau zu erreichen.” Detection- und Response-Technologien mögen also helfen, die Folgen einer (Spear-)Fishing-Attacke zu begrenzen, noch effektiver sind aber kritisch denkende Mitarbeiter, die gar nicht erst auf den Link einer Betrugsmail klicken oder eine Datei herunterladen. Am Ende lässt sich die Strategie deswegen auch in einer KI-dominierten Welt auf zwei bewährte Faktoren reduzieren: Awareness unter den Mitarbeitern – und das “gute, alte” Zero Trust. Alexander Peters, Mimecast: “In diesem Bereich tut sich aber viel. Man denke nur an die Erkennung von Deepfakes beim “Voice Phishing”, wenn es darum geht, bestimmte Phrasen, Begriffe und Muster zu erkennen.”Mimecast Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” 

Awareness schlägt AI-Wettrüsten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>(Generative) Künstliche Intelligenz nutzt aktuell primär den Angreifern – und zwingt Unternehmen zu noch mehr Aufmerksamkeit. Toey Andante/Shutterstock

Das letzte “Das-Verändert-Wirklich-Alles”-Ereignis ist noch gar nicht so lange her, klingt in diesen Zeiten aber schon fast nostalgisch: Als das chinesische Startup DeepSeek Anfang des Jahres ihre generative KI “R1” vorstellte, war beim Blick hinter die branchentypischen Superlative schnell klar, dass die Innovationsgeschwindigkeit auch nüchtern betrachtet noch einmal zunehmen wird. Insbesondere die Aussicht, deutlich weniger Ressourcen für KI aufzuwenden, hat die Fantasie trotz vieler offener Fragen beflügelt – die Fantasie von Unternehmen genauso wie die der Cyberkriminellen.

Mario Jandeck, Enginsight: “Gesetzliche Regulatorik wie NIS 2 hilft schon, vor allem als interne Argumentationshilfe. Noch wirksamer ist aber die Selbstregulatorik des Marktes, beispielsweise im Rahmen von Lieferketten.”www.susannnuernberger.net/Enginsight GmbH

Durch die niedrigen Zugangshürden (entweder als Service oder gleich in Form von Open Source) ist Generative AI für jeden verfügbar, ungeachtet der kommerziellen, nicht-kommerziellen oder eben auch betrügerischen Absichten.Im Gegenteil: Die Angreiferseite hat sogar einen systemischen Vorteil namens “Trial and Error”. Cyberkriminelle sind in der komfortablen Position, einfach mal ausprobieren zu können, während in der Security niemand auf die Idee käme, einfach mal zu testen.

Diese Asymmetrie anzuerkennen, macht für Christof Klaus vom Security-Dienstleister Myra den Kern der KI-Debatte in der IT-Sicherheit: “Unternehmen müssen in Bezug auf KI alle möglichen Angriffsvektoren identifizieren und absichern. Angreifer hingegen müssen nur eine einzige Schwachstelle finden. Daraus ergeben sich sehr deutliche Unterschiede in der Herangehensweise beim Einsatz neuer Technologien wie KI.”

Andreas Hedderich, microfin: “Architektur und Tooling müssen sauber aufgebaut sein. Ist das nicht der Fall, entstehen Lücken, die mit AI auch viel schneller erkannt und ausgenutzt werden können. Gen AI bringt hier einen weiteren Layer rein, sowohl auf Angreifer- als auch auf Verteidigerseite.”microfin Unternehmensberatung GmbH

Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025”

Angriffe werden zielgenauer und schneller

Der Durchbruch von generativer AI hat laut Experten des Computerwoche-Roundtables “Generative AI in der Security” nicht zu einer fundamental neuen Bedrohungslage geführt. Gestärkt werden durch Sprachmodelle wie ChatGPT besonders altbekannte Vorgehensweisen, allen voran das Phishing.

“Phishing ist heute eher ‘Spear Phishing’”, konstatiert Paul Schussmann von SecAttack, “weil es dank generativer KI auf das Ziel maßgeschneidert wird. Ich kann mit ChatGPT und Co. einfach viel mehr Informationen verarbeiten und dadurch zum Beispiel viel bessere und vor allem mehr zugeschnittene E-Mails generieren.”

Malte Vollandt, Logicalis: „Sobald eine Phishing-Mail Geld oder Gehalt erwähnt, klicken die meisten, ohne nachzudenken. Emotionen schlagen Vorsicht.“Logicalis GmbH

Will die Verteidigerseite auf diese Bedrohung reagieren, kann sie sich nicht einfach derselben Methoden bedienen. Large Language Models wie ChatGPT können vor allem generieren, aber die Erkennung und vor allem die Reaktion auf Bedrohungslagen gehört nicht zu ihren Stärken.

“Generative KI wird in der Security beim Schutz fast gar nicht eingesetzt”, betont Paul Schussmann von MimeCast. “In der Verteidigung dieser “digitalen Enkeltricks” kommen andere KI Technologien zum Tragen, allen voran Machine Learning und Sprach-Analyse auf Detection- und Response-Ebene.”

Um die systemischen Nachteile der Verteidigerseite auszugleichen, rät Malte Vollandt von Logicalis, auch unkonventionelle Vorgehensweisen in den Blick zu nehmen: „Die Zeitspanne zwischen der Entdeckung einer Sicherheitslücke und ihrer aktiven Ausnutzung hat sich durch AI von Tagen auf Minuten verkürzt. Das Kernproblem bleibt: Die Verteidiger müssen sich an Regeln halten, die Angreifer jedoch nicht. Daraus müssen wir lernen – und Red Teaming als kontinuierlichen Bestandteil der Sicherheitsstrategie etablieren, statt es als punktuelle Übung zu betrachten.“

Christof Klaus, Myra Security: “KI-Systeme müssen in ein Netzwerk von Alarmsystemen integriert werden und dürfen keine unkontrollierten autonomen Entscheidungen treffen. KI ist ein Echtzeit-Analysewerkzeug und muss in kontrollierte Prozesse integriert werden. Eine Technologie wie KI darf nicht allein entscheiden, ob ein Signal korrekt ist oder nicht. Sie kann nur Teil einer Kette sein.”Myra Security

Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Red Teaming auf dem Vormarsch

Dem “Red Teaming” – oder “ethischen Hacking” – fällt in einer KI-dominierten Zukunft eine Schlüsselrolle zu. Die Verteidigerseite erhält dadurch neue Möglichkeiten, indem sie die Perspektive wechselt und die Rolle des Angreifers einnimmt. Die IT “attackiert” ihre eigenen Systeme und kann so Schwachstellen identifizieren und Gegenmaßnahmen einleiten. Das ermöglicht eine proaktive Sicherheitsstrategie, in der Schwachstellen erkannt und behoben werden, bevor echte Angreifer sie ausnutzen.

2025: Das Jahr der Agents?

Ein bedeutender Trend, der sowohl Angreifer als auch Verteidiger im Jahr 2025 beeinflussen wird, ist der Aufstieg der sogenannten AI Agents. Diese Systeme werden lokal auf jedem Endgerät installiert und gehen weit über traditionelle Automatisierung hinaus, indem sie nicht nur auf Befehle reagieren, sondern auch eigenständig KI-basiert Schlussfolgerungen ziehen, sich an frühere Interaktionen erinnern und Aktionen ausführen.

Paul Schussmann, SecAttack: “Phishing ist heute “Spear Phishing”, weil es dank Gen AI auf das Ziel maßgeschneidert wird. Ich kann mit Chat GPT und Co. einfach viel mehr Informationen verarbeiten und dadurch z.B. viel besser mehrere zugeschnittene E-Mails generieren.”Paul Schussmann, Secattack

Führende Technologieunternehmen wie zum Beispiel Google mit seinem Projekt “Mariner” investieren Milliardenbeträge in die Entwicklung solcher Agents. Laut Daniel Schormann von Reply wird das Jahr 2025 sogar das „Jahr der KI-Agents“ sein, in dem ein „Wettrüsten von KI gegen KI“ stattfinden wird. Angreifer- und Verteidigerseite werden demnach immer mehr Ressourcen aufwenden, um Sicherheitslücken zu identifizieren oder eben zu schließen.

Im Bereich der IT-Security könnten AI Agents beispielsweise dazu genutzt werden, Bedrohungen in Echtzeit zu erkennen und automatisierte Gegenmaßnahmen einzuleiten. „KI-Agents sorgen dafür, dass sich Daten schneller analysieren lassen”, so Schormann. “Menschliche Arbeit wird dadurch einfacher, jedoch erfordert es weiterhin eine gezielte Steuerung durch die Anwender.“

Daniel Schormann, Spike Reply: “Phishing-Angriffe nehmen weiter zu und sind nahezu fehlerfrei – diese können von extern, aber auch von eigenen Mitarbeitern kommen. Die erste Reaktion darauf muss die Förderung eines gesunden Misstrauens bei den eigenen Mitarbeitern sein.”Spike Reply

Der größte Nachteil von Agent-basierten Sicherheitslösungen ist allerdings ihr hoher Verwaltungsaufwand. Sie müssen auf jedem Endgerät installiert, regelmäßig aktualisiert und gewartet werden, was in großen oder dynamischen IT-Umgebungen zu einem erheblichen Mehraufwand führt. Zudem können Agents Systemressourcen belasten und die Performance beeinträchtigen. In manchen Fällen stellen sie sogar selbst ein Sicherheitsrisiko dar, etwa wenn sie Schwachstellen enthalten oder von Angreifern manipuliert werden. Auch die Kompatibilität kann ein Problem sein, insbesondere bei heterogenen IT-Landschaften oder cloudbasierten Infrastrukturen, wo Agenten nicht immer unterstützt werden.

In solchen Fällen sind “Agentless”-Ansätze eine weitere Option, die ohne lokal installierte Software-Agenten auskommen und stattdessen APIs oder Cloud-native Funktionen nutzt. Das vereinfacht die Implementierung und Wartung, reduziert die Systembelastung und ermöglicht eine breitere Abdeckung, etwa für Cloud-Umgebungen oder IoT-Geräte. Da keine Agents auf Endgeräten laufen, ist die Lösung weniger anfällig für Manipulation und kann Bedrohungen in Echtzeit erkennen sowie Gegenmaßnahmen einleiten. Besonders für dynamische IT-Infrastrukturen bietet Agentless Security damit eine flexible, skalierbare und effiziente Schutzlösung.

Security ist auch eine Mindset-Frage

Trotz einer gewissen Aufrüstung und der dringend notwendigen Schließung von Bedrohungslücken durch Nutzung von künstlicher Intelligenz bleibt die Befolgung der Grundprinzipien funktionierender Security nach wie vor die wichtigste Tugend. Die Experten sind sich weitgehend einig, dass ein gesundes Misstrauen beziehungsweise. das Mindset, jederzeit angegriffen werden zu können, noch immer den wichtigsten Schutz darstellt.

Andreas Bahr, OpenText: “KI-gestützte Cybersicherheit hilft dabei, Bedrohungen in Echtzeit zu erkennen und abzuwehren. Doch Technologie allein reicht nicht – geschulte Mitarbeiter mit einer Heads-up-Mentalität sind die erste Verteidigungslinie gegen Ransomware.”OpenText

Schon zu viel Ruhe im System kann darauf hindeuten, dass bereits ein Angriff erfolgt ist, wie Mario Jandeck von Enginsight betont: “KI hilft, potenziell gefährliche Daten zu klassifizieren. Was aber, wenn diese KI auch kompromittiert wird?” Sieht man sich außerdem die Realität in deutschen Unternehmen an, sind große technologische Antworten auf Bedrohungslagen für ihn vor allem mittelfristig keine Option: “Im Mittelstand arbeiten zwei Kollegen in der IT-Abteilung, die die Security ‘irgendwie mitmachen’. Da ist dann ein Antiviren-Agent und eine Firewall in Betrieb und das war es. Dort stehen weder die nötigen Ressourcen bereit, noch gibt es genug Dienstleister, um ein angemessenes Niveau zu erreichen.”

Detection- und Response-Technologien mögen also helfen, die Folgen einer (Spear-)Fishing-Attacke zu begrenzen, noch effektiver sind aber kritisch denkende Mitarbeiter, die gar nicht erst auf den Link einer Betrugsmail klicken oder eine Datei herunterladen. Am Ende lässt sich die Strategie deswegen auch in einer KI-dominierten Welt auf zwei bewährte Faktoren reduzieren: Awareness unter den Mitarbeitern – und das “gute, alte” Zero Trust.

Alexander Peters, Mimecast: “In diesem Bereich tut sich aber viel. Man denke nur an die Erkennung von Deepfakes beim “Voice Phishing”, wenn es darum geht, bestimmte Phrasen, Begriffe und Muster zu erkennen.”Mimecast

Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025”

Awareness schlägt AI-Wettrüsten​ Weiterlesen »

Von der Laberrunde zur effektiven Besprechung: 5 Minuten, die Ihr Team-Meeting zum Erfolg machen​

Allgemein

“Du hattest Glück, gestern ging unsere Bereichsleiterbesprechung nur bis 22 Uhr. Die Male zuvor war es fast Mitternacht.“, berichtet mir eine Führungskraft eines Unternehmens. Ich hatte als Berater diese Besprechung beobachtet und ab 18 Uhr daran teilgenommen.Dabei sah anfangs alles ganz gut aus: Es gab eine Agenda, es wurde ein Schriftführer bestimmt, es gab sogar einen Moderator. Doch schon nach wenigen Minuten kamen während des ersten Agendapunkts zwar sehr gute, aber gar nicht zum Thema passende zusätzliche Diskussionen auf. Dann wurden Themen, die laut Agenda erst später kommen sollten, schon früher angesprochen und erörtert. Der Versuch, diese Diskussionen mit einem “Dazu kommen wir später noch” zu verschieben, scheiterte. Auch wurde teilweise in tiefste Details abgetaucht, während andere Themen nur oberflächlich berührt wurden.Vor allem war oft unklar, ob jetzt eigentlich eine Entscheidung getroffen wurde oder nicht. Hatte jemand eine Aufgabe bekommen? Das blieb undefiniert. Und wenn, dann war offen, was von demjenigen denn ganz konkret erwartet würde.Das Feedback der Teilnehmer hilft dabei, Meetings effektiver zu gestalten. Foto: wavebreakmedia – shutterstock.comDer Rahmen stimmt und trotzdem wird das Meeting zur LaberrundeIrgendwie war jeder unzufrieden über den Ablauf. Aber man freute sich darüber, die Kollegen einmal im Monat wieder zu sehen. Schließlich sind die Bereichsleiter ansonsten immer an unterschiedlichen Standorten im Einsatz und treffen sich außerhalb dieses monatlichen Meetings kaum. Der gesellige Teil war ein Erfolg, nur das Meeting selbst war nicht effektiv.Jeder meckerte, aber keiner übernahm die Initiative etwas am Ablauf des Meetings zu verändern oder selbst so diszipliniert zu agieren, damit die Agenda auch eingehalten werden konnte. Es fehlte an einem ganz konkreten Feedback aller Beteiligten und einem Treiber, um gemeinsam eine bessere Lösung zu finden.Kennen Sie solche Besprechungen? “Ausschließlich“, sagen Sie? Oh je, Sie sind arm dran.Der Alleinunterhalter kann sich selbst nicht beobachtenSzenenwechsel: Bei einem anderen Kunden ging die Besprechung von 9 – 16 Uhr. Und zu 95 Prozent sprach der Bereichsleiter, während seine Abteilungsleiter zuhörten. Auf der Rückfahrt nach dieser Besprechung fragte mich der Bereichsleiter im Auto, was ich von der Sitzung halten würde, und redete dann noch 20 Minuten weiter. Irgendwann fiel ihm auf, dass ich ja noch gar keine Antwort gegeben hatte und so unterbrach er seinen Redefluß.“Schön, dass ich auch etwas sagen darf.“, war meine Antwort. Mehr war nicht notwendig.Es fiel ihm wie Schuppen von den Augen und ihm wurde klar, warum diese Sitzungen für ihn immer so anstrengend waren. Und warum er so unzufrieden mit seinen Abteilungsleitern war, die er als inaktiv empfand. Er erkannte, dass er sie dazu erzogen hatte, weil er immer alles selbst machte. Der Rest der Autofahrt wurde zu einem Dialog, in dem die Lösung entstand.Was war die Lösung für ein effektives Meeting?1. Es galt herauszufinden, was den Teilnehmern in dieser Besprechung wirklich wichtig ist. Es ging nämlich nicht nur darum, dass der Bereichsleiter sieben Stunden lang Informationen verkündet.2. Anschließend wurden alle Inhalte eliminiert, die man auch per E-Mail kommunizieren konnte und zu denen dann in der Sitzung nur noch Fragen diskutiert wurden – falls es welche gab.3. Die Sitzung wurde zu einer Gemeinschaftsaufgabe, indem einzelne Inhaltsbestandteile an die Teilnehmer übergeben wurden, anstatt alles durch den Bereichsleiter vorkauen zu lassen.Aus Sitzungsteilnehmern Beteiligte machenDas Ergebnis war schon auf der nächsten Sitzung zu sehen und spüren:1. Eine wesentlich produktivere Arbeitsatmosphäre, bei der klare Ergebnisse erzielt werden.2. Jeder Teilnehmer trägt aktiv für 20 Minuten ein Thema vor, wodurch erheblich mehr Interaktivität entsteht. Und auf die Einhaltung der Zeitvorgaben achten alle Teilnehmer, nicht nur der Bereichsleiter.3. Der Bereichsleiter erkennt, welche Potentiale in seinen Mitarbeitern stecken, kann Ideen aufnehmen und deutlich aufmerksamer durch den Tag leiten.4. Die Abteilungsleiter kommen gut vorbereitet in den Termin und tragen ihre Inhalte vor. Sie haben erkannt, dass diese Besprechung zu ihrem eigenen Nutzen ist, also sorgen sie auch dafür, dass die Zeit sinnvoll verwendet wird. Sie haben sogar schon Ideen dabei, was sie auf der übernächsten Sitzung vortragen wollen.5. Es wurde von allen auf absolute Disziplin geachtet. Und dennoch wird auch gelacht – sogar mehr als früher. Aber es gibt keine abschweifenden Diskussionen und kein Abweichen von der Agenda mehr. Weil alle darauf achten. Nur dann funktioniert es!Wie kommen Sie zum perfekten Team-Meeting?Anstatt Vermutungen darüber anzustellen, was an Ihrer Besprechung gut oder verbesserungswürdig ist, was der Inhalt und wer die Teilnehmer sein sollten, führen Sie eine einfache Abfrage unter allen Teilnehmern durch. Am besten senden Sie direkt im Anschluss an Ihren nächsten Termin einen Link mit der Bitte um Feedback an die Teilnehmer. Haken Sie nach, falls zu wenig Antworten kommen.Ich nutze für eine solche Abfrage immer Google Forms, denn die Formulare sind kinderleicht zu erstellen, anzupassen und die Ergebnisse beliebig exportierbar. Ein Beispiel für ein solches Feedback-Formular auf Google zu Ihrem Team-Meeting finden Sie hier: https://goo.gl/forms/a30MRHZ0V8559bZj1Alternativ gibt es das Besprechungs-Feedback-Formular hier auch als PDF: https://www.targetter.de/checklisten/feedback-formular-fuer-effektive-meetings-und-besprechungen/Das Wichtigste bei einem solchen Feedback-Formular1. Maximal 5 Fragen, sonst macht keiner mit, weil es (scheinbar) zu viel Zeit kostet.2. Ein oder zwei Fragen, bei der Sie eine Einschätzung abfragen. Nutzen Sie dafür eine Skala von 1 – 5 oder 1 – 10, wobei der höchste Wert immer für das Optimum steht.3. Weitere drei bis vier konkrete Fragen bzgl. Verbesserungen, Erwartungen und Wünschen.4. Eine der Fragen muss darauf abzielen, den Befragten zu einem Beteiligten zu machen (“Was können Sie tun…“).Und wenn Sie danach feststellen sollten, dass Inhalte “abgewählt” wurden, die Sie persönlich als unglaublich wichtig angesehen haben, dann bedeutet das entweder, dass Sie die Art der Vermittlung drastisch verändern müssen, oder dass das Thema niemand anderen interessiert. Dann lassen Sie es weg.Das Aufsetzen des Formulars kostet Sie nicht mehr als fünf Minuten. Das Ergebnis kann Ihnen Stunden einsparen und vor allem die Motivation und Produktivität Ihrer Mitarbeiter dramatisch verbessern.Blicken wir noch zum ersten Beispiel zurück: Die Umfrage der dortigen Teilnehmer ergab, dass fast alle die Effektivität nur mittelmäßig beurteilten. Und alle gaben zu, dass sie selbst etwas dazu beitragen könnten, diese Effektivität zu steigern. Es gab konkrete Vorschläge zur Verbesserung, die im nächsten Meeting umgesetzt wurden.Feedback muss Routine sein – auch bei BesprechungenProbieren Sie es aus. Aber nicht nur einmal, sondern machen Sie die Bewertung von Besprechungen durch Feedback-Abfragen zur Routine. So und jetzt kopieren Sie am besten mein Google-Formular (https://goo.gl/forms/a30MRHZ0V8559bZj1), passen es gegebenfalls an und senden Sie es nach der nächsten Besprechung an Ihre Teilnehmer. Und nach der nächsten. Und der nächsten …10 Tipps für bessere MeetingsNiemand muss erscheinenMitarbeitern, die sich sichtbar langweilen, sollte für die Zukunft Abstinenz empfohlen werden.Kekse auch weg!Unterernährung ist in deutschen Büros selten. Kekse braucht niemand, die machen nur dick und schläfrig.Kühl und frischIst der Konferenzraum schlecht geheizt, verkürzt sich die Dauer des Meetings spürbar.Klare ModerationKlare Moderation hilft und strafft. Vorne stehen muss dabei aber nicht immer der Chef. Es kann auch eine Praktikantin sein, die sich gerade in das Thema eingearbeitet hat.Kleine GruppenJedes Meeting mit mehr als sieben Menschen gilt als ineffektiv.Zwei Themen sind genugWer fünf Themen ansetzt, lockt potenziell 30 Leute in den Konferenzraum, von denen die meisten nur ein Thema kennen, aber trotzdem zu allen fünf ihren Senf abgeben. Bei der Sache bleibenVon Hölzchen auf Stöckchen zu kommen und wieder zurück, kann amüsant sein, führt aber nirgendwo hin.Auch mal stehen bleibenSchnelle Meetings im kleinen Kreis sollten ohne Stühle stattfinden. Das erhöht die Konzentration, außerdem kann dabei niemand mit seinem Smartphone spielen, ohne krass desinteressiert zu wirken. Smartphones weg!Der Kollegin mal eben den neuen Hund zeigen? Derartigen Quatsch während des Meetings sollte der Moderator schon im Vorfeld unterbinden.Pünktlich vorne und hintenMeetings sollten pünktlich beginnen und enden. Wer immer zu spät kommt, sagt damit: “Mich interessiert Euer Kram nicht.” 

Von der Laberrunde zur effektiven Besprechung: 5 Minuten, die Ihr Team-Meeting zum Erfolg machen​ “Du hattest Glück, gestern ging unsere Bereichsleiterbesprechung nur bis 22 Uhr. Die Male zuvor war es fast Mitternacht.“, berichtet mir eine Führungskraft eines Unternehmens. Ich hatte als Berater diese Besprechung beobachtet und ab 18 Uhr daran teilgenommen.Dabei sah anfangs alles ganz gut aus: Es gab eine Agenda, es wurde ein Schriftführer bestimmt, es gab sogar einen Moderator. Doch schon nach wenigen Minuten kamen während des ersten Agendapunkts zwar sehr gute, aber gar nicht zum Thema passende zusätzliche Diskussionen auf. Dann wurden Themen, die laut Agenda erst später kommen sollten, schon früher angesprochen und erörtert. Der Versuch, diese Diskussionen mit einem “Dazu kommen wir später noch” zu verschieben, scheiterte. Auch wurde teilweise in tiefste Details abgetaucht, während andere Themen nur oberflächlich berührt wurden.Vor allem war oft unklar, ob jetzt eigentlich eine Entscheidung getroffen wurde oder nicht. Hatte jemand eine Aufgabe bekommen? Das blieb undefiniert. Und wenn, dann war offen, was von demjenigen denn ganz konkret erwartet würde.Das Feedback der Teilnehmer hilft dabei, Meetings effektiver zu gestalten.
Foto: wavebreakmedia – shutterstock.comDer Rahmen stimmt und trotzdem wird das Meeting zur LaberrundeIrgendwie war jeder unzufrieden über den Ablauf. Aber man freute sich darüber, die Kollegen einmal im Monat wieder zu sehen. Schließlich sind die Bereichsleiter ansonsten immer an unterschiedlichen Standorten im Einsatz und treffen sich außerhalb dieses monatlichen Meetings kaum. Der gesellige Teil war ein Erfolg, nur das Meeting selbst war nicht effektiv.Jeder meckerte, aber keiner übernahm die Initiative etwas am Ablauf des Meetings zu verändern oder selbst so diszipliniert zu agieren, damit die Agenda auch eingehalten werden konnte. Es fehlte an einem ganz konkreten Feedback aller Beteiligten und einem Treiber, um gemeinsam eine bessere Lösung zu finden.Kennen Sie solche Besprechungen? “Ausschließlich“, sagen Sie? Oh je, Sie sind arm dran.Der Alleinunterhalter kann sich selbst nicht beobachtenSzenenwechsel: Bei einem anderen Kunden ging die Besprechung von 9 – 16 Uhr. Und zu 95 Prozent sprach der Bereichsleiter, während seine Abteilungsleiter zuhörten. Auf der Rückfahrt nach dieser Besprechung fragte mich der Bereichsleiter im Auto, was ich von der Sitzung halten würde, und redete dann noch 20 Minuten weiter. Irgendwann fiel ihm auf, dass ich ja noch gar keine Antwort gegeben hatte und so unterbrach er seinen Redefluß.“Schön, dass ich auch etwas sagen darf.“, war meine Antwort. Mehr war nicht notwendig.Es fiel ihm wie Schuppen von den Augen und ihm wurde klar, warum diese Sitzungen für ihn immer so anstrengend waren. Und warum er so unzufrieden mit seinen Abteilungsleitern war, die er als inaktiv empfand. Er erkannte, dass er sie dazu erzogen hatte, weil er immer alles selbst machte. Der Rest der Autofahrt wurde zu einem Dialog, in dem die Lösung entstand.Was war die Lösung für ein effektives Meeting?1. Es galt herauszufinden, was den Teilnehmern in dieser Besprechung wirklich wichtig ist. Es ging nämlich nicht nur darum, dass der Bereichsleiter sieben Stunden lang Informationen verkündet.2. Anschließend wurden alle Inhalte eliminiert, die man auch per E-Mail kommunizieren konnte und zu denen dann in der Sitzung nur noch Fragen diskutiert wurden – falls es welche gab.3. Die Sitzung wurde zu einer Gemeinschaftsaufgabe, indem einzelne Inhaltsbestandteile an die Teilnehmer übergeben wurden, anstatt alles durch den Bereichsleiter vorkauen zu lassen.Aus Sitzungsteilnehmern Beteiligte machenDas Ergebnis war schon auf der nächsten Sitzung zu sehen und spüren:1. Eine wesentlich produktivere Arbeitsatmosphäre, bei der klare Ergebnisse erzielt werden.2. Jeder Teilnehmer trägt aktiv für 20 Minuten ein Thema vor, wodurch erheblich mehr Interaktivität entsteht. Und auf die Einhaltung der Zeitvorgaben achten alle Teilnehmer, nicht nur der Bereichsleiter.3. Der Bereichsleiter erkennt, welche Potentiale in seinen Mitarbeitern stecken, kann Ideen aufnehmen und deutlich aufmerksamer durch den Tag leiten.4. Die Abteilungsleiter kommen gut vorbereitet in den Termin und tragen ihre Inhalte vor. Sie haben erkannt, dass diese Besprechung zu ihrem eigenen Nutzen ist, also sorgen sie auch dafür, dass die Zeit sinnvoll verwendet wird. Sie haben sogar schon Ideen dabei, was sie auf der übernächsten Sitzung vortragen wollen.5. Es wurde von allen auf absolute Disziplin geachtet. Und dennoch wird auch gelacht – sogar mehr als früher. Aber es gibt keine abschweifenden Diskussionen und kein Abweichen von der Agenda mehr. Weil alle darauf achten. Nur dann funktioniert es!Wie kommen Sie zum perfekten Team-Meeting?Anstatt Vermutungen darüber anzustellen, was an Ihrer Besprechung gut oder verbesserungswürdig ist, was der Inhalt und wer die Teilnehmer sein sollten, führen Sie eine einfache Abfrage unter allen Teilnehmern durch. Am besten senden Sie direkt im Anschluss an Ihren nächsten Termin einen Link mit der Bitte um Feedback an die Teilnehmer. Haken Sie nach, falls zu wenig Antworten kommen.Ich nutze für eine solche Abfrage immer Google Forms, denn die Formulare sind kinderleicht zu erstellen, anzupassen und die Ergebnisse beliebig exportierbar. Ein Beispiel für ein solches Feedback-Formular auf Google zu Ihrem Team-Meeting finden Sie hier: https://goo.gl/forms/a30MRHZ0V8559bZj1Alternativ gibt es das Besprechungs-Feedback-Formular hier auch als PDF: https://www.targetter.de/checklisten/feedback-formular-fuer-effektive-meetings-und-besprechungen/Das Wichtigste bei einem solchen Feedback-Formular1. Maximal 5 Fragen, sonst macht keiner mit, weil es (scheinbar) zu viel Zeit kostet.2. Ein oder zwei Fragen, bei der Sie eine Einschätzung abfragen. Nutzen Sie dafür eine Skala von 1 – 5 oder 1 – 10, wobei der höchste Wert immer für das Optimum steht.3. Weitere drei bis vier konkrete Fragen bzgl. Verbesserungen, Erwartungen und Wünschen.4. Eine der Fragen muss darauf abzielen, den Befragten zu einem Beteiligten zu machen (“Was können Sie tun…“).Und wenn Sie danach feststellen sollten, dass Inhalte “abgewählt” wurden, die Sie persönlich als unglaublich wichtig angesehen haben, dann bedeutet das entweder, dass Sie die Art der Vermittlung drastisch verändern müssen, oder dass das Thema niemand anderen interessiert. Dann lassen Sie es weg.Das Aufsetzen des Formulars kostet Sie nicht mehr als fünf Minuten. Das Ergebnis kann Ihnen Stunden einsparen und vor allem die Motivation und Produktivität Ihrer Mitarbeiter dramatisch verbessern.Blicken wir noch zum ersten Beispiel zurück: Die Umfrage der dortigen Teilnehmer ergab, dass fast alle die Effektivität nur mittelmäßig beurteilten. Und alle gaben zu, dass sie selbst etwas dazu beitragen könnten, diese Effektivität zu steigern. Es gab konkrete Vorschläge zur Verbesserung, die im nächsten Meeting umgesetzt wurden.Feedback muss Routine sein – auch bei BesprechungenProbieren Sie es aus. Aber nicht nur einmal, sondern machen Sie die Bewertung von Besprechungen durch Feedback-Abfragen zur Routine. So und jetzt kopieren Sie am besten mein Google-Formular (https://goo.gl/forms/a30MRHZ0V8559bZj1), passen es gegebenfalls an und senden Sie es nach der nächsten Besprechung an Ihre Teilnehmer. Und nach der nächsten. Und der nächsten …10 Tipps für bessere MeetingsNiemand muss erscheinenMitarbeitern, die sich sichtbar langweilen, sollte für die Zukunft Abstinenz empfohlen werden.Kekse auch weg!Unterernährung ist in deutschen Büros selten. Kekse braucht niemand, die machen nur dick und schläfrig.Kühl und frischIst der Konferenzraum schlecht geheizt, verkürzt sich die Dauer des Meetings spürbar.Klare ModerationKlare Moderation hilft und strafft. Vorne stehen muss dabei aber nicht immer der Chef. Es kann auch eine Praktikantin sein, die sich gerade in das Thema eingearbeitet hat.Kleine GruppenJedes Meeting mit mehr als sieben Menschen gilt als ineffektiv.Zwei Themen sind genugWer fünf Themen ansetzt, lockt potenziell 30 Leute in den Konferenzraum, von denen die meisten nur ein Thema kennen, aber trotzdem zu allen fünf ihren Senf abgeben. Bei der Sache bleibenVon Hölzchen auf Stöckchen zu kommen und wieder zurück, kann amüsant sein, führt aber nirgendwo hin.Auch mal stehen bleibenSchnelle Meetings im kleinen Kreis sollten ohne Stühle stattfinden. Das erhöht die Konzentration, außerdem kann dabei niemand mit seinem Smartphone spielen, ohne krass desinteressiert zu wirken. Smartphones weg!Der Kollegin mal eben den neuen Hund zeigen? Derartigen Quatsch während des Meetings sollte der Moderator schon im Vorfeld unterbinden.Pünktlich vorne und hintenMeetings sollten pünktlich beginnen und enden. Wer immer zu spät kommt, sagt damit: “Mich interessiert Euer Kram nicht.”

Von der Laberrunde zur effektiven Besprechung: 5 Minuten, die Ihr Team-Meeting zum Erfolg machen​ Weiterlesen »

To-Don’t-Liste: 7 Wege, das IT-Management an die Wand zu fahren​

Allgemein

Ausgiebige Reue ist bei diesen IT-Management-Sünden das Mindeste. Foto: Pixel-Shot – shutterstock.comWenn Sie CIO oder IT-Manager sind, steht Ihnen eine Vielzahl von Quellen offen, um Ratschläge darüber einzuholen, wie Sie effektiver arbeiten können. Dazu empfiehlt sich in erster Linie natürlich ein Besuch auf COMPUTERWOCHE oder CIO.de. Wenn die Verzweiflung schon sehr groß ist, finden Sie entsprechende Einträge auch bei Gartner, Forrester oder McKinsey.Dabei lesen Sie in den meisten Fällen, wie Sie als IT-Entscheider Ihre Prioritäten richtig setzen sollten. Nach dem Konsum solcher – faktisch nicht falscher, aber maximal repetitiver – Inhalte denken sicher auch Sie sich (nicht zu Unrecht) des Öfteren: “Ja, war doch irgendwie schon vorher klar, oder?”. Mit diesem Artikel wollen wir einen anderen Weg einschlagen und Ihnen Ratschläge an die Hand geben, die Sie sonst nirgends finden (nichts zu danken).Wenn Sie die folgende To-Don’t-Liste verinnerlicht haben, stellt sich die Frage, welchen Punkt Sie als erstes in Angriff nehmen sollen. Sollten Sie die Zeit finden, sich auf einen oder gar mehrere Aspekte parallel zu fokussieren, gibt es eigentlich nur zwei Möglichkeiten:Entweder, Sie sind für einen IT-Entscheider (noch) in ziemlich guter Verfassung oderSie sind bereits auf einem gesteigerten Level der Wahnhaftigkeit angekommen, so dass ohnehin schon alles egal ist.1. Zu viel managen, zu wenig führenOkay, wir haben geflunkert. Unsere erste Verfehlung ist eine, über die Sie keineswegs noch nie, sondern eher zu viel gelesen haben: Managen statt Führen. Es gibt einen alten Witz über einen Hund, der keine Beine hat: Sein Besitzer führte ihn jeden Morgen auf einen “Zug” aus.Führung macht den Unterschied: Schleppen Sie Ihre Mitarbeiter durch den Tag oder bewegen diese sich eigenständig in die richtige Richtung?2. Zu viel führen, zu wenig managenManagement heißt in erster Linie, dafür zu sorgen, dass die Arbeit des Unternehmens, für das Sie verantwortlich sind, erledigt wird.Um das zu erreichen, ist Führung ein nützliches Instrument (siehe oben). Aber bei weitem nicht das einzige. Wenn Ihr Schwerpunkt jedoch zu sehr auf Führung liegt, besteht die Gefahr, dass Sie das, wofür Sie bezahlt werden, aus den Augen verlieren und Sie zu viel Mühe darauf verwenden, inspirierend zu wirken. 3. Über Geld streitenRückbuchungen fallen in den Bereich der “großen Theorie”. Die besagt, dass Kostenstellenleiter in Sachen IT umsichtigere Entscheidungen treffen, wenn Ihnen die genutzten IT-Ressourcen in Rechnung gestellt werden. Zum Disput kann es dabei kommen, wenn es um die Höhe der Abrechnung geht. Die IT kann Rückbuchungen nämlich auf zweierlei Art berechnen:Auf die einfache Art: Das IT-Budget wird den Kostenstellenleitern auf der Grundlage einer leicht verständlichen Kennzahl zugewiesen, etwa dem prozentualen Anteil an der Gesamtmitarbeiterzahl oder dem Unternehmensbudget.Oder die IT berechnet granulare Computing-Unit-Kosten für jede Art von IT-Ressource, überwacht den Verbrauch und multipliziert diesen mit den Stückkosten.Vergessen Sie den einfachen Ansatz. Das was ihn attraktiv macht – seine Einfachheit – macht ihn auch sinnlos. Schließlich haben Kostenstellenleiter keine Möglichkeit, Kosten zu senken, indem Sie den IT-Ressourcenverbrauch verringern. Sollten Sie diesen Weg dennoch einschlagen, müssen Sie damit rechnen, viel Zeit und Nerven mit Auseinandersetzungen über korrekte Abrechnungen zu verbrennen. Und egal wer diesen Streit am Ende für sich entscheidet: Alle Beteiligten verlieren.4. Verzweifelt Business sein wollenEs ist ein merkwürdiger Ratschlag, der sich hartnäckig in vielen Ratgebern hält: Technologieentscheider sollten angeblich keine Tech-Menschen sein. An dieser Stelle sollten wir einen Schritt zurücktreten. Und erst einmal tief durchatmen. Dann blicken wir einmal auf die Fakten: Erstens ist es unbestritten einfacher, Business als Tech zu “sein”. Zweitens: Sind sie auch der Meinung, dass der Chief Financial Officer kein Finanzexperte und der Chief Marketing Officer kein Marketingexperte sein sollte? (Falls ja, können Sie Ihren Rechner jetzt herunterfahren.)CIOs, die zwanghaft versuchen, “Business People” statt Technologen sein, sind ein bisschen wie früher die Außenseiter in der Schule, die verzweifelt versuchen, in den Club der coolen Kids aufgenommen zu werden. Das hat schon damals (in den allermeisten Fällen) zu nicht zufriedenstellenden Ergebnissen geführt.5. “Architekt” als Verb verwendenDas ist nur unsere Meinung, aber Sätze wie: “Wir müssen eine Lösung architektieren”, deuten auf jemanden hin, der es ebenfalls nicht in den Club der geschmeidigen Business People geschafft hat – und sich nun bei den Technik-Cracks anbiedert.6. “Best” Practices anwendenSich über Kollegen zu ärgern, die “Best Practice” eher weitläufig interpretieren – etwa als Mindeststandard für professionelles Arbeiten – ist ein aussichtsloses und sinnloses Unterfangen.Insofern gehen wir direkt zum nächsten Punkt über.7. Produkt- statt ProjektmanagementProjektmanagement ist die Art und Weise, wie Unternehmen ihre Zukunft gestalten – und zwar auf planvolle und bewusste Weise. Produktmanagement hingegen bezeichnet die betriebswirtschaftliche Disziplin, die Entwicklung eines Produkts beziehungsweise einer Produktlinie zu managen, um dessen Attraktivität auf dem Markt zu steigern.IT-Produktmanagement kommt aus der agilen Welt und weist bestenfalls eine lose Verbindung zum Produktmanagement in Unternehmen auf. Denn obwohl es in gewissem Maße sinnvoll ist, die Attraktivität eines Teils des Technologie- oder Anwendungsportfolios eines Unternehmens zu steigern, ist das nicht das Ziel des IT-Produktmanagements. Vielmehr geht es darum, Verantwortlichkeiten und Entscheidungsbefugnisse zu schaffen. (fm) Product Manager’s face when asked, “What’s the ETA on this feature?” pic.twitter.com/GkohsI7pkg— Product Manager Meme (@prdct_mngr_meme) April 26, 2023 

To-Don’t-Liste: 7 Wege, das IT-Management an die Wand zu fahren​ Ausgiebige Reue ist bei diesen IT-Management-Sünden das Mindeste.
Foto: Pixel-Shot – shutterstock.comWenn Sie CIO oder IT-Manager sind, steht Ihnen eine Vielzahl von Quellen offen, um Ratschläge darüber einzuholen, wie Sie effektiver arbeiten können. Dazu empfiehlt sich in erster Linie natürlich ein Besuch auf COMPUTERWOCHE oder CIO.de. Wenn die Verzweiflung schon sehr groß ist, finden Sie entsprechende Einträge auch bei Gartner, Forrester oder McKinsey.Dabei lesen Sie in den meisten Fällen, wie Sie als IT-Entscheider Ihre Prioritäten richtig setzen sollten. Nach dem Konsum solcher – faktisch nicht falscher, aber maximal repetitiver – Inhalte denken sicher auch Sie sich (nicht zu Unrecht) des Öfteren: “Ja, war doch irgendwie schon vorher klar, oder?”. Mit diesem Artikel wollen wir einen anderen Weg einschlagen und Ihnen Ratschläge an die Hand geben, die Sie sonst nirgends finden (nichts zu danken).Wenn Sie die folgende To-Don’t-Liste verinnerlicht haben, stellt sich die Frage, welchen Punkt Sie als erstes in Angriff nehmen sollen. Sollten Sie die Zeit finden, sich auf einen oder gar mehrere Aspekte parallel zu fokussieren, gibt es eigentlich nur zwei Möglichkeiten:Entweder, Sie sind für einen IT-Entscheider (noch) in ziemlich guter Verfassung oderSie sind bereits auf einem gesteigerten Level der Wahnhaftigkeit angekommen, so dass ohnehin schon alles egal ist.1. Zu viel managen, zu wenig führenOkay, wir haben geflunkert. Unsere erste Verfehlung ist eine, über die Sie keineswegs noch nie, sondern eher zu viel gelesen haben: Managen statt Führen. Es gibt einen alten Witz über einen Hund, der keine Beine hat: Sein Besitzer führte ihn jeden Morgen auf einen “Zug” aus.Führung macht den Unterschied: Schleppen Sie Ihre Mitarbeiter durch den Tag oder bewegen diese sich eigenständig in die richtige Richtung?2. Zu viel führen, zu wenig managenManagement heißt in erster Linie, dafür zu sorgen, dass die Arbeit des Unternehmens, für das Sie verantwortlich sind, erledigt wird.Um das zu erreichen, ist Führung ein nützliches Instrument (siehe oben). Aber bei weitem nicht das einzige. Wenn Ihr Schwerpunkt jedoch zu sehr auf Führung liegt, besteht die Gefahr, dass Sie das, wofür Sie bezahlt werden, aus den Augen verlieren und Sie zu viel Mühe darauf verwenden, inspirierend zu wirken. 3. Über Geld streitenRückbuchungen fallen in den Bereich der “großen Theorie”. Die besagt, dass Kostenstellenleiter in Sachen IT umsichtigere Entscheidungen treffen, wenn Ihnen die genutzten IT-Ressourcen in Rechnung gestellt werden. Zum Disput kann es dabei kommen, wenn es um die Höhe der Abrechnung geht. Die IT kann Rückbuchungen nämlich auf zweierlei Art berechnen:Auf die einfache Art: Das IT-Budget wird den Kostenstellenleitern auf der Grundlage einer leicht verständlichen Kennzahl zugewiesen, etwa dem prozentualen Anteil an der Gesamtmitarbeiterzahl oder dem Unternehmensbudget.Oder die IT berechnet granulare Computing-Unit-Kosten für jede Art von IT-Ressource, überwacht den Verbrauch und multipliziert diesen mit den Stückkosten.Vergessen Sie den einfachen Ansatz. Das was ihn attraktiv macht – seine Einfachheit – macht ihn auch sinnlos. Schließlich haben Kostenstellenleiter keine Möglichkeit, Kosten zu senken, indem Sie den IT-Ressourcenverbrauch verringern. Sollten Sie diesen Weg dennoch einschlagen, müssen Sie damit rechnen, viel Zeit und Nerven mit Auseinandersetzungen über korrekte Abrechnungen zu verbrennen. Und egal wer diesen Streit am Ende für sich entscheidet: Alle Beteiligten verlieren.4. Verzweifelt Business sein wollenEs ist ein merkwürdiger Ratschlag, der sich hartnäckig in vielen Ratgebern hält: Technologieentscheider sollten angeblich keine Tech-Menschen sein. An dieser Stelle sollten wir einen Schritt zurücktreten. Und erst einmal tief durchatmen. Dann blicken wir einmal auf die Fakten: Erstens ist es unbestritten einfacher, Business als Tech zu “sein”. Zweitens: Sind sie auch der Meinung, dass der Chief Financial Officer kein Finanzexperte und der Chief Marketing Officer kein Marketingexperte sein sollte? (Falls ja, können Sie Ihren Rechner jetzt herunterfahren.)CIOs, die zwanghaft versuchen, “Business People” statt Technologen sein, sind ein bisschen wie früher die Außenseiter in der Schule, die verzweifelt versuchen, in den Club der coolen Kids aufgenommen zu werden. Das hat schon damals (in den allermeisten Fällen) zu nicht zufriedenstellenden Ergebnissen geführt.5. “Architekt” als Verb verwendenDas ist nur unsere Meinung, aber Sätze wie: “Wir müssen eine Lösung architektieren”, deuten auf jemanden hin, der es ebenfalls nicht in den Club der geschmeidigen Business People geschafft hat – und sich nun bei den Technik-Cracks anbiedert.6. “Best” Practices anwendenSich über Kollegen zu ärgern, die “Best Practice” eher weitläufig interpretieren – etwa als Mindeststandard für professionelles Arbeiten – ist ein aussichtsloses und sinnloses Unterfangen.Insofern gehen wir direkt zum nächsten Punkt über.7. Produkt- statt ProjektmanagementProjektmanagement ist die Art und Weise, wie Unternehmen ihre Zukunft gestalten – und zwar auf planvolle und bewusste Weise. Produktmanagement hingegen bezeichnet die betriebswirtschaftliche Disziplin, die Entwicklung eines Produkts beziehungsweise einer Produktlinie zu managen, um dessen Attraktivität auf dem Markt zu steigern.IT-Produktmanagement kommt aus der agilen Welt und weist bestenfalls eine lose Verbindung zum Produktmanagement in Unternehmen auf. Denn obwohl es in gewissem Maße sinnvoll ist, die Attraktivität eines Teils des Technologie- oder Anwendungsportfolios eines Unternehmens zu steigern, ist das nicht das Ziel des IT-Produktmanagements. Vielmehr geht es darum, Verantwortlichkeiten und Entscheidungsbefugnisse zu schaffen. (fm)

Product Manager’s face when asked, “What’s the ETA on this feature?” pic.twitter.com/GkohsI7pkg— Product Manager Meme (@prdct_mngr_meme) April 26, 2023

To-Don’t-Liste: 7 Wege, das IT-Management an die Wand zu fahren​ Weiterlesen »

ServiceNow verstärkt sich mit Moveworks​

Allgemein

Mit Moveworks setzt ServiceNow noch stärker auf den Trend KI-Agenten.Sundry Photography / Shutterstock ServiceNow hat angekündigt, den KI-Spezialisten Moveworks im Rahmen eines 2,85 Milliarden Dollar schweren Deals zu kaufen. Die Übernahme unterstreicht den wachsenden Trend in Unternehmen hin zu KI-gesteuerter Automatisierung, um die Effizienz von IT-Prozessen und Servicemanagement zu verbessern.  „Durch die Übernahme werden die Stärken von ServiceNow in den Bereichen Agentic AI und Automatisierung mit dem Front-End-KI-Assistenten und der Enterprise-Search-Technologie von Moveworks kombiniert“, erklärte ServiceNow. Dies ermögliche jedem Mitarbeiter in jedem Bereich des Unternehmens neue Erfahrungen.  Nach Abschluss der Transaktion planen die beiden Anbieter, die KI-gesteuerte Plattform von Moveworks zu erweitern und den Einsatz in Bereichen wie dem Kundenbeziehungsmanagement voranzutreiben, hieß es. Dazu sei in der Anfangsphase der Integration geplant, Mitarbeitern einheitliche Such- und Selbstbedienungsfunktionen über verschiedene Workflows hinweg anzubieten.  „Da domänenspezifische KI-Agenten immer häufiger eingesetzt werden, um Aufgaben in den Bereichen Personalwesen, CRM, Finanzen, IT und mehr zu erledigen, werden die leistungsstarken Agenten-Orchestrierungsfunktionen von ServiceNow KI-Agenten verbinden, analysieren und verwalten und so sicherstellen, dass Agenten über Aufgaben, Systeme und Abteilungen hinweg harmonisch zusammenarbeiten“, fügte ServiceNow hinzu.  Dem Markttrend folgend  Der zunehmende Einsatz von generativer künstlicher Intelligenz (GenAI) hat Anbieter von Unternehmenssoftware wie ServiceNow und Salesforce dazu veranlasst, ihr Angebot durch Übernahmen und Partnerschaften zu erweitern, um auf diesem sich schnell entwickelnden Markt wettbewerbsfähig zu bleiben.  Durch die Integration von Moveworks könnte ServiceNow die Fähigkeiten seiner KI-Assistenten verbessern, Lücken in der Workflow-Automatisierung schließen und seine Reichweite auf Enterprise-Systeme ausdehnen.  „Die Übernahme von Moveworks verbessert und beschleunigt die KI-Fähigkeiten von ServiceNow erheblich und stärkt die Wettbewerbsposition gegenüber etablierten Marktteilnehmern“, erklärt Prabhu Ram, Vice President von Cybermedia Research. “Durch diese Übernahme kann ServiceNow Salesforce effektiver herausfordern, vorausgesetzt, das Unternehmen meistert die Herausforderungen der kulturellen Integration erfolgreich und nutzt die Fähigkeiten von Moveworks voll aus.“  „ServiceNow hat seine Strategie deutlich gemacht, sich auf Agentic AI zu konzentrieren, weil es die Zukunft ist“, fügt Sharath Srinivasamurthy, Associate Vice President of Research bei IDC, hinzu. „Diese Übernahme ist ein weiterer Schritt in diese Richtung. Die leistungsstarke Enterprise Application Suite von ServiceNow in Kombination mit der Moveworks-Plattform hilft dem Unternehmen, sich schnell zu einem wichtigen Akteur in diesem Bereich zu entwickeln.“  Moveworks hat eine starke Präsenz als KI-Assistent mit Integrationen in Unternehmenssysteme aufgebaut und bietet mit Microsoft Copilot vergleichbare Automatisierung und Business Support, sowie ein Creator Studio für Entwickler.  „Diese Kombination hilft ServiceNow, eine Agentenerfahrung zu bieten, die gut mit anderen Assistenten und Workflow-Anbietern konkurrieren kann, und Endbenutzern, die über einen einzigen Assistenten auf viele Systeme zugreifen möchten, eine sehr reibungslose Erfahrung zu bieten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Allerdings bietet Moveworks möglicherweise nicht die einfache Erstellung von Agenten oder das Performance Management – Funktionen, die in den neuesten KI- und Agentic-Studios allmählich Einzug halten.“  Integration und Regulierung  Aus Integrationsperspektive wird erwartet, dass die Übernahme von Moveworks durch ServiceNow technisch unkompliziert sein wird, da die beiden Plattformen bereits kompatibel sind. „Moveworks ist bereits in ServiceNow integriert, was die Integration relativ einfach machen sollte“, so Park. “Das war ein Grund für das Interesse von ServiceNow an dieser Übernahme war.“  Eine reibungslose Integration ist jedoch keine Garantie für einen reibungslosen Betrieb. Laut Abhivyakti Sengar, Practice Director bei der Everest Group, erfordert die erfolgreiche Einbettung von agentenbasierter KI in eine Unternehmensplattform, Sicherheits-, Governance- und Compliance-Standards sorgfältig abzustimmen.  „Darüber hinaus muss ServiceNow sicherstellen, dass die KI von Moveworks die bestehenden Arbeitsabläufe der Kunden verbessert und nicht disruptiv wirkt“, so Sengar. “Da KI und große Technologieakquisitionen immer stärker reguliert werden, muss ServiceNow zudem nachweisen, dass diese Transaktion Innovation und Wettbewerb fördert, anstatt Marktmacht zu konsolidieren.“  Aufgrund der relativ bescheidenen Marktpräsenz von Moveworks ist es jedoch eher unwahrscheinlich, dass die Transaktion einer eingehenden kartellrechtlichen Prüfung unterzogen wird. „Obwohl Moveworks als führendes Unternehmen im Bereich Business Support gilt, sind seine jährlichen Einnahmen von über 100 Millionen Dollar wahrscheinlich nicht ausreichend, um eine Monopolstellung zu rechtfertigen, verglichen mit Unternehmen wie OpenAI, Anthropic, Microsoft, Google oder anderen Giganten, die Milliarden von Dollar an Einnahmen oder Milliarden von Dollar an Finanzmitteln haben“, so Park. (mb) 

ServiceNow verstärkt sich mit Moveworks​ Mit Moveworks setzt ServiceNow noch stärker auf den Trend KI-Agenten.Sundry Photography / Shutterstock

ServiceNow hat angekündigt, den KI-Spezialisten Moveworks im Rahmen eines 2,85 Milliarden Dollar schweren Deals zu kaufen. Die Übernahme unterstreicht den wachsenden Trend in Unternehmen hin zu KI-gesteuerter Automatisierung, um die Effizienz von IT-Prozessen und Servicemanagement zu verbessern. 

„Durch die Übernahme werden die Stärken von ServiceNow in den Bereichen Agentic AI und Automatisierung mit dem Front-End-KI-Assistenten und der Enterprise-Search-Technologie von Moveworks kombiniert“, erklärte ServiceNow. Dies ermögliche jedem Mitarbeiter in jedem Bereich des Unternehmens neue Erfahrungen. 

Nach Abschluss der Transaktion planen die beiden Anbieter, die KI-gesteuerte Plattform von Moveworks zu erweitern und den Einsatz in Bereichen wie dem Kundenbeziehungsmanagement voranzutreiben, hieß es. Dazu sei in der Anfangsphase der Integration geplant, Mitarbeitern einheitliche Such- und Selbstbedienungsfunktionen über verschiedene Workflows hinweg anzubieten. 

„Da domänenspezifische KI-Agenten immer häufiger eingesetzt werden, um Aufgaben in den Bereichen Personalwesen, CRM, Finanzen, IT und mehr zu erledigen, werden die leistungsstarken Agenten-Orchestrierungsfunktionen von ServiceNow KI-Agenten verbinden, analysieren und verwalten und so sicherstellen, dass Agenten über Aufgaben, Systeme und Abteilungen hinweg harmonisch zusammenarbeiten“, fügte ServiceNow hinzu. 

Dem Markttrend folgend 

Der zunehmende Einsatz von generativer künstlicher Intelligenz (GenAI) hat Anbieter von Unternehmenssoftware wie ServiceNow und Salesforce dazu veranlasst, ihr Angebot durch Übernahmen und Partnerschaften zu erweitern, um auf diesem sich schnell entwickelnden Markt wettbewerbsfähig zu bleiben. 

Durch die Integration von Moveworks könnte ServiceNow die Fähigkeiten seiner KI-Assistenten verbessern, Lücken in der Workflow-Automatisierung schließen und seine Reichweite auf Enterprise-Systeme ausdehnen. 

„Die Übernahme von Moveworks verbessert und beschleunigt die KI-Fähigkeiten von ServiceNow erheblich und stärkt die Wettbewerbsposition gegenüber etablierten Marktteilnehmern“, erklärt Prabhu Ram, Vice President von Cybermedia Research. “Durch diese Übernahme kann ServiceNow Salesforce effektiver herausfordern, vorausgesetzt, das Unternehmen meistert die Herausforderungen der kulturellen Integration erfolgreich und nutzt die Fähigkeiten von Moveworks voll aus.“ 

„ServiceNow hat seine Strategie deutlich gemacht, sich auf Agentic AI zu konzentrieren, weil es die Zukunft ist“, fügt Sharath Srinivasamurthy, Associate Vice President of Research bei IDC, hinzu. „Diese Übernahme ist ein weiterer Schritt in diese Richtung. Die leistungsstarke Enterprise Application Suite von ServiceNow in Kombination mit der Moveworks-Plattform hilft dem Unternehmen, sich schnell zu einem wichtigen Akteur in diesem Bereich zu entwickeln.“ 

Moveworks hat eine starke Präsenz als KI-Assistent mit Integrationen in Unternehmenssysteme aufgebaut und bietet mit Microsoft Copilot vergleichbare Automatisierung und Business Support, sowie ein Creator Studio für Entwickler. 

„Diese Kombination hilft ServiceNow, eine Agentenerfahrung zu bieten, die gut mit anderen Assistenten und Workflow-Anbietern konkurrieren kann, und Endbenutzern, die über einen einzigen Assistenten auf viele Systeme zugreifen möchten, eine sehr reibungslose Erfahrung zu bieten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Allerdings bietet Moveworks möglicherweise nicht die einfache Erstellung von Agenten oder das Performance Management – Funktionen, die in den neuesten KI- und Agentic-Studios allmählich Einzug halten.“ 

Integration und Regulierung 

Aus Integrationsperspektive wird erwartet, dass die Übernahme von Moveworks durch ServiceNow technisch unkompliziert sein wird, da die beiden Plattformen bereits kompatibel sind. „Moveworks ist bereits in ServiceNow integriert, was die Integration relativ einfach machen sollte“, so Park. “Das war ein Grund für das Interesse von ServiceNow an dieser Übernahme war.“ 

Eine reibungslose Integration ist jedoch keine Garantie für einen reibungslosen Betrieb. Laut Abhivyakti Sengar, Practice Director bei der Everest Group, erfordert die erfolgreiche Einbettung von agentenbasierter KI in eine Unternehmensplattform, Sicherheits-, Governance- und Compliance-Standards sorgfältig abzustimmen. 

„Darüber hinaus muss ServiceNow sicherstellen, dass die KI von Moveworks die bestehenden Arbeitsabläufe der Kunden verbessert und nicht disruptiv wirkt“, so Sengar. “Da KI und große Technologieakquisitionen immer stärker reguliert werden, muss ServiceNow zudem nachweisen, dass diese Transaktion Innovation und Wettbewerb fördert, anstatt Marktmacht zu konsolidieren.“ 

Aufgrund der relativ bescheidenen Marktpräsenz von Moveworks ist es jedoch eher unwahrscheinlich, dass die Transaktion einer eingehenden kartellrechtlichen Prüfung unterzogen wird. „Obwohl Moveworks als führendes Unternehmen im Bereich Business Support gilt, sind seine jährlichen Einnahmen von über 100 Millionen Dollar wahrscheinlich nicht ausreichend, um eine Monopolstellung zu rechtfertigen, verglichen mit Unternehmen wie OpenAI, Anthropic, Microsoft, Google oder anderen Giganten, die Milliarden von Dollar an Einnahmen oder Milliarden von Dollar an Finanzmitteln haben“, so Park. (mb)

ServiceNow verstärkt sich mit Moveworks​ Weiterlesen »

Trotz Spenden an Trump: Google soll Chrome verkaufen​

Allgemein

Google droht zerschlagen zu werden, wenn es sich nicht an strenge Auflagen in allen Geschäftsbereichen hält. shutterstock – NextNewMedia Bereits im vergangenen Jahr hatte das damalige US-Justizministerium (DOJ) unter dem US-Präsident Joe Biden vorgeschlagen, dass Google als Konsequenz für das verlorene Wettbewerbsverfahren Chrome verkauft. Wie aus einem nun überarbeiteten Beschluss des Gerichts (PDF) hervorgeht, hat sich an dieser Situation wenig geändert. Zwar verlangt das DOJ nun nicht mehr, dass Google seine sämtlichen KI-Investitionen veräußern soll. An den Hauptelementen des ursprünglichen Vorschlags, den Verkauf seines Chrome-Browsers und dem Verbot suchbezogener Zahlungen an Vertriebspartner hält das DOJ dagegen fest. Schluss mit Monopol, jetzt und in Zukunft Ziel dieser verschärften Maßnahmen sei es, Googles dominante Marktstellung im Bereich der Internetsuche zu reduzieren, so das Ministerium. Darüber hinaus fordert das DOJ, dass Google für fünf Jahre daran gehindert werden soll, einen neuen Browser zu entwickeln. Ziel ist es zu verhindern, dass die Firma ihre marktbeherrschende Stellung wiedererlangt. Ebenso sollen Vereinbarungen beendet werden, die Google als Standardsuchmaschine auf Geräten und in anderen Browsern festlegen. Google soll allerdings weiterhin am Open-Source-Projekt Chromium mitwirken dürfen. „Übergriffig und schädlich“ Google kritisierte diese Forderungen als übergriffig und potenziell schädlich für Verbraucher sowie die nationale Sicherheit. Das Unternehmen kündigte an, gegen mögliche Anpassungen Berufung einzulegen. Eine solche gerichtliche Entscheidung über die vorgeschlagenen Maßnahmen wird im Sommer 2025 erwartet. Zugleich legte Google dem DOJ seine – wenig veränderten –Vorschläge für eigene Schritte vor. So sei das Unternehmen zum einen bereit, die Art und Weise zu ändern, wie Suchplatzierungsvereinbarungen für Browser und Android-Geräte funktionieren. Zum anderen würde es eine zusätzliche behördliche Aufsicht akzeptieren, damit sichergestellt werden könne, dass die Vorschriften eingehalten werden. Kein Verkauf, Melden reicht Vergleichsweise positiv entwickelte sich die Entscheidung in Hinblick auf Android und seine KI-Investitionen. Unter den vorgeschlagenen Maßnahmen wird sich zwar keiner der beiden Bereiche vollständig dem Zugriff der Regierung entziehen können. Google wird dafür aber auch nicht sofort etwas verkaufen müssen. Stattdessen muss das Unternehmen der Regierung nur neue Investitionen melden. Einschränkungen geplant, Höchststrafe weiterhin möglich Zusätzlich soll das Unternehmen die Art und Weise, wie sein Android-Betriebssystem Android einsetzt wird, überarbeiten. Die Regierung schlägt vor, Google zu verbieten, seine Such- oder generativen KI-Produkte zwingend auf Android zu installieren. Beispielsweise könnte der Zugang zu AI Core oder anderen APIs eingeschränkt werden. Ebenso soll Google daran gehindert werden, seine Partner unter Druck zu setzen, die Google-Suche oder KI-Dienste der Konkurrenz vorzuziehen. Ob Google gezwungen werde, Android zu verkaufen, hänge von der künftigen Marktentwicklung ab, drohte das DOJ. 

Trotz Spenden an Trump: Google soll Chrome verkaufen​ Google droht zerschlagen zu werden, wenn es sich nicht an strenge Auflagen in allen Geschäftsbereichen hält.
shutterstock – NextNewMedia

Bereits im vergangenen Jahr hatte das damalige US-Justizministerium (DOJ) unter dem US-Präsident Joe Biden vorgeschlagen, dass Google als Konsequenz für das verlorene Wettbewerbsverfahren Chrome verkauft. Wie aus einem nun überarbeiteten Beschluss des Gerichts (PDF) hervorgeht, hat sich an dieser Situation wenig geändert. Zwar verlangt das DOJ nun nicht mehr, dass Google seine sämtlichen KI-Investitionen veräußern soll. An den Hauptelementen des ursprünglichen Vorschlags, den Verkauf seines Chrome-Browsers und dem Verbot suchbezogener Zahlungen an Vertriebspartner hält das DOJ dagegen fest.

Schluss mit Monopol, jetzt und in Zukunft

Ziel dieser verschärften Maßnahmen sei es, Googles dominante Marktstellung im Bereich der Internetsuche zu reduzieren, so das Ministerium. Darüber hinaus fordert das DOJ, dass Google für fünf Jahre daran gehindert werden soll, einen neuen Browser zu entwickeln. Ziel ist es zu verhindern, dass die Firma ihre marktbeherrschende Stellung wiedererlangt. Ebenso sollen Vereinbarungen beendet werden, die Google als Standardsuchmaschine auf Geräten und in anderen Browsern festlegen. Google soll allerdings weiterhin am Open-Source-Projekt Chromium mitwirken dürfen.

„Übergriffig und schädlich“

Google kritisierte diese Forderungen als übergriffig und potenziell schädlich für Verbraucher sowie die nationale Sicherheit. Das Unternehmen kündigte an, gegen mögliche Anpassungen Berufung einzulegen. Eine solche gerichtliche Entscheidung über die vorgeschlagenen Maßnahmen wird im Sommer 2025 erwartet.

Zugleich legte Google dem DOJ seine – wenig veränderten –Vorschläge für eigene Schritte vor. So sei das Unternehmen zum einen bereit, die Art und Weise zu ändern, wie Suchplatzierungsvereinbarungen für Browser und Android-Geräte funktionieren. Zum anderen würde es eine zusätzliche behördliche Aufsicht akzeptieren, damit sichergestellt werden könne, dass die Vorschriften eingehalten werden.

Kein Verkauf, Melden reicht

Vergleichsweise positiv entwickelte sich die Entscheidung in Hinblick auf Android und seine KI-Investitionen. Unter den vorgeschlagenen Maßnahmen wird sich zwar keiner der beiden Bereiche vollständig dem Zugriff der Regierung entziehen können. Google wird dafür aber auch nicht sofort etwas verkaufen müssen. Stattdessen muss das Unternehmen der Regierung nur neue Investitionen melden.

Einschränkungen geplant, Höchststrafe weiterhin möglich

Zusätzlich soll das Unternehmen die Art und Weise, wie sein Android-Betriebssystem Android einsetzt wird, überarbeiten. Die Regierung schlägt vor, Google zu verbieten, seine Such- oder generativen KI-Produkte zwingend auf Android zu installieren. Beispielsweise könnte der Zugang zu AI Core oder anderen APIs eingeschränkt werden. Ebenso soll Google daran gehindert werden, seine Partner unter Druck zu setzen, die Google-Suche oder KI-Dienste der Konkurrenz vorzuziehen.

Ob Google gezwungen werde, Android zu verkaufen, hänge von der künftigen Marktentwicklung ab, drohte das DOJ.

Trotz Spenden an Trump: Google soll Chrome verkaufen​ Weiterlesen »

Zencoder im Test​

Allgemein

Kann Zencoder für eine meditative Developer Experience sorgen?DirkErcken | shutterstock.com Falls Sie zunehmend den Eindruck gewinnen, dass die Menge an Tools, die KI-gestützt Code generieren, langsam inflationäre Ausmaße annimmt, liegen Sie damit nicht falsch. Dabei kommen jedoch immer noch Produkte auf den Markt, die mit neuen, innovativen Ansätzen überzeugen wollen. In diese Kategorie fällt auch Zencoder.    Was Zencoder abhebt Wie seine Konkurrenten (dazu später mehr) will auch Zencoder Entwickler dazu befähigen, bessere Softwareprodukte schneller auszuliefern. Das sollen in erster Linie zwei Features realisieren: Mit dem sogenannten Repo Grokking soll das Tool komplette Code Repositories lesen und „verstehen“ können. Das gewährleistet laut dem Anbieter ein „tiefes, kontextuales Verständnis“, das zu relevanteren und präziseren Code-Vorschlägen beitragen soll. KI-Agenten sollen bei Zencoder nicht nur Vorschläge liefern, sondern sind nahtlos in die Entwickler-Workflows integriert und auch dazu in der Lage, Code zu reparieren und Unit-Tests zu generieren. Zencoder steht für Visual Studio Code sowie JetBrains IDEs zum Download zur Verfügung. Weitere Integrationen sind derzeit in Arbeit. Davon abgesehen, unterstützt der KI-Codierungsassistent mittlerweile mehr als 70 Programmiersprachen. Darunter befinden sich auch: Python, Java, JavaScript, TypeScript, C#, und Kotlin. In Sachen Large Language Models (LLMs) dürfen Zencode-Benutzer zwischen Chat GPT, Claude und benutzerdefinierten Modellen wählen. Allerdings setzt Zencoder nicht nur auf ein LLM, um Code zu generieren und damit zusammenhängende Funktionen auszuführen, sondern auch auf eine Pipeline: Bei Zencoder wird der Code vorverarbeitet, um Kontext für das LLM bereitzustellen. Anschließend wird der Code analysiert und einer Parsing-Session unterzogen, um sicherzustellen, dass er korrekt ist und hohen Qualitätsansprüchen genügt.Zencoder Auf der linken Seite sehen Sie die von Zencoder gelieferte Erklärung für den Code auf der rechten Bildschirmhälfte – ohne vorherigen Repository-Scan.IDG Zencoder im Praxistest Wir haben uns die Schlüssel-Features von Zencoder im Test etwas näher angesehen. Repo Grokking Das Repo-Grokking-Feature funktioniert im Wesentlichen automatisch: Sobald Sie einen Workspace öffnen (der zum Beispiel über Git gemanagt wird), erkennt Zencoder diesen und erfasst den Code. In diesem Zuge erstellt das KI-Tool für Entwickler Embeddings, die in einer Cloud-basierten Vektordatenbank für RAG-Abfragen gespeichert werden. Darüber hinaus erstellt Zencoder auch ein Diagramm, das die Struktur der Codebasis repräsentiert. Aus Datenschutzgründen wird der Workspace dabei nicht kopiert. Wird das Repository aktualisiert, erhalten auch die Vektoren und besagtes Diagramm ein Update. Sobald das Tool die Codebasis „verstanden“ hat, kann es dieses Wissen einbringen, um Code zu generieren, zu vervollständigen und zu reparieren – oder auch für Chat-Anfragen nutzen. Links oben sehen Sie die Erklärung, die Zencoder nach der Analyse des gesamten Haystack Repository geliefert hat. Sie enthält auch Informationen, die nicht im entsprechenden README-File enthalten sind.IDG Agentic Repair Dass Zencoder in der Lage ist, Codebasen zu „verstehen“, kommt auch den integrierten KI-Agenten zugute – etwa, wenn es darum geht: Code zu reparieren, Unit-Tests zu erstellen, oder Probleme in Echtzeit zu lösen. Derzeit stehen zwei vordefinierte Agenten zur Verfügung – für Unit Tests und zu Coding-Zwecken. Darüber hinaus gibt es auch die Möglichkeit, benutzerdefinierte Agenten aufzusetzen. Das Zencoder-Interface, um benutzerdefinierte Agenten aufzusetzen.IDG Zencoder im Vergleich zur Konkurrenz Die Macher von Zencoder bieten auf ihrer Webseite zahlreiche Vergleiche mit Konkurrenzprodukten – darunter Github Copilot, Codeium und Tabnine. Allerdings sind die mit Vorsicht zu genießen, weil sie vor allem darauf ausgelegt scheinen, das eigene Produkt gut, respektive besser aussehen zu lassen. Zudem fehlen einige Konkurrenten gänzlich – etwa Solver (das unserer Meinung nach den direkten Vergleich mit Zencoder gewinnt). Ansonsten ist Zencoder in etwa auf Augenhöhe mit seiner Konkurrenz – je nachdem, welchen Bereich man in Augenschein nimmt. So können einige Produkte wie Solver oder auch Github Copilot noch mehr und erkennen auch komplexe Fehler auf Repository-Ebene – oder generieren neben Unit- auch noch Integrationstests. Auf der linken Seite sehen Sie die Erklärung von Zencoder zu einer C++-Sorting-Funktion. Auf der rechten Seite sehen Sie die Information, die Github Copilot zum gleichen Code liefert.IDG Das Preisgefüge von Zencoder Zencoder steht in einer kostenfreien Testversion zur Verfügung, die sämtliche Kernfunktionen in vollem Umfang enthält. Darüber hinaus steht das Tool auch in drei verschiedenen Preisplänen zur Verfügung: Free ist der kostenlose Plan, der unbegrenzte Code-Vervollständigungen und Chats für bis zu zehn Arbeitsplätze beinhaltet. Fortschrittliche Funktionen wie KI-Agenten sind hierbei Grenzen gesetzt, Repo Grokking nicht verfügbar. Der Business-Plan beinhaltet bis zu 200 „Seats“, fortschrittlichere KI-Anfragen und Repo Grokking sowie Early Access zu neuen Funktionen. Das kostet pro Benutzer und Monat 19 US-Dollar. Der Enterprise-Plan beinhaltet unbegrenzt viele Arbeitsplätze und bietet neben Priority Support auch Single-Sign On und benutzerdefiniertes Feintuning von Modellen. Das kostet pro User und Monat 39 US-Dollar. Zencoder-Testfazit: Ein ehrgeiziger Versuch Der Coding-Assistent Zencoder stellt einen ehrgeizigen Versuch dar, im Markt für KI-Codierungsassistenten Fuß zu fassen – ist aber noch reichlich grün hinter den Ohren.   Eine Pipeline mit Fehlerkorrektur einzusetzen, um Halluzinationen zu vermeiden, ist zwar auf dem Papier ein vielversprechender Ansatz. In der Praxis funktioniert das aber nicht unbedingt besser als ein Modell, das direkt korrekten Code generiert und Halluzinationen „intern unterdrückt“. Mit Blick auf das Repo-Grokking-Feature ist zu sagen, dass dieses ohne Zweifel besseren Kontext erzeugt, als einfach die im Editor geöffneten Seiten zu analysieren. Allerdings verursacht die Analyse größerer Repositories erheblichen Zeitaufwand – und scheinbar führt Zencoder diesen Prozess bei jeder Repository-Aktualisierung von Grund auf neu durch. Aktuell ist Zencoder empfehlenswert, um zu testen und zu experimentieren. Ein Abonnement abzuschließen, rentiert sich hingegen (noch) nicht. Das könnte sich jedoch in Zukunft ändern, wenn das Tool entsprechend weiterentwickelt wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zencoder im Test​ Kann Zencoder für eine meditative Developer Experience sorgen?DirkErcken | shutterstock.com

Falls Sie zunehmend den Eindruck gewinnen, dass die Menge an Tools, die KI-gestützt Code generieren, langsam inflationäre Ausmaße annimmt, liegen Sie damit nicht falsch.

Dabei kommen jedoch immer noch Produkte auf den Markt, die mit neuen, innovativen Ansätzen überzeugen wollen. In diese Kategorie fällt auch Zencoder.   

Was Zencoder abhebt

Wie seine Konkurrenten (dazu später mehr) will auch Zencoder Entwickler dazu befähigen, bessere Softwareprodukte schneller auszuliefern. Das sollen in erster Linie zwei Features realisieren:

Mit dem sogenannten Repo Grokking soll das Tool komplette Code Repositories lesen und „verstehen“ können. Das gewährleistet laut dem Anbieter ein „tiefes, kontextuales Verständnis“, das zu relevanteren und präziseren Code-Vorschlägen beitragen soll.

KI-Agenten sollen bei Zencoder nicht nur Vorschläge liefern, sondern sind nahtlos in die Entwickler-Workflows integriert und auch dazu in der Lage, Code zu reparieren und Unit-Tests zu generieren.

Zencoder steht für Visual Studio Code sowie JetBrains IDEs zum Download zur Verfügung. Weitere Integrationen sind derzeit in Arbeit. Davon abgesehen, unterstützt der KI-Codierungsassistent mittlerweile mehr als 70 Programmiersprachen. Darunter befinden sich auch:

Python,

Java,

JavaScript,

TypeScript,

C#, und

Kotlin.

In Sachen Large Language Models (LLMs) dürfen Zencode-Benutzer zwischen Chat GPT, Claude und benutzerdefinierten Modellen wählen. Allerdings setzt Zencoder nicht nur auf ein LLM, um Code zu generieren und damit zusammenhängende Funktionen auszuführen, sondern auch auf eine Pipeline:

Bei Zencoder wird der Code vorverarbeitet, um Kontext für das LLM bereitzustellen. Anschließend wird der Code analysiert und einer Parsing-Session unterzogen, um sicherzustellen, dass er korrekt ist und hohen Qualitätsansprüchen genügt.Zencoder

Auf der linken Seite sehen Sie die von Zencoder gelieferte Erklärung für den Code auf der rechten Bildschirmhälfte – ohne vorherigen Repository-Scan.IDG

Zencoder im Praxistest

Wir haben uns die Schlüssel-Features von Zencoder im Test etwas näher angesehen.

Repo Grokking

Das Repo-Grokking-Feature funktioniert im Wesentlichen automatisch: Sobald Sie einen Workspace öffnen (der zum Beispiel über Git gemanagt wird), erkennt Zencoder diesen und erfasst den Code. In diesem Zuge erstellt das KI-Tool für Entwickler Embeddings, die in einer Cloud-basierten Vektordatenbank für RAG-Abfragen gespeichert werden. Darüber hinaus erstellt Zencoder auch ein Diagramm, das die Struktur der Codebasis repräsentiert. Aus Datenschutzgründen wird der Workspace dabei nicht kopiert. Wird das Repository aktualisiert, erhalten auch die Vektoren und besagtes Diagramm ein Update.

Sobald das Tool die Codebasis „verstanden“ hat, kann es dieses Wissen einbringen, um Code zu generieren, zu vervollständigen und zu reparieren – oder auch für Chat-Anfragen nutzen.

Links oben sehen Sie die Erklärung, die Zencoder nach der Analyse des gesamten Haystack Repository geliefert hat. Sie enthält auch Informationen, die nicht im entsprechenden README-File enthalten sind.IDG

Agentic Repair

Dass Zencoder in der Lage ist, Codebasen zu „verstehen“, kommt auch den integrierten KI-Agenten zugute – etwa, wenn es darum geht:

Code zu reparieren,

Unit-Tests zu erstellen, oder

Probleme in Echtzeit zu lösen.

Derzeit stehen zwei vordefinierte Agenten zur Verfügung – für Unit Tests und zu Coding-Zwecken. Darüber hinaus gibt es auch die Möglichkeit, benutzerdefinierte Agenten aufzusetzen.

Das Zencoder-Interface, um benutzerdefinierte Agenten aufzusetzen.IDG

Zencoder im Vergleich zur Konkurrenz

Die Macher von Zencoder bieten auf ihrer Webseite zahlreiche Vergleiche mit Konkurrenzprodukten – darunter Github Copilot, Codeium und Tabnine. Allerdings sind die mit Vorsicht zu genießen, weil sie vor allem darauf ausgelegt scheinen, das eigene Produkt gut, respektive besser aussehen zu lassen. Zudem fehlen einige Konkurrenten gänzlich – etwa Solver (das unserer Meinung nach den direkten Vergleich mit Zencoder gewinnt).

Ansonsten ist Zencoder in etwa auf Augenhöhe mit seiner Konkurrenz – je nachdem, welchen Bereich man in Augenschein nimmt. So können einige Produkte wie Solver oder auch Github Copilot noch mehr und erkennen auch komplexe Fehler auf Repository-Ebene – oder generieren neben Unit- auch noch Integrationstests.

Auf der linken Seite sehen Sie die Erklärung von Zencoder zu einer C++-Sorting-Funktion. Auf der rechten Seite sehen Sie die Information, die Github Copilot zum gleichen Code liefert.IDG

Das Preisgefüge von Zencoder

Zencoder steht in einer kostenfreien Testversion zur Verfügung, die sämtliche Kernfunktionen in vollem Umfang enthält. Darüber hinaus steht das Tool auch in drei verschiedenen Preisplänen zur Verfügung:

Free ist der kostenlose Plan, der unbegrenzte Code-Vervollständigungen und Chats für bis zu zehn Arbeitsplätze beinhaltet. Fortschrittliche Funktionen wie KI-Agenten sind hierbei Grenzen gesetzt, Repo Grokking nicht verfügbar.

Der Business-Plan beinhaltet bis zu 200 „Seats“, fortschrittlichere KI-Anfragen und Repo Grokking sowie Early Access zu neuen Funktionen. Das kostet pro Benutzer und Monat 19 US-Dollar.

Der Enterprise-Plan beinhaltet unbegrenzt viele Arbeitsplätze und bietet neben Priority Support auch Single-Sign On und benutzerdefiniertes Feintuning von Modellen. Das kostet pro User und Monat 39 US-Dollar.

Zencoder-Testfazit: Ein ehrgeiziger Versuch

Der Coding-Assistent Zencoder stellt einen ehrgeizigen Versuch dar, im Markt für KI-Codierungsassistenten Fuß zu fassen – ist aber noch reichlich grün hinter den Ohren.  

Eine Pipeline mit Fehlerkorrektur einzusetzen, um Halluzinationen zu vermeiden, ist zwar auf dem Papier ein vielversprechender Ansatz. In der Praxis funktioniert das aber nicht unbedingt besser als ein Modell, das direkt korrekten Code generiert und Halluzinationen „intern unterdrückt“.

Mit Blick auf das Repo-Grokking-Feature ist zu sagen, dass dieses ohne Zweifel besseren Kontext erzeugt, als einfach die im Editor geöffneten Seiten zu analysieren. Allerdings verursacht die Analyse größerer Repositories erheblichen Zeitaufwand – und scheinbar führt Zencoder diesen Prozess bei jeder Repository-Aktualisierung von Grund auf neu durch.

Aktuell ist Zencoder empfehlenswert, um zu testen und zu experimentieren. Ein Abonnement abzuschließen, rentiert sich hingegen (noch) nicht. Das könnte sich jedoch in Zukunft ändern, wenn das Tool entsprechend weiterentwickelt wird. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zencoder im Test​ Weiterlesen »

8 Tipps für Wichtigtuer: So wirken Sie kompetent im Online-Meeting​

Allgemein

Vorsicht, Sarkasmus! Natürlichkeit hin oder her. Aus Karrieregründen sollte man sich während einer Videokonferenz auch mal verstellen. Foto: Studio Romantic – shutterstock.com Home-Office und Hybrid Work haben es nicht unbedingt einfacher für Karrieristen und Karrieristinnen (zwecks besserer Lesbarkeit wird im fortlaufenden Text das Maskulin verwendet) gemacht, in Meetings die Aufmerksamkeit des Management und der direkten Vorgesetzten auf sich zu lenken. So ist es in Online-Konferenzen etwa nicht möglich, sich geschickt in der Nähe der Führungsmannschaft zu platzieren. Dennoch müssen Sie nicht den Kopf in den Sand stecken: Mit diesen acht Tipps ist Ihnen die Beförderung – und die Verachtung Ihrer Kollegen – fast sicher. 1. Mein Haus, mein Auto, mein Boot Anders als in physischen Meetings ist es in Teams, Zoom & Co. nicht so leicht, allein mit Ihrem adretten Aussehen und Auftreten für Aufmerksamkeit zu sorgen. Gepflegtes Äußeres spielt natürlich auch eine Rolle, wichtiger sind aber Kameraperspektive, Ausleuchtung – und nicht zu vergessen das Hintergrundbild. Dieses stellt praktisch die Bühne dar, auf der Sie auftreten und sollte entsprechend mit Bedacht ausgewählt werden. Adrett gekleidet, aufgeräumter Schreibtisch und das virtuelle Regal voller Fachbücher – so macht man auch im Home-Office Karriere Foto: Andrey_Popov – shutterstock.com Ein lustiges Urlaubsbild etwa erleichtert den Smalltalk mit der Führungsriege – vor allem, wenn Sie noch neu im Unternehmen sind. Ihr Streben nach Höherem bringen Sie jedoch mit einem Flugzeug-Cockpit oder Raumschiff als Hintergrund deutlich besser zum Ausdruck. Wollen Sie dagegen Ihr Expertenwissen zur Schau stellen, ist vielleicht ein volles Bücherregal der passende Hintergrund – keine Sorge, den gibt es auch virtuell als Vorlage. 2. Heute live aus XY Auch anderweitig können Sie mit dem richtigen Hintergrund ausdrücken, wie ungeheuer wichtig das Meeting und natürlich auch Sie selbst sind. Dabei sein ist alles, egal, ob Sie sich trotz wackliger Verbindung aus dem ICE zuschalten oder mit dem Auto auf dem Gästeparkplatz bei Microsoft stehen. Allzeit bereit für den nächsten Karrieresprung – solange das Bahn-WLAN nicht schlapp macht Foto: frantic00 – shutterstock.com Lediglich die Check-in-Bereiche von Flughäfen sollte man aus Gründen der Nachhaltigkeit nur äußerst selten und mit Bedacht für diese Form der Selbstdarstellung wählen. Ähnliches gilt, wenn man in der Finanzbuchhaltung, dem Lager oder anderen Bereichen ohne viel Reisetätigkeit arbeitet – es könnte eventuell falsch interpretiert werden. 3. Falls es noch keiner mitbekommen hat … Auch wenn Sie gerade nicht auf einem Geschäftstermin sind, müssen Sie Ihr Licht nicht hinter den Scheffel stellen. Berichten Sie in Teamkonferenzen ausgiebig, mit welchen interessanten Leuten Sie vor kurzem gesprochen haben und wen Sie gleich treffen werden. Falls der Zeitpunkt gerade nicht passt, etwa weil es sich um ein konzernweites Townhall-Meeting handelt, hilft ein kleiner Kniff: Verabschieden Sie sich einfach gegen Ende der Veranstaltung im Chat von allen Teilnehmern mit dem Hinweis, dass Sie jetzt in ein wichtiges Interview mit Kunden xy müssen. Alternativ können Sie auch zu Beginn eines Meetings groß ankündigen, dass Sie sich wegen eines superwichtigen Termins etwas verspäten. 4. Emotionen zeigen Überhaupt ist die Chat-Funktion das Mittel schlechthin, um sich in Online-Meetings auch zwischendurch bei Vorgesetzten und Mitarbeitern bemerkbar zu machen, ohne gleich das Wort zu ergreifen: Reagieren Sie auf alles, was in der Konferenz passiert, indem Sie fleißig auf den Herzchen- und Applaus-Button klicken, Fragen stellen oder mehr oder weniger passende Links in den Chat stellen. Emotionen zeigen – und das am besten oft und öffentlich! Foto: PeopleImages.com – Yuri A – shutterstock.com Wichtig dabei: Ja keine persönliche Chat-Nachricht schreiben, wenn Sie einem Vortragenden ein besonderes Lob oder Glückwünsche aussprechen wollen – es muss das gesamte Publikum erfahren! 5. Am Ball bleiben Auch was die eigene Redeleistung angeht, gibt es karrieretechnisch Einiges zu beachten. Wussten Sie, dass beim Fußball in der Regel die Mannschaft mit dem höheren Ballbesitz gewinnt? Diesen Umstand sollten Sie sich – natürlich nur im übertragenen Sinne – auch in Meetings zu Nutze machen: Bleiben Sie am Ball, sobald Sie das Wort ergreifen, indem Sie die Ausführungen Ihres Vorredners loben, kleine Anekdoten in Ihren Epilog einbauen und herumschwadronieren, was das Zeug hält. Lange Redezeiten prägen sich nicht nur beim Management ein, sondern werfen auch den einen oder anderen Konkurrenten aus dem Rennen. Foto: Girts Ragelis – shutterstock.com Und falls Ihnen tatsächlich mal die Luft ausgeht: Kurz verschnaufen und die nächste Rede-Attacke starten. Dabei müssen Sie auch vor kleinen Fouls nicht zurückschrecken, etwa indem Sie Rivalen mit der Mute-Taste stummschalten (nur in größeren Meetings anwenden!). 6. Ergreifen Sie das Kommando Kommt tatsächlich mal jemand anderes zu Wort, dürfen Sie auf gar keinen Fall eine zu passive Zuhörerrolle annehmen. Ergreifen Sie das Kommando und verunsichern Sie Ihren potenziellen Rivalen, indem Sie kontinuierlich Zwischenfragen stellen oder ihn bitten, noch einmal die vorangegangene Powerpoint-Folie zu zeigen. Ein geschickter Winkelzug, der in analogen wie digitalen Meetings funktioniert, ist auch die Praxis, das Gesagte noch einmal mit eigenen Worten zusammenzufassen. Dies zeigt nicht nur, dass Sie alles verstanden haben, sondern stellt Sie in den Augen der Vorgesetzten automatisch auf die gleiche Stufe wie den Vortragenden selbst. 7. “Ich zeichne das mal kurz auf” Powerpoint-Schlachten waren gestern, wahre Strategen nutzten in Meetings immer schon ein Whiteboard, um scheinbar spontan ihre genialen Ideen vor allen Augen aufzuzeichnen. Nicht ohne Grund: Wer es schafft, die neue Business-Ausrichtung für alle verständlich auf einem Bogen Papier darzulegen, kann sich der nächsten Beförderung fast sicher sein. Dies gilt in Online-Meetings gleich in doppelter Hinsicht: Wer das mit der Collaboration-Lösung verknüpfte digitale Whiteboard zu beherrschen vermag, beweist, dass er nicht nur von Strategie, sondern auch von der Technik eine Ahnung hat. 8. Bitte noch kurz drinbleiben Nach dem Meeting ist vor dem Meeting – und diese Chance sollten Sie nutzen, um im Nachgang noch ein paar persönlichere Worte mit Ihren Vorgesetzten auszutauschen. Der große Vorteil: Coram Publico darauf angesprochen, können die Chefs Ihre Aufforderung nur schwer ablehnen – gleichzeitig zeigen Sie Ihren Kollegen und Rivalen, wo die Harke hängt. 

8 Tipps für Wichtigtuer: So wirken Sie kompetent im Online-Meeting​ Vorsicht, Sarkasmus!

Natürlichkeit hin oder her. Aus Karrieregründen sollte man sich während einer Videokonferenz auch mal verstellen.
Foto: Studio Romantic – shutterstock.com

Home-Office und Hybrid Work haben es nicht unbedingt einfacher für Karrieristen und Karrieristinnen (zwecks besserer Lesbarkeit wird im fortlaufenden Text das Maskulin verwendet) gemacht, in Meetings die Aufmerksamkeit des Management und der direkten Vorgesetzten auf sich zu lenken.

So ist es in Online-Konferenzen etwa nicht möglich, sich geschickt in der Nähe der Führungsmannschaft zu platzieren. Dennoch müssen Sie nicht den Kopf in den Sand stecken: Mit diesen acht Tipps ist Ihnen die Beförderung – und die Verachtung Ihrer Kollegen – fast sicher.

1. Mein Haus, mein Auto, mein Boot

Anders als in physischen Meetings ist es in Teams, Zoom & Co. nicht so leicht, allein mit Ihrem adretten Aussehen und Auftreten für Aufmerksamkeit zu sorgen. Gepflegtes Äußeres spielt natürlich auch eine Rolle, wichtiger sind aber Kameraperspektive, Ausleuchtung – und nicht zu vergessen das Hintergrundbild. Dieses stellt praktisch die Bühne dar, auf der Sie auftreten und sollte entsprechend mit Bedacht ausgewählt werden.

Adrett gekleidet, aufgeräumter Schreibtisch und das virtuelle Regal voller Fachbücher – so macht man auch im Home-Office Karriere
Foto: Andrey_Popov – shutterstock.com

Ein lustiges Urlaubsbild etwa erleichtert den Smalltalk mit der Führungsriege – vor allem, wenn Sie noch neu im Unternehmen sind. Ihr Streben nach Höherem bringen Sie jedoch mit einem Flugzeug-Cockpit oder Raumschiff als Hintergrund deutlich besser zum Ausdruck. Wollen Sie dagegen Ihr Expertenwissen zur Schau stellen, ist vielleicht ein volles Bücherregal der passende Hintergrund – keine Sorge, den gibt es auch virtuell als Vorlage.

2. Heute live aus XY

Auch anderweitig können Sie mit dem richtigen Hintergrund ausdrücken, wie ungeheuer wichtig das Meeting und natürlich auch Sie selbst sind. Dabei sein ist alles, egal, ob Sie sich trotz wackliger Verbindung aus dem ICE zuschalten oder mit dem Auto auf dem Gästeparkplatz bei Microsoft stehen.

Allzeit bereit für den nächsten Karrieresprung – solange das Bahn-WLAN nicht schlapp macht
Foto: frantic00 – shutterstock.com

Lediglich die Check-in-Bereiche von Flughäfen sollte man aus Gründen der Nachhaltigkeit nur äußerst selten und mit Bedacht für diese Form der Selbstdarstellung wählen. Ähnliches gilt, wenn man in der Finanzbuchhaltung, dem Lager oder anderen Bereichen ohne viel Reisetätigkeit arbeitet – es könnte eventuell falsch interpretiert werden.

3. Falls es noch keiner mitbekommen hat …

Auch wenn Sie gerade nicht auf einem Geschäftstermin sind, müssen Sie Ihr Licht nicht hinter den Scheffel stellen. Berichten Sie in Teamkonferenzen ausgiebig, mit welchen interessanten Leuten Sie vor kurzem gesprochen haben und wen Sie gleich treffen werden.

Falls der Zeitpunkt gerade nicht passt, etwa weil es sich um ein konzernweites Townhall-Meeting handelt, hilft ein kleiner Kniff: Verabschieden Sie sich einfach gegen Ende der Veranstaltung im Chat von allen Teilnehmern mit dem Hinweis, dass Sie jetzt in ein wichtiges Interview mit Kunden xy müssen. Alternativ können Sie auch zu Beginn eines Meetings groß ankündigen, dass Sie sich wegen eines superwichtigen Termins etwas verspäten.

4. Emotionen zeigen

Überhaupt ist die Chat-Funktion das Mittel schlechthin, um sich in Online-Meetings auch zwischendurch bei Vorgesetzten und Mitarbeitern bemerkbar zu machen, ohne gleich das Wort zu ergreifen: Reagieren Sie auf alles, was in der Konferenz passiert, indem Sie fleißig auf den Herzchen- und Applaus-Button klicken, Fragen stellen oder mehr oder weniger passende Links in den Chat stellen.

Emotionen zeigen – und das am besten oft und öffentlich!
Foto: PeopleImages.com – Yuri A – shutterstock.com

Wichtig dabei: Ja keine persönliche Chat-Nachricht schreiben, wenn Sie einem Vortragenden ein besonderes Lob oder Glückwünsche aussprechen wollen – es muss das gesamte Publikum erfahren!

5. Am Ball bleiben

Auch was die eigene Redeleistung angeht, gibt es karrieretechnisch Einiges zu beachten. Wussten Sie, dass beim Fußball in der Regel die Mannschaft mit dem höheren Ballbesitz gewinnt? Diesen Umstand sollten Sie sich – natürlich nur im übertragenen Sinne – auch in Meetings zu Nutze machen: Bleiben Sie am Ball, sobald Sie das Wort ergreifen, indem Sie die Ausführungen Ihres Vorredners loben, kleine Anekdoten in Ihren Epilog einbauen und herumschwadronieren, was das Zeug hält.

Lange Redezeiten prägen sich nicht nur beim Management ein, sondern werfen auch den einen oder anderen Konkurrenten aus dem Rennen.
Foto: Girts Ragelis – shutterstock.com

Und falls Ihnen tatsächlich mal die Luft ausgeht: Kurz verschnaufen und die nächste Rede-Attacke starten. Dabei müssen Sie auch vor kleinen Fouls nicht zurückschrecken, etwa indem Sie Rivalen mit der Mute-Taste stummschalten (nur in größeren Meetings anwenden!).

6. Ergreifen Sie das Kommando

Kommt tatsächlich mal jemand anderes zu Wort, dürfen Sie auf gar keinen Fall eine zu passive Zuhörerrolle annehmen. Ergreifen Sie das Kommando und verunsichern Sie Ihren potenziellen Rivalen, indem Sie kontinuierlich Zwischenfragen stellen oder ihn bitten, noch einmal die vorangegangene Powerpoint-Folie zu zeigen. Ein geschickter Winkelzug, der in analogen wie digitalen Meetings funktioniert, ist auch die Praxis, das Gesagte noch einmal mit eigenen Worten zusammenzufassen. Dies zeigt nicht nur, dass Sie alles verstanden haben, sondern stellt Sie in den Augen der Vorgesetzten automatisch auf die gleiche Stufe wie den Vortragenden selbst.

7. “Ich zeichne das mal kurz auf”

Powerpoint-Schlachten waren gestern, wahre Strategen nutzten in Meetings immer schon ein Whiteboard, um scheinbar spontan ihre genialen Ideen vor allen Augen aufzuzeichnen. Nicht ohne Grund: Wer es schafft, die neue Business-Ausrichtung für alle verständlich auf einem Bogen Papier darzulegen, kann sich der nächsten Beförderung fast sicher sein. Dies gilt in Online-Meetings gleich in doppelter Hinsicht: Wer das mit der Collaboration-Lösung verknüpfte digitale Whiteboard zu beherrschen vermag, beweist, dass er nicht nur von Strategie, sondern auch von der Technik eine Ahnung hat.

8. Bitte noch kurz drinbleiben

Nach dem Meeting ist vor dem Meeting – und diese Chance sollten Sie nutzen, um im Nachgang noch ein paar persönlichere Worte mit Ihren Vorgesetzten auszutauschen. Der große Vorteil: Coram Publico darauf angesprochen, können die Chefs Ihre Aufforderung nur schwer ablehnen – gleichzeitig zeigen Sie Ihren Kollegen und Rivalen, wo die Harke hängt.

8 Tipps für Wichtigtuer: So wirken Sie kompetent im Online-Meeting​ Weiterlesen »

Nach oben scrollen
×