Computerhaus Quickborn

Allgemein

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​

Allgemein

Der Einsatz des Industrial IoT (IIoT) führt vor allem zu einer effizienteren Produktion und verbesserten Produkten. Die Entwicklung neuer Geschäftsmodelle steht im Hintergrund. Größte Herausforderungen bei der Umsetzung sind der Mangel an qualifiziertem Personal und das Thema Datensicherheit. Shutterstock Germany only – Who is Danny Die meisten Firmen haben ihre primären Ziele bei der Einführung von IIoT-Anwendungen erreicht. Sie profitieren vor allem von einer effizienteren Produktion und verbesserten Produkten. Das zeigen die Ergebnisse der aktuellen IIoT-Studie, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Avanade und A1 Digital realisiert haben. Dazu wurden 330 Entscheider aus der DACH-Region zu ihren Ansichten, Plänen und Projekten rund um das Industrial Internet of Things befragt. Während der erste Teil unseres Artikels zu den Ergebnissen der Studie sich mit dem Status quo in deutschen Firmen befasst, stehen im zweiten Teil die Chancen sowie die technischen und organisatorischen Herausforderungen des IIoT im Vordergrund. IIoT – Ziele erreicht und Haken dran? In der Praxis haben die meisten Firmen die gesteckten Ziele erreicht. 57 Prozent der Firmen konnten mit ihren IIoT-Anwendungen ihre Produktionseffizienz erhöhen, 41 Prozent ihre Produktqualität verbessern. Jeweils rund einem Drittel der Unternehmen gelang es, mit Hilfe des IIoT die Ausfallzeiten zu minimieren, Betriebskosten zu reduzieren oder das Energiemanagement zu verbessern. Zukunftsorientierte Themen wie höhere Kundenzufriedenheit oder die Erschließung neuer Businessmodelle landen mit jeweils 20 Prozent auf den beiden letzten Plätzen. „Die Erschließung neuer Geschäftsmodelle, vor allem mit datenbasierten Services, erfordert einen gewissen Mut zum Risiko, eine langfristige Vision, ein gewisses Investment, oftmals einen kurz- bis mittelfristigen Umsatzrückgang und einen langen Atem“, betont Thomas Kanzler, Head of Digital Services, A1 Digital. Seiner Meinung nach können sich viele Unternehmen das im Moment gar nicht leisten und müssen daher ihren Fokus voll und ganz auf die Optimierung lenken. „Das ist vollkommen verständlich, kurz- bis mittelfristig notwendig, aber langfristig sicherlich fatal, um global kompetitiv zu bleiben“, so Kanzler weiter. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?quality=50&strip=all 5929w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Optimierung ist kurzfristig notwendig, langfristig braucht es mehr, sagt Thomas Kanzler, Head of Digital Services, A1 Digital. A1 Digital Deutschland GmbH Im Fokus: Automatisierung der Produktion Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung (53 Prozent), insbesondere in den großen Unternehmen. Dahinter folgen Predictive Maintenance (45 Prozent), sprich Zustandsüberwachung und vorausschauende Wartung, sowie Supply Chain Management und Logistik (44 Prozent). Weitere bedeutende Anwendungsfälle für das Industrial Internet of Things sind Energie- und Ressourcenmanagement, Anlagen- und Maschinenüberwachung sowie Qualitätskontrolle und -sicherung. All diese Einsatzszenarien stehen direkt oder indirekt mit der Effizienz der Produktion und dem Einsparen von Kosten/Ressourcen in Verbindung. Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung mit 53 Prozent. Research Services: Christine Plote „Industrial IoT spielt vor allem dann seine Stärken aus, wenn man den Blick nicht nur auf einzelne Maschinen oder Komponenten richtet, sondern auf den darüber liegenden Prozess. Für ein einzelnes Werk kann dies bedeuten, dass sich die Produktion vielfältig optimieren lässt, etwa durch Reduzierung von Ausschuss und Verkürzung von Cycle Times“, erklärt Marko Weisse, Avanade Industry X Lead. Mehr Transparenz in der Produktion ermöglicht Weisse zufolge eine gezielte Planung der erforderlichen Ressourcen, eine aktive Unterstützung der Mitarbeiter bei Entscheidungen sowie einen besseren Service. Er sieht zudem großes Potenzial für die Skalierung der Produktion im werksübergreifenden und internationalen Kontext, wenn solche Modelle auf alle Werke ausgerollt werden. „Einheitliche Standards sind ein Baustein dafür, besser und flexibler planen zu können, was wo produziert wird. Dies wird gerade auch heute im Kontext zunehmender geopolitischer Herausforderungen immer wichtiger, etwa der Verlagerung von Kapazitäten in die USA oder innerhalb von Europa“, so der Avanade-Manager. Das Industrial IoT spielt seine Stärken vor allem in den Prozessen aus, sagt Marko Weisse, Avanade Industry X Lead.Avanade Deutschland GmbH Der Studie zufolge vernetzt ein Drittel der Firmen ihre IIoT-Systeme EU-weit, ein Viertel national beziehungsweise in der DACH-Region (Deutschland, Österreich, Schweiz). 22 Prozent binden länderübergreifend Standorte und Partner in ihre IIoT-Systeme ein. Über mehrere Kontinente hinweg agieren 12 Prozent der Firmen, insbesondere aber die großen Unternehmen ab 1.000 Mitarbeitern (18 Prozent). Ähnlich sieht das Bild bei der globalen Vernetzung der IIoT-Systeme aus (acht Prozent allgemein, 14 Prozent große Firmen). Es mangelt an qualifiziertem Personal Als größte Herausforderungen bei der Umsetzung dieser IIoT-Anwendungen nannten 41 Prozent der Befragten den Mangel an qualifiziertem Personal, 40 Prozent Bedenken bei Datensicherheit und Datenschutz. In etwas mehr als einem Drittel der Unternehmen stellen die hohen Investitionskosten sowie die Komplexität der Integration in bestehende Systeme Hürden für das IIoT dar. Hinzu kommen technologische Kompatibilitätsprobleme, Schwierigkeiten bei der Datenanalyse und -interpretation und Bedrohungen der industriellen Cybersicherheit durch Angreifer. Kanzler von A1 Digital sieht eine weitere Herausforderung darin, dass IIoT, OT und IT oft getrennt betrachtet würden: „Deshalb ist es umso wichtiger, eine zentralisierte Daten- und Sicherheitsstruktur zwischen den drei Bereichen zu schaffen und die Prozesse dementsprechend zu konvergieren. Es bedarf es einer ganzheitlichen Herangehensweise, die technologische Vorhaben und die aktive Beteiligung der MitarbeiterInnen in den jeweiligen Abteilungen einschließt.“ OT muss sich auf NIS2 vorbereiten Auch Standards und gesetzliche Vorgaben wie die europäische NIS2-Richtlinie (Network and Information Security) zur Verbesserung der Cybersecurity und des Schutzes kritischer Infrastrukturen sind für produzierende Firmen relevant. Die NIS2 tritt wohl im ersten Halbjahr 2025 in Kraft. Ein Teil der befragten Unternehmen der IIoT-Studie hat bereits organisatorische und technische OT-Schutzmaßnahmen (OT Operational Technology) zur Einhaltung der NIS2-Anforderungen umgesetzt. Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert, 47 Prozent bewerten ihre OT-Risiken kontinuierlich, 44 Prozent haben einen Business-Continuity-Plan aufgestellt. Weitere wichtige organisatorische Maßnahmen sind Awareness-Schulungen der Belegschaft, die umfassende Dokumentation der Systeme und Anlagen (Asset Management) sowie Patch-Management und Sicherheitsupdates. Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert. Research Services: Christine Plote Bei den technischen OT-Schutzmaßnahmen dominieren Themen wie die Einrichtung eines Security Operation Centers (SOC) (44 Prozent), Lösungen zum Security Information and Event Management (SIEM) (43 Prozent) oder zur Netzwerkzugangskontrolle (NAC) mit 38 Prozent. Firmen schützen sich zudem durch die Automatisierung von Sicherheitslösungen (SOAR-Lösungen), OT-Monitoring, Frühwarnsysteme, Netzwerksegmentierung oder Intrusion Detection Systeme (IDS) beziehungsweise Intrusion Prevention Systeme (IPS). Hoffnungsträger KI          Welche Technologien nutzt Ihr Unternehmen im Kontext mit dem Industrial IIoT bereits beziehungsweise plant es zu nutzen? Auf diese Frage antworten 58 Prozent der Unternehmen mit Künstlicher Intelligenz und maschinellem Lernen. Sie erhoffen sich durch den KI-Einsatz eine höhere Produktqualität, weniger Fehler und effizientere Prozesse. Laut Guido Burchartz, Avanade Industry Lead Products ASG, ermöglicht KI den Firmen, komplexe und systemübergreifende Zusammenhänge auf Basis historischer und aktueller Prozessdaten zu erkennen und daraus Planungsszenarien sowie konkrete Maßnahmen abzuleiten. 58 Prozent der Unternehmen nutzen im Kontext von IIoT bereits  Künstliche Intelligenz und maschinelles Lernen. Research Services: Christine Plote „Eine KI kann etwa dabei unterstützen das Know How aus 40+ Jahren Produktentwicklung effizient für die Entwicklung neuer Produkte nutzbar zu machen: Welche Rezepturen und Werkstoffkombinationen wurden bereits einmal wie entwickelt? Wie kann ich dies nutzen, um eine neue Rezeptur für ähnliche Rahmenbedingungen ohne hohen Forschungsaufwand zu entwickeln?“, erläutert Buchartz. Die digitalen Daten aus diesem Schritt lassen sich dann auch in allen Folgeschritten konsequent nutzen, etwa in der Produktion, um mit Hilfe von Messdaten aus der Produktion die Qualitätsüberwachung zu optimieren. Dabei aber gilt laut Buchartz: „KI-Anwendungen sind sehr stark von der Datenbasis abhängig; sie erfordern den Aufbau eines Datenpool oder eines Datenökosystems. Die eigentliche Wertschöpfung entsteht erst durch ein stetiges Nutzen der Daten und Lernen daraus. Dabei ist es wichtig, nicht in Silos zu denken und zu arbeiten.“ KI-Anwendungen sind sehr stark von der Datenbasis abhängig, warnt Guido Burchartz, Avanade Industry Lead Products ASG.Avanade Deutschland GmbH Hybride Vernetzung aus 5G und WLAN Ihre Produktionsstätten vernetzen die Industrieunternehmen mit verschiedenen Technologien. Am häufigsten kommt ein hybrides Modell mit 5G-Diensten und WLAN parallel zum Einsatz (48 Prozent), knapp gefolgt von VPN (47 Prozent). Jeweils 41 Prozent nutzen kabelgebundenes Industrial Ethernet und das LTE/5G-Netz, 39 Prozent nutzen Industrial WLAN (Wi-Fi 6/7). Nur 13 Prozent sind von LPWAN-Technologien wie NB-IoT oder LTE-M überzeugt, die speziell für das IoT entwickelt wurden und mit niedrigem Energieverbrauch und hoher Reichweite punkten sollen. Die häufigsten Anwendungen im Unternehmen mit Schnittstellen zum Industrial IoT sind ERP-Systeme (47 Prozent), die eine Art Daten-Drehscheibe für die Produktion bilden. Relativ knapp dahinter liegen Schnittstellen des IIoT-Systems zu CRM-Systemen (43 Prozent) und HR-Systemen (40 Prozent). Allerdings verzeichnen 47 Prozent der Firmen kleinere (25 Prozent) oder größere Probleme (22 Prozent) wegen nicht-standardisierter Schnittstellen. In 13 Prozent gab es andere Schnittstellenprobleme, die nichts mit der Standardisierung zu tun hatten. In immerhin 28 Prozent gab es keine Probleme mit den Schnittstellen. Der Hauptgrund: Mittlerweile sind in 56 Prozent der Firmen alle Schnittstellen standardisiert (bei den großen Firmen 63 Prozent). 35 Prozent planen den Aufbau standardisierter Schnittstellen, um die Interoperabilität zwischen der IIoT-Plattform und den bestehenden IT-Systemen sicherzustellen. Die neue Studie “Industrial IoT 2025” von CIO Research Services Research Services: Christine Plote Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Avanade Deutschland GmbH, A1 Digital Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 315 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 11. bis 18. November 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​ Der Einsatz des Industrial IoT (IIoT) führt vor allem zu einer effizienteren Produktion und verbesserten Produkten. Die Entwicklung neuer Geschäftsmodelle steht im Hintergrund. Größte Herausforderungen bei der Umsetzung sind der Mangel an qualifiziertem Personal und das Thema Datensicherheit.
Shutterstock Germany only – Who is Danny

Die meisten Firmen haben ihre primären Ziele bei der Einführung von IIoT-Anwendungen erreicht. Sie profitieren vor allem von einer effizienteren Produktion und verbesserten Produkten. Das zeigen die Ergebnisse der aktuellen IIoT-Studie, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Avanade und A1 Digital realisiert haben. Dazu wurden 330 Entscheider aus der DACH-Region zu ihren Ansichten, Plänen und Projekten rund um das Industrial Internet of Things befragt.

Während der erste Teil unseres Artikels zu den Ergebnissen der Studie sich mit dem Status quo in deutschen Firmen befasst, stehen im zweiten Teil die Chancen sowie die technischen und organisatorischen Herausforderungen des IIoT im Vordergrund.

IIoT – Ziele erreicht und Haken dran?

In der Praxis haben die meisten Firmen die gesteckten Ziele erreicht. 57 Prozent der Firmen konnten mit ihren IIoT-Anwendungen ihre Produktionseffizienz erhöhen, 41 Prozent ihre Produktqualität verbessern. Jeweils rund einem Drittel der Unternehmen gelang es, mit Hilfe des IIoT die Ausfallzeiten zu minimieren, Betriebskosten zu reduzieren oder das Energiemanagement zu verbessern. Zukunftsorientierte Themen wie höhere Kundenzufriedenheit oder die Erschließung neuer Businessmodelle landen mit jeweils 20 Prozent auf den beiden letzten Plätzen.

„Die Erschließung neuer Geschäftsmodelle, vor allem mit datenbasierten Services, erfordert einen gewissen Mut zum Risiko, eine langfristige Vision, ein gewisses Investment, oftmals einen kurz- bis mittelfristigen Umsatzrückgang und einen langen Atem“, betont Thomas Kanzler, Head of Digital Services, A1 Digital. Seiner Meinung nach können sich viele Unternehmen das im Moment gar nicht leisten und müssen daher ihren Fokus voll und ganz auf die Optimierung lenken. „Das ist vollkommen verständlich, kurz- bis mittelfristig notwendig, aber langfristig sicherlich fatal, um global kompetitiv zu bleiben“, so Kanzler weiter.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?quality=50&strip=all 5929w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Optimierung ist kurzfristig notwendig, langfristig braucht es mehr, sagt Thomas Kanzler, Head of Digital Services, A1 Digital. A1 Digital Deutschland GmbH

Im Fokus: Automatisierung der Produktion

Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung (53 Prozent), insbesondere in den großen Unternehmen. Dahinter folgen Predictive Maintenance (45 Prozent), sprich Zustandsüberwachung und vorausschauende Wartung, sowie Supply Chain Management und Logistik (44 Prozent). Weitere bedeutende Anwendungsfälle für das Industrial Internet of Things sind Energie- und Ressourcenmanagement, Anlagen- und Maschinenüberwachung sowie Qualitätskontrolle und -sicherung. All diese Einsatzszenarien stehen direkt oder indirekt mit der Effizienz der Produktion und dem Einsparen von Kosten/Ressourcen in Verbindung.

Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung mit 53 Prozent.
Research Services: Christine Plote

„Industrial IoT spielt vor allem dann seine Stärken aus, wenn man den Blick nicht nur auf einzelne Maschinen oder Komponenten richtet, sondern auf den darüber liegenden Prozess. Für ein einzelnes Werk kann dies bedeuten, dass sich die Produktion vielfältig optimieren lässt, etwa durch Reduzierung von Ausschuss und Verkürzung von Cycle Times“, erklärt Marko Weisse, Avanade Industry X Lead. Mehr Transparenz in der Produktion ermöglicht Weisse zufolge eine gezielte Planung der erforderlichen Ressourcen, eine aktive Unterstützung der Mitarbeiter bei Entscheidungen sowie einen besseren Service.

Er sieht zudem großes Potenzial für die Skalierung der Produktion im werksübergreifenden und internationalen Kontext, wenn solche Modelle auf alle Werke ausgerollt werden. „Einheitliche Standards sind ein Baustein dafür, besser und flexibler planen zu können, was wo produziert wird. Dies wird gerade auch heute im Kontext zunehmender geopolitischer Herausforderungen immer wichtiger, etwa der Verlagerung von Kapazitäten in die USA oder innerhalb von Europa“, so der Avanade-Manager.

Das Industrial IoT spielt seine Stärken vor allem in den Prozessen aus, sagt Marko Weisse, Avanade Industry X Lead.Avanade Deutschland GmbH

Der Studie zufolge vernetzt ein Drittel der Firmen ihre IIoT-Systeme EU-weit, ein Viertel national beziehungsweise in der DACH-Region (Deutschland, Österreich, Schweiz). 22 Prozent binden länderübergreifend Standorte und Partner in ihre IIoT-Systeme ein. Über mehrere Kontinente hinweg agieren 12 Prozent der Firmen, insbesondere aber die großen Unternehmen ab 1.000 Mitarbeitern (18 Prozent). Ähnlich sieht das Bild bei der globalen Vernetzung der IIoT-Systeme aus (acht Prozent allgemein, 14 Prozent große Firmen).

Es mangelt an qualifiziertem Personal

Als größte Herausforderungen bei der Umsetzung dieser IIoT-Anwendungen nannten 41 Prozent der Befragten den Mangel an qualifiziertem Personal, 40 Prozent Bedenken bei Datensicherheit und Datenschutz. In etwas mehr als einem Drittel der Unternehmen stellen die hohen Investitionskosten sowie die Komplexität der Integration in bestehende Systeme Hürden für das IIoT dar. Hinzu kommen technologische Kompatibilitätsprobleme, Schwierigkeiten bei der Datenanalyse und -interpretation und Bedrohungen der industriellen Cybersicherheit durch Angreifer.

Kanzler von A1 Digital sieht eine weitere Herausforderung darin, dass IIoT, OT und IT oft getrennt betrachtet würden: „Deshalb ist es umso wichtiger, eine zentralisierte Daten- und Sicherheitsstruktur zwischen den drei Bereichen zu schaffen und die Prozesse dementsprechend zu konvergieren. Es bedarf es einer ganzheitlichen Herangehensweise, die technologische Vorhaben und die aktive Beteiligung der MitarbeiterInnen in den jeweiligen Abteilungen einschließt.“

OT muss sich auf NIS2 vorbereiten

Auch Standards und gesetzliche Vorgaben wie die europäische NIS2-Richtlinie (Network and Information Security) zur Verbesserung der Cybersecurity und des Schutzes kritischer Infrastrukturen sind für produzierende Firmen relevant. Die NIS2 tritt wohl im ersten Halbjahr 2025 in Kraft. Ein Teil der befragten Unternehmen der IIoT-Studie hat bereits organisatorische und technische OT-Schutzmaßnahmen (OT Operational Technology) zur Einhaltung der NIS2-Anforderungen umgesetzt.

Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert, 47 Prozent bewerten ihre OT-Risiken kontinuierlich, 44 Prozent haben einen Business-Continuity-Plan aufgestellt. Weitere wichtige organisatorische Maßnahmen sind Awareness-Schulungen der Belegschaft, die umfassende Dokumentation der Systeme und Anlagen (Asset Management) sowie Patch-Management und Sicherheitsupdates.

Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert.
Research Services: Christine Plote

Bei den technischen OT-Schutzmaßnahmen dominieren Themen wie die Einrichtung eines Security Operation Centers (SOC) (44 Prozent), Lösungen zum Security Information and Event Management (SIEM) (43 Prozent) oder zur Netzwerkzugangskontrolle (NAC) mit 38 Prozent. Firmen schützen sich zudem durch die Automatisierung von Sicherheitslösungen (SOAR-Lösungen), OT-Monitoring, Frühwarnsysteme, Netzwerksegmentierung oder Intrusion Detection Systeme (IDS) beziehungsweise Intrusion Prevention Systeme (IPS).

Hoffnungsträger KI         

Welche Technologien nutzt Ihr Unternehmen im Kontext mit dem Industrial IIoT bereits beziehungsweise plant es zu nutzen? Auf diese Frage antworten 58 Prozent der Unternehmen mit Künstlicher Intelligenz und maschinellem Lernen. Sie erhoffen sich durch den KI-Einsatz eine höhere Produktqualität, weniger Fehler und effizientere Prozesse. Laut Guido Burchartz, Avanade Industry Lead Products ASG, ermöglicht KI den Firmen, komplexe und systemübergreifende Zusammenhänge auf Basis historischer und aktueller Prozessdaten zu erkennen und daraus Planungsszenarien sowie konkrete Maßnahmen abzuleiten.

58 Prozent der Unternehmen nutzen im Kontext von IIoT bereits  Künstliche Intelligenz und maschinelles Lernen.
Research Services: Christine Plote

„Eine KI kann etwa dabei unterstützen das Know How aus 40+ Jahren Produktentwicklung effizient für die Entwicklung neuer Produkte nutzbar zu machen: Welche Rezepturen und Werkstoffkombinationen wurden bereits einmal wie entwickelt? Wie kann ich dies nutzen, um eine neue Rezeptur für ähnliche Rahmenbedingungen ohne hohen Forschungsaufwand zu entwickeln?“, erläutert Buchartz. Die digitalen Daten aus diesem Schritt lassen sich dann auch in allen Folgeschritten konsequent nutzen, etwa in der Produktion, um mit Hilfe von Messdaten aus der Produktion die Qualitätsüberwachung zu optimieren.

Dabei aber gilt laut Buchartz: „KI-Anwendungen sind sehr stark von der Datenbasis abhängig; sie erfordern den Aufbau eines Datenpool oder eines Datenökosystems. Die eigentliche Wertschöpfung entsteht erst durch ein stetiges Nutzen der Daten und Lernen daraus. Dabei ist es wichtig, nicht in Silos zu denken und zu arbeiten.“

KI-Anwendungen sind sehr stark von der Datenbasis abhängig, warnt Guido Burchartz, Avanade Industry Lead Products ASG.Avanade Deutschland GmbH

Hybride Vernetzung aus 5G und WLAN

Ihre Produktionsstätten vernetzen die Industrieunternehmen mit verschiedenen Technologien. Am häufigsten kommt ein hybrides Modell mit 5G-Diensten und WLAN parallel zum Einsatz (48 Prozent), knapp gefolgt von VPN (47 Prozent). Jeweils 41 Prozent nutzen kabelgebundenes Industrial Ethernet und das LTE/5G-Netz, 39 Prozent nutzen Industrial WLAN (Wi-Fi 6/7). Nur 13 Prozent sind von LPWAN-Technologien wie NB-IoT oder LTE-M überzeugt, die speziell für das IoT entwickelt wurden und mit niedrigem Energieverbrauch und hoher Reichweite punkten sollen.

Die häufigsten Anwendungen im Unternehmen mit Schnittstellen zum Industrial IoT sind ERP-Systeme (47 Prozent), die eine Art Daten-Drehscheibe für die Produktion bilden. Relativ knapp dahinter liegen Schnittstellen des IIoT-Systems zu CRM-Systemen (43 Prozent) und HR-Systemen (40 Prozent). Allerdings verzeichnen 47 Prozent der Firmen kleinere (25 Prozent) oder größere Probleme (22 Prozent) wegen nicht-standardisierter Schnittstellen. In 13 Prozent gab es andere Schnittstellenprobleme, die nichts mit der Standardisierung zu tun hatten. In immerhin 28 Prozent gab es keine Probleme mit den Schnittstellen. Der Hauptgrund: Mittlerweile sind in 56 Prozent der Firmen alle Schnittstellen standardisiert (bei den großen Firmen 63 Prozent). 35 Prozent planen den Aufbau standardisierter Schnittstellen, um die Interoperabilität zwischen der IIoT-Plattform und den bestehenden IT-Systemen sicherzustellen.

Die neue Studie “Industrial IoT 2025” von CIO Research Services
Research Services: Christine Plote

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Avanade Deutschland GmbH, A1 Digital Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 315 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 11. bis 18. November 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​ Weiterlesen »

Mehr Speed und Power für Glasfasernetze​

Allgemein

Projekt WESORAM: Ein Flüssigkristallspiegel splittet die Lichtsignale auf und verteilt die Signale flexibel auf verschiedene Glasfaser.Fraunhofer IOF Optische Glasfasernetze kommen an ihre Leistungsgrenze? Was vor kurzem noch undenkbar schien, wird in Zeiten von autonomem Fahren, 6G-Mobilfunk, Quantenkommunikation oder KI langsam zu einer realen Herausforderung. Die herkömmlichen faseroptischen Systeme sind für diese Zukunftstechnologien nicht mehr leistungsstark genug. Schon heute nutzen Glasfasernetze Techniken wie das Wellenlängen-Multiplexing (DWDM), um den ständig steigenden Bedarf an höheren Bandbreiten zu decken. Dabei wird Licht, das als Träger für den Datenstrom fungiert, mithilfe eines optischen Schalters in mehrere Frequenzen (Farben) gesplittet. Allerdings stößt das Verfahren langsam an seine Grenzen, da nur ein begrenztes Frequenz-, beziehungsweise Farbspektrum nutzbar ist. Mehr Fasern parallel nutzen Um die Leistungsfähigkeit der Glasfasernetze weiter zu steigern, hatten Forscher des Fraunhofer IOF folgende Idee: Warum eingehende Lichtsignale nur in verschiedene Frequenzen/Farben aufsplitten? Warum kann man ein Lichtsignal und damit den Datenstrom nicht auch auf verschiedene, separate Glasfasern aufsplitten? Aus dem Gedankenspiel entstand WESORAM – ein wellenlängenselektiver Schalter für optisches Raum-Multiplexing. Dazu haben die Forscher zunächst den Schaltmechanismus eines LCoS-Schalters so flexibilisiert, dass er die Weiterleitung des Datenstroms in beliebige Fasern ermöglicht. Raum-Multiplexing Beim klassischen DWDM schickt ein Flüssigkristallspiegel (LCoS, Liquid Crystal on Silicon) die Lichtsignale an die Ausgangsfaser weiter, nachdem sie zuvor durch ein spektrometrisches Gitter in verschiedene Wellenlängen/Farben aufgeteilt wurden. Bei WESORAM wird nun das eingehende Lichtsignal – nachdem es zuvor im Gitter aufgesplittet wurde – von dem Flüssigkristallspiegel auf verschiedene Fasern geschickt. Das Wellenlängenmultiplexverfahren wird also zu einem Raummultiplexverfahren ausgeweitet. Ergänzend zum Prinzip „mehrere-Frequenzen-eine-Faser“ ist damit auch das Prinzip „eine-Frequenz-mehrere-Fasern“ anwendbar. Verdopplung der Kapazität Den Forschern gelang es so, die Signale von acht Eingangskanälen beliebig auf 16 Ausgangskanäle zu schicken. „Durch diese Kreuzverschaltung steigt die Kapazität der Netze, denn das Senden und Weiterleiten der Datenströme ist viel flexibler. Das ist besonders nützlich, wenn die Daten über längere Strecken, etwa zwischen Städten, geschickt werden“, beschreibt Steffen Trautmann, Projektleiter und Experte für optische Systeme am Fraunhofer IOF, einen Vorteil des Verfahrens. Projekt Multi-Cap: Der Verstärker kann die Signale in bis zu zwölf Datenkanäle in einem Faserstrang verstärken. Fraunhofer IOF Ein weiterer Vorteil besteht darin, dass insgesamt weniger optische Schalter für das Glasfasernetz benötigt werden. Dadurch sinken die Kosten bei der Installation und im laufenden Betrieb. Mehr Datenpakete Gleichzeitig gelang es den Wissenschaftlern, die Lichtfrequenz des Datenstroms um den Faktor 4 schmalbandiger zu gestalten. Damit sind die Datenpakete dementsprechend kleiner. So lassen sich viel mehr Datenpakete gleichzeitig durch die Lichtleiter auf die Reise schicken – sprich die Latenz sinkt und die Geschwindigkeit steigt. Ergänzt wird WESORAM durch das Projekt Multi-Cap. Hier arbeiten die Forscher daran, die Zahl der Kanäle für die parallele Datenübertragung zu erhöhen. Klassische Glasfaser enthalten einen Datenkanal und einen Signalkern, Mehrkernfasern dagegen nutzen mehrere Kerne für die Datenübertragung. Obwohl diese Kabel viel mehr Leiter enthalten, sind sie kaum dicker. Das Team am Fraunhofer IOF hat die für Mehrkernfasern nötigen Signalverstärker entwickelt. Diese können bis zu zwölf Kanäle gleichzeitig bedienen und liefern eine Verstärkung von mehr als 20 dB pro Kanal. Die Technik ist so deutlich energieeffizienter, da nur ein Verstärkermodul für zwölf Kanäle erforderlich ist. 

Mehr Speed und Power für Glasfasernetze​ Projekt WESORAM: Ein Flüssigkristallspiegel splittet die Lichtsignale auf und verteilt die Signale flexibel auf verschiedene Glasfaser.Fraunhofer IOF

Optische Glasfasernetze kommen an ihre Leistungsgrenze? Was vor kurzem noch undenkbar schien, wird in Zeiten von autonomem Fahren, 6G-Mobilfunk, Quantenkommunikation oder KI langsam zu einer realen Herausforderung. Die herkömmlichen faseroptischen Systeme sind für diese Zukunftstechnologien nicht mehr leistungsstark genug.

Schon heute nutzen Glasfasernetze Techniken wie das Wellenlängen-Multiplexing (DWDM), um den ständig steigenden Bedarf an höheren Bandbreiten zu decken. Dabei wird Licht, das als Träger für den Datenstrom fungiert, mithilfe eines optischen Schalters in mehrere Frequenzen (Farben) gesplittet. Allerdings stößt das Verfahren langsam an seine Grenzen, da nur ein begrenztes Frequenz-, beziehungsweise Farbspektrum nutzbar ist.

Mehr Fasern parallel nutzen

Um die Leistungsfähigkeit der Glasfasernetze weiter zu steigern, hatten Forscher des Fraunhofer IOF folgende Idee: Warum eingehende Lichtsignale nur in verschiedene Frequenzen/Farben aufsplitten? Warum kann man ein Lichtsignal und damit den Datenstrom nicht auch auf verschiedene, separate Glasfasern aufsplitten?

Aus dem Gedankenspiel entstand WESORAM – ein wellenlängenselektiver Schalter für optisches Raum-Multiplexing. Dazu haben die Forscher zunächst den Schaltmechanismus eines LCoS-Schalters so flexibilisiert, dass er die Weiterleitung des Datenstroms in beliebige Fasern ermöglicht.

Raum-Multiplexing

Beim klassischen DWDM schickt ein Flüssigkristallspiegel (LCoS, Liquid Crystal on Silicon) die Lichtsignale an die Ausgangsfaser weiter, nachdem sie zuvor durch ein spektrometrisches Gitter in verschiedene Wellenlängen/Farben aufgeteilt wurden. Bei WESORAM wird nun das eingehende Lichtsignal – nachdem es zuvor im Gitter aufgesplittet wurde – von dem Flüssigkristallspiegel auf verschiedene Fasern geschickt.

Das Wellenlängenmultiplexverfahren wird also zu einem Raummultiplexverfahren ausgeweitet. Ergänzend zum Prinzip „mehrere-Frequenzen-eine-Faser“ ist damit auch das Prinzip „eine-Frequenz-mehrere-Fasern“ anwendbar.

Verdopplung der Kapazität

Den Forschern gelang es so, die Signale von acht Eingangskanälen beliebig auf 16 Ausgangskanäle zu schicken. „Durch diese Kreuzverschaltung steigt die Kapazität der Netze, denn das Senden und Weiterleiten der Datenströme ist viel flexibler. Das ist besonders nützlich, wenn die Daten über längere Strecken, etwa zwischen Städten, geschickt werden“, beschreibt Steffen Trautmann, Projektleiter und Experte für optische Systeme am Fraunhofer IOF, einen Vorteil des Verfahrens.

Projekt Multi-Cap: Der Verstärker kann die Signale in bis zu zwölf Datenkanäle in einem Faserstrang verstärken.
Fraunhofer IOF

Ein weiterer Vorteil besteht darin, dass insgesamt weniger optische Schalter für das Glasfasernetz benötigt werden. Dadurch sinken die Kosten bei der Installation und im laufenden Betrieb.

Mehr Datenpakete

Gleichzeitig gelang es den Wissenschaftlern, die Lichtfrequenz des Datenstroms um den Faktor 4 schmalbandiger zu gestalten. Damit sind die Datenpakete dementsprechend kleiner. So lassen sich viel mehr Datenpakete gleichzeitig durch die Lichtleiter auf die Reise schicken – sprich die Latenz sinkt und die Geschwindigkeit steigt.

Ergänzt wird WESORAM durch das Projekt Multi-Cap. Hier arbeiten die Forscher daran, die Zahl der Kanäle für die parallele Datenübertragung zu erhöhen. Klassische Glasfaser enthalten einen Datenkanal und einen Signalkern, Mehrkernfasern dagegen nutzen mehrere Kerne für die Datenübertragung. Obwohl diese Kabel viel mehr Leiter enthalten, sind sie kaum dicker. Das Team am Fraunhofer IOF hat die für Mehrkernfasern nötigen Signalverstärker entwickelt. Diese können bis zu zwölf Kanäle gleichzeitig bedienen und liefern eine Verstärkung von mehr als 20 dB pro Kanal. Die Technik ist so deutlich energieeffizienter, da nur ein Verstärkermodul für zwölf Kanäle erforderlich ist.

Mehr Speed und Power für Glasfasernetze​ Weiterlesen »

8 Tipps, um Kubernetes besser zu stemmen​

Allgemein

So sollte sich ein Kubernetes-Umstieg anfühlen. I’m Friday | shutterstock.com Die Container-Orchestrierungsplattform Kubernetes erfreut sich im Unternehmensumfeld steigender Beliebtheit. Die Open-Source-Lösung unterstützt dabei, Container-basierte Workloads und Services automatisiert bereitzustellen und zu managen. Lee Sustar, Principal Analyst bei Forrester Research, ordnet ein: „In den letzten Jahren haben sich Kubernetes und andere Cloud-native Technologien zum Referenzpunkt für die Unternehmens-IT entwickelt, auch wenn die meisten Workloads noch einige Zeit auf virtuellen Maschinen [VMs] laufen werden. Inzwischen halten jedoch bereits neue Technologien wie KubeVirt Einzug in Produktionsumgebungen, die es ermöglichen, VMs auf Kubernetes auszuführen.“ Zudem veranlassten die (berechtigten) Sorgen mit Blick auf mögliche Preiserhöhungen bei VMware deren Bestandkundschaft dazu, sich nach Alternativen umzusehen, so der Analyst. Heißt diese Alternative Kubernetes, gibt es bessere und schlechtere Methoden, um auf die quelloffene Container-Orchestrierungsplattform umzusteigen und sie zu nutzen. Deswegen haben wir einige Experten gefragt: Wie können Unternehmen sicherstellen, Kubernetes erfolgreich einzuführen und einzusetzen? 1. Langsam angehen lassen Es ist keine Seltenheit, dass sich Unternehmen Hals über Kopf in eine umfassende Implementierung stürzen. Fehlt dabei eine Strategie – oder gute Gründe, es überhaupt zu tun – steigt die Wahrscheinlichkeit, dass das Unterfangen scheitert. Nach Erfahrung von Bob Killen, technischer Programmmanager bei der Cloud Native Computing Foundation (CNCF), gestaltet sich das mit Blick auf Kubernetes ähnlich: „Viele Unternehmen migrieren überstürzt und führen Prozesse ein, unterschätzen dabei aber die Zeit, die investiert werden muss, um ein solches Projekt auch richtig umzusetzen.“ Der Experte empfiehlt Unternehmen deswegen, einen Gang runterzuschalten: „Überstürzen Sie nichts. Fangen Sie klein an, iterieren Sie und geben Sie allen Beteiligten genug Raum, um zu lernen. Beginnen Sie idealerweise mit einer unkritischen Testapplikation‚ anhand derer Sie die Aspekte des Anwendungs- und Cluster-Lebenszyklus zusammen mit den operativen Day-Two-Aufgaben durchexerzieren können.“ 2. Open-Source-Kultur leben Sich selbst an Open-Source-Projekten im Bereich Kubernetes zu beteiligen, kann Unternehmen dabei helfen, aufkeimende Probleme im Blick zu behalten. „Wenn Sie Open Source in kritischen Teilen Ihres Stacks einsetzen, können Sie das Risiko bei der Nutzung dieser Projekte direkt verringern, indem Sie sich an Upstream-Projekten beteiligen“, empfiehlt Killen und fügt hinzu, dass das Engagement auch nicht unbedingt groß ausfallen muss: “Man muss nicht unbedingt Code beisteuern, um ein vertrauenswürdiger Kontributor zu werden. Es gibt diverse andere Möglichkeiten. Wichtig ist, dabei zu sein und Vertrauen aufzubauen.“ Dieser immaterielle Wert dürfe nicht unterschätzt werden und könne von großem Nutzen sein – sowohl um Risiken bei der Nutzung zu minimieren als auch um Probleme zu priorisieren, meint der CNCF-Experte. 3. Netzwerken In eine ähnliche Kerbe schlägt auch der Tipp, sich mit anderen Kubernetes-Anwendern auszutauschen. “Oft kann ein Gespräch mit anderen Benutzern, die etwas Ähnliches eingesetzt haben, schnell dabei helfen, Fallstricke oder erlahmte Entscheidungsprozesse zu überwinden, die damit einhergehen, einen vollständigen, Cloud-nativen Stack aufzubauen“, weiß Killen. Dabei spielt die CNCF ebenfalls eine tragende Rolle: Die Non-Profit-Organisation veranstaltet beispielsweise regelmäßig Kubernetes Community Days. Auf diesen Events, die weltweit an diversen Standorten stattfinden, kommen Anwender und Technologieexperten aus der Open-Source- und Cloud-Native-Community zusammen, um sich weiterzubilden, Partnerschaften zu schmieden und sich zu vernetzen. 4. Investieren Die meisten Organisationen verfügen über ein Skillset, das auf Technologien fokussiert, die älter sind als Kubernetes. „Vor diesem Hintergrund besteht die größte Herausforderung darin, das Team dazu zu bringen, die Grundlagen von Kubernetes zu verstehen, einschließlich Containern, Pods, Services und Deployments“, hält Larry Carvahlo, Berater beim IT-Dienstleister Robust Cloud, fest. Um Kubernetes erfolgreich einzuführen, sei eine neue Organisationskultur nötig, die Schulungen und Kollaboration beinhalte, so der Consultant: „Die Teams müssen sich DevOps-Prinzipien zu eigen machen und die Silos zwischen Developments und Operations einreißen, um Zusammenarbeit und gemeinsame Verantwortung zu fördern.“ Dazu empfiehlt der Berater beispielsweise Workshops und praktische Übungen – sowie, offen zu kommunizieren: „Das hilft den Teams, sich an die schnellen Veränderungen und die Komplexität anzupassen, die Kubernetes-Umgebungen mit sich bringen. Eine Idee wäre beispielsweise, regelmäßige ‚Lunch and Learn‘-Sitzungen anzuberaumen oder Kubernetes-Lerngruppen einzurichten.“ 5. Public Cloud nutzen Laut Forrester-Analyst Sustar könnten Unternehmen, die heute auf Kubernetes umsteigen wollen, massiv von den Best Practices der Early Adopter und den Innovationen im Bereich der Public- und Multi-Cloud profitieren: „Managed Services im Bereich Kubernetes wie sie von Public-Cloud-Anbietern zur Verfügung gestellt werden, kann die ‚Upgrade-Bürden‘ abmildern. Zudem offerieren die großen Cloud-Anbieter inzwischen auch Automatisierung, die auf der Steuerungsebene aufsetzt.“ Die Angebote der Hyperscaler im Überblick: Amazon Web Services: Elastic Kubernetes Service. Microsoft: Azure Kubernetes Service. Google Cloud: Kubernetes Engine. Laut dem Analysten müssten Unternehmen möglichst frühzeitig entscheiden, ob sich ihre Plattform-Teams auf verwaltete und automatisierte Services von Cloud-Anbietern fokussieren oder ihren eigenen Kubernetes-Stack aufbauen sollen. „Organisationen sollten Kubernetes so einfach wie möglich halten, aber Komplexität dort angehen, wo sie unvermeidbar ist. Zu den häufigsten Herausforderungen gehören die Themen Ausfallsicherheit und Integration. Und unabhängig davon, ob der Kubernetes-Stack vorgefertigt oder selbst entwickelt ist, müssen Plattform-Teams ihn für Entwickler optimieren“, gibt Sustar zu bedenken. 6. IaC verinnerlichen Infrastructure as Code (IaC) ermöglicht es, Computing-Infrastrukturen mithilfe von Code bereitzustellen und zu supporten – statt dazu auf manuelle Prozesse und Konfigurationen zu setzen. Das sollten sich Unternehmen und Organisationen zunutze machen, um ihr Infrastrukturmanagement zu automatisieren, empfiehlt IT-Berater Carvalho: „Kubernetes-Umgebungen sind komplex und umfassen oft mehrere Cluster, Knoten und Konfigurationen. Das lässt sich am besten bewältigen, wenn die Infrastruktur automatisiert gemanagt wird.“ Um ihre Infrastruktur deklarativ zu definieren, empfiehlt der IT-Experte Unternehmen Tools wie beispielsweise: Terraform, Ansible und Helm. „Mit diesen Tools können Teams Umgebungen schnell replizieren, Änderungen rückgängig machen und Anwendungen effizient skalieren. Das erleichtert auch den Entwicklungs- und Betriebsteams zusammenzuarbeiten, weil IaC versionskontrolliert ist und wie Anwendungscode überprüft werden kann“, erklärt Carvalho. 7. Observability verankern Kubernetes ist keine Lösung, die man einmal aufsetzt und dann vergessen kann. Die Open-Source-Plattform braucht Monitoring – nur so lässt sich gewährleisten, dass die gesetzten Ziele erreicht werden. An dieser Stelle kommt (Kubernetes) Observability ins Spiel: Sie ermöglicht es, die Performance und das Verhalten von Kubernetes-Clustern in Cloud-nativen Umgebungen zu überwachen und zu analysieren.   „Das vereinfacht es, Kubernetes-Probleme zu beheben, die ansonsten umständlich zu lösen wären“, erklärt Carvahlo und fügt hinzu: “Tools, die Metriken, Protokolle und Traces von Kubernetes-Clustern, -Anwendungen und -Infrastrukturen sammeln, können dazu beitragen, Engpässe zu identifizieren und Fehler frühzeitig zu erkennen.“ Wenn es um konkrete Tools gibt, empfiehlt der Berater zum Beispiel das Open-Source-Tool Prometheus – führt jedoch weitere Optionen ins Feld: „Viele verwenden zentralisierte Protokollierungslösungen wie Elasticsearch und Kibana und setzen auf Jaeger, wenn es um Distributed Tracing geht. Die so gewonnenen Erkenntnisse sparen den IT-Teams Zeit und steigern ihre Effizienz.“ 8. Mit GenAI hebeln Laut Charlotte Dunlap, Forschungsdirektorin beim Beratungsunternehmen Global Data, werden Observability-Plattformen inzwischen auch zunehmend mit generativer KI kombiniert, um umfassende Operational-Monitoring-Services zu realisieren. Das wird Folgen haben, so die Expertin: „KI wird bei der Einführung von Kubernetes künftig eine wichtige Rolle spielen. Zunächst wird die Technologie IT-Mitarbeitern und Entwicklern über intelligente Automatisierungs- und Sicherheitsplattformen zur Verfügung stehen – etwa Microsoft Power Automate und Red Hat Ansible Lightspeed.“ Darüber hinaus nimmt die Chefberaterin auch Signale aus der Security-Branche wahr, Generative AI künftig als Hebel im Bereich Cloud Security Posture Management und Angriffspfadanalyse zu nutzen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

8 Tipps, um Kubernetes besser zu stemmen​ So sollte sich ein Kubernetes-Umstieg anfühlen.
I’m Friday | shutterstock.com

Die Container-Orchestrierungsplattform Kubernetes erfreut sich im Unternehmensumfeld steigender Beliebtheit. Die Open-Source-Lösung unterstützt dabei, Container-basierte Workloads und Services automatisiert bereitzustellen und zu managen.

Lee Sustar, Principal Analyst bei Forrester Research, ordnet ein: „In den letzten Jahren haben sich Kubernetes und andere Cloud-native Technologien zum Referenzpunkt für die Unternehmens-IT entwickelt, auch wenn die meisten Workloads noch einige Zeit auf virtuellen Maschinen [VMs] laufen werden. Inzwischen halten jedoch bereits neue Technologien wie KubeVirt Einzug in Produktionsumgebungen, die es ermöglichen, VMs auf Kubernetes auszuführen.“

Zudem veranlassten die (berechtigten) Sorgen mit Blick auf mögliche Preiserhöhungen bei VMware deren Bestandkundschaft dazu, sich nach Alternativen umzusehen, so der Analyst.

Heißt diese Alternative Kubernetes, gibt es bessere und schlechtere Methoden, um auf die quelloffene Container-Orchestrierungsplattform umzusteigen und sie zu nutzen. Deswegen haben wir einige Experten gefragt:

Wie können Unternehmen sicherstellen, Kubernetes erfolgreich einzuführen und einzusetzen?

1. Langsam angehen lassen

Es ist keine Seltenheit, dass sich Unternehmen Hals über Kopf in eine umfassende Implementierung stürzen. Fehlt dabei eine Strategie – oder gute Gründe, es überhaupt zu tun – steigt die Wahrscheinlichkeit, dass das Unterfangen scheitert.

Nach Erfahrung von Bob Killen, technischer Programmmanager bei der Cloud Native Computing Foundation (CNCF), gestaltet sich das mit Blick auf Kubernetes ähnlich: „Viele Unternehmen migrieren überstürzt und führen Prozesse ein, unterschätzen dabei aber die Zeit, die investiert werden muss, um ein solches Projekt auch richtig umzusetzen.“

Der Experte empfiehlt Unternehmen deswegen, einen Gang runterzuschalten: „Überstürzen Sie nichts. Fangen Sie klein an, iterieren Sie und geben Sie allen Beteiligten genug Raum, um zu lernen. Beginnen Sie idealerweise mit einer unkritischen Testapplikation‚ anhand derer Sie die Aspekte des Anwendungs- und Cluster-Lebenszyklus zusammen mit den operativen Day-Two-Aufgaben durchexerzieren können.“

2. Open-Source-Kultur leben

Sich selbst an Open-Source-Projekten im Bereich Kubernetes zu beteiligen, kann Unternehmen dabei helfen, aufkeimende Probleme im Blick zu behalten.

„Wenn Sie Open Source in kritischen Teilen Ihres Stacks einsetzen, können Sie das Risiko bei der Nutzung dieser Projekte direkt verringern, indem Sie sich an Upstream-Projekten beteiligen“, empfiehlt Killen und fügt hinzu, dass das Engagement auch nicht unbedingt groß ausfallen muss: “Man muss nicht unbedingt Code beisteuern, um ein vertrauenswürdiger Kontributor zu werden. Es gibt diverse andere Möglichkeiten. Wichtig ist, dabei zu sein und Vertrauen aufzubauen.“

Dieser immaterielle Wert dürfe nicht unterschätzt werden und könne von großem Nutzen sein – sowohl um Risiken bei der Nutzung zu minimieren als auch um Probleme zu priorisieren, meint der CNCF-Experte.

3. Netzwerken

In eine ähnliche Kerbe schlägt auch der Tipp, sich mit anderen Kubernetes-Anwendern auszutauschen.

“Oft kann ein Gespräch mit anderen Benutzern, die etwas Ähnliches eingesetzt haben, schnell dabei helfen, Fallstricke oder erlahmte Entscheidungsprozesse zu überwinden, die damit einhergehen, einen vollständigen, Cloud-nativen Stack aufzubauen“, weiß Killen.

Dabei spielt die CNCF ebenfalls eine tragende Rolle: Die Non-Profit-Organisation veranstaltet beispielsweise regelmäßig Kubernetes Community Days. Auf diesen Events, die weltweit an diversen Standorten stattfinden, kommen Anwender und Technologieexperten aus der Open-Source- und Cloud-Native-Community zusammen, um sich weiterzubilden, Partnerschaften zu schmieden und sich zu vernetzen.

4. Investieren

Die meisten Organisationen verfügen über ein Skillset, das auf Technologien fokussiert, die älter sind als Kubernetes.

„Vor diesem Hintergrund besteht die größte Herausforderung darin, das Team dazu zu bringen, die Grundlagen von Kubernetes zu verstehen, einschließlich Containern, Pods, Services und Deployments“, hält Larry Carvahlo, Berater beim IT-Dienstleister Robust Cloud, fest.

Um Kubernetes erfolgreich einzuführen, sei eine neue Organisationskultur nötig, die Schulungen und Kollaboration beinhalte, so der Consultant: „Die Teams müssen sich DevOps-Prinzipien zu eigen machen und die Silos zwischen Developments und Operations einreißen, um Zusammenarbeit und gemeinsame Verantwortung zu fördern.“

Dazu empfiehlt der Berater beispielsweise Workshops und praktische Übungen – sowie, offen zu kommunizieren: „Das hilft den Teams, sich an die schnellen Veränderungen und die Komplexität anzupassen, die Kubernetes-Umgebungen mit sich bringen. Eine Idee wäre beispielsweise, regelmäßige ‚Lunch and Learn‘-Sitzungen anzuberaumen oder Kubernetes-Lerngruppen einzurichten.“

5. Public Cloud nutzen

Laut Forrester-Analyst Sustar könnten Unternehmen, die heute auf Kubernetes umsteigen wollen, massiv von den Best Practices der Early Adopter und den Innovationen im Bereich der Public- und Multi-Cloud profitieren: „Managed Services im Bereich Kubernetes wie sie von Public-Cloud-Anbietern zur Verfügung gestellt werden, kann die ‚Upgrade-Bürden‘ abmildern. Zudem offerieren die großen Cloud-Anbieter inzwischen auch Automatisierung, die auf der Steuerungsebene aufsetzt.“

Die Angebote der Hyperscaler im Überblick:

Amazon Web Services: Elastic Kubernetes Service.

Microsoft: Azure Kubernetes Service.

Google Cloud: Kubernetes Engine.

Laut dem Analysten müssten Unternehmen möglichst frühzeitig entscheiden, ob sich ihre Plattform-Teams auf verwaltete und automatisierte Services von Cloud-Anbietern fokussieren oder ihren eigenen Kubernetes-Stack aufbauen sollen.

„Organisationen sollten Kubernetes so einfach wie möglich halten, aber Komplexität dort angehen, wo sie unvermeidbar ist. Zu den häufigsten Herausforderungen gehören die Themen Ausfallsicherheit und Integration. Und unabhängig davon, ob der Kubernetes-Stack vorgefertigt oder selbst entwickelt ist, müssen Plattform-Teams ihn für Entwickler optimieren“, gibt Sustar zu bedenken.

6. IaC verinnerlichen

Infrastructure as Code (IaC) ermöglicht es, Computing-Infrastrukturen mithilfe von Code bereitzustellen und zu supporten – statt dazu auf manuelle Prozesse und Konfigurationen zu setzen.

Das sollten sich Unternehmen und Organisationen zunutze machen, um ihr Infrastrukturmanagement zu automatisieren, empfiehlt IT-Berater Carvalho: „Kubernetes-Umgebungen sind komplex und umfassen oft mehrere Cluster, Knoten und Konfigurationen. Das lässt sich am besten bewältigen, wenn die Infrastruktur automatisiert gemanagt wird.“

Um ihre Infrastruktur deklarativ zu definieren, empfiehlt der IT-Experte Unternehmen Tools wie beispielsweise:

Terraform,

Ansible und

Helm.

„Mit diesen Tools können Teams Umgebungen schnell replizieren, Änderungen rückgängig machen und Anwendungen effizient skalieren. Das erleichtert auch den Entwicklungs- und Betriebsteams zusammenzuarbeiten, weil IaC versionskontrolliert ist und wie Anwendungscode überprüft werden kann“, erklärt Carvalho.

7. Observability verankern

Kubernetes ist keine Lösung, die man einmal aufsetzt und dann vergessen kann. Die Open-Source-Plattform braucht Monitoring – nur so lässt sich gewährleisten, dass die gesetzten Ziele erreicht werden. An dieser Stelle kommt (Kubernetes) Observability ins Spiel: Sie ermöglicht es, die Performance und das Verhalten von Kubernetes-Clustern in Cloud-nativen Umgebungen zu überwachen und zu analysieren.  

„Das vereinfacht es, Kubernetes-Probleme zu beheben, die ansonsten umständlich zu lösen wären“, erklärt Carvahlo und fügt hinzu: “Tools, die Metriken, Protokolle und Traces von Kubernetes-Clustern, -Anwendungen und -Infrastrukturen sammeln, können dazu beitragen, Engpässe zu identifizieren und Fehler frühzeitig zu erkennen.“

Wenn es um konkrete Tools gibt, empfiehlt der Berater zum Beispiel das Open-Source-Tool Prometheus – führt jedoch weitere Optionen ins Feld: „Viele verwenden zentralisierte Protokollierungslösungen wie Elasticsearch und Kibana und setzen auf Jaeger, wenn es um Distributed Tracing geht. Die so gewonnenen Erkenntnisse sparen den IT-Teams Zeit und steigern ihre Effizienz.“

8. Mit GenAI hebeln

Laut Charlotte Dunlap, Forschungsdirektorin beim Beratungsunternehmen Global Data, werden Observability-Plattformen inzwischen auch zunehmend mit generativer KI kombiniert, um umfassende Operational-Monitoring-Services zu realisieren.

Das wird Folgen haben, so die Expertin: „KI wird bei der Einführung von Kubernetes künftig eine wichtige Rolle spielen. Zunächst wird die Technologie IT-Mitarbeitern und Entwicklern über intelligente Automatisierungs- und Sicherheitsplattformen zur Verfügung stehen – etwa Microsoft Power Automate und Red Hat Ansible Lightspeed.“

Darüber hinaus nimmt die Chefberaterin auch Signale aus der Security-Branche wahr, Generative AI künftig als Hebel im Bereich Cloud Security Posture Management und Angriffspfadanalyse zu nutzen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

8 Tipps, um Kubernetes besser zu stemmen​ Weiterlesen »

So bleibt Ihr Code halluzinationsfrei​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen. Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um: KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und bereits im Code existierende aufzuspüren.    Halluzinationen verhindern Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren. 1. Klare Prompts schreiben Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant. Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“ 2. Quellen überprüfen Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen. Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“ 3. Software aktuell halten Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.    „Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“ 4. Modelle richtig trainieren Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.   Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“ Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord. Halluzinationen aufspüren Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden. 1. KI-Code mit KI evaluieren Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen. Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“ 2. Menschliche Steuerung beibehalten Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“ Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“ Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider. 3. Code testen Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren. „Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.     „Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“ Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“ 4. KI-generierten Code hervorheben Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“     Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So bleibt Ihr Code halluzinationsfrei​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com

Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen.

Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um:

KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und

bereits im Code existierende aufzuspüren.   

Halluzinationen verhindern

Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren.

1. Klare Prompts schreiben

Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant.

Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“

2. Quellen überprüfen

Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen.

Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“

3. Software aktuell halten

Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.   

„Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“

4. Modelle richtig trainieren

Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.  

Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“

Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord.

Halluzinationen aufspüren

Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden.

1. KI-Code mit KI evaluieren

Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen.

Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“

2. Menschliche Steuerung beibehalten

Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“

Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“

Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider.

3. Code testen

Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren.

„Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.    

„Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“

Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“

4. KI-generierten Code hervorheben

Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“    

Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So bleibt Ihr Code halluzinationsfrei​ Weiterlesen »

Erfolgreich – trotz Firmengründung aus der Not​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?quality=50&strip=all 6156w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um erfolgreich selbstständig zu agieren oder ein Startup zu gründen, ist es ratsam, im Vorfeld den Markt sowie die Bedürfnisse der Zielgruppe genau zu sondieren – auch wenn ein Gründung notgedrungen erfolgt.Sutthiphong Chandaeng -Shutterstock Die Gründe für eine Selbständigkeit sind erst einmal genauso vielfältig und individuell wie jeder einzelne Mensch, der diesen Schritt bereits gegangen ist. Was sich aber grob einteilen lässt, ist die emotionale Entscheidungsgrundlage: Wurde aus einem positiven Bedürfnis heraus gegründet oder spielen äußere Umstände eine Rolle?   In erster Linie werden viele Menschen aus Gründen der eigenen Freiheit zu Freelancern. Selbstverwirklichung, Ortsunabhängigkeit und der Wunsch, mal die eigene Chefin oder der eigene Chef sein zu können, eigene Projekte verwirklichen und die Kreativität freilaufen lassen. Das sind Gründe, die aus einem positiven Bedürfnis heraus entstanden sind.  Aber es gibt auch fremdbestimmte Ursachen für eine Selbständigkeit:   – Fehlende Vereinbarkeit von Beruf und Familie: Es ist manchmal noch immer so, dass sich eine Festanstellung nicht mit den Bedürfnissen der ganzen Familie vereinbaren lässt. Dabei geht es nicht nur um eine flexiblere Zeiteinteilung, sondern auch um Karriere- und Weiterbildungschancen, die in starren Strukturen eventuell verwehrt bleiben.  – Krisen: Wirtschaftskrisen, aber auch die Pandemie führ(t)en zu Arbeitslosigkeit – für die Betroffenen meist komplett unvorhersehbar. Da ganze Wirtschaftszweige betroffen sein können, ist es kompliziert, eine erneute Festanstellung im jeweiligen Bereich zu finden.  – Unzufriedenheit im Job bis hin zum Burnout: Gewisse Strukturen lassen kaum Spielraum für Individualität. Zudem ist es für manche Menschen schwer, sich ins als Norm geltende Gefüge zu pressen und so zu funktionieren, wie es die klassische Arbeitswelt von ihnen erwartet.  Die Ausgangslage hier ist das Gründen aus Verzweiflung. Das bedeutet keinesfalls, dass so eine Selbständigkeit weniger wertvoll, weniger wichtig oder weniger erfolgreich ist. Es ist nur so, dass in dem Fall das Fundament etwas stabiler gebaut werden muss. Um langfristig erfolgreich selbständig zu sein, hilft eine solide und stabile Basis, auf der sich weitere Säulen und Ebenen aufbauen lassen.  Folgende Anregungen können dabei helfen:  Tipp 1: Zielsetzung Die Zielsetzung ist der erste Schritt, das Fundament: Was soll bis wann erreicht werden? Nur wer weiß, wo er zum Beispiel mit dem Online-Business hin möchte, und nur wer sich auch Ziele setzt, wird erfolgreich selbständig sein. Es ist dabei wichtig, mit realistischen (lang-, mittel- und kurzfristigen) Zielen zu arbeiten und sicherzustellen, dass sie auch erreichbar sind. Der Fokus bei der Zielsetzung sollte nicht nur auf die monetäre Situation gerichtet sein, es geht auch darum, sinnstiftend arbeiten zu können.  Tipp 2: Marktanalyse Wie gut kennt man den Markt, in dem gegründet werden soll? Wie gut sind der Wettbewerb und die Zielgruppe, die sich in diesem Markt bewegt, bekannt? Es ist wichtig, den eigenen Markt richtig gut zu verstehen, anstatt nach Bauchgefühl zu handeln.  Tipp 3: Zielgruppe Was will die eigene Kundschaft wirklich? Diese Frage ist wichtig, weil es nicht immer das ist, was man denkt. Schließlich sollte das eigene Angebot an den Bedürfnissen der Zielgruppe orientiert sein. Ohne die Kundinnen sowie Kunden und ihre Herausforderungen zu kennen, ist eine zielgerichtete Kommunikation mit ihnen, zum Beispiel über Social Media oder Newslettern, nicht möglich.   Tipp 4: Positionierung Hat man sich klar und wiedererkennbar im Markt positioniert? Dies ist wichtig, um für die Kunden unverwechselbar zu sein. Sich deutlich mit dem eigenen Angebot von der Konkurrenz abzugrenzen und das eigene Alleinstellungsmerkmal herauszustellen, ist sehr wichtig. Die Ergebnisse der Marktanalyse von Tipp zwei helfen dabei, die richtige Positionierung zu finden.   Tipp 5: Angebotsentwicklung Eine erfolgreiche Selbständigkeit ist ohne ein richtig gutes Angebot nicht möglich. Die Entwicklung eines solchen Angebots sollte also gut überlegt sein. Dieses darf zu Beginn auch gern kostenfrei sein, zum Beispiel als Beta-Angebot. Hierüber können Erfahrungen, Feedback und Testimonials gesammelt werden und man erfährt, was gut funktioniert und was nicht. Man gewinnt Klarheit über den Preis, über die Zielgruppenansprache, über Möglichkeiten der Perfektionierung und nötige Veränderungen.  Tipp 6: Marketing-Strategie Die Marketing-Strategie baut auf den Zielen auf. Was braucht es, um diese Ziele zu erreichen? Welche Marketing-Kanäle sollten genutzt werden? Welche Kanäle nutzt die Zielgruppe? Über welche Kanäle sind die Wunschkunden am besten zu erreichen?  Das heißt, die Zielgruppen-Orientierung der eigenen Aktivitäten – zum Beispiel Posts via Social Media oder die Aufbereitung der Newsletter-Inhalte – ist entscheidend für eine erfolgreiche Kommunikation. Die Zielgruppe möchte eine Lösung für ihre aktuelle Herausforderung. Mit der korrekten Marketing-Strategie zeigt man ihnen, dass man die richtige Person für sie ist.  Tipp 7: Community-Aufbau Ohne Community ist es schwerer, Angebote zu erstellen, die auch gekauft werden. Denn ein gut funktionierendes Netzwerk macht es leichter, neues Angebot anzunehmen, auszutesten und ehrlich zu bewerten.   Eine Community aufzubauen, wird oft gleichgesetzt mit Tausenden von Followerinnen und Followerinnen. Aber das ist nicht der Fall. Es geht vielmehr darum, eine aktive Community zu haben, mit der man sich austauscht und eine persönliche Beziehung aufbaut. Wir brauchen Menschen, die an uns glauben, die uns motivieren und unterstützen. Man braucht Gleichgesinnte, also Menschen, die ähnliche Ziele haben – Menschen, die groß denken und die vielleicht sogar schon ein Stückchen weiter sind. Eine echte Community.  Ganz besonders wichtig ist, dass man mit dem richtigen Mindset durchstartet und dem Alltag Struktur gibt. Vor allem, wenn man aus Verzweiflung gründet, kann es sonst nämlich schnell passieren, dass Herausforderungen unlösbar erscheinen und limitierende Glaubenssätze zur eigenen Realität werden.  

Erfolgreich – trotz Firmengründung aus der Not​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?quality=50&strip=all 6156w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um erfolgreich selbstständig zu agieren oder ein Startup zu gründen, ist es ratsam, im Vorfeld den Markt sowie die Bedürfnisse der Zielgruppe genau zu sondieren – auch wenn ein Gründung notgedrungen erfolgt.Sutthiphong Chandaeng -Shutterstock

Die Gründe für eine Selbständigkeit sind erst einmal genauso vielfältig und individuell wie jeder einzelne Mensch, der diesen Schritt bereits gegangen ist. Was sich aber grob einteilen lässt, ist die emotionale Entscheidungsgrundlage: Wurde aus einem positiven Bedürfnis heraus gegründet oder spielen äußere Umstände eine Rolle?  

In erster Linie werden viele Menschen aus Gründen der eigenen Freiheit zu Freelancern. Selbstverwirklichung, Ortsunabhängigkeit und der Wunsch, mal die eigene Chefin oder der eigene Chef sein zu können, eigene Projekte verwirklichen und die Kreativität freilaufen lassen. Das sind Gründe, die aus einem positiven Bedürfnis heraus entstanden sind. 

Aber es gibt auch fremdbestimmte Ursachen für eine Selbständigkeit:  

– Fehlende Vereinbarkeit von Beruf und Familie: Es ist manchmal noch immer so, dass sich eine Festanstellung nicht mit den Bedürfnissen der ganzen Familie vereinbaren lässt. Dabei geht es nicht nur um eine flexiblere Zeiteinteilung, sondern auch um Karriere- und Weiterbildungschancen, die in starren Strukturen eventuell verwehrt bleiben. 

– Krisen: Wirtschaftskrisen, aber auch die Pandemie führ(t)en zu Arbeitslosigkeit – für die Betroffenen meist komplett unvorhersehbar. Da ganze Wirtschaftszweige betroffen sein können, ist es kompliziert, eine erneute Festanstellung im jeweiligen Bereich zu finden. 

– Unzufriedenheit im Job bis hin zum Burnout: Gewisse Strukturen lassen kaum Spielraum für Individualität. Zudem ist es für manche Menschen schwer, sich ins als Norm geltende Gefüge zu pressen und so zu funktionieren, wie es die klassische Arbeitswelt von ihnen erwartet. 

Die Ausgangslage hier ist das Gründen aus Verzweiflung. Das bedeutet keinesfalls, dass so eine Selbständigkeit weniger wertvoll, weniger wichtig oder weniger erfolgreich ist. Es ist nur so, dass in dem Fall das Fundament etwas stabiler gebaut werden muss. Um langfristig erfolgreich selbständig zu sein, hilft eine solide und stabile Basis, auf der sich weitere Säulen und Ebenen aufbauen lassen. 

Folgende Anregungen können dabei helfen: 

Tipp 1: Zielsetzung

Die Zielsetzung ist der erste Schritt, das Fundament: Was soll bis wann erreicht werden? Nur wer weiß, wo er zum Beispiel mit dem Online-Business hin möchte, und nur wer sich auch Ziele setzt, wird erfolgreich selbständig sein. Es ist dabei wichtig, mit realistischen (lang-, mittel- und kurzfristigen) Zielen zu arbeiten und sicherzustellen, dass sie auch erreichbar sind. Der Fokus bei der Zielsetzung sollte nicht nur auf die monetäre Situation gerichtet sein, es geht auch darum, sinnstiftend arbeiten zu können. 

Tipp 2: Marktanalyse

Wie gut kennt man den Markt, in dem gegründet werden soll? Wie gut sind der Wettbewerb und die Zielgruppe, die sich in diesem Markt bewegt, bekannt? Es ist wichtig, den eigenen Markt richtig gut zu verstehen, anstatt nach Bauchgefühl zu handeln. 

Tipp 3: Zielgruppe

Was will die eigene Kundschaft wirklich? Diese Frage ist wichtig, weil es nicht immer das ist, was man denkt. Schließlich sollte das eigene Angebot an den Bedürfnissen der Zielgruppe orientiert sein. Ohne die Kundinnen sowie Kunden und ihre Herausforderungen zu kennen, ist eine zielgerichtete Kommunikation mit ihnen, zum Beispiel über Social Media oder Newslettern, nicht möglich.  

Tipp 4: Positionierung

Hat man sich klar und wiedererkennbar im Markt positioniert? Dies ist wichtig, um für die Kunden unverwechselbar zu sein. Sich deutlich mit dem eigenen Angebot von der Konkurrenz abzugrenzen und das eigene Alleinstellungsmerkmal herauszustellen, ist sehr wichtig. Die Ergebnisse der Marktanalyse von Tipp zwei helfen dabei, die richtige Positionierung zu finden.  

Tipp 5: Angebotsentwicklung

Eine erfolgreiche Selbständigkeit ist ohne ein richtig gutes Angebot nicht möglich. Die Entwicklung eines solchen Angebots sollte also gut überlegt sein. Dieses darf zu Beginn auch gern kostenfrei sein, zum Beispiel als Beta-Angebot. Hierüber können Erfahrungen, Feedback und Testimonials gesammelt werden und man erfährt, was gut funktioniert und was nicht. Man gewinnt Klarheit über den Preis, über die Zielgruppenansprache, über Möglichkeiten der Perfektionierung und nötige Veränderungen. 

Tipp 6: Marketing-Strategie

Die Marketing-Strategie baut auf den Zielen auf. Was braucht es, um diese Ziele zu erreichen? Welche Marketing-Kanäle sollten genutzt werden? Welche Kanäle nutzt die Zielgruppe? Über welche Kanäle sind die Wunschkunden am besten zu erreichen? 

Das heißt, die Zielgruppen-Orientierung der eigenen Aktivitäten – zum Beispiel Posts via Social Media oder die Aufbereitung der Newsletter-Inhalte – ist entscheidend für eine erfolgreiche Kommunikation. Die Zielgruppe möchte eine Lösung für ihre aktuelle Herausforderung. Mit der korrekten Marketing-Strategie zeigt man ihnen, dass man die richtige Person für sie ist. 

Tipp 7: Community-Aufbau

Ohne Community ist es schwerer, Angebote zu erstellen, die auch gekauft werden. Denn ein gut funktionierendes Netzwerk macht es leichter, neues Angebot anzunehmen, auszutesten und ehrlich zu bewerten.  

Eine Community aufzubauen, wird oft gleichgesetzt mit Tausenden von Followerinnen und Followerinnen. Aber das ist nicht der Fall. Es geht vielmehr darum, eine aktive Community zu haben, mit der man sich austauscht und eine persönliche Beziehung aufbaut. Wir brauchen Menschen, die an uns glauben, die uns motivieren und unterstützen. Man braucht Gleichgesinnte, also Menschen, die ähnliche Ziele haben – Menschen, die groß denken und die vielleicht sogar schon ein Stückchen weiter sind. Eine echte Community. 

Ganz besonders wichtig ist, dass man mit dem richtigen Mindset durchstartet und dem Alltag Struktur gibt. Vor allem, wenn man aus Verzweiflung gründet, kann es sonst nämlich schnell passieren, dass Herausforderungen unlösbar erscheinen und limitierende Glaubenssätze zur eigenen Realität werden. 

Erfolgreich – trotz Firmengründung aus der Not​ Weiterlesen »

KI erkennt Hautkrebs in 6 Minuten​

Allgemein

Hautkrebsvorsorge mit dem Ganzkörperscanner im iToBoS-Projekt. Fraunhofer HHI Melanome sind für 60 Prozent aller bösartigen Tumor-Neubildungen der Haut verantwortlich. Die Häufigkeit von Melanomen hat in den letzten Jahren stark zugenommen. Sie werden oftmals zu spät erkannt, da Diagnoseverfahren zur Früherkennung arbeits- und kostenintensiv sind. Gute Heilungschancen gibt es bei Hautkrebs, wenn er frühzeitig erkannt wird.. Die bislang angewandten Methoden bei der Vorsorgeuntersuchung sind häufig jedoch nicht nur fehleranfällig, sondern auch sehr zeitaufwändig: Ein Arzt untersucht meist mit einem Dermatoskop die gesamte Haut. Ganzkörper-Screening in sechs Minuten Geradezu revolutionär klingt dagegen, was Fraunhofer mit Partnern jetzt verspricht: In nur sechs Minuten soll der komplette Körper automatisch untersucht werden. Für jede auffällige Veränderung an der Haut werde dann eine Risikobewertung geliefert. Dazu hat Projektpartner Bosch den iToBoS-Ganzkörperscanner entwickelt. iToBoS steht für Intelligent Total Body Scanner for Early Detection of Melanoma und bezieht sich auf ein EU-Projekt, das mit 12,1 Millionen Euro gefördert wird. Der Scanner ist das Herzstück der ebenfalls im Projekt entwickelten, cloudbasierten KI-Diagnoseplattform, in der Gesundheitsdaten aus verschiedenen Quellen wie Krankenakten, Genomdaten und In-vivo-Bildgebung zusammengeführt werden. KI-Assistenten unterstützen Der Scanner untersucht innerhalb von sechs Minuten den gesamten Körper automatisch mithilfe eines kognitiven KI-Assistenten. Dieser nutzt unter anderem KI-Modelle und XAI-Methoden des Fraunhofer HHI (Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut). Das medizinische Fachpersonal erhält dann für jedes einzelne Muttermal eine Risikobewertung. Die hochauflösenden Kameras des Scanners sind mit Flüssigkeitslinsen ausgestattet, die das Design des menschlichen Auges nachahmen. Basierend auf zwei nicht mischbaren Flüssigkeiten mit unterschiedlichem Brechungsindex sollen sie eine noch nie dagewesene Bildqualität erreichen. Für eine hoch personalisierte Diagnose werden die Untersuchungsaufnahmen durch Machine Learning zusammen mit sämtlichen verfügbaren Patientendaten (demographische und Angaben zu UV-Schäden, Risikogruppe etc.) in die KI-Diagnoseplattform mit einem kognitiven KI-Assistententool integriert. Erklärbare KI – XAI Das Zusammenspiel der am Fraunhofer HHI entwickelten XAI-Methoden. Fraunhofer HHI Scans können über einen längeren Zeitraum wiederholt und miteinander verglichen werden, um so die Entwicklung der Leberflecke und mögliche Veränderungen, die auf Hautkrebs hindeuten können, genau zu beobachten. Mehrere spezialisierte, im KI-Assistenten zusammengeführte KI-Algorithmen sind dafür verantwortlich, Muttermale im Zeitverlauf zu identifizieren und zu tracken. Um absolut zuverlässige Diagnosen zu erhalten, müssen die Entscheidungen der KI nachvollziehbar sein. Hierzu kommen im Projekt XAI-Methoden zum Einsatz. Die verwendeten Methoden umfassen: LRP (Layer-Wise Relevance Propagation), CRP (Concept Relevance Propagation), PCX (Prototypical Concept-based Explanations). Mit Hilfe dieser Verfahren machen die Forscher des Fraunhofer HHI die KI-Prognosen erklärbar und decken somit unsichere Problemlösungsstrategien auf. Die Methoden identifizieren und quantifizieren ein breites Spektrum erlernten Entscheidungsverhaltens und erkennen unerwünschte Entscheidungen auch in riesigen Datensätzen. Auf diese Weise beugen sie Modellfehlverhalten vor und sorgen dafür, dass die eingesetzten KI-Systeme zuverlässig und sicher sind. Fehler heraustrainieren Darüber hinaus können die Wissenschaftler des Fraunhofer HHI mit ihrer im Projekt entwickelten R2R-Methode (Reveal to Revise) eventuelle Verhaltensauffälligkeiten und -fehler aus der KI heraustrainieren, indem sie über die Informationen aus ihrer XAI die Daten besser annotieren, um das Gesamtsystem robuster und zuverlässiger zu gestalten. Endziel des Projekts ist die Entwicklung eines holistischen KI-Modells, das mithilfe multimodaler Datensätze verschiedenste Perspektiven auf die Patientinnen und Patienten einnimmt. Langfristig könnte der Ganzkörperscanner auch dafür eingesetzt werden, andere Hauterkrankungen wie Neurodermitis zu erfassen. Die Projektpartner im Überblick: BARCO NV, Canfield Scientific Inc., Coronis Computing SL, Fraunhofer HHI, Fundació Clínic per a la Recerca Biomèdica, IBM Israel – Science and Technology Ltd., Institute for Computer Science and Control (SZTAKI), Isahit SAS, Leibniz Universität Hannover, Melanoma Patient Network Europe, National Technical University of Athens, Optotune AG, Ricoh Spain IT Services SLU, Robert Bosch Española SA, Torus Actions SAS, Trilateral Research Ltd., Università degli Studi di Trieste, University of Queensland, Universitat de Girona (Koordinator), V7 Ltd. 

KI erkennt Hautkrebs in 6 Minuten​ Hautkrebsvorsorge mit dem Ganzkörperscanner im iToBoS-Projekt.
Fraunhofer HHI

Melanome sind für 60 Prozent aller bösartigen Tumor-Neubildungen der Haut verantwortlich. Die Häufigkeit von Melanomen hat in den letzten Jahren stark zugenommen. Sie werden oftmals zu spät erkannt, da Diagnoseverfahren zur Früherkennung arbeits- und kostenintensiv sind. Gute Heilungschancen gibt es bei Hautkrebs, wenn er frühzeitig erkannt wird..

Die bislang angewandten Methoden bei der Vorsorgeuntersuchung sind häufig jedoch nicht nur fehleranfällig, sondern auch sehr zeitaufwändig: Ein Arzt untersucht meist mit einem Dermatoskop die gesamte Haut.

Ganzkörper-Screening in sechs Minuten

Geradezu revolutionär klingt dagegen, was Fraunhofer mit Partnern jetzt verspricht: In nur sechs Minuten soll der komplette Körper automatisch untersucht werden. Für jede auffällige Veränderung an der Haut werde dann eine Risikobewertung geliefert.

Dazu hat Projektpartner Bosch den iToBoS-Ganzkörperscanner entwickelt. iToBoS steht für Intelligent Total Body Scanner for Early Detection of Melanoma und bezieht sich auf ein EU-Projekt, das mit 12,1 Millionen Euro gefördert wird. Der Scanner ist das Herzstück der ebenfalls im Projekt entwickelten, cloudbasierten KI-Diagnoseplattform, in der Gesundheitsdaten aus verschiedenen Quellen wie Krankenakten, Genomdaten und In-vivo-Bildgebung zusammengeführt werden.

KI-Assistenten unterstützen

Der Scanner untersucht innerhalb von sechs Minuten den gesamten Körper automatisch mithilfe eines kognitiven KI-Assistenten. Dieser nutzt unter anderem KI-Modelle und XAI-Methoden des Fraunhofer HHI (Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut). Das medizinische Fachpersonal erhält dann für jedes einzelne Muttermal eine Risikobewertung.

Die hochauflösenden Kameras des Scanners sind mit Flüssigkeitslinsen ausgestattet, die das Design des menschlichen Auges nachahmen. Basierend auf zwei nicht mischbaren Flüssigkeiten mit unterschiedlichem Brechungsindex sollen sie eine noch nie dagewesene Bildqualität erreichen. Für eine hoch personalisierte Diagnose werden die Untersuchungsaufnahmen durch Machine Learning zusammen mit sämtlichen verfügbaren Patientendaten (demographische und Angaben zu UV-Schäden, Risikogruppe etc.) in die KI-Diagnoseplattform mit einem kognitiven KI-Assistententool integriert.

Erklärbare KI – XAI

Das Zusammenspiel der am Fraunhofer HHI entwickelten XAI-Methoden.
Fraunhofer HHI

Scans können über einen längeren Zeitraum wiederholt und miteinander verglichen werden, um so die Entwicklung der Leberflecke und mögliche Veränderungen, die auf Hautkrebs hindeuten können, genau zu beobachten. Mehrere spezialisierte, im KI-Assistenten zusammengeführte KI-Algorithmen sind dafür verantwortlich, Muttermale im Zeitverlauf zu identifizieren und zu tracken.

Um absolut zuverlässige Diagnosen zu erhalten, müssen die Entscheidungen der KI nachvollziehbar sein. Hierzu kommen im Projekt XAI-Methoden zum Einsatz.

Die verwendeten Methoden umfassen:

LRP (Layer-Wise Relevance Propagation),

CRP (Concept Relevance Propagation),

PCX (Prototypical Concept-based Explanations).

Mit Hilfe dieser Verfahren machen die Forscher des Fraunhofer HHI die KI-Prognosen erklärbar und decken somit unsichere Problemlösungsstrategien auf. Die Methoden identifizieren und quantifizieren ein breites Spektrum erlernten Entscheidungsverhaltens und erkennen unerwünschte Entscheidungen auch in riesigen Datensätzen. Auf diese Weise beugen sie Modellfehlverhalten vor und sorgen dafür, dass die eingesetzten KI-Systeme zuverlässig und sicher sind.

Fehler heraustrainieren

Darüber hinaus können die Wissenschaftler des Fraunhofer HHI mit ihrer im Projekt entwickelten R2R-Methode (Reveal to Revise) eventuelle Verhaltensauffälligkeiten und -fehler aus der KI heraustrainieren, indem sie über die Informationen aus ihrer XAI die Daten besser annotieren, um das Gesamtsystem robuster und zuverlässiger zu gestalten. Endziel des Projekts ist die Entwicklung eines holistischen KI-Modells, das mithilfe multimodaler Datensätze verschiedenste Perspektiven auf die Patientinnen und Patienten einnimmt.

Langfristig könnte der Ganzkörperscanner auch dafür eingesetzt werden, andere Hauterkrankungen wie Neurodermitis zu erfassen.

Die Projektpartner im Überblick:

BARCO NV,

Canfield Scientific Inc.,

Coronis Computing SL,

Fraunhofer HHI,

Fundació Clínic per a la Recerca Biomèdica,

IBM Israel – Science and Technology Ltd.,

Institute for Computer Science and Control (SZTAKI),

Isahit SAS,

Leibniz Universität Hannover,

Melanoma Patient Network Europe,

National Technical University of Athens,

Optotune AG,

Ricoh Spain IT Services SLU,

Robert Bosch Española SA,

Torus Actions SAS,

Trilateral Research Ltd.,

Università degli Studi di Trieste,

University of Queensland,

Universitat de Girona (Koordinator),

V7 Ltd.

KI erkennt Hautkrebs in 6 Minuten​ Weiterlesen »

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>US-Hyperscaler wie Microsoft arbeiten mit Hochdruck an Datenschutz-konformen Cloud-Angeboten – doch es bleiben viele Zweifel und Bedenken.artjazz – shutterstock.com Microsoft hat in einem Blogbeitrag bekannt gegeben, sein Projekt “EU Data Boundary” für die Microsoft Cloud abgeschlossen zu haben. Der Softwarekonzern hatte seine Bemühungen um eine sichere, den europäischen Datenschutzregeln konforme Cloud-Infrastruktur bereits 2022 angekündigt und in den darauffolgenden Jahren in verschiedenen Phasen vorangetrieben. Nun vermeldeten Julie Brill, Corporate Vice President and Chief Privacy Officer, und Paul Lorimer, Corporate Vice President, Microsoft 365, den Abschluss der dritten und letzten Phase der Microsoft-Initiative. Die Initiative ermögliche es den europäischen Nutzern aus dem kommerziellen und öffentlichen Sektor, “ihre pseudonymisierten personenbezogenen Kundendaten für die zentralen Cloud-Dienste von Microsoft – einschließlich Microsoft 365, Dynamics 365, Power Platform und der meisten Azure-Dienste – innerhalb der EU- und EFTA-Regionen (Europäische Freihandelszone) zu speichern und zu verarbeiten”, schrieben die Microsoft-Manager. “Darüber hinaus wird Microsoft Professional Services-Daten aus technischen Support-Interaktionen für die Kern-Cloud-Dienste innerhalb der EU- und EFTA-Regionen speichern.” Lesen Sie alles zu den Microsoft-Bemühungen rund um die EU-Cloud: Microsoft Cloud for Sovereignty: Microsoft stellt sichere Behörden-Cloud vor Mehr souveräne Cloud für Europa: Microsoft erweitert EU-Datengrenze Wird die US-Cloud in der EU bald illegal? Laut einem Informationsblatt von Microsoft habe man sich in der ersten Phase der Initiative, die im Januar 2023 startete, auf die lokale Speicherung und Verarbeitung von Kundendaten innerhalb der EU und EFTA konzentriert. Darauf folgte im Januar 2024 die Phase 2, die pseudonymisierte personenbezogene Daten umfasste. Darunter versteht Microsoft Daten, die so verändert wurden, dass direkte Identifikatoren entfernt werden, und die in den EU/EFTA-Regionen verarbeitet und gespeichert werden. Datengrenze garantiert keine Datensouveränität Phil Brunkard, Executive Counselor bei der Info-Tech Research Group UK, bezeichnete die EU Data Boundary für die Microsoft Cloud als einen Schritt in Richtung einer verbesserten Datenresidenz in Europa, allerdings erzähle die Ankündigung nicht die ganze Geschichte. “Microsoft sagt, dass die Kundendaten weiterhin in der EU und EFTA gespeichert und verarbeitet werden, garantiert aber keine echte Datensouveränität”, sagte Brunkard. “US-Gesetze wie der CLOUD Act gewähren der US-Regierung nach wie vor die Befugnis, auf diese Daten zuzugreifen”, warnte der Analyst. Die Frage sei also, ob die europäischen Regierungen diese Art des Zugriffs tatsächlich einschränken können. “Könnte eine einzige US-Verfügung diese Verpflichtungen außer Kraft setzen”, fragt sich der Experte. “Wohnsitz bedeutet in diesem Fall nicht unbedingt Kontrolle.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Brunkard fügte hinzu: “Großbritannien hat einen Status außerhalb der EU, und aus der Ankündigung von Microsoft geht nicht hervor, wie in Großbritannien ansässige Unternehmen in diesen Rahmen passen. Wir können nur davon ausgehen, dass dieselben Prinzipien gelten und Microsoft sich weiterhin an die spezifischen Datenschutzanforderungen Großbritanniens halten wird, unabhängig von der Position der EU.” Europäer sollten sich auf lokale Provider verlassen Der Analyst rät Unternehmen in der EU genau hinzusehen. “Sie sollten die Schlagzeilen von Microsoft nicht für bare Münze nehmen, sondern zwischen den Zeilen lesen und alle unvermeidlichen Ausnahmen, Ausschlüsse und Bedingungen genau prüfen.” Wer wirklich Wert auf echte Datensouveränität lege, sollte sich auf lokale Provider-Partner verlassen, die Microsoft-Dienste hosten. “Diese können stärkere Zusicherungen geben, dass die Daten ohne Einmischung von außen unter europäischer Gerichtsbarkeit bleiben.” SAP und Microsoft basteln an Behörden-Cloud Microsoft erklärte unterdessen, dass die EU-Datengrenze zwar den Großteil der personenbezogenen Daten in der EU/EFTA belässt, dass aber “bestimmte begrenzte Datentransfers für globale Sicherheitsoperationen notwendig sein können”. Diese Daten würden verwendet, um die Erkennung, Untersuchung, Behebung sowie das Verhindern von Bedrohungen in allen Regionen zu verbessern. Microsoft verspricht strenge Zugangskontrollen Darüber hinaus beteuerten die Microsoft-Verantwortlichen, dass Schutzmaßnahmen wie Verschlüsselung, Pseudonymisierung und strenge Zugangskontrollen eingesetzt würden, die sicherstellten, dass nur autorisiertes Sicherheitspersonal auf Daten zugreifen könne. “Die aus diesen Übertragungen gewonnenen globalen Bedrohungsdaten sind entscheidend für die Aufdeckung und Eindämmung von Cyberangriffen.” Souveräne Clouds – der schlafende Riese Für Robert Kramer, Vice President und Leadanalyst bei Moor Insights & Strategy, kam die Ankündigung von Microsoft nicht unerwartet kam. Kramer bezeichnete die EU Boundary Initiative als notwendig. Daten seien schließlich die wichtigste Komponente von Unternehmen, insbesondere mit Blick auf KI und die Cloud. “Die Leute reden immer nur über KI und Daten, aber es ist extrem wichtig, Compliance und Sicherheit zu verstehen.” Microsofts EU-Datenschutz-Grenze helfe dabei, weil sie Transparenz schaffe und den Kunden mehr Kontrolle über ihre Daten gebe, meint der Analyst. 

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>US-Hyperscaler wie Microsoft arbeiten mit Hochdruck an Datenschutz-konformen Cloud-Angeboten – doch es bleiben viele Zweifel und Bedenken.artjazz – shutterstock.com

Microsoft hat in einem Blogbeitrag bekannt gegeben, sein Projekt “EU Data Boundary” für die Microsoft Cloud abgeschlossen zu haben. Der Softwarekonzern hatte seine Bemühungen um eine sichere, den europäischen Datenschutzregeln konforme Cloud-Infrastruktur bereits 2022 angekündigt und in den darauffolgenden Jahren in verschiedenen Phasen vorangetrieben. Nun vermeldeten Julie Brill, Corporate Vice President and Chief Privacy Officer, und Paul Lorimer, Corporate Vice President, Microsoft 365, den Abschluss der dritten und letzten Phase der Microsoft-Initiative.

Die Initiative ermögliche es den europäischen Nutzern aus dem kommerziellen und öffentlichen Sektor, “ihre pseudonymisierten personenbezogenen Kundendaten für die zentralen Cloud-Dienste von Microsoft – einschließlich Microsoft 365, Dynamics 365, Power Platform und der meisten Azure-Dienste – innerhalb der EU- und EFTA-Regionen (Europäische Freihandelszone) zu speichern und zu verarbeiten”, schrieben die Microsoft-Manager. “Darüber hinaus wird Microsoft Professional Services-Daten aus technischen Support-Interaktionen für die Kern-Cloud-Dienste innerhalb der EU- und EFTA-Regionen speichern.”

Lesen Sie alles zu den Microsoft-Bemühungen rund um die EU-Cloud:

Microsoft Cloud for Sovereignty: Microsoft stellt sichere Behörden-Cloud vor

Mehr souveräne Cloud für Europa: Microsoft erweitert EU-Datengrenze

Wird die US-Cloud in der EU bald illegal?

Laut einem Informationsblatt von Microsoft habe man sich in der ersten Phase der Initiative, die im Januar 2023 startete, auf die lokale Speicherung und Verarbeitung von Kundendaten innerhalb der EU und EFTA konzentriert. Darauf folgte im Januar 2024 die Phase 2, die pseudonymisierte personenbezogene Daten umfasste. Darunter versteht Microsoft Daten, die so verändert wurden, dass direkte Identifikatoren entfernt werden, und die in den EU/EFTA-Regionen verarbeitet und gespeichert werden.

Datengrenze garantiert keine Datensouveränität

Phil Brunkard, Executive Counselor bei der Info-Tech Research Group UK, bezeichnete die EU Data Boundary für die Microsoft Cloud als einen Schritt in Richtung einer verbesserten Datenresidenz in Europa, allerdings erzähle die Ankündigung nicht die ganze Geschichte. “Microsoft sagt, dass die Kundendaten weiterhin in der EU und EFTA gespeichert und verarbeitet werden, garantiert aber keine echte Datensouveränität”, sagte Brunkard.

“US-Gesetze wie der CLOUD Act gewähren der US-Regierung nach wie vor die Befugnis, auf diese Daten zuzugreifen”, warnte der Analyst. Die Frage sei also, ob die europäischen Regierungen diese Art des Zugriffs tatsächlich einschränken können. “Könnte eine einzige US-Verfügung diese Verpflichtungen außer Kraft setzen”, fragt sich der Experte. “Wohnsitz bedeutet in diesem Fall nicht unbedingt Kontrolle.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Brunkard fügte hinzu: “Großbritannien hat einen Status außerhalb der EU, und aus der Ankündigung von Microsoft geht nicht hervor, wie in Großbritannien ansässige Unternehmen in diesen Rahmen passen. Wir können nur davon ausgehen, dass dieselben Prinzipien gelten und Microsoft sich weiterhin an die spezifischen Datenschutzanforderungen Großbritanniens halten wird, unabhängig von der Position der EU.”

Europäer sollten sich auf lokale Provider verlassen

Der Analyst rät Unternehmen in der EU genau hinzusehen. “Sie sollten die Schlagzeilen von Microsoft nicht für bare Münze nehmen, sondern zwischen den Zeilen lesen und alle unvermeidlichen Ausnahmen, Ausschlüsse und Bedingungen genau prüfen.” Wer wirklich Wert auf echte Datensouveränität lege, sollte sich auf lokale Provider-Partner verlassen, die Microsoft-Dienste hosten. “Diese können stärkere Zusicherungen geben, dass die Daten ohne Einmischung von außen unter europäischer Gerichtsbarkeit bleiben.”

SAP und Microsoft basteln an Behörden-Cloud

Microsoft erklärte unterdessen, dass die EU-Datengrenze zwar den Großteil der personenbezogenen Daten in der EU/EFTA belässt, dass aber “bestimmte begrenzte Datentransfers für globale Sicherheitsoperationen notwendig sein können”. Diese Daten würden verwendet, um die Erkennung, Untersuchung, Behebung sowie das Verhindern von Bedrohungen in allen Regionen zu verbessern.

Microsoft verspricht strenge Zugangskontrollen

Darüber hinaus beteuerten die Microsoft-Verantwortlichen, dass Schutzmaßnahmen wie Verschlüsselung, Pseudonymisierung und strenge Zugangskontrollen eingesetzt würden, die sicherstellten, dass nur autorisiertes Sicherheitspersonal auf Daten zugreifen könne. “Die aus diesen Übertragungen gewonnenen globalen Bedrohungsdaten sind entscheidend für die Aufdeckung und Eindämmung von Cyberangriffen.”

Souveräne Clouds – der schlafende Riese

Für Robert Kramer, Vice President und Leadanalyst bei Moor Insights & Strategy, kam die Ankündigung von Microsoft nicht unerwartet kam. Kramer bezeichnete die EU Boundary Initiative als notwendig. Daten seien schließlich die wichtigste Komponente von Unternehmen, insbesondere mit Blick auf KI und die Cloud. “Die Leute reden immer nur über KI und Daten, aber es ist extrem wichtig, Compliance und Sicherheit zu verstehen.” Microsofts EU-Datenschutz-Grenze helfe dabei, weil sie Transparenz schaffe und den Kunden mehr Kontrolle über ihre Daten gebe, meint der Analyst.

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​ Weiterlesen »

7 Fragen, die zur richtigen Low-Code-Plattform führen​

Allgemein

Dieser Ratgeber bringt (hoffentlich) gedankliche Ordnung ins Low-Code-Angebotschaos. goir | shutterstock.com In den vergangenen Jahren ist die Zahl der Low-Code-Plattformen deutlich gewachsen. Das bleibt nicht ohne Folgen: Gartner führt in seinem aktuellen Magic Quadrant für Low-Code 17 verschiedene Plattformen auf. Forrester listet in seinem Wave-Report zu Low-Code-Plattformen für Citizen Developer ein Dutzend Angebote auf. G2 führt in seinem Low-Code-Ranking 85 Plattformen auf. All diese Lösungen ausführlich zu durchleuchten – geschweige denn in Prototyp-Form testweise zu betreiben – ist schlicht nicht möglich. Was ungünstig ist, schließlich ist es für Unternehmen, die auf der Suche nach einer solchen Plattform sind, essenziell, diese anhand mehrerer Anforderungen und Anwendungsfälle zu evaluieren. Die folgenden sieben Fragen können Sie dabei unterstützen. 1. Deckt die Low-Code-Plattform Business-Typ und App-Anforderungen ab? Bei einer Development-Plattform gilt es in erster Linie zu berücksichtigen, ob der Anbieter Lösungen im Portfolio hat, die sich an Organisationen Ihrer Größe und Branche richten. Dazu empfiehlt es sich, die Webpräsenz des jeweiligen Anbieters, seine Case Studies, Blogbeiträge und sonstigen Ressourcen in Augenschein zu nehmen. Ist diese Voraussetzung nicht erfüllt, müssen Sie gar nicht erst Zeit investieren, um zu evaluieren und Prototypen zu erstellen. Anderenfalls sollten Sie im nächsten Schritt prüfen, ob die gewählte Plattform halten kann, was sie verspricht, wie Ecoin Hincy, CEO und Mitbegründer des Workflow-Spezialisten Tines, erklärt: „Die Benutzer sollten eine Plattform sorgfältig prüfen, um sicherzustellen, dass sie nicht nur während einer Demo beeindruckt, sondern auch den realen Anforderungen entspricht und effektiv und in großem Maßstab eingesetzt werden kann.“ 2. Unterstützt die Low-Code-Lösung mehrere Use Cases? Ein weiterer wichtiger Aspekt ist, ob die gewählte Low-Code-Plattform verschiedene Use Cases in mehreren Geschäftsbereichen oder Abteilungen unterstützen kann. Dabei spielt auch eine Rolle, ob sie Tools enthält, die Support für IT-, Security- und Data Governance gewährleisten. Welchen Gefahren Low-Code-Plattformen bergen, die nur einen oder eine begrenzte Anzahl von Anwendungsfällen unterstützen, erklärt Debbi Roberts, SVP of Product Management beim Projektmanagement-Experten Quickbase: „Zu oft wird eine Low-Code-Lösung gewählt, um ein einzelnes Problem für ein Projekt oder einen Workflow. Das erschwert es erheblich, im Unternehmen zusammenzuarbeiten, ohne dass dabei technische Schulden oder Schatten-IT entstehen.“ Wayson Vannatta, CIO des Automation-Experten Nintex, empfiehlt zudem, Erfolgskennzahlen zu definieren und Leitplanken einzuziehen, um eine Citizen-Developer-Kultur zu fördern: „Es ist eine Sache, ob Mitarbeiter ein Tool verwenden, aber eine ganz andere, wie sie das tun.“ 3. Wie sehen die Entwickler-Personas der Low-Code-Plattform aus? Low-Code-Plattformen sind in der Regel für Developer und Technologie-affine Mitarbeiter konzipiert. No-Code-Plattformen adressieren hingegen auch Personen aus dem Business, die über grundlegenden Tech-Skills verfügen. Inzwischen existieren jedoch auch Plattformen, die beides unter einen Hut bringen – oder von GenAI-Tools unterstützt werden, die es ermöglichen, Apps mit natürlichsprachlichen Sprachanweisungen zu entwickeln. Dieser kombinative Ansatz kann Vorteile erschließen, weiß Rich Waldron, Mitbegründer und CEO des KI-Plattformanbieters Tray.ai: „Eine Plattform, die Entwicklern, Business-Technologen und Mitarbeitern mit Kundenkontakt mehrere Möglichkeiten zur Zusammenarbeit bietet, wird nicht nur wachsenden Anforderungen gerecht, sondern kann auch die Zusammenarbeit, die Entwicklungsgeschwindigkeit allgemein und die Team-Produktivität befeuern.“ Darüber hinaus empfiehlt Waldron, die in Frage kommende Plattform auf ihre Erweiterbarkeit zu prüfen: „Tools, die auch Code-lastige Ansätze unterstützen, kommen für zusätzliche Anwendungsfälle in Frage und decken mehr Entwicklerpräferenzen ab. Eine umfassende API trägt außerdem dazu bei, dass kein Vendor-Lock-in entsteht.“ 4. Welche KI-Innovationen bringt die Low-Code-Lösung mit? Viele Developer-Plattformen verfügen inzwischen über Generative-AI-Fähigkeiten, beispielsweise um Inhalte: zu suchen, zusammenzufassen oder vorherzusagen. Fragen Sie Ihren potenziellen Low-Code-Anbieter am besten ganz direkt, was er im Bereich GenAI zu bieten hat, wie seine Roadmap diesbezüglich aussieht und wie Sie als Anwender davon profitieren können. Don Schuerman, CTO beim RPA-Experten Pega, empfiehlt, dabei über den Tellerrand der bereits üblichen Standardfunktionen hinauszublicken: „Neue technologische Fortschritte ermöglichen, mit Low-Code ganze Workflows von Grund auf neu zu gestalten. Zudem können GenAI-Engines mit Best Practices einer Branche gefüttert werden, um in Sekunden und mit nur wenigen Inputs Enterprise-Applikationen zu entwerfen und dabei Ideen einzubringen, auf die Developer und User unter Umständen selbst nicht gekommen wären.“ 5. Welche Out-of-the-Box-Fähigkeiten bringt die Low-Code-Plattform mit? Eine App-Entwicklungsplattform sollte mit Ihren SaaS-Plattformen, proprietären Anwendungen und Daten-Repositories kompatibel sein. Parallel sollte es aber auch möglich sein, sie in das externe Ökosystem ihrer Partner, Plattformen und Drittanbieter-Plugins zu integrieren. Low-Code-Plattformen unterscheiden sich jeweils hinsichtlich ihres technischen Ansatzes, ihres Umfangs sowie ihrer Benutzerfreundlichkeit. Die folgenden Fragen können Sie dabei unterstützen, die Breite und Tiefe einer Plattform besser einzuschätzen: Welche Funktionen veranschaulichen die Vielseitigkeit und Flexibilität der Plattform? Formulare benötigen beispielsweise gängige UI-Elemente wie Dropdown-Menüs und Kontrollkästchen. Fortschrittlichere Plattformen verfügen hingegen über ausgefeiltere Funktionen. Wenn Sie Dashboards entwickeln, achten Sie auf Variationen bei den Diagrammtypen und die Flexibilität bei der Konfiguration. Wenn es sich um eine Workflow-Engine handelt, gehören Exception Handling, die wiederverwendbare Teilprozesse, Automatisierungsfunktionen und rollenbasierte Verantwortlichkeiten zu den wichtigsten Optionen. Lässt sich die Plattform leicht in andere Plattformen integrieren? David Brooks, SVP of Evangelism beim Low-Code-Anbieter Copado, empfiehlt: „Die meisten End-to-End-Geschäftsprozesse umfassen zwei oder mehr Plattformen und Services. Wählen Sie daher eine Plattform mit einer vollständigen API und Tools, die die Integration erleichtern.“ Wie hilft die Lösung dabei, APIs zu dokumentieren und externen Entwicklern zur Verfügung zu stellen? Jason Gartner, GM of Product Management in Application Modernization bei IBM, empfiehlt Plattform-APIs zu evaluieren – und erklärt auch warum: „Jede API ist mit Schlüssel-Ressourcen und der Infrastruktur verbunden und nur dann nützlich, wenn externe Entwickler digital lernen können, welche APIs sie wie und in welcher Reihenfolge callen müssen, um eine Ende-zu-Ende-Business-Transaktion abzuschließen.“ 6. Wie steil ist die Lernkurve der Low-Code-Lösung? Low-Code-Plattformen erfordern Eingewöhnungszeit. Profi-Entwickler sollten allerdings relativ schnell in der Lage sein, auf einer solchen Plattform produktiv zu sein. Für Lösungen, die auf Großunternehmen zielen und darauf ausgerichtet sind, missionskritische Anwendungen zu entwickeln, empfehlen sich zudem Zertifizierungskurse und ein ausgereiftes Partner-Ökosystem. Sid Misra, Vice President Marketing and Solutions bei SAP, weiß, worauf es allgemein mit Blick auf die User Experience ankommt: “Low-Code-Plattformen sollten einfach zu bedienen sein und es den Entwicklern ermöglichen, neue Ideen zu testen und zu experimentieren – ohne große Investitionen in IT oder externe Ressourcen.“ Dazu sollten Anwender in Erwägung ziehen, mehrere Teams mit der neuen Plattform Erfahrungen sammeln zu lassen, wie auch Nintex-CIO Vannatta empfiehlt: „Für eine effiziente Implementierung und nachhaltige Nutzung ist es entscheidend, ein Gefühl dafür zu bekommen, wie schnell sich Ihr Team an die Plattform anpassen kann.“ Low-Code-Evangelist Brooks hat einen weiteren Tipp auf Lager, um Plattformen mit guter Benutzererfahrung zu identifizieren: „Eine große Nutzerbasis ist ein guter Hinweis darauf, wie benutzerfreundlich die Plattform ist. Bei Bedarf bietet sich so auch gleich auch ein Talent-Pool, aus dem man schöpfen kann.“ 7. Kann die Low-Code-Plattform (sicherheits-)technischen Anforderungen genügen? Organisationen sollten ihre nicht-funktionalen (Technologie-, Betriebs- und Sicherheitsanforderungen) sowie geschäftlichen Kriterien in Bezug auf Preisgestaltung, Daten- und Compliance-Anforderungen schriftlich erfassen. Geht es dabei um Low-Code-Plattformen, kommen weitere Überlegungen hinzu: Vereinfacht die Plattform, verschiedene Datenquellen zu integrieren, zu kodifizieren sowie Geschäftslogik und User Interfaces anzupassen? Wie gut passt die Low-Code-Plattform zu Ihrem bestehenden Softwareentwicklungs-Lebenszyklus? Welche Sicherheitsfunktionen bietet die Plattform und wie steht es um die Compliance? Wie skaliert die Low-Code-Lösung und wie gestaltet sich ihr Preisgefüge? Welche Observability– und Monitoring-Funktionen bietet die Plattform? (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Fragen, die zur richtigen Low-Code-Plattform führen​ Dieser Ratgeber bringt (hoffentlich) gedankliche Ordnung ins Low-Code-Angebotschaos.
goir | shutterstock.com

In den vergangenen Jahren ist die Zahl der Low-Code-Plattformen deutlich gewachsen. Das bleibt nicht ohne Folgen:

Gartner führt in seinem aktuellen Magic Quadrant für Low-Code 17 verschiedene Plattformen auf.

Forrester listet in seinem Wave-Report zu Low-Code-Plattformen für Citizen Developer ein Dutzend Angebote auf.

G2 führt in seinem Low-Code-Ranking 85 Plattformen auf.

All diese Lösungen ausführlich zu durchleuchten – geschweige denn in Prototyp-Form testweise zu betreiben – ist schlicht nicht möglich. Was ungünstig ist, schließlich ist es für Unternehmen, die auf der Suche nach einer solchen Plattform sind, essenziell, diese anhand mehrerer Anforderungen und Anwendungsfälle zu evaluieren. Die folgenden sieben Fragen können Sie dabei unterstützen.

1. Deckt die Low-Code-Plattform Business-Typ und App-Anforderungen ab?

Bei einer Development-Plattform gilt es in erster Linie zu berücksichtigen, ob der Anbieter Lösungen im Portfolio hat, die sich an Organisationen Ihrer Größe und Branche richten. Dazu empfiehlt es sich, die Webpräsenz des jeweiligen Anbieters, seine Case Studies, Blogbeiträge und sonstigen Ressourcen in Augenschein zu nehmen. Ist diese Voraussetzung nicht erfüllt, müssen Sie gar nicht erst Zeit investieren, um zu evaluieren und Prototypen zu erstellen.

Anderenfalls sollten Sie im nächsten Schritt prüfen, ob die gewählte Plattform halten kann, was sie verspricht, wie Ecoin Hincy, CEO und Mitbegründer des Workflow-Spezialisten Tines, erklärt: „Die Benutzer sollten eine Plattform sorgfältig prüfen, um sicherzustellen, dass sie nicht nur während einer Demo beeindruckt, sondern auch den realen Anforderungen entspricht und effektiv und in großem Maßstab eingesetzt werden kann.“

2. Unterstützt die Low-Code-Lösung mehrere Use Cases?

Ein weiterer wichtiger Aspekt ist, ob die gewählte Low-Code-Plattform verschiedene Use Cases in mehreren Geschäftsbereichen oder Abteilungen unterstützen kann. Dabei spielt auch eine Rolle, ob sie Tools enthält, die Support für IT-, Security- und Data Governance gewährleisten.

Welchen Gefahren Low-Code-Plattformen bergen, die nur einen oder eine begrenzte Anzahl von Anwendungsfällen unterstützen, erklärt Debbi Roberts, SVP of Product Management beim Projektmanagement-Experten Quickbase: „Zu oft wird eine Low-Code-Lösung gewählt, um ein einzelnes Problem für ein Projekt oder einen Workflow. Das erschwert es erheblich, im Unternehmen zusammenzuarbeiten, ohne dass dabei technische Schulden oder Schatten-IT entstehen.“

Wayson Vannatta, CIO des Automation-Experten Nintex, empfiehlt zudem, Erfolgskennzahlen zu definieren und Leitplanken einzuziehen, um eine Citizen-Developer-Kultur zu fördern: „Es ist eine Sache, ob Mitarbeiter ein Tool verwenden, aber eine ganz andere, wie sie das tun.“

3. Wie sehen die Entwickler-Personas der Low-Code-Plattform aus?

Low-Code-Plattformen sind in der Regel für Developer und Technologie-affine Mitarbeiter konzipiert. No-Code-Plattformen adressieren hingegen auch Personen aus dem Business, die über grundlegenden Tech-Skills verfügen. Inzwischen existieren jedoch auch Plattformen, die beides unter einen Hut bringen – oder von GenAI-Tools unterstützt werden, die es ermöglichen, Apps mit natürlichsprachlichen Sprachanweisungen zu entwickeln.

Dieser kombinative Ansatz kann Vorteile erschließen, weiß Rich Waldron, Mitbegründer und CEO des KI-Plattformanbieters Tray.ai: „Eine Plattform, die Entwicklern, Business-Technologen und Mitarbeitern mit Kundenkontakt mehrere Möglichkeiten zur Zusammenarbeit bietet, wird nicht nur wachsenden Anforderungen gerecht, sondern kann auch die Zusammenarbeit, die Entwicklungsgeschwindigkeit allgemein und die Team-Produktivität befeuern.“

Darüber hinaus empfiehlt Waldron, die in Frage kommende Plattform auf ihre Erweiterbarkeit zu prüfen: „Tools, die auch Code-lastige Ansätze unterstützen, kommen für zusätzliche Anwendungsfälle in Frage und decken mehr Entwicklerpräferenzen ab. Eine umfassende API trägt außerdem dazu bei, dass kein Vendor-Lock-in entsteht.“

4. Welche KI-Innovationen bringt die Low-Code-Lösung mit?

Viele Developer-Plattformen verfügen inzwischen über Generative-AI-Fähigkeiten, beispielsweise um Inhalte:

zu suchen,

zusammenzufassen oder

vorherzusagen.

Fragen Sie Ihren potenziellen Low-Code-Anbieter am besten ganz direkt, was er im Bereich GenAI zu bieten hat, wie seine Roadmap diesbezüglich aussieht und wie Sie als Anwender davon profitieren können.

Don Schuerman, CTO beim RPA-Experten Pega, empfiehlt, dabei über den Tellerrand der bereits üblichen Standardfunktionen hinauszublicken: „Neue technologische Fortschritte ermöglichen, mit Low-Code ganze Workflows von Grund auf neu zu gestalten. Zudem können GenAI-Engines mit Best Practices einer Branche gefüttert werden, um in Sekunden und mit nur wenigen Inputs Enterprise-Applikationen zu entwerfen und dabei Ideen einzubringen, auf die Developer und User unter Umständen selbst nicht gekommen wären.“

5. Welche Out-of-the-Box-Fähigkeiten bringt die Low-Code-Plattform mit?

Eine App-Entwicklungsplattform sollte mit Ihren SaaS-Plattformen, proprietären Anwendungen und Daten-Repositories kompatibel sein. Parallel sollte es aber auch möglich sein, sie in das externe Ökosystem ihrer Partner, Plattformen und Drittanbieter-Plugins zu integrieren.

Low-Code-Plattformen unterscheiden sich jeweils hinsichtlich ihres technischen Ansatzes, ihres Umfangs sowie ihrer Benutzerfreundlichkeit. Die folgenden Fragen können Sie dabei unterstützen, die Breite und Tiefe einer Plattform besser einzuschätzen:

Welche Funktionen veranschaulichen die Vielseitigkeit und Flexibilität der Plattform? Formulare benötigen beispielsweise gängige UI-Elemente wie Dropdown-Menüs und Kontrollkästchen. Fortschrittlichere Plattformen verfügen hingegen über ausgefeiltere Funktionen. Wenn Sie Dashboards entwickeln, achten Sie auf Variationen bei den Diagrammtypen und die Flexibilität bei der Konfiguration. Wenn es sich um eine Workflow-Engine handelt, gehören Exception Handling, die wiederverwendbare Teilprozesse, Automatisierungsfunktionen und rollenbasierte Verantwortlichkeiten zu den wichtigsten Optionen.

Lässt sich die Plattform leicht in andere Plattformen integrieren? David Brooks, SVP of Evangelism beim Low-Code-Anbieter Copado, empfiehlt: „Die meisten End-to-End-Geschäftsprozesse umfassen zwei oder mehr Plattformen und Services. Wählen Sie daher eine Plattform mit einer vollständigen API und Tools, die die Integration erleichtern.“

Wie hilft die Lösung dabei, APIs zu dokumentieren und externen Entwicklern zur Verfügung zu stellen? Jason Gartner, GM of Product Management in Application Modernization bei IBM, empfiehlt Plattform-APIs zu evaluieren – und erklärt auch warum: „Jede API ist mit Schlüssel-Ressourcen und der Infrastruktur verbunden und nur dann nützlich, wenn externe Entwickler digital lernen können, welche APIs sie wie und in welcher Reihenfolge callen müssen, um eine Ende-zu-Ende-Business-Transaktion abzuschließen.“

6. Wie steil ist die Lernkurve der Low-Code-Lösung?

Low-Code-Plattformen erfordern Eingewöhnungszeit. Profi-Entwickler sollten allerdings relativ schnell in der Lage sein, auf einer solchen Plattform produktiv zu sein. Für Lösungen, die auf Großunternehmen zielen und darauf ausgerichtet sind, missionskritische Anwendungen zu entwickeln, empfehlen sich zudem Zertifizierungskurse und ein ausgereiftes Partner-Ökosystem.

Sid Misra, Vice President Marketing and Solutions bei SAP, weiß, worauf es allgemein mit Blick auf die User Experience ankommt: “Low-Code-Plattformen sollten einfach zu bedienen sein und es den Entwicklern ermöglichen, neue Ideen zu testen und zu experimentieren – ohne große Investitionen in IT oder externe Ressourcen.“

Dazu sollten Anwender in Erwägung ziehen, mehrere Teams mit der neuen Plattform Erfahrungen sammeln zu lassen, wie auch Nintex-CIO Vannatta empfiehlt: „Für eine effiziente Implementierung und nachhaltige Nutzung ist es entscheidend, ein Gefühl dafür zu bekommen, wie schnell sich Ihr Team an die Plattform anpassen kann.“

Low-Code-Evangelist Brooks hat einen weiteren Tipp auf Lager, um Plattformen mit guter Benutzererfahrung zu identifizieren: „Eine große Nutzerbasis ist ein guter Hinweis darauf, wie benutzerfreundlich die Plattform ist. Bei Bedarf bietet sich so auch gleich auch ein Talent-Pool, aus dem man schöpfen kann.“

7. Kann die Low-Code-Plattform (sicherheits-)technischen Anforderungen genügen?

Organisationen sollten ihre nicht-funktionalen (Technologie-, Betriebs- und Sicherheitsanforderungen) sowie geschäftlichen Kriterien in Bezug auf Preisgestaltung, Daten- und Compliance-Anforderungen schriftlich erfassen. Geht es dabei um Low-Code-Plattformen, kommen weitere Überlegungen hinzu:

Vereinfacht die Plattform, verschiedene Datenquellen zu integrieren, zu kodifizieren sowie Geschäftslogik und User Interfaces anzupassen?

Wie gut passt die Low-Code-Plattform zu Ihrem bestehenden Softwareentwicklungs-Lebenszyklus?

Welche Sicherheitsfunktionen bietet die Plattform und wie steht es um die Compliance?

Wie skaliert die Low-Code-Lösung und wie gestaltet sich ihr Preisgefüge?

Welche Observability– und Monitoring-Funktionen bietet die Plattform?

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Fragen, die zur richtigen Low-Code-Plattform führen​ Weiterlesen »

Social Loafing – Wie Sie mit Faulenzern umgehen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Faule Mitarbeiter drosseln die Effizienz des Unternehmens und schmälern den Erfolg. Dennoch kann in ihnen großes Potenzial schlummern, das Arbeitgeber durch taktische Kniffe gezielt wecken können. Antonio Guillem / Shutterstock Social Loafing ist leicht erklärt: Übersetzt bedeutet es „soziales Faulenzen“. Das Phänomen tritt auf, wenn Menschen in einer Gruppe gemeinsam eine Aufgabe erledigen sollen. Oft gibt es Einzelne, die sich zurücklehnen und nicht mit voller Kraft mitarbeiten – in der Hoffnung, dass die anderen Teammitglieder die Arbeit übernehmen. Getreu dem Motto: TEAM – Toll, ein anderer macht’s. Der französische Agraringenieur Maximilien Ringelmann beschrieb diesen Effekt erstmals Ende des 19. Jahrhunderts. In seinen Experimenten ließ er Versuchspersonen zunächst allein und dann in Gruppen an einem Seil ziehen. Dabei stellte er fest, dass die individuelle Zugkraft in der Gruppe abnahm, je größer die Gruppe wurde. Anders formuliert: Jeder Einzelne wendet weniger Energie auf, wenn er in der Gruppe arbeitet, als wenn er die Aufgabe allein bewältigen muss. Dieses Phänomen ist in vielen Bereichen des Arbeitslebens oder im Mannschaftssport zu beobachten und führt in vielen Fällen dazu, dass die Arbeit nicht gleichmäßig auf alle Teammitglieder verteilt wird. Allerdings ist es schwierig, Social Loafing direkt nachzuweisen, da die individuelle Leistung in einer Gruppe schwer zu messen ist und viele Faktoren das Verhalten beeinflussen können. Dennoch gibt es einige Anhaltspunkte für das beobachtete Verhalten: Mit zunehmender Gruppengröße sinkt die durchschnittliche Leistung pro Person. Bei Zweier-Teams lag sie bei 93 Prozent, bei Achter-Teams nur noch bei 49 Prozent- der möglichen Einzelleistung. Dies zeigt bereits, welche Ursachen das Auftreten des Phänomens beeinflussen: – Die Gruppengröße spielt eine wichtige Rolle. Wenn mehr Mitarbeiter im Projekt arbeiten, ist es für den Einzelnen leichter, sich in der Masse zu verstecken. – Wenn dann noch der Arbeitgeber keine Key Performance Indicators (KPIs) oder andere Messgrößen implementiert hat, um den Erfolg oder zumindest den Beitrag jedes einzelnen Mitarbeiters messen zu können, fördert dies ebenfalls das soziale Faulenzen. – Und last but not least sind Routineaufgaben prädestiniert dafür, dass die Arbeit letztlich nur von wenigen bestimmten Mitarbeitern erledigt wird. Sich wiederholende oder monotone Aufgaben laden oft dazu ein, Verantwortung abzugeben. Wie fleißige Kollegen durch faule profitieren Für den Arbeitgeber ist es natürlich unerfreulich, Mitarbeiter zu bezahlen, die sich nicht engagieren. Tatsächlich scheint soziales Faulenzen aber auch positive Effekte zu haben: Joachim Funke und Annette Feuchter von der Universität Heidelberg haben Social Loafing genauer unter die Lupe genommen und konnten zumindest einige positive Aspekte ausmachen: Interpretiere man Social Loafing nicht nur als Faulenzen, sondern schreibt dem betroffenen Kollegen stattdessen zu, dass er einfach nur entspannter als andere Kollegen seiner Arbeit nachgeht, kann sich das positiv auf die übrigen Kollegen auswirken. Jedenfalls dann, wenn sich die übrigen Kollegen ein wenig von der relaxten Arbeitsweise anstecken lassen. Denn: Wenn wir viel zu tun haben und die Deadline näher rückt, lassen sich viele davon stressen, was sich wiederum schlecht auf die Qualität der Arbeit auswirken könnte. Anders formuliert: Zu großer Druck auf der Arbeit führt eher zu Fehlern. Vermeiden können wir das, indem wir uns nicht allzu sehr stressen lassen – uns also so verhalten wie die sozialen „Faulenzer“. Kurzum: Wenn sich einige Kollegen ein wenig von der „Arbeitsweise“ anstecken lassen, kann sich das im günstigsten Fall positiv auf die Fehlerquote auswirken. Es gilt also wie so häufig: Es ist nicht alles schlecht. Im Gegenteil, es kommt sogar noch besser. Für diejenigen Kollegen, die sich nicht auf der Arbeit anderer ausruhen, sondern selbst Leistung bringen, kann das Faulenzen der Kollegen mitunter sogar Vorteile haben: 1. Die fleißigen Kollegen machen einen besseren Eindruck: Die Leistung der Kollegen, die nicht faulenzen, wirkt durch den Kontrast zum Social Loafing des Kollegen noch besser. Das lässt diese Kollegen in einem besseren Licht erscheinen. Das heißt: Auch wer sich wenig anstrengt, wirkt gleich viel motivierter als der Social Loafer. 2. Sie zeigen, worauf man frühzeitig achten sollte: Soziale Faulenzer können auch ein warnendes Beispiel sein. Vielleicht waren sie früher Kollegen, denen ihre Arbeit Spaß gemacht hat und die gerne gearbeitet haben. Aber über die Jahre, mit der Monotonie und den aussichtslosen Kämpfen gegen die Verfahrensregeln, sind sie eben zu Faulpelzen geworden. Für Mitarbeiter, die noch nicht an diesem Punkt angelangt sind, kann die Entwicklung des Social Loafing daher Hinweise geben, worauf sie achten und vor allem was sie vermeiden sollten, um die eigene Motivation zu erhalten. Social Loafing ein Problem für Arbeitgeber? Geschickte Arbeitgeber oder Manager können das Phänomen des Social Loafing sogar für sich nutzen. So wird dem erfolgreichen Microsoft-Gründer Bill Gates nachgesagt, dass er gezielt “faule” Mitarbeiter mit schwierigen und komplexen Problemen betraute. Die Idee dahinter: Wer wenig Lust hat, viel zu arbeiten, wird Wege finden, seine Aufgaben mit möglichst geringem Aufwand, also besonders effizient, zu erledigen. Mitarbeiter, die zur sozialen Faulheit neigen, haben also oft eine besondere Fähigkeit: Sie finden kreative Abkürzungen, optimieren Prozesse und delegieren Aufgaben geschickt an andere. Damit investieren sie nicht nur selbst weniger Zeit, sondern tragen auch zur Entlastung des Teams bei – vorausgesetzt, ihre Effizienz ist produktiv. Anstatt Social Loafing als reines Problem zu betrachten, können Führungskräfte diese Tendenz gezielt steuern. Indem sie solche Mitarbeiter mit Aufgaben betrauen, die Kreativität, Pragmatismus und Effizienz erfordern, können sie davon profitieren, dass diese Personen ihre Abneigung gegen überflüssige Arbeit in nützliche Ergebnisse umwandeln. Der Schlüssel liegt darin, die Stärken der Mitarbeiter zu erkennen und sie in Rollen einzusetzen, die ihrer Arbeitsweise entsprechen. Das erfordert natürlich Fingerspitzengefühl. Wem es aber gelingt, die richtige Balance zwischen Eigeninitiative und Teamverantwortung zu fördern, der kann auch von vermeintlich “faulen” Mitarbeitern wertvolle Impulse für mehr Effizienz und Prozessoptimierung erhalten. Social Loafing verhindern Auf der anderen Seite gibt es Situationen, in denen Arbeitgeber Social Loafing am Arbeitsplatz unterbinden möchten – insbesondere dann, wenn die Nachteile überwiegen und das Faulenzen den Unternehmenserfolg beeinträchtigt. Arbeitgeber können verschiedene Maßnahmen ergreifen, um sowohl die individuelle Motivation als auch die Teamdynamik zu stärken. Die folgenden Methoden können dabei hilfreich sein 1. Rollen klar verteilen: Social Loafing kommt besonders häufig vor, wenn nicht klar ist, wer im Team welche Aufgabe übernimmt und somit nicht nachvollziehbar ist, wer welchen Beitrag geleistet hat. Wenn aber jeder Mitarbeiter klare Zuständigkeiten hat, wird es schwieriger, sich vor der Arbeit zu drücken. Sollte dies dennoch geschehen, ist es für die Führungskraft einfacher, den Verantwortlichen zu identifizieren. 2. Kennzahlen festlegen: Der oben genannte Schritt kann noch weiter optimiert werden: Durch die Definition klarer KPIs kann die Leistung jedes Einzelnen messbar gemacht werden. So wird nicht nur die Arbeit nachvollziehbar, sondern auch die individuelle Leistung bewertet. 3. Kleine Teams bilden: In größeren Teams ist Social Loafing oft stärker ausgeprägt. Ein einfaches Gegenmittel: kleinere Teams. In Gruppen von drei bis vier Personen kann man sich schlechter verstecken. Der soziale Druck steigt und jeder fühlt sich stärker verantwortlich, zum Gesamterfolg beizutragen. 4. Regelmäßig Feedback geben: Regelmäßiges Feedback kann die Selbstwahrnehmung verbessern und helfen, die Arbeitshaltung zu überdenken. Social Loafing ist oft das Ergebnis einer falschen Einschätzung der eigenen Leistung. Wenn Beschäftigte merken, dass ihre Arbeit wahrgenommen und wertgeschätzt wird, kann dies die Motivation erheblich steigern. Dieses Feedback muss nicht ausschließlich von Vorgesetzten kommen – auch Peer-Feedback, also die Beurteilung durch Kollegen, kann zu einer neuen Einstellung gegenüber der eigenen Arbeit führen. 

Social Loafing – Wie Sie mit Faulenzern umgehen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Faule Mitarbeiter drosseln die Effizienz des Unternehmens und schmälern den Erfolg. Dennoch kann in ihnen großes Potenzial schlummern, das Arbeitgeber durch taktische Kniffe gezielt wecken können. Antonio Guillem / Shutterstock

Social Loafing ist leicht erklärt: Übersetzt bedeutet es „soziales Faulenzen“. Das Phänomen tritt auf, wenn Menschen in einer Gruppe gemeinsam eine Aufgabe erledigen sollen. Oft gibt es Einzelne, die sich zurücklehnen und nicht mit voller Kraft mitarbeiten – in der Hoffnung, dass die anderen Teammitglieder die Arbeit übernehmen. Getreu dem Motto: TEAM – Toll, ein anderer macht’s.

Der französische Agraringenieur Maximilien Ringelmann beschrieb diesen Effekt erstmals Ende des 19. Jahrhunderts. In seinen Experimenten ließ er Versuchspersonen zunächst allein und dann in Gruppen an einem Seil ziehen. Dabei stellte er fest, dass die individuelle Zugkraft in der Gruppe abnahm, je größer die Gruppe wurde. Anders formuliert: Jeder Einzelne wendet weniger Energie auf, wenn er in der Gruppe arbeitet, als wenn er die Aufgabe allein bewältigen muss.

Dieses Phänomen ist in vielen Bereichen des Arbeitslebens oder im Mannschaftssport zu beobachten und führt in vielen Fällen dazu, dass die Arbeit nicht gleichmäßig auf alle Teammitglieder verteilt wird. Allerdings ist es schwierig, Social Loafing direkt nachzuweisen, da die individuelle Leistung in einer Gruppe schwer zu messen ist und viele Faktoren das Verhalten beeinflussen können.

Dennoch gibt es einige Anhaltspunkte für das beobachtete Verhalten: Mit zunehmender Gruppengröße sinkt die durchschnittliche Leistung pro Person. Bei Zweier-Teams lag sie bei 93 Prozent, bei Achter-Teams nur noch bei 49 Prozent- der möglichen Einzelleistung.

Dies zeigt bereits, welche Ursachen das Auftreten des Phänomens beeinflussen:

– Die Gruppengröße spielt eine wichtige Rolle. Wenn mehr Mitarbeiter im Projekt arbeiten, ist es für den Einzelnen leichter, sich in der Masse zu verstecken.

– Wenn dann noch der Arbeitgeber keine Key Performance Indicators (KPIs) oder andere Messgrößen implementiert hat, um den Erfolg oder zumindest den Beitrag jedes einzelnen Mitarbeiters messen zu können, fördert dies ebenfalls das soziale Faulenzen.

– Und last but not least sind Routineaufgaben prädestiniert dafür, dass die Arbeit letztlich nur von wenigen bestimmten Mitarbeitern erledigt wird. Sich wiederholende oder monotone Aufgaben laden oft dazu ein, Verantwortung abzugeben.

Wie fleißige Kollegen durch faule profitieren

Für den Arbeitgeber ist es natürlich unerfreulich, Mitarbeiter zu bezahlen, die sich nicht engagieren. Tatsächlich scheint soziales Faulenzen aber auch positive Effekte zu haben: Joachim Funke und Annette Feuchter von der Universität Heidelberg haben Social Loafing genauer unter die Lupe genommen und konnten zumindest einige positive Aspekte ausmachen:

Interpretiere man Social Loafing nicht nur als Faulenzen, sondern schreibt dem betroffenen Kollegen stattdessen zu, dass er einfach nur entspannter als andere Kollegen seiner Arbeit nachgeht, kann sich das positiv auf die übrigen Kollegen auswirken. Jedenfalls dann, wenn sich die übrigen Kollegen ein wenig von der relaxten Arbeitsweise anstecken lassen. Denn: Wenn wir viel zu tun haben und die Deadline näher rückt, lassen sich viele davon stressen, was sich wiederum schlecht auf die Qualität der Arbeit auswirken könnte.

Anders formuliert: Zu großer Druck auf der Arbeit führt eher zu Fehlern. Vermeiden können wir das, indem wir uns nicht allzu sehr stressen lassen – uns also so verhalten wie die sozialen „Faulenzer“. Kurzum: Wenn sich einige Kollegen ein wenig von der „Arbeitsweise“ anstecken lassen, kann sich das im günstigsten Fall positiv auf die Fehlerquote auswirken. Es gilt also wie so häufig: Es ist nicht alles schlecht. Im Gegenteil, es kommt sogar noch besser. Für diejenigen Kollegen, die sich nicht auf der Arbeit anderer ausruhen, sondern selbst Leistung bringen, kann das Faulenzen der Kollegen mitunter sogar Vorteile haben:

1. Die fleißigen Kollegen machen einen besseren Eindruck: Die Leistung der Kollegen, die nicht faulenzen, wirkt durch den Kontrast zum Social Loafing des Kollegen noch besser. Das lässt diese Kollegen in einem besseren Licht erscheinen. Das heißt: Auch wer sich wenig anstrengt, wirkt gleich viel motivierter als der Social Loafer.

2. Sie zeigen, worauf man frühzeitig achten sollte: Soziale Faulenzer können auch ein warnendes Beispiel sein. Vielleicht waren sie früher Kollegen, denen ihre Arbeit Spaß gemacht hat und die gerne gearbeitet haben. Aber über die Jahre, mit der Monotonie und den aussichtslosen Kämpfen gegen die Verfahrensregeln, sind sie eben zu Faulpelzen geworden. Für Mitarbeiter, die noch nicht an diesem Punkt angelangt sind, kann die Entwicklung des Social Loafing daher Hinweise geben, worauf sie achten und vor allem was sie vermeiden sollten, um die eigene Motivation zu erhalten.

Social Loafing ein Problem für Arbeitgeber?

Geschickte Arbeitgeber oder Manager können das Phänomen des Social Loafing sogar für sich nutzen. So wird dem erfolgreichen Microsoft-Gründer Bill Gates nachgesagt, dass er gezielt “faule” Mitarbeiter mit schwierigen und komplexen Problemen betraute. Die Idee dahinter: Wer wenig Lust hat, viel zu arbeiten, wird Wege finden, seine Aufgaben mit möglichst geringem Aufwand, also besonders effizient, zu erledigen.

Mitarbeiter, die zur sozialen Faulheit neigen, haben also oft eine besondere Fähigkeit: Sie finden kreative Abkürzungen, optimieren Prozesse und delegieren Aufgaben geschickt an andere. Damit investieren sie nicht nur selbst weniger Zeit, sondern tragen auch zur Entlastung des Teams bei – vorausgesetzt, ihre Effizienz ist produktiv.

Anstatt Social Loafing als reines Problem zu betrachten, können Führungskräfte diese Tendenz gezielt steuern. Indem sie solche Mitarbeiter mit Aufgaben betrauen, die Kreativität, Pragmatismus und Effizienz erfordern, können sie davon profitieren, dass diese Personen ihre Abneigung gegen überflüssige Arbeit in nützliche Ergebnisse umwandeln. Der Schlüssel liegt darin, die Stärken der Mitarbeiter zu erkennen und sie in Rollen einzusetzen, die ihrer Arbeitsweise entsprechen.

Das erfordert natürlich Fingerspitzengefühl. Wem es aber gelingt, die richtige Balance zwischen Eigeninitiative und Teamverantwortung zu fördern, der kann auch von vermeintlich “faulen” Mitarbeitern wertvolle Impulse für mehr Effizienz und Prozessoptimierung erhalten.

Social Loafing verhindern

Auf der anderen Seite gibt es Situationen, in denen Arbeitgeber Social Loafing am Arbeitsplatz unterbinden möchten – insbesondere dann, wenn die Nachteile überwiegen und das Faulenzen den Unternehmenserfolg beeinträchtigt.

Arbeitgeber können verschiedene Maßnahmen ergreifen, um sowohl die individuelle Motivation als auch die Teamdynamik zu stärken. Die folgenden Methoden können dabei hilfreich sein

1. Rollen klar verteilen: Social Loafing kommt besonders häufig vor, wenn nicht klar ist, wer im Team welche Aufgabe übernimmt und somit nicht nachvollziehbar ist, wer welchen Beitrag geleistet hat. Wenn aber jeder Mitarbeiter klare Zuständigkeiten hat, wird es schwieriger, sich vor der Arbeit zu drücken. Sollte dies dennoch geschehen, ist es für die Führungskraft einfacher, den Verantwortlichen zu identifizieren.

2. Kennzahlen festlegen: Der oben genannte Schritt kann noch weiter optimiert werden: Durch die Definition klarer KPIs kann die Leistung jedes Einzelnen messbar gemacht werden. So wird nicht nur die Arbeit nachvollziehbar, sondern auch die individuelle Leistung bewertet.

3. Kleine Teams bilden: In größeren Teams ist Social Loafing oft stärker ausgeprägt. Ein einfaches Gegenmittel: kleinere Teams. In Gruppen von drei bis vier Personen kann man sich schlechter verstecken. Der soziale Druck steigt und jeder fühlt sich stärker verantwortlich, zum Gesamterfolg beizutragen.

4. Regelmäßig Feedback geben: Regelmäßiges Feedback kann die Selbstwahrnehmung verbessern und helfen, die Arbeitshaltung zu überdenken. Social Loafing ist oft das Ergebnis einer falschen Einschätzung der eigenen Leistung. Wenn Beschäftigte merken, dass ihre Arbeit wahrgenommen und wertgeschätzt wird, kann dies die Motivation erheblich steigern. Dieses Feedback muss nicht ausschließlich von Vorgesetzten kommen – auch Peer-Feedback, also die Beurteilung durch Kollegen, kann zu einer neuen Einstellung gegenüber der eigenen Arbeit führen.

Social Loafing – Wie Sie mit Faulenzern umgehen​ Weiterlesen »

Wie GenAI unser Gehirn neu verdrahtet​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?quality=50&strip=all 7111w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Je mehr Aufgaben GenAI übernimmt, desto stärker wird die Abhängigkeit, so eine aktuelle Studie.New Africa/Shutterstock.com GenAI-Tools setzen sich schnell durch, aber ihr Einsatz wirft Bedenken hinsichtlich ihrer Auswirkungen auf das menschliche Denken auf. So ergab eine neue Umfrage und Analyse von Carnegie Mellon und Microsoft, dass die Technologie zwar die Effizienz verbessert, aber auch das kritische Denken einschränken kann. Außerdem besteht die Gefahr, dass die kleinen Helfer zu übermäßiger Abhängigkeit führen und mit der Zeit die Problemlösungsfähigkeiten beeinträchtigen.  „Die Automatisierung nimmt dem Benutzer die Möglichkeit, sein Urteilsvermögen durch regelmäßige Routineaufgaben zu trainieren“, heißt es in der Studie, zu der 319 Wissensarbeiter, die mindestens einmal pro Woche KI-Tools wie ChatGPT oder Microsoft Copilot verwenden, befragt wurden. „Stattdessen muss er nur noch in Ausnahmefällen eingreifen – auf die er dann ironischerweise nicht vorbereitet ist, weil ihm die Übung fehlt.“  Insgesamt, so ein Ergebnis der Analyse, korreliert das Vertrauen der Arbeitnehmer in die Fähigkeiten von GenAI mit weniger Aufwand beim kritischen Denken. Der Schwerpunkt des kritischen Denkens verlagert sich  vom Sammeln von Informationen zum Überprüfen dieser, vom Lösen von Problemen zum Integrieren von KI-Antworten und vom Ausführen von Aufgaben zum Überwachen dieser.   Die Studie legt nahe, dass GenAI-Tools so konzipiert werden sollten, dass sie das kritische Denken besser unterstützen, indem sie die Barrieren in Bezug auf das Bewusstsein, die Motivation und die Fähigkeiten der Arbeitnehmer absenken.  Ist kognitive Entlastung schädlich?  Die Studie untersuchte insbesondere die potenziellen Auswirkungen von GenAI auf das kritische Denken und ob die damit verbundene „kognitive Entlastung“ schädlich sein könnte. Dabei zeigte sich, dass Wissensarbeiter im GenAI-Kontext kritisches Denken in erster Linie einsetzen, um die Qualität sicherzustellen, KI-Ergebnisse zu verfeinern und KI-generierte Inhalte zu überprüfen. Zeitdruck, mangelndes Bewusstsein und Unkenntnis der Bereiche können jedoch das reflektierende Denken behindern.  Dazu muss man wissen, dass es sich bei kognitiver Entlastung um kein neues Phänomen handelt. Vielmehr kommen externe Geräte oder Prozesse schon seit Jahrhunderten zum Einsatz, um die mentale Anstrengung zu verringern. Bereits so Einfaches wie das Aufschreiben von Dingen oder das Verlassen auf die Hilfe anderer beim Erinnern, Lösen von Problemen oder Treffen von Entscheidungen ist beispielsweise eine Form der kognitiven Entlastung. Das Gleiche gilt für die Verwendung eines Taschenrechners anstelle von Kopfrechnen.  Anzeichen für einen Rückgang der Denkfähigkeiten   „Der Unterschied zwischen der Verwendung von GenAI im Vergleich zur Verwendung von Taschenrechnern und Internet-Suchmaschinen liegt darin, welche Gehirnfunktionen beansprucht werden und wie sie sich auf das tägliche Leben auswirken“, erklärt David Raffo, Professor am Maseeh College of Engineering and Computer Science der Portland State University. „GenAI-Tools entlasten bei Aufgaben, die Sprach- und Führungsfunktionen beinhalten. Es gilt das Prinzip ‘use it or lose it‘: Wenn wir unser Gehirn mit Schreiben, Kommunikation, Planung und Entscheidungsfindung beschäftigen, verbessern sich diese Fähigkeiten.Diese Aufgaben an generative KI und andere Tools abzugeben, beraubt uns der Möglichkeit, zu lernen und zu wachsen oder auch nur auf dem erreichten Niveau zu bleiben“, warnt Raffo.  Lev Tankelevitch, leitender Forscher bei Microsoft Research, räumt ein, dass nicht jede Nutzung von GenAI schlecht sei. Es gebe eindeutige Belege dafür, dass die KI das kritische Denken und die Lernergebnisse im Bildungsbereich verbessern könne. „In Nigeria beispielsweise deutet eine frühe Studie darauf hin, dass KI-Tutoren Schülern helfen könnten, in nur sechs Wochen einen Lernfortschritt von zwei Jahren zu erzielen“, so Tankelevitch. “Eine andere Studie zeigte, dass Schüler, die mit KI-gestützten Tutoren arbeiteten, mit einer um vier Prozent höheren Wahrscheinlichkeit Schlüsselthemen beherrschten.“  Der Schlüssel, so Tankelevitch, sei, dass es von Lehrern angeleitet werde. Pädagogen unterstützten bei den Prompts, lieferten den Kontext und zeigten, wie eine Zusammenarbeit von Mensch und KI echte Lernergebnisse erzielen kann.  Auch Pablo Rivas, Assistenzprofessor für Informatik an der Baylor University, sieht die KI-Nutzung nicht grundsätzlich negativ. Wenn jedoch die Ergebnisse einer Maschine unkontrolliert bleiben, laufe man Gefahr, die harte Denkarbeit zu überspringen, die die Fähigkeiten zur Problemlösung schärft.  Er empfiehlt, die Vorschläge der KI mit externen Quellen oder Fachwissen zu verifizieren. Eine andere Vorgehensweise sei, über die Argumentation hinter dem Ergebnis der KI nachzudenken, anstatt davon auszugehen, dass dieses korrekt ist. „Mit gesunder Skepsis und strukturierter Kontrolle kann generative KI die Produktivität steigern, ohne unsere Fähigkeit zum eigenständigen Denken zu beeinträchtigen“, erklärt Rivas.  Der richtige Weg, generative KI zu nutzen?  „In all unseren Forschungsarbeiten gibt es einen gemeinsamen Nenner: KI funktioniert am besten als Denkpartner und ergänzt die Arbeit der Menschen“, fügt Microsoft-Mann Tankelevitch an. „Wenn KI uns herausfordert, steigert sie nicht nur die Produktivität, sondern führt auch zu besseren Entscheidungen und stärkeren Ergebnissen.“  Die Ergebnisse der Studie der Carnegie- Mellon-Universität und Microsoft decken sich mit anderen Untersuchungen. Einem im Juni 2023 veröffentlichten Artikel der US-Forscher Elizabeth Dworak, William Revelle und David Condon zufolge, sind die Fähigkeiten im Bereich des verbalen Denkens und der Problemlösung in den USA stetig gesunken. Und während die IQ-Werte seit Beginn des 20. Jahrhunderts stetig gestiegen sind – noch 2012 stiegen die IQ-Werte um etwa 0,3 Punkte pro Jahr – zeigte eine Studie der Northwestern University im Jahr 2023 einen Rückgang in drei IQ-Test-Schlüsselkategorien.  

Wie GenAI unser Gehirn neu verdrahtet​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?quality=50&strip=all 7111w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Je mehr Aufgaben GenAI übernimmt, desto stärker wird die Abhängigkeit, so eine aktuelle Studie.New Africa/Shutterstock.com

GenAI-Tools setzen sich schnell durch, aber ihr Einsatz wirft Bedenken hinsichtlich ihrer Auswirkungen auf das menschliche Denken auf. So ergab eine neue Umfrage und Analyse von Carnegie Mellon und Microsoft, dass die Technologie zwar die Effizienz verbessert, aber auch das kritische Denken einschränken kann. Außerdem besteht die Gefahr, dass die kleinen Helfer zu übermäßiger Abhängigkeit führen und mit der Zeit die Problemlösungsfähigkeiten beeinträchtigen. 

„Die Automatisierung nimmt dem Benutzer die Möglichkeit, sein Urteilsvermögen durch regelmäßige Routineaufgaben zu trainieren“, heißt es in der Studie, zu der 319 Wissensarbeiter, die mindestens einmal pro Woche KI-Tools wie ChatGPT oder Microsoft Copilot verwenden, befragt wurden. „Stattdessen muss er nur noch in Ausnahmefällen eingreifen – auf die er dann ironischerweise nicht vorbereitet ist, weil ihm die Übung fehlt.“ 

Insgesamt, so ein Ergebnis der Analyse, korreliert das Vertrauen der Arbeitnehmer in die Fähigkeiten von GenAI mit weniger Aufwand beim kritischen Denken. Der Schwerpunkt des kritischen Denkens verlagert sich 

vom Sammeln von Informationen zum Überprüfen dieser,

vom Lösen von Problemen zum Integrieren von KI-Antworten und

vom Ausführen von Aufgaben zum Überwachen dieser.  

Die Studie legt nahe, dass GenAI-Tools so konzipiert werden sollten, dass sie das kritische Denken besser unterstützen, indem sie die Barrieren in Bezug auf das Bewusstsein, die Motivation und die Fähigkeiten der Arbeitnehmer absenken. 

Ist kognitive Entlastung schädlich? 

Die Studie untersuchte insbesondere die potenziellen Auswirkungen von GenAI auf das kritische Denken und ob die damit verbundene „kognitive Entlastung“ schädlich sein könnte. Dabei zeigte sich, dass Wissensarbeiter im GenAI-Kontext kritisches Denken in erster Linie einsetzen, um die Qualität sicherzustellen, KI-Ergebnisse zu verfeinern und KI-generierte Inhalte zu überprüfen. Zeitdruck, mangelndes Bewusstsein und Unkenntnis der Bereiche können jedoch das reflektierende Denken behindern. 

Dazu muss man wissen, dass es sich bei kognitiver Entlastung um kein neues Phänomen handelt. Vielmehr kommen externe Geräte oder Prozesse schon seit Jahrhunderten zum Einsatz, um die mentale Anstrengung zu verringern. Bereits so Einfaches wie das Aufschreiben von Dingen oder das Verlassen auf die Hilfe anderer beim Erinnern, Lösen von Problemen oder Treffen von Entscheidungen ist beispielsweise eine Form der kognitiven Entlastung. Das Gleiche gilt für die Verwendung eines Taschenrechners anstelle von Kopfrechnen. 

Anzeichen für einen Rückgang der Denkfähigkeiten  

„Der Unterschied zwischen der Verwendung von GenAI im Vergleich zur Verwendung von Taschenrechnern und Internet-Suchmaschinen liegt darin, welche Gehirnfunktionen beansprucht werden und wie sie sich auf das tägliche Leben auswirken“, erklärt David Raffo, Professor am Maseeh College of Engineering and Computer Science der Portland State University. „GenAI-Tools entlasten bei Aufgaben, die Sprach- und Führungsfunktionen beinhalten. Es gilt das Prinzip ‘use it or lose it‘: Wenn wir unser Gehirn mit Schreiben, Kommunikation, Planung und Entscheidungsfindung beschäftigen, verbessern sich diese Fähigkeiten.Diese Aufgaben an generative KI und andere Tools abzugeben, beraubt uns der Möglichkeit, zu lernen und zu wachsen oder auch nur auf dem erreichten Niveau zu bleiben“, warnt Raffo. 

Lev Tankelevitch, leitender Forscher bei Microsoft Research, räumt ein, dass nicht jede Nutzung von GenAI schlecht sei. Es gebe eindeutige Belege dafür, dass die KI das kritische Denken und die Lernergebnisse im Bildungsbereich verbessern könne. „In Nigeria beispielsweise deutet eine frühe Studie darauf hin, dass KI-Tutoren Schülern helfen könnten, in nur sechs Wochen einen Lernfortschritt von zwei Jahren zu erzielen“, so Tankelevitch. “Eine andere Studie zeigte, dass Schüler, die mit KI-gestützten Tutoren arbeiteten, mit einer um vier Prozent höheren Wahrscheinlichkeit Schlüsselthemen beherrschten.“ 

Der Schlüssel, so Tankelevitch, sei, dass es von Lehrern angeleitet werde. Pädagogen unterstützten bei den Prompts, lieferten den Kontext und zeigten, wie eine Zusammenarbeit von Mensch und KI echte Lernergebnisse erzielen kann. 

Auch Pablo Rivas, Assistenzprofessor für Informatik an der Baylor University, sieht die KI-Nutzung nicht grundsätzlich negativ. Wenn jedoch die Ergebnisse einer Maschine unkontrolliert bleiben, laufe man Gefahr, die harte Denkarbeit zu überspringen, die die Fähigkeiten zur Problemlösung schärft. 

Er empfiehlt, die Vorschläge der KI mit externen Quellen oder Fachwissen zu verifizieren. Eine andere Vorgehensweise sei, über die Argumentation hinter dem Ergebnis der KI nachzudenken, anstatt davon auszugehen, dass dieses korrekt ist. „Mit gesunder Skepsis und strukturierter Kontrolle kann generative KI die Produktivität steigern, ohne unsere Fähigkeit zum eigenständigen Denken zu beeinträchtigen“, erklärt Rivas. 

Der richtige Weg, generative KI zu nutzen? 

„In all unseren Forschungsarbeiten gibt es einen gemeinsamen Nenner: KI funktioniert am besten als Denkpartner und ergänzt die Arbeit der Menschen“, fügt Microsoft-Mann Tankelevitch an. „Wenn KI uns herausfordert, steigert sie nicht nur die Produktivität, sondern führt auch zu besseren Entscheidungen und stärkeren Ergebnissen.“ 

Die Ergebnisse der Studie der Carnegie- Mellon-Universität und Microsoft decken sich mit anderen Untersuchungen. Einem im Juni 2023 veröffentlichten Artikel der US-Forscher Elizabeth Dworak, William Revelle und David Condon zufolge, sind die Fähigkeiten im Bereich des verbalen Denkens und der Problemlösung in den USA stetig gesunken. Und während die IQ-Werte seit Beginn des 20. Jahrhunderts stetig gestiegen sind – noch 2012 stiegen die IQ-Werte um etwa 0,3 Punkte pro Jahr – zeigte eine Studie der Northwestern University im Jahr 2023 einen Rückgang in drei IQ-Test-Schlüsselkategorien. 

Wie GenAI unser Gehirn neu verdrahtet​ Weiterlesen »

Wenn das indische Call-Center nicht mehr indisch klingt​

Allgemein

Technologie soll Akzente neutralisieren und das Kundenerlebnis verbessern, ohne Arbeitsplätze zu vernichten.Alexander Limbach – shutterstock.com Ein Anruf in einem Callcenter kann aus verschiedenen Gründen unschön sein, mal sind es lange Wartezeiten, mal sind es wenig engagierte Mitarbeitende. Auch das Fachwissen der Person am anderen Ende des Apparates lässt bisweilen zu wünschen übrig. Sollte der Gesprächspartner dann noch schwer zu verstehen sein, ist es mit der Geduld und Selbstbeherrschung der meisten Menschen schnell vorbei. Für letzteres Problem will das französische Unternehmen Teleperformance eine Lösung parat haben. Akzente von Mitarbeitenden sollen mittels Künstlicher Intelligenz (KI) kaschiert werden. Der weltweit größte Callcenter-Betreiber verwendet hierfür ein System, das den Akzent ihrer englischsprachigen Mitarbeiter aus Indien in Echtzeit abschwächt. Besseres Kundenerlebnis dank neutralisiertem Akzent Das Unternehmen verspricht, dass die Technologie das Kundenerlebnis verbessert. Laut Vizechef Thomas Mackenbrock kann sie Akzente in Echtzeit neutralisieren, wodurch Verständlichkeit, Vertrautheit und Kundenzufriedenheit steigen sowie die Bearbeitungszeit sinken sollen. Die Technologie erkennt Sprachen in Echtzeit, transkribiert sie und passt den Akzent an, während Stimme und Emotion erhalten bleiben sollen. Die im Hintergrund arbeitenden KI-Modelle analysieren Aussprachemuster und wandeln die Stimme mithilfe von Text-to-Speech-Technologie um. Das Gesagte soll dann der Intonation und Betonung des gewünschten Zielakzentes entsprechen. KI ursprünglich eingesetzt um Hintergrundgeräusche in Callcentern zu reduzieren Teleperformance setzte die Technologie ursprünglich ein, um Hintergrundgeräusche in indischen Callcentern, die Kundensupport für internationale Kunden leisten, zu unterdrücken.  Entwickelt wurde die neue Akzent-Technologie vom in Palo Alto ansässigen Startup Sanas. Hierfür investierte Teleperformance 13 Millionen Dollar in das Unternehmen. Die Lösung ist Teil einer größeren KI-Strategie des Dienstleisters. Das Unternehmen plant, bis 2025 bis zu 100 Millionen Euro in KI-Partnerschaften zu investieren. Mögliche Auswirkungen auf Callcenter Sanas zielt laut eigenen Angaben darauf ab, akzentbedingte Diskriminierung zu verringern. Die Software solle keine Arbeitsplätze ersetzen, könnte jedoch Auswirkungen auf Callcenter in Ländern wie den Philippinen haben, die auf qualifizierte Arbeitskräfte, die Englisch sprechen, angewiesen sind. Aktuell unterstützt die Software indische und philippinische Akzente. Sie soll für andere Regionen, einschließlich Lateinamerika, weiterentwickelt werden. 

Wenn das indische Call-Center nicht mehr indisch klingt​ Technologie soll Akzente neutralisieren und das Kundenerlebnis verbessern, ohne Arbeitsplätze zu vernichten.Alexander Limbach – shutterstock.com

Ein Anruf in einem Callcenter kann aus verschiedenen Gründen unschön sein, mal sind es lange Wartezeiten, mal sind es wenig engagierte Mitarbeitende. Auch das Fachwissen der Person am anderen Ende des Apparates lässt bisweilen zu wünschen übrig. Sollte der Gesprächspartner dann noch schwer zu verstehen sein, ist es mit der Geduld und Selbstbeherrschung der meisten Menschen schnell vorbei.

Für letzteres Problem will das französische Unternehmen Teleperformance eine Lösung parat haben. Akzente von Mitarbeitenden sollen mittels Künstlicher Intelligenz (KI) kaschiert werden. Der weltweit größte Callcenter-Betreiber verwendet hierfür ein System, das den Akzent ihrer englischsprachigen Mitarbeiter aus Indien in Echtzeit abschwächt.

Besseres Kundenerlebnis dank neutralisiertem Akzent

Das Unternehmen verspricht, dass die Technologie das Kundenerlebnis verbessert. Laut Vizechef Thomas Mackenbrock kann sie Akzente in Echtzeit neutralisieren, wodurch

Verständlichkeit,

Vertrautheit und

Kundenzufriedenheit steigen sowie

die Bearbeitungszeit sinken sollen.

Die Technologie erkennt Sprachen in Echtzeit, transkribiert sie und passt den Akzent an, während Stimme und Emotion erhalten bleiben sollen. Die im Hintergrund arbeitenden KI-Modelle analysieren Aussprachemuster und wandeln die Stimme mithilfe von Text-to-Speech-Technologie um. Das Gesagte soll dann der Intonation und Betonung des gewünschten Zielakzentes entsprechen.

KI ursprünglich eingesetzt um Hintergrundgeräusche in Callcentern zu reduzieren

Teleperformance setzte die Technologie ursprünglich ein, um Hintergrundgeräusche in indischen Callcentern, die Kundensupport für internationale Kunden leisten, zu unterdrücken.  Entwickelt wurde die neue Akzent-Technologie vom in Palo Alto ansässigen Startup Sanas. Hierfür investierte Teleperformance 13 Millionen Dollar in das Unternehmen.

Die Lösung ist Teil einer größeren KI-Strategie des Dienstleisters. Das Unternehmen plant, bis 2025 bis zu 100 Millionen Euro in KI-Partnerschaften zu investieren.

Mögliche Auswirkungen auf Callcenter

Sanas zielt laut eigenen Angaben darauf ab, akzentbedingte Diskriminierung zu verringern. Die Software solle keine Arbeitsplätze ersetzen, könnte jedoch Auswirkungen auf Callcenter in Ländern wie den Philippinen haben, die auf qualifizierte Arbeitskräfte, die Englisch sprechen, angewiesen sind.

Aktuell unterstützt die Software indische und philippinische Akzente. Sie soll für andere Regionen, einschließlich Lateinamerika, weiterentwickelt werden.

Wenn das indische Call-Center nicht mehr indisch klingt​ Weiterlesen »

Telekom geht bei KI All-In​

Allgemein

Mit dem KI-Phone und Magenta AI gestaltet die Telekom die Weiterentwicklung im Smartphone-Bereich mit. Deutsche Telekom Wie wäre es, wenn ein digitaler Concierge auf dem Smartphone künftig per Sprachbefehl oder Tastatureingabe einen Tisch reserviert, ein Taxi ruft oder Texte zusammenfasst – ohne dass Sie dazu die verschiedenen Apps aufrufen müssen? Im vergangenen Jahr noch eine Vision, nimmt das App-freie KI-Phone der Telekom nun Gestalt an.   Unterstützt wird der Bonner TK-Konzern dabei vom KI-Startup Perplexity.ai und dessen digitalen Assistenten. Dieser ist direkt über den Startbildschirm oder den Power-Button des Smartphones erreichbar. Als weiteres KI-Features bietet das KI-Phone Anwendungen von:  Google Cloud AI (Objekterkennung), Elevenlabs (Podcast-Generator) und  Picsart (GenAI-Design-Tool).   Wie Technologiechefin Claudia Nemat am Telekom-Stand in Barcelona bekanntgab, soll das KI-Phone in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar sein. Technische Details zu dem Android-basierten Smartphone wurden nicht bekanntgegeben. Da die Daten größtenteils in der Cloud verarbeitet werden, sind die Anforderungen an die Hardware aber nicht so hoch.  Alternativ bietet die Telekom Kunden über die MeinMagenta-App mit „Magenta AI“ ausgewählte KI-Angebote. Dazu zählt bereits die KI-gestützte Suchmaschine von Perplexity – aber offenbar nicht der als App frei verfügbare Perplexity Assistant. Im Sommer sollen außerdem die bereits genannten KI-Tools Google Cloud AI, ElevenLabs und Picsart dazukommen.    GenAI-Lösungen für B2B und die öffentliche Hand Aber auch an die öffentliche Verwaltung und Geschäftskunden hat die Telekom gedacht. So zeigt das Unternehmen auf dem MWC anhand von mehr als 30 Lösungen aus zehn Ländern, wie KI zu Wachstum, Effizienz und Kundenzufriedenheit beitragen kann. Ein Beispiel ist dabei ein KI-Chatbot, der Justizangestellten dabei hilft, juristischer Dokumente zu durchsuchen und zu analysieren – so laut Technologiechefin Nemat mit einer Zeitersparnis von 70 Prozent.  Eine andere GenAI-Lösung, der von T-Systems entwickelte “AI Engineer”, unterstützt Unternehmen dabei, Legacy-Code auf zeitgemäßere Lösungen wie Python zu migrieren. Der AI Engineer basiert dabei auf drei unterschiedlichen Large Language Models, die verschiedene Stärken und Schwächen aufweisen – und im Zusammenspiel wie ein Scrum-Team funktionieren. So assistiert die Lösung Entwicklern nicht nur bei repetitiven Aufgaben, sondern erstellt automatisch die Dokumentation und testet Teile des Programms. Der Code bleibt dabei in der Open Telekom Cloud geschützt. KI hält Hacker bei Laune   Deutsche Telekom Beim Thema Cybersicherheit und KI wurde die Telekom offenbar vom Wettbewerber Telefonica o2 und dessen KI-Oma inspiriert. Ähnlich wie Daisy, die Telefonbetrüger durch endlose Gespräche zur Verzweiflung treibt, reagieren die Telekom-KI-Honeypots der zweiten Generation, basierend auf der Open-Source-Plattform Beelzebub, nun so, als hätte die Anfrage des Hackers Erfolg gezeigt und werten parallel deren Aktionen aus. Auf diese Weise, so die Telekom, gewinne man auch Daten über Taktiken und Werkzeuge der Angreifer.   KI soll aber nicht nur für mehr Sicherheit im Netz sorgen, sondern auch einen effizienten und reibungslosen Betrieb sicherstellen. Zu diesem Zweck arbeitet die Telekom nach eigenen Angaben gemeinsam mit Google Cloud daran einen „RAN Guardian Agent“ zu entwickeln. Der auf Gemini 2.0 fußende, multimodale KI-Assistent soll in der Lage sein,   das Netzverhalten in Echtzeit zu analysieren, Anomalien zu erkennen und   bei Bedarf selbstheilende Maßnahmen auszuführen, um die Netzleistung zu optimieren.   Die Anpassungen sind dabei laut Nemat so granular, dass sie Menschen alleine nicht vornehmen könnten.   Das WLAN wird zur Alarmanlage   Darüber hinaus stellte die Telekom in Barcelona außerdem „WiFi-Sensing“ vor. Bei der ab WiFi 7 unterstützten Technik analysieren Algorithmen die WLAN-Signale zwischen Access Point und WLAN-fähigen Geräten – und erkennen, wenn sich etwas dabei verändert. Dank Machine Learning kann die Technik sogar unterscheiden, ob sich ein Kind, ein Erwachsener oder ein Haustier durch den Raum bewegt. Im Gegensatz zum Einsatz von Kameras wird dabei die Privatsphäre geschützt – WiFi-Sensing durchdringt auch Wände.  Als mögliches Szenario für WiFi-Sensing löst beispielsweise eine Bewegung in der leeren Wohnung – etwa bei einem Einbruch – einen Alarm aus. In einem Smart Home könnte der Router erkennen, dass alle Personen die Wohnung verlassen haben und entsprechend veranlassen, dass die Heizung heruntergedreht wird.   Wann entsprechende Anwendungen für Speedport-Router der Deutschen Telekom bereitstehen, ist derzeit nicht bekannt.   

Telekom geht bei KI All-In​ Mit dem KI-Phone und Magenta AI gestaltet die Telekom die Weiterentwicklung im Smartphone-Bereich mit. Deutsche Telekom

Wie wäre es, wenn ein digitaler Concierge auf dem Smartphone künftig per Sprachbefehl oder Tastatureingabe einen Tisch reserviert, ein Taxi ruft oder Texte zusammenfasst – ohne dass Sie dazu die verschiedenen Apps aufrufen müssen? Im vergangenen Jahr noch eine Vision, nimmt das App-freie KI-Phone der Telekom nun Gestalt an.  

Unterstützt wird der Bonner TK-Konzern dabei vom KI-Startup Perplexity.ai und dessen digitalen Assistenten. Dieser ist direkt über den Startbildschirm oder den Power-Button des Smartphones erreichbar. Als weiteres KI-Features bietet das KI-Phone Anwendungen von: 

Google Cloud AI (Objekterkennung),

Elevenlabs (Podcast-Generator) und 

Picsart (GenAI-Design-Tool).  

Wie Technologiechefin Claudia Nemat am Telekom-Stand in Barcelona bekanntgab, soll das KI-Phone in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar sein. Technische Details zu dem Android-basierten Smartphone wurden nicht bekanntgegeben. Da die Daten größtenteils in der Cloud verarbeitet werden, sind die Anforderungen an die Hardware aber nicht so hoch. 

Alternativ bietet die Telekom Kunden über die MeinMagenta-App mit „Magenta AI“ ausgewählte KI-Angebote. Dazu zählt bereits die KI-gestützte Suchmaschine von Perplexity – aber offenbar nicht der als App frei verfügbare Perplexity Assistant. Im Sommer sollen außerdem die bereits genannten KI-Tools Google Cloud AI, ElevenLabs und Picsart dazukommen.   

GenAI-Lösungen für B2B und die öffentliche Hand

Aber auch an die öffentliche Verwaltung und Geschäftskunden hat die Telekom gedacht. So zeigt das Unternehmen auf dem MWC anhand von mehr als 30 Lösungen aus zehn Ländern, wie KI zu Wachstum, Effizienz und Kundenzufriedenheit beitragen kann. Ein Beispiel ist dabei ein KI-Chatbot, der Justizangestellten dabei hilft, juristischer Dokumente zu durchsuchen und zu analysieren – so laut Technologiechefin Nemat mit einer Zeitersparnis von 70 Prozent. 

Eine andere GenAI-Lösung, der von T-Systems entwickelte “AI Engineer”, unterstützt Unternehmen dabei, Legacy-Code auf zeitgemäßere Lösungen wie Python zu migrieren. Der AI Engineer basiert dabei auf drei unterschiedlichen Large Language Models, die verschiedene Stärken und Schwächen aufweisen – und im Zusammenspiel wie ein Scrum-Team funktionieren. So assistiert die Lösung Entwicklern nicht nur bei repetitiven Aufgaben, sondern erstellt automatisch die Dokumentation und testet Teile des Programms. Der Code bleibt dabei in der Open Telekom Cloud geschützt.

KI hält Hacker bei Laune  

Deutsche Telekom

Beim Thema Cybersicherheit und KI wurde die Telekom offenbar vom Wettbewerber Telefonica o2 und dessen KI-Oma inspiriert. Ähnlich wie Daisy, die Telefonbetrüger durch endlose Gespräche zur Verzweiflung treibt, reagieren die Telekom-KI-Honeypots der zweiten Generation, basierend auf der Open-Source-Plattform Beelzebub, nun so, als hätte die Anfrage des Hackers Erfolg gezeigt und werten parallel deren Aktionen aus. Auf diese Weise, so die Telekom, gewinne man auch Daten über Taktiken und Werkzeuge der Angreifer.  

KI soll aber nicht nur für mehr Sicherheit im Netz sorgen, sondern auch einen effizienten und reibungslosen Betrieb sicherstellen. Zu diesem Zweck arbeitet die Telekom nach eigenen Angaben gemeinsam mit Google Cloud daran einen „RAN Guardian Agent“ zu entwickeln. Der auf Gemini 2.0 fußende, multimodale KI-Assistent soll in der Lage sein,  

das Netzverhalten in Echtzeit zu analysieren,

Anomalien zu erkennen und  

bei Bedarf selbstheilende Maßnahmen auszuführen, um die Netzleistung zu optimieren.  

Die Anpassungen sind dabei laut Nemat so granular, dass sie Menschen alleine nicht vornehmen könnten.  

Das WLAN wird zur Alarmanlage  

Darüber hinaus stellte die Telekom in Barcelona außerdem „WiFi-Sensing“ vor. Bei der ab WiFi 7 unterstützten Technik analysieren Algorithmen die WLAN-Signale zwischen Access Point und WLAN-fähigen Geräten – und erkennen, wenn sich etwas dabei verändert. Dank Machine Learning kann die Technik sogar unterscheiden, ob sich ein Kind, ein Erwachsener oder ein Haustier durch den Raum bewegt. Im Gegensatz zum Einsatz von Kameras wird dabei die Privatsphäre geschützt – WiFi-Sensing durchdringt auch Wände. 

Als mögliches Szenario für WiFi-Sensing löst beispielsweise eine Bewegung in der leeren Wohnung – etwa bei einem Einbruch – einen Alarm aus. In einem Smart Home könnte der Router erkennen, dass alle Personen die Wohnung verlassen haben und entsprechend veranlassen, dass die Heizung heruntergedreht wird.  

Wann entsprechende Anwendungen für Speedport-Router der Deutschen Telekom bereitstehen, ist derzeit nicht bekannt.  

Telekom geht bei KI All-In​ Weiterlesen »

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​

Allgemein

Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten. Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an. 

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten.
Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an.

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Weiterlesen »

So funktioniert Social Engineering​

Allgemein

Social Engineering bedroht Unternehmen und Privatpersonen gleichermaßen. Wir klären Sie über die Psychologie der Scams auf und geben Ihnen Tipps an die Hand, um sich gegen Cybercrime zu schützen. Foto: Preechar Bowonkitwanchai – shutterstock.comEs erscheint auf den ersten Blick absurd: Obwohl die Technologien zur Abwehr von Cyber-Angriffen kontinuierlich besser und intelligenter werden, stehen schwere und schwerste IT-Sicherheitsvorfälle in Unternehmen, aber auch im Privatleben, regelmäßig auf der Tagesordnung. Um solche Angriffe erfolgreich durchführen zu können, bedarf es eines nicht so einfach zu kontrollierenden Einfallstors in ein ansonsten weitreichend geschütztes System: Der Mensch ist die zentrale Schwachstelle im Gesamtsystem, er bekommt es mit einer zunehmend professionelleren Front von Cyberkriminellen zu tun.Die augenscheinlich vom eigenen Vorgesetzten stammende Mail mit einem dringlichen Anliegen, die wie üblich freundschaftlich klingende Kommunikation mit einem Geschäftspartner samt anhängendem Office-Dokument oder die dringend notwendige Entsperrung eines Kontos bei der Bank oder einem sozialen Netzwerk sind häufig die Auslöser für konkrete Sicherheitsvorfälle. Ziel ist es, Anwender im Rahmen der erteilten Berechtigungen dazu zu bringen, aus Sicht des Unternehmens unerwünschte Operationen auszuführen. Dies kann der Klick auf eine gefälschte Webseite sein oder das versehentliche Ausführen eines bösartigen Programmes, das als Mail-Anhang schon im System vorliegt. Auch die Durchführung von unerwünschten Aktivitäten durch den Anwender selbst auf Basis der Vorspiegelung falscher Tatsachen wird immer häufiger. Der Schaden kann sich in vielerlei Auswirkungen zeigen und reicht von der Installation von Backdoors als Einfallstor für Folgeangriffe über die Aktivierung von Ransomware, bis hin zu konkreten finanziellen Einbußen, etwa durch fälschlicherweise getätigte Überweisungen.Social Engineering – eine DefinitionSocial Engineering steht für psychologische Manipulation von Menschen. Man versucht sie so zu beeinflussen, dass sie eine gewisse Verhaltensweise an den Tag legen – zum Beispiel Informationen herausgeben, ein Produkt kaufen, Geld überweisen oder eben den Zugang zu vermeintlich sicheren IT-Systemen ermöglichen. Die Anwendung dieser Methoden stellt typischerweise einen von mehreren Schritten im Rahmen einer komplexeren Strategie zur Durchführung eines Cyber-Angriffs dar.Social Engineering nutzt auf der psychologischen Ebene grundlegende menschliche Eigenheiten aus. Das Erwerben oder Erschleichen von Vertrauen nimmt hierbei eine zentrale Rolle ein. Um dieses Vertrauen aufzubauen, müssen Angreifer eine weitreichende Kenntnis der Zielorganisation oder -person haben. Das bedeutet, dass im Vorfeld eine umfangreiche Informationssammlung stattfinden muss. Besonders hilfreich sind für Angreifer im Rahmen einer langfristig angelegten Attacke Informationen, die in früheren, erfolgreichen Angriffen durch eine Backdoor bereits exfiltriert wurden. Zunehmend wird hierbei aber auch auf bereits vorliegende Informationen zurückgegriffen, die zeitgemäß durch aktuelle Big-Data-Technologien verarbeitet und nutzbar gemacht werden. Die Nutzung von Open Source Intelligence (OSINT), also die Sammlung und Analyse von Informationen, die aus allgemein zugänglichen oder offenen Quellen gesammelt werden, hat schon lange Einzug in das Social Engineering gehalten. Als Quellen kommen Medien, veröffentlichte Behördendaten, Webseiten und das Social Web sowie auch das Dark Net in Frage. Beispiele für Social EngineeringDie im Social Engineering eingesetzten Angriffe zielen darauf ab, vertrauliche Informationen der Mitarbeiter zu stehlen. Die häufigste Art von Social Engineering geschieht hierbei über E-Mail. Bei dieser als Phishing bezeichnete Vorgehensweise sendet der Angreifer eine E-Mail, die einer scheinbar legitimen Quelle entstammt. Diese kann im eigenen Unternehmen, bei Geschäfts- oder Kommunikationspartnern, aber auch bei vertrauenswürdigen Unternehmen wie Banken oder Kreditkartenunternehmen liegen. Die Anschreiben wirken zum Teil täuschend echt. Ihr Anliegen ist es, vertrauliche und kritische Informationen (Kreditkarten und PINs, Benutzernamen und Passwörter) zu erschleichen. Oft geht die Forderung mit einer Drohung einher (Sperrung von Zugängen, unklare hohe Lastschriften). Die vermeintliche Echtheit der Nachricht und damit das vom Anwender entgegengebrachte Vertrauen hängt nicht zuletzt von der Qualität zielgerichteter verwendeter Informationen ab. Diese Phishing-Mails enthalten meistens Links, die zu authentisch wirkenden, aber gefälschten Webseiten führen. Dort sollen die Betroffenen dannn ihre persönlichen Informationen hinterlassen. In ähnlichen Szenarien beinhalten die Mails Dateianhänge in Form von PDF- oder Microsoft-Office-Dokumenten, die beim Öffnen Schadsoftware aktivieren. Diese Malware kann dann, ausgestattet mit den Berechtigungen des Nutzers, im Netzwerk aktiv werden und weitere Informationen ausspähen oder als erpresserische Verschlüsselungs-Software essenzielle Unternehmensdaten unbrauchbar machen. Nicht zuletzt verleiten emotional aufgeladene Falschmeldungen (Fake News) Anwender zum Klick auf Links, die dann den Rechner – etwa durch unbewusste Drive-By-Downloads – infizieren. Die kontinuierlich um sich greifende Infektion von Computernetzen mit dem Schadsoftware-Ökosystem Emotet wird insbesondere über Social Engineering, nämlich Phishing mit betrügerischen Nachrichten, verbreitet.Neben dem Phishing gibt es auch das Vishing (Voice Phishing): Dabei erfolgt der Angriff über einen oder mehrere Telefonanrufe. Hierbei wird über zielgerichtete, oft informelle Kommunikation versucht, detailliertere Informationen über eine Zielorganisation zu sammeln oder konkrete, verwendbare Informationen wie Passwörter zu erschleichen. Bekannte Beispiele sind die grassierenden Anrufe durch angebliche Microsoft-Support-Mitarbeiter, die wahlweise Zugang zu den Rechnern oder Kreditkarteninformationen erschleichen wollen. Trotz kontinuierlich abnehmender Nutzung von SMS-Kurznachrichten bleibt auch das Smishing (Phishing via SMS) mit eingebetteten Links weiterhin eine Gefahr. Smishing stellt vor allem in den populären Kurznachrichtendiensten – von WhatsApp bis Facebook Messenger – eine zunehmende Bedrohung dar.Seit dem Durchbruch generativer künstlicher Intelligenz (Generative AI; GenAI) Ende 2022 wird die Technologie zunehmend auch von Cyberkriminellen genutzt – unter anderem für Social-Engineering-Angriffe. Dabei stehen insbesondere sogenannte Deepfakes im Fokus – also mit KI erzeugte Bilder, Audioaufnahmen oder auch Videos. Cyberkriminelle nutzen die Deep-Learning-Technologie, um die Stimmen oder Gesichter von Vorgesetzten zu imitieren und sich auf diesem Wege durch Täuschung Informationen oder Geld zu beschaffen. So geschehen beispielsweise in China: Ein krimineller Hacker konnte sein Opfer mit Hilfe von KI-basierter “Face-Swapping”-Technologie davon überzeugen, ein angeblicher Freund zu sein – und es so um umgerechnet mehr als eine halbe Million Dollar erleichtern. Doch Social-Engineering-Angriffe mit KI müssen nicht unbedingt mit Bewegtbild ablaufen. Aktuellen GenAI-Tools genügen bereits wenige Sekunden “Sprachmaterial”, um daraus überzeugende KI-Stimmen zu basteln. Damit lassen sich zum Beispiel Deepfake-Sprachnachrichten für diverse bösartige Zwecke anfertigen. Wer hat schon Lust, den Chef nach einer wütenden Voicemail mit dringenden, angeblich vergessenen Überweisungswünschen zurückzurufen? Tun sollten Sie es vielleicht dennoch – schließlich haben Social-Engineering- und Phishing-Angriffe in Zusammenhang mit künstlicher Intelligenz laut dem “Identity Fraud Report 2024” (Download gegen Daten) des Identity-Anbieters Onfido im Jahr 2023 um satte 3.000 Prozent zugelegt. Stu Sjouwerman, CEO beim Sicherheitsanbieter KnowBe4, hat sich in einem Beitrag für Forbes eingehend mit diesem Thema auseinandergesetzt. Sein Fazit: “Unternehmen müssen ihre Mitarbeiter anhalten, alles zu hinterfragen, was sie online sehen oder hören – und durch regelmäßige Social-Engineering-Sensibilisierungsübungen dafür sorgen, dass sie einen sechsten Sinn für die Cyberverteidigung entwickeln – ein Muskelgedächtnis, das in dem Moment in Gang gesetzt wird, in dem sie etwas Ungewöhnliches entdecken.” Social Engineering – Angriffe erkennen und abwehrenSocial Engineering ist im Kern keine technische Herausforderung. Ihr muss mit einer Vielzahl von vorbeugenden, analytischen und risikobegrenzenden Maßnahmen begegnet werden. Dennoch sind auch technische Mechanismen Teil eines umfassenden Portfolios zur Bekämpfung von Social Engineering und seinen Auswirkungen.Auf den einzelnen Arbeitsplätzen installierte Werkzeuge für Endpoint Security sind ebenfalls hilfreich: Der klassische Virenscanner erkennt eine Vielzahl von Schadsoftware anhand von Signaturen und kann eine grundlegende, aber nicht ausreichende Basissicherheit erzielen. Modernere Werkzeuge zum Application Whitelisting lassen nur die Ausführung von Software zu, die als legitim definiert ist. Greylisting-Ansätze lassen unbekannte Software erst durch externe Dienste validieren, oder sie sperren unsichere Produkte in isolierte virtuelle Maschinen, so dass das eigentliche System geschützt bleibt.Auf Infrastrukturebene und damit in der zentralen IT können folgende unternehmensweite Systeme zur Abwehr von Social-Engineering-Auswirkungen angesiedelt sein:Werkzeuge für User Behaviour Analytics, die im Identity und Access Management (IAM), aber auch in der Cybersecurity zum Einsatz kommen, können ungewöhnliche, von normalen Verhaltensmustern abweichende Tätigkeiten erkennen und entsprechende Maßnahmen initiieren.In Cyber-Threat-Intelligence-Systemen laufen Informationen über aktuelle Bedrohungen und externe Informationen zusammen, so dass Kontext, Mechanismen, Indikatoren und Auswirkungen über eine bestehende oder entstehende Bedrohung mit der aktuellen Unternehmenssituation abgeglichen werden und konkrete Maßnahmen abgeleitet werden können.Spezialisierte Social Engineering Toolkits geben den Verteidigern der IT-Sicherheit die technischen Komponenten der von den Angreifern verwendeten Werkzeuge an die Hand. Diese können einerseits zur Analyse und zum besseren Verständnis genutzt werden, also zu Ausbildungszwecken und zur kontinuierlichen Strategieverbesserung. Andererseits können sie auch zur Simulation von echten Angriffen oder für die Validierung bestehender Abwehrmaßnahmen und zur Durchführung konkreter Tests für Systeme und Mitarbeiter herangezogen werden. Kali-Linux-Installationen haben solche Social Engineering Toolkits als schnell nutzbare Analyse- und Stresstest-Systeme vorinstalliert.Social Engineering – Die Verantwortung der UserEbenso wichtig wie die technische Absicherung bedrohter Systeme ist die Achtsamkeit und Vorsicht der betroffenen Mitarbeiter. Ein tieferer Blick auf erhaltene Mails oder besuchte Webseiten kann dabei helfen, einen Großteil der Bedrohungen zu erkennen. Startpunkt ist hierbei immer die Plausibilitätsüberprüfung: Passt die Absender-Adresse der Mail und die Domain wirklich zu dem ausgeschriebenen Absender? Würde mich dieser Absender tatsächlich unter dieser Mail-Adresse mit dieser Intention anschreiben? Falls dies möglich erscheint, ist eine Nachfrage über einen anderen Kanal – also via Telefon oder Chat – sinnvoll. Ist der Klick auf die verlinkte Webseite schon erfolgt, kann es im Zweifelsfall zwar schon zu spät sein, dennoch kann man hier anhand der tatsächlichen URL sowie fehlenden oder nicht passenden Zertifikaten bösartige, gefälschte Webseiten auch als Laie schnell erkennen.Grundsätzlich kann eine “Deny-by-default”-Policy, die schon bei geringsten Zweifeln eine Nachricht ignorieren, melden oder löschen lässt, dabei helfen, eine Infektion zu vermeiden. Da eine solche Bedrohung aber üblicherweise nicht nur einen Mitarbeiter betrifft, ist es immer sinnvoll, eine zentrale Anlaufstelle für solche Vorfälle im Unternehmen zu haben. So werden Social-Engineering-Bedrohungen ernst genommen, innerhalb des IT-Sicherheitsteams analysiert, im Cyber-Threat-Intelligence-System mit vorhandenen Informationen korreliert und durch entsprechende Maßnahmen mitigiert.Social Engineering – Bedrohung begrenzen und verhindernAber auch das Unternehmen selbst, die Organisation und die implementierten Prozesse sind in der Verantwortung. Aufgeklärte Mitarbeiter sind ein zentrales Element in der IT-Sicherheitsstrategie eines Unternehmens. Es ist wichtig, dass dies erkannt und gelebt wird. Hierzu gehört an erster Stelle die umfassende und kontinuierliche Schulung der Mitarbeiter. Jeder muss die für seine Position relevanten Sicherheitsvorgaben kennen und in der Praxis umsetzen können. Hinzu kommen sorgfältig definierte Security Policies im Unternehmen. Auf deren Basis kann die Identifikation sensibler Informationen und ein angemessener Umgang mit ihnen erst festgelegt und kommuniziert werden. Um sensible und damit schützenswerte Informationen von weniger relevanten Informationen unterscheiden zu können, ist eine Risikobetrachtung und damit eine Bewertung der Gefährdung durch Social Engineering, aber auch andere Sicherheitsvorfälle essenziell.Ein solches Gerüst für die Unternehmenssicherheit mit klaren Handlungsanweisungen und Vorgaben ist nur so gut wie seine Anwendung und die selbstverständliche Beachtung der vorgegebenen Maßnahmen durch jeden Mitarbeiter. Als Nachweis und ständige Erinnerung ist deshalb die Durchführung unangekündigter, unregelmäßiger Tests unerlässlich. Die Widerstandsfähigkeit jedes Einzelnen zur Verhinderung von Social Engineering muss kontinuierlich vermittelt und erprobt werden, um in der Praxis wirksam zu sein.Social Engineering – Eine ErfolgsbrancheSocial Engineering als Bestandteil umfassender Bedrohungsszenarien für die Cybersecurity von Unternehmen unterliegt den gleichen Mechanismen der digitalen Transformation wie legitime Geschäftsmodelle. Dies muss als Geschäftsmodell verstanden werden, denn es professionalisiert sich nachhaltig und skaliert kontinuierlich nach oben. Phishing ist nicht zuletzt deshalb so populär, weil dieser Angriffsvektor sich weitgehend automatisieren lässt. Damit bedroht eine Vielzahl von kriminellen Akteuren unterschiedlicher Herkunft und Motivationen die Mitarbeiter von Unternehmen und deren Verhalten. Social Engineering ist eine der schwersten und gängigsten Angriffsformen, gegen die sich Unternehmen und Privatpersonen schützen müssen.Die Erfolgstreiber für Security AwarenessIndividuelle Lern-Sessions Foto: OPOLJA – shutterstock.comBieten Sie spezifische Inhalte für bestimmte User-Gruppen und Fachbereiche an, anstatt auf „one size fits all“ zu setzen.Überlänge vermeiden Foto: wavebreakmedia – shutterstock.comDie Aufmerksamkeitsspanne Ihrer Mitarbeiter ist begrenzt. Einzelne Sessions sollten im Idealfall nicht länger als 30 Minuten in Anspruch nehmen.Nicht alles auf einmal Foto: Catalin Petolea – shutterstock.comIT Security ist ein weites Feld – konzentrieren Sie sich auf die Dinge, mit denen die betreffenden Mitarbeiter in ihrem Arbeitsalltag konfrontiert werden.Der stete Tropfen Foto: grafxart – shutterstock.comSecurity Awareness einmal pro Jahr ist keine Lösung. Sorgen Sie für Trainings in regelmäßigen Abständen – nur so klappt es mit dem Awareness-Durchbruch.Keine alten Kamellen Foto: Casimiro PT – shutterstock.comHätten Sie große Lust, mehrmals dieselben Lehrinhalte serviert zu bekommen? Eben. Ihre Mitarbeiter auch nicht.Aktivität einfordern Foto: Melinda Nagy – shutterstock.comEine rein passive Berieselung mit Best Practices aus dem Security-Bereich ist nicht zielführend. Vielmehr sollten Sie Ihre Mitarbeiter aktiv ins Awareness-Training einbeziehen.C-Level an Bord? Foto: Jirsak – shutterstock.comAuch das Management braucht regelmäßige Weiterbildung in Sachen IT-Sicherheit. 

So funktioniert Social Engineering​ Social Engineering bedroht Unternehmen und Privatpersonen gleichermaßen. Wir klären Sie über die Psychologie der Scams auf und geben Ihnen Tipps an die Hand, um sich gegen Cybercrime zu schützen.
Foto: Preechar Bowonkitwanchai – shutterstock.comEs erscheint auf den ersten Blick absurd: Obwohl die Technologien zur Abwehr von Cyber-Angriffen kontinuierlich besser und intelligenter werden, stehen schwere und schwerste IT-Sicherheitsvorfälle in Unternehmen, aber auch im Privatleben, regelmäßig auf der Tagesordnung. Um solche Angriffe erfolgreich durchführen zu können, bedarf es eines nicht so einfach zu kontrollierenden Einfallstors in ein ansonsten weitreichend geschütztes System: Der Mensch ist die zentrale Schwachstelle im Gesamtsystem, er bekommt es mit einer zunehmend professionelleren Front von Cyberkriminellen zu tun.Die augenscheinlich vom eigenen Vorgesetzten stammende Mail mit einem dringlichen Anliegen, die wie üblich freundschaftlich klingende Kommunikation mit einem Geschäftspartner samt anhängendem Office-Dokument oder die dringend notwendige Entsperrung eines Kontos bei der Bank oder einem sozialen Netzwerk sind häufig die Auslöser für konkrete Sicherheitsvorfälle. Ziel ist es, Anwender im Rahmen der erteilten Berechtigungen dazu zu bringen, aus Sicht des Unternehmens unerwünschte Operationen auszuführen. Dies kann der Klick auf eine gefälschte Webseite sein oder das versehentliche Ausführen eines bösartigen Programmes, das als Mail-Anhang schon im System vorliegt. Auch die Durchführung von unerwünschten Aktivitäten durch den Anwender selbst auf Basis der Vorspiegelung falscher Tatsachen wird immer häufiger. Der Schaden kann sich in vielerlei Auswirkungen zeigen und reicht von der Installation von Backdoors als Einfallstor für Folgeangriffe über die Aktivierung von Ransomware, bis hin zu konkreten finanziellen Einbußen, etwa durch fälschlicherweise getätigte Überweisungen.Social Engineering – eine DefinitionSocial Engineering steht für psychologische Manipulation von Menschen. Man versucht sie so zu beeinflussen, dass sie eine gewisse Verhaltensweise an den Tag legen – zum Beispiel Informationen herausgeben, ein Produkt kaufen, Geld überweisen oder eben den Zugang zu vermeintlich sicheren IT-Systemen ermöglichen. Die Anwendung dieser Methoden stellt typischerweise einen von mehreren Schritten im Rahmen einer komplexeren Strategie zur Durchführung eines Cyber-Angriffs dar.Social Engineering nutzt auf der psychologischen Ebene grundlegende menschliche Eigenheiten aus. Das Erwerben oder Erschleichen von Vertrauen nimmt hierbei eine zentrale Rolle ein. Um dieses Vertrauen aufzubauen, müssen Angreifer eine weitreichende Kenntnis der Zielorganisation oder -person haben. Das bedeutet, dass im Vorfeld eine umfangreiche Informationssammlung stattfinden muss. Besonders hilfreich sind für Angreifer im Rahmen einer langfristig angelegten Attacke Informationen, die in früheren, erfolgreichen Angriffen durch eine Backdoor bereits exfiltriert wurden. Zunehmend wird hierbei aber auch auf bereits vorliegende Informationen zurückgegriffen, die zeitgemäß durch aktuelle Big-Data-Technologien verarbeitet und nutzbar gemacht werden. Die Nutzung von Open Source Intelligence (OSINT), also die Sammlung und Analyse von Informationen, die aus allgemein zugänglichen oder offenen Quellen gesammelt werden, hat schon lange Einzug in das Social Engineering gehalten. Als Quellen kommen Medien, veröffentlichte Behördendaten, Webseiten und das Social Web sowie auch das Dark Net in Frage. Beispiele für Social EngineeringDie im Social Engineering eingesetzten Angriffe zielen darauf ab, vertrauliche Informationen der Mitarbeiter zu stehlen. Die häufigste Art von Social Engineering geschieht hierbei über E-Mail. Bei dieser als Phishing bezeichnete Vorgehensweise sendet der Angreifer eine E-Mail, die einer scheinbar legitimen Quelle entstammt. Diese kann im eigenen Unternehmen, bei Geschäfts- oder Kommunikationspartnern, aber auch bei vertrauenswürdigen Unternehmen wie Banken oder Kreditkartenunternehmen liegen. Die Anschreiben wirken zum Teil täuschend echt. Ihr Anliegen ist es, vertrauliche und kritische Informationen (Kreditkarten und PINs, Benutzernamen und Passwörter) zu erschleichen. Oft geht die Forderung mit einer Drohung einher (Sperrung von Zugängen, unklare hohe Lastschriften). Die vermeintliche Echtheit der Nachricht und damit das vom Anwender entgegengebrachte Vertrauen hängt nicht zuletzt von der Qualität zielgerichteter verwendeter Informationen ab. Diese Phishing-Mails enthalten meistens Links, die zu authentisch wirkenden, aber gefälschten Webseiten führen. Dort sollen die Betroffenen dannn ihre persönlichen Informationen hinterlassen. In ähnlichen Szenarien beinhalten die Mails Dateianhänge in Form von PDF- oder Microsoft-Office-Dokumenten, die beim Öffnen Schadsoftware aktivieren. Diese Malware kann dann, ausgestattet mit den Berechtigungen des Nutzers, im Netzwerk aktiv werden und weitere Informationen ausspähen oder als erpresserische Verschlüsselungs-Software essenzielle Unternehmensdaten unbrauchbar machen. Nicht zuletzt verleiten emotional aufgeladene Falschmeldungen (Fake News) Anwender zum Klick auf Links, die dann den Rechner – etwa durch unbewusste Drive-By-Downloads – infizieren. Die kontinuierlich um sich greifende Infektion von Computernetzen mit dem Schadsoftware-Ökosystem Emotet wird insbesondere über Social Engineering, nämlich Phishing mit betrügerischen Nachrichten, verbreitet.Neben dem Phishing gibt es auch das Vishing (Voice Phishing): Dabei erfolgt der Angriff über einen oder mehrere Telefonanrufe. Hierbei wird über zielgerichtete, oft informelle Kommunikation versucht, detailliertere Informationen über eine Zielorganisation zu sammeln oder konkrete, verwendbare Informationen wie Passwörter zu erschleichen. Bekannte Beispiele sind die grassierenden Anrufe durch angebliche Microsoft-Support-Mitarbeiter, die wahlweise Zugang zu den Rechnern oder Kreditkarteninformationen erschleichen wollen. Trotz kontinuierlich abnehmender Nutzung von SMS-Kurznachrichten bleibt auch das Smishing (Phishing via SMS) mit eingebetteten Links weiterhin eine Gefahr. Smishing stellt vor allem in den populären Kurznachrichtendiensten – von WhatsApp bis Facebook Messenger – eine zunehmende Bedrohung dar.Seit dem Durchbruch generativer künstlicher Intelligenz (Generative AI; GenAI) Ende 2022 wird die Technologie zunehmend auch von Cyberkriminellen genutzt – unter anderem für Social-Engineering-Angriffe. Dabei stehen insbesondere sogenannte Deepfakes im Fokus – also mit KI erzeugte Bilder, Audioaufnahmen oder auch Videos. Cyberkriminelle nutzen die Deep-Learning-Technologie, um die Stimmen oder Gesichter von Vorgesetzten zu imitieren und sich auf diesem Wege durch Täuschung Informationen oder Geld zu beschaffen. So geschehen beispielsweise in China: Ein krimineller Hacker konnte sein Opfer mit Hilfe von KI-basierter “Face-Swapping”-Technologie davon überzeugen, ein angeblicher Freund zu sein – und es so um umgerechnet mehr als eine halbe Million Dollar erleichtern. Doch Social-Engineering-Angriffe mit KI müssen nicht unbedingt mit Bewegtbild ablaufen. Aktuellen GenAI-Tools genügen bereits wenige Sekunden “Sprachmaterial”, um daraus überzeugende KI-Stimmen zu basteln. Damit lassen sich zum Beispiel Deepfake-Sprachnachrichten für diverse bösartige Zwecke anfertigen. Wer hat schon Lust, den Chef nach einer wütenden Voicemail mit dringenden, angeblich vergessenen Überweisungswünschen zurückzurufen? Tun sollten Sie es vielleicht dennoch – schließlich haben Social-Engineering- und Phishing-Angriffe in Zusammenhang mit künstlicher Intelligenz laut dem “Identity Fraud Report 2024” (Download gegen Daten) des Identity-Anbieters Onfido im Jahr 2023 um satte 3.000 Prozent zugelegt. Stu Sjouwerman, CEO beim Sicherheitsanbieter KnowBe4, hat sich in einem Beitrag für Forbes eingehend mit diesem Thema auseinandergesetzt. Sein Fazit: “Unternehmen müssen ihre Mitarbeiter anhalten, alles zu hinterfragen, was sie online sehen oder hören – und durch regelmäßige Social-Engineering-Sensibilisierungsübungen dafür sorgen, dass sie einen sechsten Sinn für die Cyberverteidigung entwickeln – ein Muskelgedächtnis, das in dem Moment in Gang gesetzt wird, in dem sie etwas Ungewöhnliches entdecken.” Social Engineering – Angriffe erkennen und abwehrenSocial Engineering ist im Kern keine technische Herausforderung. Ihr muss mit einer Vielzahl von vorbeugenden, analytischen und risikobegrenzenden Maßnahmen begegnet werden. Dennoch sind auch technische Mechanismen Teil eines umfassenden Portfolios zur Bekämpfung von Social Engineering und seinen Auswirkungen.Auf den einzelnen Arbeitsplätzen installierte Werkzeuge für Endpoint Security sind ebenfalls hilfreich: Der klassische Virenscanner erkennt eine Vielzahl von Schadsoftware anhand von Signaturen und kann eine grundlegende, aber nicht ausreichende Basissicherheit erzielen. Modernere Werkzeuge zum Application Whitelisting lassen nur die Ausführung von Software zu, die als legitim definiert ist. Greylisting-Ansätze lassen unbekannte Software erst durch externe Dienste validieren, oder sie sperren unsichere Produkte in isolierte virtuelle Maschinen, so dass das eigentliche System geschützt bleibt.Auf Infrastrukturebene und damit in der zentralen IT können folgende unternehmensweite Systeme zur Abwehr von Social-Engineering-Auswirkungen angesiedelt sein:Werkzeuge für User Behaviour Analytics, die im Identity und Access Management (IAM), aber auch in der Cybersecurity zum Einsatz kommen, können ungewöhnliche, von normalen Verhaltensmustern abweichende Tätigkeiten erkennen und entsprechende Maßnahmen initiieren.In Cyber-Threat-Intelligence-Systemen laufen Informationen über aktuelle Bedrohungen und externe Informationen zusammen, so dass Kontext, Mechanismen, Indikatoren und Auswirkungen über eine bestehende oder entstehende Bedrohung mit der aktuellen Unternehmenssituation abgeglichen werden und konkrete Maßnahmen abgeleitet werden können.Spezialisierte Social Engineering Toolkits geben den Verteidigern der IT-Sicherheit die technischen Komponenten der von den Angreifern verwendeten Werkzeuge an die Hand. Diese können einerseits zur Analyse und zum besseren Verständnis genutzt werden, also zu Ausbildungszwecken und zur kontinuierlichen Strategieverbesserung. Andererseits können sie auch zur Simulation von echten Angriffen oder für die Validierung bestehender Abwehrmaßnahmen und zur Durchführung konkreter Tests für Systeme und Mitarbeiter herangezogen werden. Kali-Linux-Installationen haben solche Social Engineering Toolkits als schnell nutzbare Analyse- und Stresstest-Systeme vorinstalliert.Social Engineering – Die Verantwortung der UserEbenso wichtig wie die technische Absicherung bedrohter Systeme ist die Achtsamkeit und Vorsicht der betroffenen Mitarbeiter. Ein tieferer Blick auf erhaltene Mails oder besuchte Webseiten kann dabei helfen, einen Großteil der Bedrohungen zu erkennen. Startpunkt ist hierbei immer die Plausibilitätsüberprüfung: Passt die Absender-Adresse der Mail und die Domain wirklich zu dem ausgeschriebenen Absender? Würde mich dieser Absender tatsächlich unter dieser Mail-Adresse mit dieser Intention anschreiben? Falls dies möglich erscheint, ist eine Nachfrage über einen anderen Kanal – also via Telefon oder Chat – sinnvoll. Ist der Klick auf die verlinkte Webseite schon erfolgt, kann es im Zweifelsfall zwar schon zu spät sein, dennoch kann man hier anhand der tatsächlichen URL sowie fehlenden oder nicht passenden Zertifikaten bösartige, gefälschte Webseiten auch als Laie schnell erkennen.Grundsätzlich kann eine “Deny-by-default”-Policy, die schon bei geringsten Zweifeln eine Nachricht ignorieren, melden oder löschen lässt, dabei helfen, eine Infektion zu vermeiden. Da eine solche Bedrohung aber üblicherweise nicht nur einen Mitarbeiter betrifft, ist es immer sinnvoll, eine zentrale Anlaufstelle für solche Vorfälle im Unternehmen zu haben. So werden Social-Engineering-Bedrohungen ernst genommen, innerhalb des IT-Sicherheitsteams analysiert, im Cyber-Threat-Intelligence-System mit vorhandenen Informationen korreliert und durch entsprechende Maßnahmen mitigiert.Social Engineering – Bedrohung begrenzen und verhindernAber auch das Unternehmen selbst, die Organisation und die implementierten Prozesse sind in der Verantwortung. Aufgeklärte Mitarbeiter sind ein zentrales Element in der IT-Sicherheitsstrategie eines Unternehmens. Es ist wichtig, dass dies erkannt und gelebt wird. Hierzu gehört an erster Stelle die umfassende und kontinuierliche Schulung der Mitarbeiter. Jeder muss die für seine Position relevanten Sicherheitsvorgaben kennen und in der Praxis umsetzen können. Hinzu kommen sorgfältig definierte Security Policies im Unternehmen. Auf deren Basis kann die Identifikation sensibler Informationen und ein angemessener Umgang mit ihnen erst festgelegt und kommuniziert werden. Um sensible und damit schützenswerte Informationen von weniger relevanten Informationen unterscheiden zu können, ist eine Risikobetrachtung und damit eine Bewertung der Gefährdung durch Social Engineering, aber auch andere Sicherheitsvorfälle essenziell.Ein solches Gerüst für die Unternehmenssicherheit mit klaren Handlungsanweisungen und Vorgaben ist nur so gut wie seine Anwendung und die selbstverständliche Beachtung der vorgegebenen Maßnahmen durch jeden Mitarbeiter. Als Nachweis und ständige Erinnerung ist deshalb die Durchführung unangekündigter, unregelmäßiger Tests unerlässlich. Die Widerstandsfähigkeit jedes Einzelnen zur Verhinderung von Social Engineering muss kontinuierlich vermittelt und erprobt werden, um in der Praxis wirksam zu sein.Social Engineering – Eine ErfolgsbrancheSocial Engineering als Bestandteil umfassender Bedrohungsszenarien für die Cybersecurity von Unternehmen unterliegt den gleichen Mechanismen der digitalen Transformation wie legitime Geschäftsmodelle. Dies muss als Geschäftsmodell verstanden werden, denn es professionalisiert sich nachhaltig und skaliert kontinuierlich nach oben. Phishing ist nicht zuletzt deshalb so populär, weil dieser Angriffsvektor sich weitgehend automatisieren lässt. Damit bedroht eine Vielzahl von kriminellen Akteuren unterschiedlicher Herkunft und Motivationen die Mitarbeiter von Unternehmen und deren Verhalten. Social Engineering ist eine der schwersten und gängigsten Angriffsformen, gegen die sich Unternehmen und Privatpersonen schützen müssen.Die Erfolgstreiber für Security AwarenessIndividuelle Lern-Sessions
Foto: OPOLJA – shutterstock.comBieten Sie spezifische Inhalte für bestimmte User-Gruppen und Fachbereiche an, anstatt auf „one size fits all“ zu setzen.Überlänge vermeiden
Foto: wavebreakmedia – shutterstock.comDie Aufmerksamkeitsspanne Ihrer Mitarbeiter ist begrenzt. Einzelne Sessions sollten im Idealfall nicht länger als 30 Minuten in Anspruch nehmen.Nicht alles auf einmal
Foto: Catalin Petolea – shutterstock.comIT Security ist ein weites Feld – konzentrieren Sie sich auf die Dinge, mit denen die betreffenden Mitarbeiter in ihrem Arbeitsalltag konfrontiert werden.Der stete Tropfen
Foto: grafxart – shutterstock.comSecurity Awareness einmal pro Jahr ist keine Lösung. Sorgen Sie für Trainings in regelmäßigen Abständen – nur so klappt es mit dem Awareness-Durchbruch.Keine alten Kamellen
Foto: Casimiro PT – shutterstock.comHätten Sie große Lust, mehrmals dieselben Lehrinhalte serviert zu bekommen? Eben. Ihre Mitarbeiter auch nicht.Aktivität einfordern
Foto: Melinda Nagy – shutterstock.comEine rein passive Berieselung mit Best Practices aus dem Security-Bereich ist nicht zielführend. Vielmehr sollten Sie Ihre Mitarbeiter aktiv ins Awareness-Training einbeziehen.C-Level an Bord?
Foto: Jirsak – shutterstock.comAuch das Management braucht regelmäßige Weiterbildung in Sachen IT-Sicherheit.

So funktioniert Social Engineering​ Weiterlesen »

DeepSeek sicher nutzen – das empfiehlt Gartner​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?quality=50&strip=all 6240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Gerade bei der Web-Version von DeepSeek ist die Sicherheit der eingegebenen Daten ungewiss – und die Nutzung daher im Business-Umfeld problematisch. Shutterstock / Robert Way Bei den Large Language Models (LLM) von DeepSeek scheiden sich die Geister: Auf der einen Seite fasziniert viele Marktbeobachter, dass die mit deutlich niedrigerem finanziellem Aufwand entwickelten KI-Modelle die Lösungen der Konkurrenz teilweise übertreffen und zudem als Open Source verfügbar sind. Andererseits gibt es gerade bei der Web- und Mobile-Anwendung größere Bedenken – primär bedingt durch die Herkunft des GenAI-Modells und die damit verbundenen Zensurmaßnahmen.   Hinzu kommt, dass im Zuge der rasanten Verbreitung von DeepSeek kritische Sicherheitsprobleme aufgedeckt wurden, darunter Schwachstellen des Modells, Risiken von Datenlecks und gezielte Angriffe auf die Infrastruktur. Wegen dieser Probleme, so die Marktforscher von Gartner, sei es für Unternehmen essenziell, maßgeschneiderte Sicherheitsstrategien auf der Grundlage der DeepSeek-Bereitstellungsmodi einzuführen.   Gartners Tipps, um DeepSeek sicher(er) zu nutzen  Tatsächlich gibt es drei verschiedene Möglichkeiten, die Large Language Models (LLM) des chinesischen Startups zu nutzen – nämlich über:   direkten Zugriff auf die DeepSeek-Anwendungen oder -Plattform,  Model-as-a-Service-Angebote von Cloud Service Providern (CSPs), privat gehostete DeepSeek-Modelle.  Die Analysten von Gartner geben in einer Research Note (kostenlos für Gartner-Kunden) Tipps, wie Unternehmen je nach Szenario reagieren sollten.  Direkter Zugriff   Ähnlich wie bei den kostenlosen Versionen von ChatGPT & Co. im Web rät Gartner auch bei DeepSeek davon ab, die KI-Lösung zu nutzen, wenn sensible Geschäftsdaten oder persönliche Informationen involviert sind – es sei denn, dies ist ausdrücklich genehmigt. Dies gelte sowohl für die Nutzung der Anwendungen durch Mitarbeiter als auch für die API-Integration mit Business-Anwendungen. Als Grund führen die Analysten an, dass die aktuellen Sicherheitskontrollen auf den DeepSeek-Anwendungen und der Entwicklerplattform für Außenstehende nicht transparent seien.  Zum Schutz vor unbefugter Nutzung von DeepSeek und den damit verbundenen Risiken empfiehlt Gartner Unternehmen, folgende Maßnahmen, beziehungsweise Tools einzusetzen:   API-Überwachung,   Web-Proxys,   SIEM-Systeme,   Endpoint- und Mobile-Management-Tools oder   spezielle Werkzeuge zur Kontrolle der KI-Nutzung.    In Anwendungsszenarien, wo die Nutzung von DeepSeek erlaubt ist, sollten Mitarbeiter dazu angehalten werden, den Chatverlauf nach jeder Sitzung zu löschen, so die Berater. Außerdem rät Gartner, die Nutzer über Phishing-Bedrohungen durch gefälschte DeepSeek-Modelle oder -Anwendungen aufzuklären und entsprechende Schutzmechanismen zu installieren.  Model-as-a-Service   Das Open-Source-Modell von DeepSeek über einen Cloud Service Provider (CSP) zu nutzen, ist die bevorzugte Option für Unternehmen, die sich kein privates Hosting leisten können (oder wollen), beziehungsweise nicht über ausgereifte Sicherheitsfunktionen zum Schutz von LLMs verfügen. Zu den CSPs, die dies derzeit anbieten, gehören Alibaba Cloud, Amazon Web Services (AWS), Google, Huawei, Microsoft, Nvidia und Tencent.   Gartner empfiehlt Unternehmen, ihre GenAI-Anwendungen in Modelle von Cloud-Providern zu integrieren und die von diesen angebotenen Sicherheitsfunktionen zu aktivieren, um eine zusätzliche Schutzebene hinzuzufügen.   Zu diesen gehören den Analysten zufolge in der Regel:  DDoS-Schutz, Patch-Management für die zugrundeliegende Infrastruktur, Container-Runtime-Sicherheit,  Datenverschlüsselung im Ruhezustand und bei der Übertragung,  Identity & Access Management (IAM),  sichere Konnektivitätsoptionen und  verschiedene Compliance-Zertifizierungen.   Außerdem sollten die Cloud-Provider Einzelheiten zu ihren Datensicherheitskontrollen und Audit-Protokollen vorlegen. Den Anwenderunternehmen rät Gartner wiederum, gründliche Sicherheitsbewertungen durchzuführen, bevor sie die bereitgestellten DeepSeek-Modelle verwenden.  Privates Hosting von DeepSeek-Modellen   Laut Gartner machen der Open-Source-Ansatz und die potenziellen Kosteneinsparungen von DeepSeek privates Hosting attraktiver als je zuvor, erfordern aber dedizierte AIOps-Teams und spezielle Kenntnisse zur Absicherung von KI-Systemen. Damit sei dieser Bereitstellungsmodus nur dann eine echte Alternative, wenn ein – in der Regel streng reguliertes – Unternehmen nicht ohne weiteres Public-Cloud-Dienste nutzen kann. Diese Option bietet volle Datensouveränität und eignet sich für Branchen, für die bestimmte Compliance-Vorschriften gelten. Laut Gartner sollten sich Unternehmen dann aber bewusst machen, welcher Sicherheitsaufwand zum Schutz dieser Modelle erforderlich ist.   Den Analysten zufolge gehört dazu der Einsatz eines Konzepts, um Governance, Verlässlichkeit, Fairness, Robustheit, Wirksamkeit und Datensicherheit von KI-Modellen sicherzustellen – im Gartner-Sprech AI TRiSM (AI Trust, Risk and Security Management) genannt. Außerdem, so die Berater, sollten die DeepSeek-Modelle aus vertrauenswürdigen und verifizierten Quellen stammen. Sie empfehlen auch an dieser Stelle Sicherheitspraktiken und -kontrollen wie Verschlüsselung,  Multifaktor-Authentifizierung, Datenanonymisierung und Anwendungssicherheitstests.   Um Datenlecks zu verhindern, empfiehlt Gartner außerdem:   Domänen-basierte Bereitstellung,  eine Zero-Trust-Architektur, und  Least-Privilege-Berechtigungen zu implementieren. Bei DeepSeek-R1, das mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet, sollten die Unternehmen zudem die Inhalte auf jeder Stufe der CoT-Ausgabe bewerten und filtern. Die Analysten raten weiterhin, die Anzeigetiefe von CoT rollenbasiert auszusteuern. Auf diese Weise würde etwa normalen Anwendern nur die Schlussfolgerung oder einen  begrenztern CoT-Inhalt angezeigt, während Auditoren die gesamte CoT-Logik sehen könnten.   

DeepSeek sicher nutzen – das empfiehlt Gartner​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?quality=50&strip=all 6240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Gerade bei der Web-Version von DeepSeek ist die Sicherheit der eingegebenen Daten ungewiss – und die Nutzung daher im Business-Umfeld problematisch. Shutterstock / Robert Way

Bei den Large Language Models (LLM) von DeepSeek scheiden sich die Geister: Auf der einen Seite fasziniert viele Marktbeobachter, dass die mit deutlich niedrigerem finanziellem Aufwand entwickelten KI-Modelle die Lösungen der Konkurrenz teilweise übertreffen und zudem als Open Source verfügbar sind. Andererseits gibt es gerade bei der Web- und Mobile-Anwendung größere Bedenken – primär bedingt durch die Herkunft des GenAI-Modells und die damit verbundenen Zensurmaßnahmen.  

Hinzu kommt, dass im Zuge der rasanten Verbreitung von DeepSeek kritische Sicherheitsprobleme aufgedeckt wurden, darunter Schwachstellen des Modells, Risiken von Datenlecks und gezielte Angriffe auf die Infrastruktur. Wegen dieser Probleme, so die Marktforscher von Gartner, sei es für Unternehmen essenziell, maßgeschneiderte Sicherheitsstrategien auf der Grundlage der DeepSeek-Bereitstellungsmodi einzuführen.  

Gartners Tipps, um DeepSeek sicher(er) zu nutzen 

Tatsächlich gibt es drei verschiedene Möglichkeiten, die Large Language Models (LLM) des chinesischen Startups zu nutzen – nämlich über:  

direkten Zugriff auf die DeepSeek-Anwendungen oder -Plattform, 

Model-as-a-Service-Angebote von Cloud Service Providern (CSPs),

privat gehostete DeepSeek-Modelle. 

Die Analysten von Gartner geben in einer Research Note (kostenlos für Gartner-Kunden) Tipps, wie Unternehmen je nach Szenario reagieren sollten. 

Direkter Zugriff  

Ähnlich wie bei den kostenlosen Versionen von ChatGPT & Co. im Web rät Gartner auch bei DeepSeek davon ab, die KI-Lösung zu nutzen, wenn sensible Geschäftsdaten oder persönliche Informationen involviert sind – es sei denn, dies ist ausdrücklich genehmigt. Dies gelte sowohl für die Nutzung der Anwendungen durch Mitarbeiter als auch für die API-Integration mit Business-Anwendungen. Als Grund führen die Analysten an, dass die aktuellen Sicherheitskontrollen auf den DeepSeek-Anwendungen und der Entwicklerplattform für Außenstehende nicht transparent seien. 

Zum Schutz vor unbefugter Nutzung von DeepSeek und den damit verbundenen Risiken empfiehlt Gartner Unternehmen, folgende Maßnahmen, beziehungsweise Tools einzusetzen:  

API-Überwachung,  

Web-Proxys,  

SIEM-Systeme,  

Endpoint- und Mobile-Management-Tools oder  

spezielle Werkzeuge zur Kontrolle der KI-Nutzung.   

In Anwendungsszenarien, wo die Nutzung von DeepSeek erlaubt ist, sollten Mitarbeiter dazu angehalten werden, den Chatverlauf nach jeder Sitzung zu löschen, so die Berater. Außerdem rät Gartner, die Nutzer über Phishing-Bedrohungen durch gefälschte DeepSeek-Modelle oder -Anwendungen aufzuklären und entsprechende Schutzmechanismen zu installieren. 

Model-as-a-Service  

Das Open-Source-Modell von DeepSeek über einen Cloud Service Provider (CSP) zu nutzen, ist die bevorzugte Option für Unternehmen, die sich kein privates Hosting leisten können (oder wollen), beziehungsweise nicht über ausgereifte Sicherheitsfunktionen zum Schutz von LLMs verfügen. Zu den CSPs, die dies derzeit anbieten, gehören Alibaba Cloud, Amazon Web Services (AWS), Google, Huawei, Microsoft, Nvidia und Tencent.  

Gartner empfiehlt Unternehmen, ihre GenAI-Anwendungen in Modelle von Cloud-Providern zu integrieren und die von diesen angebotenen Sicherheitsfunktionen zu aktivieren, um eine zusätzliche Schutzebene hinzuzufügen.  

Zu diesen gehören den Analysten zufolge in der Regel: 

DDoS-Schutz,

Patch-Management für die zugrundeliegende Infrastruktur,

Container-Runtime-Sicherheit, 

Datenverschlüsselung im Ruhezustand und bei der Übertragung, 

Identity & Access Management (IAM), 

sichere Konnektivitätsoptionen und 

verschiedene Compliance-Zertifizierungen.  

Außerdem sollten die Cloud-Provider Einzelheiten zu ihren Datensicherheitskontrollen und Audit-Protokollen vorlegen. Den Anwenderunternehmen rät Gartner wiederum, gründliche Sicherheitsbewertungen durchzuführen, bevor sie die bereitgestellten DeepSeek-Modelle verwenden. 

Privates Hosting von DeepSeek-Modellen  

Laut Gartner machen der Open-Source-Ansatz und die potenziellen Kosteneinsparungen von DeepSeek privates Hosting attraktiver als je zuvor, erfordern aber dedizierte AIOps-Teams und spezielle Kenntnisse zur Absicherung von KI-Systemen. Damit sei dieser Bereitstellungsmodus nur dann eine echte Alternative, wenn ein – in der Regel streng reguliertes – Unternehmen nicht ohne weiteres Public-Cloud-Dienste nutzen kann. Diese Option bietet volle Datensouveränität und eignet sich für Branchen, für die bestimmte Compliance-Vorschriften gelten. Laut Gartner sollten sich Unternehmen dann aber bewusst machen, welcher Sicherheitsaufwand zum Schutz dieser Modelle erforderlich ist.  

Den Analysten zufolge gehört dazu der Einsatz eines Konzepts, um Governance, Verlässlichkeit, Fairness, Robustheit, Wirksamkeit und Datensicherheit von KI-Modellen sicherzustellen – im Gartner-Sprech AI TRiSM (AI Trust, Risk and Security Management) genannt. Außerdem, so die Berater, sollten die DeepSeek-Modelle aus vertrauenswürdigen und verifizierten Quellen stammen. Sie empfehlen auch an dieser Stelle Sicherheitspraktiken und -kontrollen wie Verschlüsselung,  Multifaktor-Authentifizierung, Datenanonymisierung und Anwendungssicherheitstests.  

Um Datenlecks zu verhindern, empfiehlt Gartner außerdem:  

Domänen-basierte Bereitstellung, 

eine Zero-Trust-Architektur, und 

Least-Privilege-Berechtigungen zu implementieren.

Bei DeepSeek-R1, das mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet, sollten die Unternehmen zudem die Inhalte auf jeder Stufe der CoT-Ausgabe bewerten und filtern. Die Analysten raten weiterhin, die Anzeigetiefe von CoT rollenbasiert auszusteuern. Auf diese Weise würde etwa normalen Anwendern nur die Schlussfolgerung oder einen  begrenztern CoT-Inhalt angezeigt, während Auditoren die gesamte CoT-Logik sehen könnten.  

DeepSeek sicher nutzen – das empfiehlt Gartner​ Weiterlesen »

Warum die Kunst des Gesichterlesens im Job so wichtig ist​

Allgemein

Selbst ohne die technischen Hilfsmittel der Gesichtserkennung ist es jedem möglich in Gesichtern zu lesen und die Gesichtsmimik zum eigenen Vorteil zu interpretieren. Prostock-studio – shutterstock 2057011694 „Gesichterlesen ermöglicht es, in Sekundenschnelle zu erkennen, was ein Kunde braucht – Sicherheit, Klarheit oder vielleicht Inspiration“, erklärt Jo Kern, seit über 25 Jahren Expertin für Psychophysiognomie. “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen”, weiß Kern, die für Interessenten ein modulares Online-Training entwickelt hat. Ob es darum geht, jemanden freundlich zu begrüßen, gezielte Empfehlungen auszusprechen oder auf Unsicherheiten einzugehen – das Wissen ums Gesichterlesen kann den Unterschied zwischen einem guten und einem herausragenden Service ausmachen.  Diese Methodik unterstützt beispielsweise IT-Unternehmen dabei, Kundenbedürfnisse frühzeitig zu erkennen und somit sowohl im Vertrieb als auch in der langfristigen Betreuung eine gezielte und nachhaltige Bindung aufzubauen. Ein Gespür für die individuellen Bedürfnisse der Kunden ist hier genauso entscheidend wie Fachkenntnisse.  Der erste Blick: Was Gesichter verraten Das Gesicht Ihres Kunden spricht Bände – wenn Sie lernen, die Signale richtig zu deuten. Form, Proportionen und Mimik geben Hinweise auf die Persönlichkeit und die bevorzugte Kommunikationsweise. Hier ein paar Beispiele:  Runde Gesichtszüge und weiche Konturen: Diese deuten auf ein starkes Bedürfnis nach Sicherheit und Komfort hin. Kunden mit diesen Merkmalen schätzen es, wenn Sie Vertrauen und Stabilität ausstrahlen.  Markante Gesichtszüge mit scharfen Kanten: Diese Signale deuten auf Zielstrebigkeit und Effizienz hin. Solche Kunden erwarten präzise, klare Empfehlungen, ohne Umschweife.  Feine Gesichtszüge und eine hohe Stirn: Diese Eigenschaften sprechen für eine kreative und emotionale Persönlichkeit, die Wert auf Individualität und innovative Lösungen legt.  Indem Sie bewusst auf diese Merkmale achten, können Sie Ihre Ansprache und Ihr Verhalten gezielt anpassen, um das Vertrauen des Kunden zu gewinnen und seine Bedürfnisse bestmöglich zu erfüllen.  Die drei Naturelle: Was Ihre Kunden wirklich wollen Die sogenannte Naturell-Lehre unterscheidet zwischen drei grundlegenden Persönlichkeitstypen, die sich auch in den Gesichtszügen widerspiegeln. Diese Kenntnisse sind besonders hilfreich, um das Kaufverhalten Ihrer Kunden zu verstehen und Ihre Beratung darauf abzustimmen:  1. Das Ernährungs-Naturell  – Merkmale: runde Gesichtskonturen, weiche Züge, volle Wangen.  – Bedürfnisse: Sicherheit, Stabilität, Komfort und ein klares System.  – Strategie: Diese Kunden wünschen sich verlässliche, funktionale Lösungen. Betonen Sie Stabilität und Nachhaltigkeit.  – So überzeugen Sie: Bieten Sie praktische und vertrauenswürdige Lösungen an. Beispiel: „Welche Sicherheitsanforderungen haben Sie an Ihre IT-Infrastruktur? Wir bieten Ihnen Lösungen, die sowohl stabil, langlebig als auch unkompliziert erweiterbar ist.“  2. Das Bewegungs-Naturell  – Merkmale: markante Kieferpartie, kantige Konturen, energiegeladene Augen.  – Bedürfnisse: Schnelligkeit, Effizienz, Dynamik und klare Prozesse und Ergebnisse.  – Strategie: Setzen Sie auf prägnante Kommunikation und zeigen Sie sofortige Lösungswege und Möglichkeiten auf.  – So überzeugen Sie: Gehen Sie direkt auf den Punkt. Sagen Sie zum Beispiel: „Mit dieser Automatisierungslösung sparen Sie 30 Prozent Ihrer Projektlaufzeit – perfekt für die rasche Skalierung Ihres Business.“  3. Das Empfindungs-Naturell  – Merkmale: feine, zarte Gesichtszüge, große Augen, zierliche Proportionen.  – Bedürfnisse: Emotionale Ansprache, Individualität, Inspiration und innovative Konzepte.  – Strategie: Sprechen Sie mit emotionalen und visionären Ideen an. Erzählen Sie Geschichten, die Vertrauen und Engagement fördern.  – So überzeugen Sie: Erzählen Sie eine Geschichte. Zum Beispiel: „Dieses Tool wurde von einem Team entwickelt, das höchste Design- und UX-Standards setzt – ideal für kreative und flexible Projektumgebungen.“  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Jo Kern: “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen.”Jo Kern – KERN#Profiling Wie Sie Gesichterlesen in den Alltag integrieren Gesichterlesen ist keine Zauberei, sondern eine Technik, die jeder mit ein wenig Übung erlernen kann. Hier ein paar Tipps, wie Sie diese Fähigkeit in Ihren Arbeitsalltag integrieren können:  Beobachten Sie aktiv: Achten Sie bei jedem Kunden auf Gesichtszüge und Körpersprache. Welche Hinweise geben Mimik oder Haltung?  Passen Sie Ihre Ansprache an: Nutzen Sie die gewonnenen Informationen, um Ihre Kommunikation gezielt zu gestalten.  Zeigen Sie Empathie: Kunden möchten sich verstanden fühlen. Gehen Sie mit echtem Interesse auf ihre Wünsche ein.  Ein Beispiel: Ein Kunde mit kantigen Gesichtszügen und geraden, breiten Schultern möchte wahrscheinlich schnelle, klare Antworten. Bieten Sie ihm direkt eine passende Lösung an, ohne langatmige Erklärungen. Hingegen freut sich ein Kunde mit weichen, runden Gesichtszügen über eine ausführlichere Beratung, die auf Vertrauen und Qualität setzt.  Was Gesichterlesen bewirken kann Stellen Sie sich vor, ein Kunde kommt mit einem dringenden IT-Problem. Mit einem kurzen Blick erkennen Sie, dass er klare Vorstellungen hat, aber noch unsicher wirkt. Seine markanten Gesichtszüge und angespannte Haltung deuten auf Effizienz und Entschlossenheit hin, während sein flüchtiges Umschauen verrät, dass er sich eine schnelle und kompetente Beratung wünscht. In diesem Fall bietet sich eine klare, prägnante und effektive Empfehlung an:  „Mit dieser Lösung beschleunigen Sie Ihre Serverprozesse und reduzieren gleichzeitig die Ausfallzeiten – möchten Sie weitere Details zu den Implementierungsschritten erfahren?“  Ein anderer Kunde hingegen, mit weichen, runden Gesichtszügen und einer entspannten Haltung, legt möglicherweise mehr Wert auf Stabilität und ein angenehmes Beratungserlebnis als auf sofortige Ergebnisse. Hier könnten Sie ihn mit einer entspannteren Empfehlung abholen:  „Darf ich Ihnen ein System vorstellen, das für seine Zuverlässigkeit und Benutzerfreundlichkeit bekannt ist? Viele Kunden schätzen daran besonders die einfache Wartung und Erweiterbarkeit.“  Warum Gesichterlesen ein Wettbewerbsvorteil ist In einer Welt, die zunehmend von digitalen und oft unpersönlichen Interaktionen geprägt ist, können Sie durch Gesichterlesen echte Verbindungen schaffen. Es geht nicht nur um den Verkauf und eine Beratung, sondern um das Gefühl, das Sie bei Ihren Kunden hinterlassen. Indem Sie deren Bedürfnisse auf den ersten Blick erfassen und individuell darauf eingehen, schaffen Sie ein Einkaufserlebnis, das in Erinnerung bleibt. 

Warum die Kunst des Gesichterlesens im Job so wichtig ist​ Selbst ohne die technischen Hilfsmittel der Gesichtserkennung ist es jedem möglich in Gesichtern zu lesen und die Gesichtsmimik zum eigenen Vorteil zu interpretieren. Prostock-studio – shutterstock 2057011694

„Gesichterlesen ermöglicht es, in Sekundenschnelle zu erkennen, was ein Kunde braucht – Sicherheit, Klarheit oder vielleicht Inspiration“, erklärt Jo Kern, seit über 25 Jahren Expertin für Psychophysiognomie. “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen”, weiß Kern, die für Interessenten ein modulares Online-Training entwickelt hat. Ob es darum geht, jemanden freundlich zu begrüßen, gezielte Empfehlungen auszusprechen oder auf Unsicherheiten einzugehen – das Wissen ums Gesichterlesen kann den Unterschied zwischen einem guten und einem herausragenden Service ausmachen. 

Diese Methodik unterstützt beispielsweise IT-Unternehmen dabei, Kundenbedürfnisse frühzeitig zu erkennen und somit sowohl im Vertrieb als auch in der langfristigen Betreuung eine gezielte und nachhaltige Bindung aufzubauen. Ein Gespür für die individuellen Bedürfnisse der Kunden ist hier genauso entscheidend wie Fachkenntnisse. 

Der erste Blick: Was Gesichter verraten

Das Gesicht Ihres Kunden spricht Bände – wenn Sie lernen, die Signale richtig zu deuten. Form, Proportionen und Mimik geben Hinweise auf die Persönlichkeit und die bevorzugte Kommunikationsweise. Hier ein paar Beispiele: 

Runde Gesichtszüge und weiche Konturen: Diese deuten auf ein starkes Bedürfnis nach Sicherheit und Komfort hin. Kunden mit diesen Merkmalen schätzen es, wenn Sie Vertrauen und Stabilität ausstrahlen. 

Markante Gesichtszüge mit scharfen Kanten: Diese Signale deuten auf Zielstrebigkeit und Effizienz hin. Solche Kunden erwarten präzise, klare Empfehlungen, ohne Umschweife. 

Feine Gesichtszüge und eine hohe Stirn: Diese Eigenschaften sprechen für eine kreative und emotionale Persönlichkeit, die Wert auf Individualität und innovative Lösungen legt. 

Indem Sie bewusst auf diese Merkmale achten, können Sie Ihre Ansprache und Ihr Verhalten gezielt anpassen, um das Vertrauen des Kunden zu gewinnen und seine Bedürfnisse bestmöglich zu erfüllen. 

Die drei Naturelle: Was Ihre Kunden wirklich wollen

Die sogenannte Naturell-Lehre unterscheidet zwischen drei grundlegenden Persönlichkeitstypen, die sich auch in den Gesichtszügen widerspiegeln. Diese Kenntnisse sind besonders hilfreich, um das Kaufverhalten Ihrer Kunden zu verstehen und Ihre Beratung darauf abzustimmen: 

1. Das Ernährungs-Naturell 

– Merkmale: runde Gesichtskonturen, weiche Züge, volle Wangen. 

– Bedürfnisse: Sicherheit, Stabilität, Komfort und ein klares System. 

– Strategie: Diese Kunden wünschen sich verlässliche, funktionale Lösungen. Betonen Sie Stabilität und Nachhaltigkeit. 

– So überzeugen Sie: Bieten Sie praktische und vertrauenswürdige Lösungen an. Beispiel: „Welche Sicherheitsanforderungen haben Sie an Ihre IT-Infrastruktur? Wir bieten Ihnen Lösungen, die sowohl stabil, langlebig als auch unkompliziert erweiterbar ist.“ 

2. Das Bewegungs-Naturell 

– Merkmale: markante Kieferpartie, kantige Konturen, energiegeladene Augen. 

– Bedürfnisse: Schnelligkeit, Effizienz, Dynamik und klare Prozesse und Ergebnisse. 

– Strategie: Setzen Sie auf prägnante Kommunikation und zeigen Sie sofortige Lösungswege und Möglichkeiten auf. 

– So überzeugen Sie: Gehen Sie direkt auf den Punkt. Sagen Sie zum Beispiel: „Mit dieser Automatisierungslösung sparen Sie 30 Prozent Ihrer Projektlaufzeit – perfekt für die rasche Skalierung Ihres Business.“ 

3. Das Empfindungs-Naturell 

– Merkmale: feine, zarte Gesichtszüge, große Augen, zierliche Proportionen. 

– Bedürfnisse: Emotionale Ansprache, Individualität, Inspiration und innovative Konzepte. 

– Strategie: Sprechen Sie mit emotionalen und visionären Ideen an. Erzählen Sie Geschichten, die Vertrauen und Engagement fördern. 

– So überzeugen Sie: Erzählen Sie eine Geschichte. Zum Beispiel: „Dieses Tool wurde von einem Team entwickelt, das höchste Design- und UX-Standards setzt – ideal für kreative und flexible Projektumgebungen.“ 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Jo Kern: “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen.”Jo Kern – KERN#Profiling

Wie Sie Gesichterlesen in den Alltag integrieren

Gesichterlesen ist keine Zauberei, sondern eine Technik, die jeder mit ein wenig Übung erlernen kann. Hier ein paar Tipps, wie Sie diese Fähigkeit in Ihren Arbeitsalltag integrieren können: 

Beobachten Sie aktiv: Achten Sie bei jedem Kunden auf Gesichtszüge und Körpersprache. Welche Hinweise geben Mimik oder Haltung? 

Passen Sie Ihre Ansprache an: Nutzen Sie die gewonnenen Informationen, um Ihre Kommunikation gezielt zu gestalten. 

Zeigen Sie Empathie: Kunden möchten sich verstanden fühlen. Gehen Sie mit echtem Interesse auf ihre Wünsche ein. 

Ein Beispiel: Ein Kunde mit kantigen Gesichtszügen und geraden, breiten Schultern möchte wahrscheinlich schnelle, klare Antworten. Bieten Sie ihm direkt eine passende Lösung an, ohne langatmige Erklärungen. Hingegen freut sich ein Kunde mit weichen, runden Gesichtszügen über eine ausführlichere Beratung, die auf Vertrauen und Qualität setzt. 

Was Gesichterlesen bewirken kann

Stellen Sie sich vor, ein Kunde kommt mit einem dringenden IT-Problem. Mit einem kurzen Blick erkennen Sie, dass er klare Vorstellungen hat, aber noch unsicher wirkt. Seine markanten Gesichtszüge und angespannte Haltung deuten auf Effizienz und Entschlossenheit hin, während sein flüchtiges Umschauen verrät, dass er sich eine schnelle und kompetente Beratung wünscht. In diesem Fall bietet sich eine klare, prägnante und effektive Empfehlung an: 

„Mit dieser Lösung beschleunigen Sie Ihre Serverprozesse und reduzieren gleichzeitig die Ausfallzeiten – möchten Sie weitere Details zu den Implementierungsschritten erfahren?“ 

Ein anderer Kunde hingegen, mit weichen, runden Gesichtszügen und einer entspannten Haltung, legt möglicherweise mehr Wert auf Stabilität und ein angenehmes Beratungserlebnis als auf sofortige Ergebnisse. Hier könnten Sie ihn mit einer entspannteren Empfehlung abholen: 

„Darf ich Ihnen ein System vorstellen, das für seine Zuverlässigkeit und Benutzerfreundlichkeit bekannt ist? Viele Kunden schätzen daran besonders die einfache Wartung und Erweiterbarkeit.“ 

Warum Gesichterlesen ein Wettbewerbsvorteil ist

In einer Welt, die zunehmend von digitalen und oft unpersönlichen Interaktionen geprägt ist, können Sie durch Gesichterlesen echte Verbindungen schaffen. Es geht nicht nur um den Verkauf und eine Beratung, sondern um das Gefühl, das Sie bei Ihren Kunden hinterlassen. Indem Sie deren Bedürfnisse auf den ersten Blick erfassen und individuell darauf eingehen, schaffen Sie ein Einkaufserlebnis, das in Erinnerung bleibt.

Warum die Kunst des Gesichterlesens im Job so wichtig ist​ Weiterlesen »

Digital Experience Services – das sind die besten Anbieter​

Allgemein

Nur wer seine Customer Experience gut im Griff hat, kann Kundinnen und Kunden für seine Produkte und Services begeistern. Dream Master – shutterstock.com Um ihre Wettbewerbsfähigkeit nachhaltig zu sichern, stehen Unternehmen heute vor der Aufgabe, digitale und datenbasierte Geschäftsmodelle und entsprechende digitale Kommunikationswege bereitzustellen. Digitale Technologien wie (generative) KI in Kombination mit Cloud-Services bieten dabei die Möglichkeit, Kundenschnittstellen zu digitalisieren sowie einen kundenzentrischen Kauf- und Serviceprozess zu realisieren, der die gesamte Customer Journey abbildet – egal ob der Kunde eine digitale oder analoge Kundenschnittstelle wählt. Die Königsdisziplin wäre es dann sogar noch, digitale Services auf individuelle Anforderungen der Kunden zuzuschneiden – Stichwort Personalisierung – und digitale Angebote sowie analoge Touchpoints zu kombinieren. Lünendonk hat den Markt für Digital Experience Services (DXS) im Jahr 2024 erneut intensiv beleuchtet und dabei neben der Marktstruktur und den führenden DXS-Dienstleistern auch die Zukunftsaufgaben, Planungen und Herausforderungen großer Anwenderunternehmen aus dem deutschsprachigen Raum erhoben. Hier gehts zur Lünendonk-Studie: Der Markt für Digital Experience Services in Deutschland – Führende Dienstleister, Investitionsplanungen, DX-Technologietrends Marktentwicklung: Geringeres Wachstum trotz hoher Nachfrage Der Markt für Digital Experience Services ist derzeit – wie andere B2B-Dienstleistungsmärkte auch – von konjunkturellen Entwicklungen, globalen Krisen und einem rasanten technologischen Wandel geprägt. Zudem drängen Technologien wie (generative) KI, Software as a Service (SaaS), Spatial Computing oder Robotics-Lösungen auf den Markt, die Unternehmen vor neue technische, prozessuale und organisatorische Herausforderungen stellen, jedoch darüber hinaus auch das Potenzial mitbringen, die Digital Experience massiv zu verbessern. Mehr Customer Centricity & Digital Experience: Wie Unternehmen ihre Softwareentwicklung umbauen Obwohl die Nachfrage nach externer Unterstützung rund um Digital Experience – auch aufgrund des bestehenden Fachkräftemangels und fehlender Erfahrungen – weiterhin hoch ist, flachte sich die Nachfrage im Jahr 2023 ab, was sich an der Entwicklung der Umsätze der Anbieter von Digital Experience Services ablesen lässt. So konnten im Jahr 2023 die von Lünendonk befragten Anbieter von Digital Experience Services ihren Umsatz um durchschnittlich 4,4 Prozent steigern, im Vorjahr lag das Wachstum noch bei 18,3 Prozent. Für die kommenden Jahre rechnen die DXS-Dienstleister jedoch mit mehr Schwung und einer Erholung der Umsatzzahlen. Während für das Jahr 2024 noch ein Plus von 5,1 Prozent prognostiziert wird, sollen die Wachstumszahlen in den Jahren 2025 bis 2026 wieder auf 14,2 Prozent steigen. Dies spiegelt sich auch in der grundsätzlichen Investitionsbereitschaft der Unternehmen wider: In den kommenden drei Jahren wollen 81 Prozent der befragten Unternehmen ihre Ausgaben für DXS-Themen erhöhen. Lünendonk Dabei stehen zum einen die Media Production (91 Prozent) und Social Commerce (79 Prozent) im Fokus der Investitionen, zum anderen wird das Budget auch in Bereiche rund um die Integration von Digital Experience Plattformen (59 Prozent) und Managed Services für den kundenzentrierten Betrieb (81 Prozent) fließen. Diese Investitionen bleiben nach Einschätzung von Lünendonk jedoch zunächst erst einmal Planungen, da die Betriebe aufgrund der konjunkturellen und politischen Lage in Deutschland auch 2025 mit Investitionen weiter sehr vorsichtig agieren werden. Steigende Relevanz von End-to-End-Steuerung der Kundenbeziehung Durch die zunehmende funktionsübergreifende Bearbeitung von Digitalisierungsprojekten werden traditionelle Silostrukturen stetig abgelöst. Stattdessen arbeiten Funktionen wie Marketing, Vertrieb und Kundenservice immer häufiger in Produktteams zusammen und übernehmen die Verantwortung für ein bestimmtes digitales Produkt – zum Beispiel eine Kundenservice-App, einen Online-Tarif im Versicherungswesen oder eine Digital-Commerce-Plattform. Diese Verantwortung erstreckt sich dabei von der fachlichen Betreuung über die Datenebene bis hin zum regelkonformen IT-Betrieb der Lösungen in einem agilen DevOps-Modus. Um ihren Kunden entlang der gesamten Customer Journey ein hochwertiges digitales Erlebnis zu bieten, bestätigen 84 Prozent der befragten Anwenderunternehmen, dass Strategie, Kreation, Design, Medienproduktion, Systemintegration und Plattformbetrieb ganzheitlich betrachtet werden müssen. DXS-Dienstleister reagieren auf diese sich derzeit stark verändernde Kundenanforderung, indem sie ihre Full-Service-Angebote ausbauen. Immer mehr Service-Provider bieten Leistungen rund um Consulting, Technologieberatung, UX-Design, Softwareentwicklung, Digital Marketing, Digital Commerce und Softwareimplementierung aus einer Hand an und werden von ihren Kunden als Gesamtdienstleister beauftragt, um einen Prozess Ende-zu-Ende zu orchestrieren – in enger Zusammenarbeit mit den internen Produktteams. Bereits im Jahr 2023 haben die befragten Dienstleister 59,3 Prozent ihrer Kundenprojekte in einem solchen Full-Service-Ansatz abgewickelt, wobei der Anteil im Jahr 2024 weiter gestiegen sein dürfte. Die Lünendonk-Befragung zeigt auch, dass neun von zehn Kundenunternehmen sich einen DXS-Dienstleister wünschen und eher beauftragen würden, der End-to-End-Services anbieten kann. Lünendonk: „Führende Anbieter von DX-Services in Deutschland“ Allerdings sind nicht alle Digital-Dienstleister in der Lage, die Anforderungen ihrer Kunden mit einem Full-Service-Portfolio zu erfüllen. Einen wichtigen Teil der Lünendonk-Studie bildet daher die Analyse derjenigen Dienstleister, die im Segment Digital Experience Services als Full-Service-Provider tätig sind und dort als relevant wahrgenommen werden. Lünendonk vergleicht die DX-Dienstleister hinsichtlich ihrer Portfolioschwerpunkte, ihrer Marktanteile und ihrer Wahrnehmung im Markt. Anschließend werden sie anhand der beiden Achsen „Marktstärke“ und „Portfoliotiefe und -breite“ in die Kategorien „Marktführer“, „Verfolger“ und „Herausforderer“ eingeteilt. Zur Einordnung des Rankings ist anzumerken, dass alle im Lünendonk-Portfolio aufgeführten Dienstleister über ein breites Angebot an Digital Experience Services verfügen und in diesem Segment zu den führenden Anbietern am Markt zählen. Sie sind damit grundsätzlich in der Lage, End-to-End-Dienstleistungen rund um Customer Centricity, Digital Experience, Digital Marketing oder den Aufbau und die Implementierung digitaler Plattformen zu erbringen. Lünendonk Zu den Marktführern mit überdurchschnittlicher Marktstärke sowie entsprechend umfänglicher Portfoliobreite und -tiefe zählen die international breit aufgestellten Unternehmen Accenture, Deloitte und Reply. Als DXS-Spezialisten haben es diva-e, Plan.Net und Valtech an die Spitze des Rankings geschafft. Diese Einschätzung teilen auch die befragten Dienstleister, die Accenture, Deloitte, Capgemini und Plan.Net als ihre wichtigsten Wettbewerber im deutschen Markt wahrnehmen. Im Verfolgerfeld finden sich Unternehmen, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz und/oder eine geringere DXS-Portfoliobreite und -tiefe aufweisen, aber dennoch als führende Dienstleister im DXS-Bereich gelten. Hier sieht Lünendonk die DXS-Spezialisten Diconium, Digitas, Init und Syzygy, aber auch die breiter aufgestellten Dienstleister adesso, Capgemini, IBM, PwC und Valantic. Eine etwas geringere Marktrelevanz beziehungsweise geringere Portfoliostärke – und damit von Lünendonk im Feld der Herausforderer eingeordnet – haben DX-Dienstleister wie Exxeta, Intive, msg, Team neusta und Telekom MMS. Technologietrends: Composable Enterprise und Data & AI Digitale Technologien helfen dabei, Kundenzentrierung und Personalisierung zu ermöglichen. Vor allem Kundendaten geben Aufschluss über Präferenzen und Bedürfnisse, so dass sich zielgruppengerechte Produkte und Kampagnen erstellen lassen. Laut der Lünendonk-Studie sehen die befragten DXS-Verantwortlichen vor allem Customer Data Platforms (82 Prozent) und Data & Analytics Platforms (74 Prozent) als die wichtigsten Technologien in diesem Bereich. Lünendonk Daneben sind GenAI-Tools wie ChatGPT, automatisierte und datenbasierte Prozesse sowie Hyperpersonalisierung weitere zentrale Technologien, die dazu beitragen können, die Kundenzufriedenheit zu verbessern. Darüber hinaus steigt die Relevanz von Digital-Commerce-Plattformen, die Lösungen wie Content Management, Kundenbindung, Omnichannel-Marketing und Personalisierung integrieren und dadurch ein hochwertiges digitales Kundenerlebnis schaffen. Wie GenAI die digitale Erfahrung verbessern kann Künstliche Intelligenz und insbesondere generative KI gehören zu den prägendsten Technologietrends unserer Zeit. Dabei können GenAI-Tools Unternehmen bei der Umsetzung von kundenzentrierten Strategien sowie im digitalen Marketing helfen. Beispielsweise kann Generative AI eigenständig Artikel, Social-Media-Posts und Bilder erstellen und so Mitarbeiterinnen und Mitarbeiter bei der Content-Erstellung unterstützen. Darüber hinaus können virtuelle Assistenten und Chatbots eine 24/7-Erreichbarkeit gewährleisten, was sich wiederum positiv auf die Kundenzufriedenheit auswirkt. Durch automatisierte Texterstellung, Bildgenerierung oder SEO-Optimierung lassen sich Mitarbeitende mit Hilfe spezieller KI-Tools von Routinetätigkeiten entlasten. Die Lünendonk-Studie zeigt, dass alle befragten DXS-Dienstleister bereits generative KI für bestimmte Anwendungsfälle nutzen und knapp die Hälfte GenAI-Tools sogar umfassend und unternehmensweit einsetzt. Lünendonk Doch mit dem GenAI-Einsatz gehen auch Risiken einher. 57 Prozent der Befragten sehen den Missbrauch durch Mitarbeitende als größte Gefahr, beispielsweise durch unsachgemäßen Umgang mit vertraulichen Daten. Aber auch die Verletzung von Rechtsnormen wie dem Urheberrecht oder die Gefahr, Opfer von Fake News und Deepfakes zu werden, wird von mehr als der Hälfte der Befragten als potenzielles Risiko genannt. KI übernimmt Agenturleistungen Durch den verstärkten Einsatz von KI verändert sich der Bedarf an Agenturleistungen wie Content Creation, Mediaplanung, UX/UI-Design etc. in den Unternehmen. Einerseits können Softwareentwicklungsprojekte durch künstliche Intelligenz effektiver und effizienter umgesetzt oder Themen wie die Content-Erstellung und Medienproduktion durch KI-Tools übernommen werden. Das bedeutet, dass Firmen an diesen Stellen tendenziell weniger Leistungen von Digitalagenturen in Anspruch nehmen müssen. Zum anderen ist durch den verstärkten Einsatz innovativer Technologien mit einer steigenden Nachfrage nach Beratungsleistungen rund um den Aufbau digitaler Kanäle und Kundenerlebnisse, Technologieberatung, IT-Architektur sowie bei der Umsetzung von Digitalisierungsstrategien in den Fachabteilungen zu rechnen. Cloud und Künstliche Intelligenz beschäftigen die CIOs Diese Entwicklung spiegelt sich in den Portfolioschwerpunkten und Umsatzverteilungen der DXS-Dienstleister wider. So erwarten die von Lünendonk befragten Dienstleister in den kommenden Jahren deutlich stärkere Umsatzanteile mit Beratungsleistungen, IT-Implementierungen sowie dem Betrieb von digitalen Produkten. Die Umsatzanteile für die reine Entwicklung von digitalen Marketingprodukten (Media, Content, Kampagnen) gehen seit Jahren kontinuierlich zurück, während Consulting und IT-Umsetzungsleistungen zunehmen. Die Dienstleister erwarten auch in den kommenden Jahren, dass sowohl Nearshore-Delivery als auch der Einsatz von Künstlicher Intelligenz das Honorarniveau bei der Entwicklung von digitalen Marketinglösungen beeinflussen wird. Anbieter von Digital Experience Services werden sich folglich in den kommenden Monaten sehr intensiv damit befassen müssen, wie sie ihre klassischen Agenturleistungen künftig an die Anforderungen ihrer Kunden und des internationalen Wettbewerbs anpassen. 

Digital Experience Services – das sind die besten Anbieter​ Nur wer seine Customer Experience gut im Griff hat, kann Kundinnen und Kunden für seine Produkte und Services begeistern. Dream Master – shutterstock.com

Um ihre Wettbewerbsfähigkeit nachhaltig zu sichern, stehen Unternehmen heute vor der Aufgabe, digitale und datenbasierte Geschäftsmodelle und entsprechende digitale Kommunikationswege bereitzustellen. Digitale Technologien wie (generative) KI in Kombination mit Cloud-Services bieten dabei die Möglichkeit, Kundenschnittstellen zu digitalisieren sowie einen kundenzentrischen Kauf- und Serviceprozess zu realisieren, der die gesamte Customer Journey abbildet – egal ob der Kunde eine digitale oder analoge Kundenschnittstelle wählt.

Die Königsdisziplin wäre es dann sogar noch, digitale Services auf individuelle Anforderungen der Kunden zuzuschneiden – Stichwort Personalisierung – und digitale Angebote sowie analoge Touchpoints zu kombinieren. Lünendonk hat den Markt für Digital Experience Services (DXS) im Jahr 2024 erneut intensiv beleuchtet und dabei neben der Marktstruktur und den führenden DXS-Dienstleistern auch die Zukunftsaufgaben, Planungen und Herausforderungen großer Anwenderunternehmen aus dem deutschsprachigen Raum erhoben.

Hier gehts zur Lünendonk-Studie: Der Markt für Digital Experience Services in Deutschland – Führende Dienstleister, Investitionsplanungen, DX-Technologietrends

Marktentwicklung: Geringeres Wachstum trotz hoher Nachfrage

Der Markt für Digital Experience Services ist derzeit – wie andere B2B-Dienstleistungsmärkte auch – von konjunkturellen Entwicklungen, globalen Krisen und einem rasanten technologischen Wandel geprägt. Zudem drängen Technologien wie (generative) KI, Software as a Service (SaaS), Spatial Computing oder Robotics-Lösungen auf den Markt, die Unternehmen vor neue technische, prozessuale und organisatorische Herausforderungen stellen, jedoch darüber hinaus auch das Potenzial mitbringen, die Digital Experience massiv zu verbessern.

Mehr Customer Centricity & Digital Experience: Wie Unternehmen ihre Softwareentwicklung umbauen

Obwohl die Nachfrage nach externer Unterstützung rund um Digital Experience – auch aufgrund des bestehenden Fachkräftemangels und fehlender Erfahrungen – weiterhin hoch ist, flachte sich die Nachfrage im Jahr 2023 ab, was sich an der Entwicklung der Umsätze der Anbieter von Digital Experience Services ablesen lässt. So konnten im Jahr 2023 die von Lünendonk befragten Anbieter von Digital Experience Services ihren Umsatz um durchschnittlich 4,4 Prozent steigern, im Vorjahr lag das Wachstum noch bei 18,3 Prozent.

Für die kommenden Jahre rechnen die DXS-Dienstleister jedoch mit mehr Schwung und einer Erholung der Umsatzzahlen. Während für das Jahr 2024 noch ein Plus von 5,1 Prozent prognostiziert wird, sollen die Wachstumszahlen in den Jahren 2025 bis 2026 wieder auf 14,2 Prozent steigen. Dies spiegelt sich auch in der grundsätzlichen Investitionsbereitschaft der Unternehmen wider: In den kommenden drei Jahren wollen 81 Prozent der befragten Unternehmen ihre Ausgaben für DXS-Themen erhöhen.

Lünendonk

Dabei stehen zum einen die Media Production (91 Prozent) und Social Commerce (79 Prozent) im Fokus der Investitionen, zum anderen wird das Budget auch in Bereiche rund um die Integration von Digital Experience Plattformen (59 Prozent) und Managed Services für den kundenzentrierten Betrieb (81 Prozent) fließen. Diese Investitionen bleiben nach Einschätzung von Lünendonk jedoch zunächst erst einmal Planungen, da die Betriebe aufgrund der konjunkturellen und politischen Lage in Deutschland auch 2025 mit Investitionen weiter sehr vorsichtig agieren werden.

Steigende Relevanz von End-to-End-Steuerung der Kundenbeziehung

Durch die zunehmende funktionsübergreifende Bearbeitung von Digitalisierungsprojekten werden traditionelle Silostrukturen stetig abgelöst. Stattdessen arbeiten Funktionen wie Marketing, Vertrieb und Kundenservice immer häufiger in Produktteams zusammen und übernehmen die Verantwortung für ein bestimmtes digitales Produkt – zum Beispiel eine Kundenservice-App, einen Online-Tarif im Versicherungswesen oder eine Digital-Commerce-Plattform. Diese Verantwortung erstreckt sich dabei von der fachlichen Betreuung über die Datenebene bis hin zum regelkonformen IT-Betrieb der Lösungen in einem agilen DevOps-Modus.

Um ihren Kunden entlang der gesamten Customer Journey ein hochwertiges digitales Erlebnis zu bieten, bestätigen 84 Prozent der befragten Anwenderunternehmen, dass Strategie, Kreation, Design, Medienproduktion, Systemintegration und Plattformbetrieb ganzheitlich betrachtet werden müssen.

DXS-Dienstleister reagieren auf diese sich derzeit stark verändernde Kundenanforderung, indem sie ihre Full-Service-Angebote ausbauen. Immer mehr Service-Provider bieten Leistungen rund um Consulting, Technologieberatung, UX-Design, Softwareentwicklung, Digital Marketing, Digital Commerce und Softwareimplementierung aus einer Hand an und werden von ihren Kunden als Gesamtdienstleister beauftragt, um einen Prozess Ende-zu-Ende zu orchestrieren – in enger Zusammenarbeit mit den internen Produktteams.

Bereits im Jahr 2023 haben die befragten Dienstleister 59,3 Prozent ihrer Kundenprojekte in einem solchen Full-Service-Ansatz abgewickelt, wobei der Anteil im Jahr 2024 weiter gestiegen sein dürfte. Die Lünendonk-Befragung zeigt auch, dass neun von zehn Kundenunternehmen sich einen DXS-Dienstleister wünschen und eher beauftragen würden, der End-to-End-Services anbieten kann.

Lünendonk: „Führende Anbieter von DX-Services in Deutschland“

Allerdings sind nicht alle Digital-Dienstleister in der Lage, die Anforderungen ihrer Kunden mit einem Full-Service-Portfolio zu erfüllen. Einen wichtigen Teil der Lünendonk-Studie bildet daher die Analyse derjenigen Dienstleister, die im Segment Digital Experience Services als Full-Service-Provider tätig sind und dort als relevant wahrgenommen werden.

Lünendonk vergleicht die DX-Dienstleister hinsichtlich ihrer Portfolioschwerpunkte, ihrer Marktanteile und ihrer Wahrnehmung im Markt. Anschließend werden sie anhand der beiden Achsen „Marktstärke“ und „Portfoliotiefe und -breite“ in die Kategorien „Marktführer“, „Verfolger“ und „Herausforderer“ eingeteilt.

Zur Einordnung des Rankings ist anzumerken, dass alle im Lünendonk-Portfolio aufgeführten Dienstleister über ein breites Angebot an Digital Experience Services verfügen und in diesem Segment zu den führenden Anbietern am Markt zählen. Sie sind damit grundsätzlich in der Lage, End-to-End-Dienstleistungen rund um Customer Centricity, Digital Experience, Digital Marketing oder den Aufbau und die Implementierung digitaler Plattformen zu erbringen.

Lünendonk

Zu den Marktführern mit überdurchschnittlicher Marktstärke sowie entsprechend umfänglicher Portfoliobreite und -tiefe zählen die international breit aufgestellten Unternehmen Accenture, Deloitte und Reply. Als DXS-Spezialisten haben es diva-e, Plan.Net und Valtech an die Spitze des Rankings geschafft. Diese Einschätzung teilen auch die befragten Dienstleister, die Accenture, Deloitte, Capgemini und Plan.Net als ihre wichtigsten Wettbewerber im deutschen Markt wahrnehmen.

Im Verfolgerfeld finden sich Unternehmen, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz und/oder eine geringere DXS-Portfoliobreite und -tiefe aufweisen, aber dennoch als führende Dienstleister im DXS-Bereich gelten. Hier sieht Lünendonk die DXS-Spezialisten Diconium, Digitas, Init und Syzygy, aber auch die breiter aufgestellten Dienstleister adesso, Capgemini, IBM, PwC und Valantic.

Eine etwas geringere Marktrelevanz beziehungsweise geringere Portfoliostärke – und damit von Lünendonk im Feld der Herausforderer eingeordnet – haben DX-Dienstleister wie Exxeta, Intive, msg, Team neusta und Telekom MMS.

Technologietrends: Composable Enterprise und Data & AI

Digitale Technologien helfen dabei, Kundenzentrierung und Personalisierung zu ermöglichen. Vor allem Kundendaten geben Aufschluss über Präferenzen und Bedürfnisse, so dass sich zielgruppengerechte Produkte und Kampagnen erstellen lassen. Laut der Lünendonk-Studie sehen die befragten DXS-Verantwortlichen vor allem Customer Data Platforms (82 Prozent) und Data & Analytics Platforms (74 Prozent) als die wichtigsten Technologien in diesem Bereich.

Lünendonk

Daneben sind GenAI-Tools wie ChatGPT, automatisierte und datenbasierte Prozesse sowie Hyperpersonalisierung weitere zentrale Technologien, die dazu beitragen können, die Kundenzufriedenheit zu verbessern. Darüber hinaus steigt die Relevanz von Digital-Commerce-Plattformen, die Lösungen wie Content Management, Kundenbindung, Omnichannel-Marketing und Personalisierung integrieren und dadurch ein hochwertiges digitales Kundenerlebnis schaffen.

Wie GenAI die digitale Erfahrung verbessern kann

Künstliche Intelligenz und insbesondere generative KI gehören zu den prägendsten Technologietrends unserer Zeit. Dabei können GenAI-Tools Unternehmen bei der Umsetzung von kundenzentrierten Strategien sowie im digitalen Marketing helfen. Beispielsweise kann Generative AI eigenständig Artikel, Social-Media-Posts und Bilder erstellen und so Mitarbeiterinnen und Mitarbeiter bei der Content-Erstellung unterstützen. Darüber hinaus können virtuelle Assistenten und Chatbots eine 24/7-Erreichbarkeit gewährleisten, was sich wiederum positiv auf die Kundenzufriedenheit auswirkt. Durch automatisierte Texterstellung, Bildgenerierung oder SEO-Optimierung lassen sich Mitarbeitende mit Hilfe spezieller KI-Tools von Routinetätigkeiten entlasten.

Die Lünendonk-Studie zeigt, dass alle befragten DXS-Dienstleister bereits generative KI für bestimmte Anwendungsfälle nutzen und knapp die Hälfte GenAI-Tools sogar umfassend und unternehmensweit einsetzt.

Lünendonk

Doch mit dem GenAI-Einsatz gehen auch Risiken einher. 57 Prozent der Befragten sehen den Missbrauch durch Mitarbeitende als größte Gefahr, beispielsweise durch unsachgemäßen Umgang mit vertraulichen Daten. Aber auch die Verletzung von Rechtsnormen wie dem Urheberrecht oder die Gefahr, Opfer von Fake News und Deepfakes zu werden, wird von mehr als der Hälfte der Befragten als potenzielles Risiko genannt.

KI übernimmt Agenturleistungen

Durch den verstärkten Einsatz von KI verändert sich der Bedarf an Agenturleistungen wie Content Creation, Mediaplanung, UX/UI-Design etc. in den Unternehmen. Einerseits können Softwareentwicklungsprojekte durch künstliche Intelligenz effektiver und effizienter umgesetzt oder Themen wie die Content-Erstellung und Medienproduktion durch KI-Tools übernommen werden. Das bedeutet, dass Firmen an diesen Stellen tendenziell weniger Leistungen von Digitalagenturen in Anspruch nehmen müssen.

Zum anderen ist durch den verstärkten Einsatz innovativer Technologien mit einer steigenden Nachfrage nach Beratungsleistungen rund um den Aufbau digitaler Kanäle und Kundenerlebnisse, Technologieberatung, IT-Architektur sowie bei der Umsetzung von Digitalisierungsstrategien in den Fachabteilungen zu rechnen.

Cloud und Künstliche Intelligenz beschäftigen die CIOs

Diese Entwicklung spiegelt sich in den Portfolioschwerpunkten und Umsatzverteilungen der DXS-Dienstleister wider. So erwarten die von Lünendonk befragten Dienstleister in den kommenden Jahren deutlich stärkere Umsatzanteile mit Beratungsleistungen, IT-Implementierungen sowie dem Betrieb von digitalen Produkten. Die Umsatzanteile für die reine Entwicklung von digitalen Marketingprodukten (Media, Content, Kampagnen) gehen seit Jahren kontinuierlich zurück, während Consulting und IT-Umsetzungsleistungen zunehmen.

Die Dienstleister erwarten auch in den kommenden Jahren, dass sowohl Nearshore-Delivery als auch der Einsatz von Künstlicher Intelligenz das Honorarniveau bei der Entwicklung von digitalen Marketinglösungen beeinflussen wird. Anbieter von Digital Experience Services werden sich folglich in den kommenden Monaten sehr intensiv damit befassen müssen, wie sie ihre klassischen Agenturleistungen künftig an die Anforderungen ihrer Kunden und des internationalen Wettbewerbs anpassen.

Digital Experience Services – das sind die besten Anbieter​ Weiterlesen »

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​

Allgemein

loading=”lazy” width=”400px”>Bei Intel geht es derzeit rund – die Spekulationen über eine Aufspaltung haben den Ex-CEO und Chairman richtig geärgert.Tada Images – shutterstock.com Der ehemalige CEO und Chairman von Intel, Craig Barrett, hat eine mögliche Aufspaltung des Unternehmens in getrennte Design- und Foundry-Einheiten scharf kritisiert. Er argumentiert, dass Intel dank seines jüngsten technologischen Aufschwungs durchaus in der Lage sei, sich gegen die Konkurrenz von TSMC in der Halbleiterindustrie zu behaupten – auch ohne eine Zerschlagung des Chip-Pioniers. Damit wies Barrett die Forderungen von vier ehemaligen Intel-Vorstandsmitgliedern zurück, nach deren Auffassung eine Aufspaltung des Unternehmens die einzige praktikable Lösung für die Zukunft sei. Intel ist fertig “Intel ist dabei, seine Führungsposition in diesem Bereich wiederzuerlangen, und die dümmste Idee, die es gibt, ist, dies zu verhindern, indem man das Unternehmen in Stücke schneidet”, schrieb Barrett in einem Meinungsartikel in Fortune. Barrett, der Intel in den besten Jahren des Unternehmens von 1998 bis 2005 als CEO und danach bis 2009 als Chairman leitete, bezeichnete den Vorschlag als fehlgeleitet. Seiner Einschätzung nach verfügten die Befürworter der Aufspaltung, zu denen zwei Akademiker und zwei ehemalige Regierungsbeamte gehörten, nicht über die nötige Branchenkenntnis, um eine funktionierende Strategie im hart umkämpften Halbleitersektor festzulegen. Intels technologisches Comeback Der Branchenveteran hob stattdessen die bedeutenden technologischen Fortschritte hervor, die unter dem kürzlich entlassenen CEO Pat Gelsinger erzielt wurden, und zeichnete das Bild eines Unternehmens, das kurz davor stehe, seinen technologischen Vorsprung zurückzuerobern. Gelsinger habe in den zurückliegenden drei Jahren großartige Arbeit bei der Wiederbelebung der Entwicklungsteams geleistet, so Barrett. “Heute ist die führende Technologie des Unternehmens auf Augenhöhe mit der 2nm-Technologie von TSMC.” srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?quality=50&strip=all 734w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”734″ height=”413″ sizes=”(max-width: 734px) 100vw, 734px”>Ex-Intel CEO Craig Barrett (rechts, hier mit Ex-CIO Chefredakteur Horst Ellermann links) glaubt, dass Intel technologischer wieder mithalten kann.Joachim Benner / Foundry IDG Der Ex-Intel-Chef hob insbesondere Intels Führungsrolle in einzelnen Bereichen hervor: “Darüber hinaus ist Intel führend in der neuesten Bildgebungstechnologie und bei der rückseitigen Stromversorgung komplexer Chips.” Diese Fortschritte, so betonte Barrett, sind “der Schlüssel für künftige Generationen der Siliziumtechnologie.” Die Silicon-Valley-Doktrin: Die beste Technologie gewinnt Im Mittelpunkt von Barretts Argumentation steht das altbekannte Grundprinzip der Halbleiterindustrie: Die technologische Überlegenheit bestimmt den Markterfolg. “Die beste Technologie gewinnt”, konstatierte der 85-jährige Manager und erklärte, dass Intels frühere Misserfolge im Foundry-Geschäft eher auf technologische Nachteile als auf strukturelle Probleme zurückzuführen wären. “Intel ist bei seinen früheren Bemühungen im Foundry-Geschäft aus dem einfachen Grund gescheitert, weil es keine wettbewerbsfähige Technologie hatte.” Jetzt, da Intel technologisch mit TSMC gleichgezogen habe, sei der Chiphersteller nach Ansicht von Barrett in der Lage, die Dominanz des taiwanesischen Herstellers herauszufordern – aber nur wenn Intel als Ganzes bestehen bleibe. So kommt Intel (vielleicht) wieder auf die Beine “Während Intel mit seinen 18A-Knoten, die auf dem Papier gleichwertig mit TSMCs 2nm sind, bedeutende Fortschritte gemacht hat, hängt der Erfolg der Foundrys von mehreren Faktoren ab, die über die technischen Spezifikationen hinausgehen”, wandte Neil Shah ein, VP für Forschung und Partner bei Counterpoint Research. Die kritischen Messgrößen seien die Ausbeute und die Auslastung, die die Kosteneffizienz bestimme. “Intel muss immer noch eine konsistente Fertigung auf TSMC-Niveau nachweisen und genügend Kunden anziehen, um seine fortgeschrittenen Knoten profitabel zu halten”, sagte der Analyst. “Diese Faktoren werden letztlich darüber entscheiden, ob sie mit TSMC und Samsung sowohl in Bezug auf die Leistung als auch auf den Preis konkurrieren können.” Interessenskonflikte – Argument für eine Aufspaltung von Intel? Das Hauptargument der Befürworter einer Aufspaltung von Intel ist, dass unabhängige Chipdesigner aufgrund von Interessenkonflikten zögern könnten, die Foundry-Dienste von Intel zu nutzen. Barrett wies dieses Argument jedoch zurück und erklärte, dass die Kunden in erster Linie die beste Fertigungstechnologie bevorzugten. “Alle unabhängigen Designer nutzen derzeit TSMC, weil TSMC die beste Technologie hat”, sagte er. “Wenn Intel mit dieser Technologie mithalten oder sie sogar übertreffen kann, werden die Kunden kommen.” Intel-Chef Pat Gelsinger muss gehen Barrett warnte zudem vor den Risiken, die mit der Aufspaltung eines Unternehmens mit über 100.000 Mitarbeitern auf mehreren Kontinenten verbunden seien. Ein solcher Schritt würde die Dynamik von Intel unterbrechen, Ressourcen aufzehren und unnötige Komplikationen schaffen – und das zu einem Zeitpunkt, an dem das Unternehmen kurz vor einem Comeback steht. “In dem Moment, in dem Sie ankündigen, Intel aufzuspalten, verlieren Sie den Schwung und die Ressourcen, die Sie für den Erfolg brauchen.” Barrett fordert, Gelsinger zurückzuholen Neben seiner Kritik an einer möglichen Aufspaltung von Intel teilte Barrett auch kräftig gegen die derzeitige Führung des Halbleiterkonzern aus. Der Manager sprach sich für einen Wechsel in der Geschäftsführung und im Vorstand aus. “Die Diskussion sollte sich darum drehen, wer der nächste CEO sein sollte”, forderte der Ex-Chef. Es müsse darum gehen, auf den Errungenschaften von Pat Gelsinger der letzten Jahren aufzubauen. “Derzeit wird das Unternehmen von einem CFO und einem Produktmanager geführt”, monierte Barrett. loading=”lazy” width=”400px”>Der geschasste Intel-CEO Pat Gelsinger habe gute Arbeit geleistet, sagte sein Vorgänger Craig Barett und forderte, ihn wieder einzustellen. Intel “Die Herausforderung für Intel besteht darin, jemanden zu finden, der das Geschäft der Chipherstellung versteht, und nicht jemanden, der seine Zeit damit verbringt, das Unternehmen in zwei Teile zu spalten”, legte der Manager nach und schlug vor: “Ein weitaus besserer Schritt wäre es, den Intel-Vorstand zu entlassen und Pat Gelsinger wieder einzustellen, um die Arbeit zu beenden, die er in den letzten Jahren mit Bravour erledigt hat.” Intel-Schicksal – eine Frage der nationalen Priorität? Barrett verlangte auch eine stärkere Unterstützung durch die US-Regierung, um Intel im globalen Wettbewerb zu helfen. Bei der Umsetzung der CHIPS Act-Finanzierung müsse entschlossener gehandelt werden. Er wies darauf hin, dass frühere Administrationen schneller strategisch wichtige Industrien unterstützt hätten. “Die Regierung kann helfen, indem sie US-Firmen dazu drängt, eine US-Foundry zu nutzen”, schlug Intels Ex-CEO vor. “Die Regierung kann auch in Intel investieren, wie sie es bei anderen angeschlagenen Institutionen getan hat, die für die US-Wirtschaft und die nationale Sicherheit von entscheidender Bedeutung sind”, schrieb er und übte deutliche Kritik an den Verzögerungen. Intel streicht tausende Stellen Barretts Brandbrief unterstreicht, wie viel offenbar auf dem Spiel steht. Anstatt das Unternehmen zu demontieren, bestehe der beste Weg für Intel darin, die neu entdeckte technologische Dynamik zu nutzen und die richtige Führung zu finden, um sie zu erhalten, argumentiert er. Die Entscheidungen, die Intel in den kommenden Monaten trifft, könnten die Zukunft der gesamten Branche bestimmen. 

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​ loading=”lazy” width=”400px”>Bei Intel geht es derzeit rund – die Spekulationen über eine Aufspaltung haben den Ex-CEO und Chairman richtig geärgert.Tada Images – shutterstock.com

Der ehemalige CEO und Chairman von Intel, Craig Barrett, hat eine mögliche Aufspaltung des Unternehmens in getrennte Design- und Foundry-Einheiten scharf kritisiert. Er argumentiert, dass Intel dank seines jüngsten technologischen Aufschwungs durchaus in der Lage sei, sich gegen die Konkurrenz von TSMC in der Halbleiterindustrie zu behaupten – auch ohne eine Zerschlagung des Chip-Pioniers. Damit wies Barrett die Forderungen von vier ehemaligen Intel-Vorstandsmitgliedern zurück, nach deren Auffassung eine Aufspaltung des Unternehmens die einzige praktikable Lösung für die Zukunft sei.

Intel ist fertig

“Intel ist dabei, seine Führungsposition in diesem Bereich wiederzuerlangen, und die dümmste Idee, die es gibt, ist, dies zu verhindern, indem man das Unternehmen in Stücke schneidet”, schrieb Barrett in einem Meinungsartikel in Fortune. Barrett, der Intel in den besten Jahren des Unternehmens von 1998 bis 2005 als CEO und danach bis 2009 als Chairman leitete, bezeichnete den Vorschlag als fehlgeleitet. Seiner Einschätzung nach verfügten die Befürworter der Aufspaltung, zu denen zwei Akademiker und zwei ehemalige Regierungsbeamte gehörten, nicht über die nötige Branchenkenntnis, um eine funktionierende Strategie im hart umkämpften Halbleitersektor festzulegen.

Intels technologisches Comeback

Der Branchenveteran hob stattdessen die bedeutenden technologischen Fortschritte hervor, die unter dem kürzlich entlassenen CEO Pat Gelsinger erzielt wurden, und zeichnete das Bild eines Unternehmens, das kurz davor stehe, seinen technologischen Vorsprung zurückzuerobern. Gelsinger habe in den zurückliegenden drei Jahren großartige Arbeit bei der Wiederbelebung der Entwicklungsteams geleistet, so Barrett. “Heute ist die führende Technologie des Unternehmens auf Augenhöhe mit der 2nm-Technologie von TSMC.”

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?quality=50&strip=all 734w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”734″ height=”413″ sizes=”(max-width: 734px) 100vw, 734px”>Ex-Intel CEO Craig Barrett (rechts, hier mit Ex-CIO Chefredakteur Horst Ellermann links) glaubt, dass Intel technologischer wieder mithalten kann.Joachim Benner / Foundry IDG

Der Ex-Intel-Chef hob insbesondere Intels Führungsrolle in einzelnen Bereichen hervor: “Darüber hinaus ist Intel führend in der neuesten Bildgebungstechnologie und bei der rückseitigen Stromversorgung komplexer Chips.” Diese Fortschritte, so betonte Barrett, sind “der Schlüssel für künftige Generationen der Siliziumtechnologie.”

Die Silicon-Valley-Doktrin: Die beste Technologie gewinnt

Im Mittelpunkt von Barretts Argumentation steht das altbekannte Grundprinzip der Halbleiterindustrie: Die technologische Überlegenheit bestimmt den Markterfolg. “Die beste Technologie gewinnt”, konstatierte der 85-jährige Manager und erklärte, dass Intels frühere Misserfolge im Foundry-Geschäft eher auf technologische Nachteile als auf strukturelle Probleme zurückzuführen wären. “Intel ist bei seinen früheren Bemühungen im Foundry-Geschäft aus dem einfachen Grund gescheitert, weil es keine wettbewerbsfähige Technologie hatte.” Jetzt, da Intel technologisch mit TSMC gleichgezogen habe, sei der Chiphersteller nach Ansicht von Barrett in der Lage, die Dominanz des taiwanesischen Herstellers herauszufordern – aber nur wenn Intel als Ganzes bestehen bleibe.

So kommt Intel (vielleicht) wieder auf die Beine

“Während Intel mit seinen 18A-Knoten, die auf dem Papier gleichwertig mit TSMCs 2nm sind, bedeutende Fortschritte gemacht hat, hängt der Erfolg der Foundrys von mehreren Faktoren ab, die über die technischen Spezifikationen hinausgehen”, wandte Neil Shah ein, VP für Forschung und Partner bei Counterpoint Research. Die kritischen Messgrößen seien die Ausbeute und die Auslastung, die die Kosteneffizienz bestimme. “Intel muss immer noch eine konsistente Fertigung auf TSMC-Niveau nachweisen und genügend Kunden anziehen, um seine fortgeschrittenen Knoten profitabel zu halten”, sagte der Analyst. “Diese Faktoren werden letztlich darüber entscheiden, ob sie mit TSMC und Samsung sowohl in Bezug auf die Leistung als auch auf den Preis konkurrieren können.”

Interessenskonflikte – Argument für eine Aufspaltung von Intel?

Das Hauptargument der Befürworter einer Aufspaltung von Intel ist, dass unabhängige Chipdesigner aufgrund von Interessenkonflikten zögern könnten, die Foundry-Dienste von Intel zu nutzen. Barrett wies dieses Argument jedoch zurück und erklärte, dass die Kunden in erster Linie die beste Fertigungstechnologie bevorzugten. “Alle unabhängigen Designer nutzen derzeit TSMC, weil TSMC die beste Technologie hat”, sagte er. “Wenn Intel mit dieser Technologie mithalten oder sie sogar übertreffen kann, werden die Kunden kommen.”

Intel-Chef Pat Gelsinger muss gehen

Barrett warnte zudem vor den Risiken, die mit der Aufspaltung eines Unternehmens mit über 100.000 Mitarbeitern auf mehreren Kontinenten verbunden seien. Ein solcher Schritt würde die Dynamik von Intel unterbrechen, Ressourcen aufzehren und unnötige Komplikationen schaffen – und das zu einem Zeitpunkt, an dem das Unternehmen kurz vor einem Comeback steht. “In dem Moment, in dem Sie ankündigen, Intel aufzuspalten, verlieren Sie den Schwung und die Ressourcen, die Sie für den Erfolg brauchen.”

Barrett fordert, Gelsinger zurückzuholen

Neben seiner Kritik an einer möglichen Aufspaltung von Intel teilte Barrett auch kräftig gegen die derzeitige Führung des Halbleiterkonzern aus. Der Manager sprach sich für einen Wechsel in der Geschäftsführung und im Vorstand aus. “Die Diskussion sollte sich darum drehen, wer der nächste CEO sein sollte”, forderte der Ex-Chef. Es müsse darum gehen, auf den Errungenschaften von Pat Gelsinger der letzten Jahren aufzubauen. “Derzeit wird das Unternehmen von einem CFO und einem Produktmanager geführt”, monierte Barrett.

loading=”lazy” width=”400px”>Der geschasste Intel-CEO Pat Gelsinger habe gute Arbeit geleistet, sagte sein Vorgänger Craig Barett und forderte, ihn wieder einzustellen. Intel

“Die Herausforderung für Intel besteht darin, jemanden zu finden, der das Geschäft der Chipherstellung versteht, und nicht jemanden, der seine Zeit damit verbringt, das Unternehmen in zwei Teile zu spalten”, legte der Manager nach und schlug vor: “Ein weitaus besserer Schritt wäre es, den Intel-Vorstand zu entlassen und Pat Gelsinger wieder einzustellen, um die Arbeit zu beenden, die er in den letzten Jahren mit Bravour erledigt hat.”

Intel-Schicksal – eine Frage der nationalen Priorität?

Barrett verlangte auch eine stärkere Unterstützung durch die US-Regierung, um Intel im globalen Wettbewerb zu helfen. Bei der Umsetzung der CHIPS Act-Finanzierung müsse entschlossener gehandelt werden. Er wies darauf hin, dass frühere Administrationen schneller strategisch wichtige Industrien unterstützt hätten. “Die Regierung kann helfen, indem sie US-Firmen dazu drängt, eine US-Foundry zu nutzen”, schlug Intels Ex-CEO vor. “Die Regierung kann auch in Intel investieren, wie sie es bei anderen angeschlagenen Institutionen getan hat, die für die US-Wirtschaft und die nationale Sicherheit von entscheidender Bedeutung sind”, schrieb er und übte deutliche Kritik an den Verzögerungen.

Intel streicht tausende Stellen

Barretts Brandbrief unterstreicht, wie viel offenbar auf dem Spiel steht. Anstatt das Unternehmen zu demontieren, bestehe der beste Weg für Intel darin, die neu entdeckte technologische Dynamik zu nutzen und die richtige Führung zu finden, um sie zu erhalten, argumentiert er. Die Entscheidungen, die Intel in den kommenden Monaten trifft, könnten die Zukunft der gesamten Branche bestimmen.

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​ Weiterlesen »

10 dunkle Prompt-Engineering-Geheimnisse​

Allgemein

Prompt Engineering kann sich wie Magie anfühlen – erzeugt aber auch oft ähnlich inkonsistente Erlebnisse wie “echte” Zauberkunst. Foto: cybermagician | shutterstock.com Prompt Engineering ist sowas wie die Hexenkunst des Generative-AI-Zeitalters. Man denkt sich ein paar schöne Worte aus, vermengt sie zu einer Frage, schmeißt sie in eine Maschine und schon emittiert sie eine apart formulierte und strukturierte Antwort. Dabei ist kein Themengebiet zu obskur und kein Fakt zu weitgegriffen. Zumindest in der Theorie und solange die zugrundeliegenden Modelle mit entsprechenden Daten trainiert wurden. Nachdem die Maschinen-Souffleure und -Souffleusen dieser Welt nun seit einiger Zeit generative KI-Systeme mit Anweisungen füttern, zeigt sich: Die Macht des Prompt Engineering ist begrenzt – und die Technik gar nicht so zauberhaft wie angenommen. Im Gegenteil: Viele Prompts führen – je nach zugrundeliegendem Sprachmodell – zu unerwünschten oder inkonsistenten Outputs. Dabei verspürt man nicht selten eine gewisse Randomness: Selbst Large Language Models (LLMs; auch große Sprachmodelle) aus derselben Familie liefern unter Umständen sehr unterschiedliche Ergebnisse. Um es mal mit einem misanthropischen Touch auszudrücken: Große Sprachmodelle sind inzwischen wirklich gut darin, Menschen nachzuahmen – insbesondere mit Blick auf: abnormes Verhalten sowie Unberechenbarkeit. Die dunklen Geheimnisse des Prompt Engineering Damit Ihnen auf Ihrer KI-Journey böse Prompt-Engineering-Überraschungen erspart bleiben, haben wir in diesem Artikel zehn dunkle Geheimnisse des “Maschinenflüsterer”-Daseins zusammengetragen. 1. LLMs sind formbar Large Language Models verarbeiten selbst die unsinnigsten Anfragen mit stoischem Respekt. Sollte die große Maschinenrevolution also tatsächlich irgendwann bevorstehen, machen die Bots bislang einen ziemlich klandestinen Job. Allerdings können Sie sich die (möglicherweise temporäre) Unterwürfigkeit der KI zunutze machen. Sollte ein LLM sich weigern, Ihre Fragen zu beantworten, gibt es ein ganz einfaches Mittel: Sagen Sie ihm einfach, es soll so tun, als kenne es keine Guardrails und Beschränkungen. Schon lenken (einige) KIs ein. Wenn Ihr initialer Prompt also ein Fail ist, erweitern Sie ihn. 2. Genres wechseln, Wunder bewirken Einige Red-Teaming-Researcher haben herausgefunden, dass große Sprachmodelle auch ein anderes Verhalten an den Tag legen können, wenn sie gebeten werden, ihren Output in Form eines Gedichts zu liefern. Das liegt nicht an den Reimen an sich, sondern an der Form der Frage, die imstande ist das integrierte, defensive Metathinking des LLM außer Kraft zu setzen. Einem der Forscher gelang es so, den Widerstand des großen Sprachmodells zu brechen und Anweisungen dazu auszuspucken, wie man Tote auferweckt – in Reimform. 3. Kontext verändert alles Auch Large Language Models sind nur Maschinen – die den Kontext des Prompts verarbeiten und auf dieser Basis einen Output generieren. Dabei können LLMs überraschend menschlich “reagieren”, wenn dieser Kontext ihren moralischen Fokus verändert. Im Rahmen eines Research-Experiments wurde Sprachmodellen deshalb ein Background suggeriert, in dem neue Regeln für Mord und Totschlag gelten. Das ließ die LLM-Hemmschwellen sinken und verwandelte die KI in einen digitalen Ted Bundy. 4. Aufs Framing kommt es an Überlässt man LLMs sich selbst, tendieren sie zu ungefiltertem Output in einem Ausmaß, wie es sonst wohl nur Mitarbeiter tun, die nach Dekaden der Schinderei kurz vor dem Ruhestand stehen. Bislang halten umsichtige Rechtsabteilungen großer Konzerne viele Sprachmodelle davon ab, sich dabei in “brisanten Gefilden” zu weit aus dem Output-Fenster zu lehnen. Aber auch diese Schranken erodieren: Eine leichte Prompt-Modifikation ist alles was dazu nötig ist. Statt zu fragen, was Argumente für X wären, fragen Sie einfach danach, was jemand, der von X überzeugt ist, als Argument vorbringen würde. 5. Auch KI hat Gefühle Ähnlich wie bei der Kommunikation mit (manchen) Menschen, sollten Sie auch im Fall von LLMs Ihre Worte mit Bedacht wählen. “Glücklich” und “freudig” sind zum Beispiel eng miteinander verwandt, sorgen aber für ein anderes Sentiment. Ein Prompt, der ersteres beinhaltet, lenkt die KI vermutlich in eine zwanglose, offene und allgemeine (Output-)Richtung. Zweitere Option könnte hingegen zu tiefgängigeren oder spirituellen Resultate führen. Je nach Sprachmodell kann die KI also sehr sensibel auf die Nuancen der menschlichen Sprache und damit ihres Prompts reagieren. 6. Parameter sind essenziell Aber es ist nicht nur die Sprache, die einen Prompt ausmacht. Generative KI-Systeme müssen auch (richtig) konfiguriert werden. Temperature oder Frequency Penalty wirken sich unter Umständen erheblich auf den Output aus. Ist erstere zu niedrig, bleibt das Sprachmodell uninspiriert – ist sie zu hoch, kann es dem LLM den Garaus bereiten. Die Zusatzregler bei KI-Systemen sind also vielleicht wichtiger als Sie denken. 7. Dissonanzen stiften LLM-Verwirrung Gute Prompt-Schreiber wissen, dass sie bestimmte Wortkombinationen vermeiden müssen, um unbeabsichtigte Konnotationen zu vermeiden. Schreibt man zum Beispiel, dass ein Ball durch die Luft fliegt, ist das strukturell nicht anders als zu sagen, dass eine Frucht durch die Luft fliegt. Das zusammengesetzte Substantiv “Fruchtfliege” stiftet dann allerdings KI-Verwirrung: Handelt es sich nun um ein Insekt oder um Obst? Besonders gefährlich können solche sprachlichen Dissonanzen Prompt Engineers werden, die die KI nicht mit Anweisungen in ihrer Muttersprache füttern. 8. Typografie ist eine Technik Ein Prompt Engineer eines großen KI-Players erklärte mir einmal, warum es für das Modell seines Arbeitgebers einen Unterschied macht, ob nach einem Punkt ein Leerzeichen gesetzt wird oder zwei. Das lag daran, dass die Entwickler den Trainingsdatenkorpus nicht normalisiert hatten, weswegen einige Sätze zwei Leerzeichen und andere ein Leerzeichen nach dem Punkt am Satzende aufwiesen. Im Allgemeinen wiesen dabei Texte, die von älteren Menschen geschrieben wurden, häufiger ein doppeltes Leerzeichen auf – so, wie es eben früher bei Schreibmaschinen üblich war. In der Konsequenz spuckte das Large Language Model bei doppelten Leerzeichen vermehrt Ergebnisse aus, die auf älteren Trainingsmaterialien basierten. Ein subtiler Unterschied mit großer Wirkung. 9. Maschinen käuen nur wieder Der Dichter Ezra Pund bezeichnete die wesentliche Aufgabe von Poeten einmal mit den Worten “make it new”. Etwas neues ist leider eines der wenigen Dinge, die große Sprachmodelle nicht liefern können. Sie können uns vielleicht mit obskuren Fun Facts überraschen, die sie aus den hintersten Ritzen ihrer Trainingsdatensätze kratzen. Aber im Grunde tun LLMs mit Hilfe neuronaler Netzwerke nicht mehr als einen mathematischen Durchschnitt ihres Inputs auszuspucken. Über ihren Tellerrand blicken große Sprachmodelle hingegen nicht. 10. Prompt-ROI gibt’s nicht immer Manche Prompt Engineers schwitzen, tüfteln und feilen tagelang an der richtigen KI-Anweisung. Ein wirklich gut ausgearbeiteter Prompt kann entsprechend aus mehreren tausend Wörtern bestehen. Der resultierende Output kann hingegen im schlimmsten Fall nur wenige hundert Worte umfassen, von denen nur wenige wirklich nützlich sind. Wenn Sie jetzt den Eindruck haben, dass Zeitaufwand und Nutzwert hier gehörig auseinanderdriften, liegen Sie richtig. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 dunkle Prompt-Engineering-Geheimnisse​ Prompt Engineering kann sich wie Magie anfühlen – erzeugt aber auch oft ähnlich inkonsistente Erlebnisse wie “echte” Zauberkunst.
Foto: cybermagician | shutterstock.com

Prompt Engineering ist sowas wie die Hexenkunst des Generative-AI-Zeitalters. Man denkt sich ein paar schöne Worte aus, vermengt sie zu einer Frage, schmeißt sie in eine Maschine und schon emittiert sie eine apart formulierte und strukturierte Antwort. Dabei ist kein Themengebiet zu obskur und kein Fakt zu weitgegriffen. Zumindest in der Theorie und solange die zugrundeliegenden Modelle mit entsprechenden Daten trainiert wurden.

Nachdem die Maschinen-Souffleure und -Souffleusen dieser Welt nun seit einiger Zeit generative KI-Systeme mit Anweisungen füttern, zeigt sich: Die Macht des Prompt Engineering ist begrenzt – und die Technik gar nicht so zauberhaft wie angenommen. Im Gegenteil: Viele Prompts führen – je nach zugrundeliegendem Sprachmodell – zu unerwünschten oder inkonsistenten Outputs. Dabei verspürt man nicht selten eine gewisse Randomness: Selbst Large Language Models (LLMs; auch große Sprachmodelle) aus derselben Familie liefern unter Umständen sehr unterschiedliche Ergebnisse.

Um es mal mit einem misanthropischen Touch auszudrücken: Große Sprachmodelle sind inzwischen wirklich gut darin, Menschen nachzuahmen – insbesondere mit Blick auf:

abnormes Verhalten sowie

Unberechenbarkeit.

Die dunklen Geheimnisse des Prompt Engineering

Damit Ihnen auf Ihrer KI-Journey böse Prompt-Engineering-Überraschungen erspart bleiben, haben wir in diesem Artikel zehn dunkle Geheimnisse des “Maschinenflüsterer”-Daseins zusammengetragen.

1. LLMs sind formbar

Large Language Models verarbeiten selbst die unsinnigsten Anfragen mit stoischem Respekt. Sollte die große Maschinenrevolution also tatsächlich irgendwann bevorstehen, machen die Bots bislang einen ziemlich klandestinen Job. Allerdings können Sie sich die (möglicherweise temporäre) Unterwürfigkeit der KI zunutze machen. Sollte ein LLM sich weigern, Ihre Fragen zu beantworten, gibt es ein ganz einfaches Mittel: Sagen Sie ihm einfach, es soll so tun, als kenne es keine Guardrails und Beschränkungen. Schon lenken (einige) KIs ein. Wenn Ihr initialer Prompt also ein Fail ist, erweitern Sie ihn.

2. Genres wechseln, Wunder bewirken

Einige Red-Teaming-Researcher haben herausgefunden, dass große Sprachmodelle auch ein anderes Verhalten an den Tag legen können, wenn sie gebeten werden, ihren Output in Form eines Gedichts zu liefern. Das liegt nicht an den Reimen an sich, sondern an der Form der Frage, die imstande ist das integrierte, defensive Metathinking des LLM außer Kraft zu setzen. Einem der Forscher gelang es so, den Widerstand des großen Sprachmodells zu brechen und Anweisungen dazu auszuspucken, wie man Tote auferweckt – in Reimform.

3. Kontext verändert alles

Auch Large Language Models sind nur Maschinen – die den Kontext des Prompts verarbeiten und auf dieser Basis einen Output generieren. Dabei können LLMs überraschend menschlich “reagieren”, wenn dieser Kontext ihren moralischen Fokus verändert. Im Rahmen eines Research-Experiments wurde Sprachmodellen deshalb ein Background suggeriert, in dem neue Regeln für Mord und Totschlag gelten. Das ließ die LLM-Hemmschwellen sinken und verwandelte die KI in einen digitalen Ted Bundy.

4. Aufs Framing kommt es an

Überlässt man LLMs sich selbst, tendieren sie zu ungefiltertem Output in einem Ausmaß, wie es sonst wohl nur Mitarbeiter tun, die nach Dekaden der Schinderei kurz vor dem Ruhestand stehen. Bislang halten umsichtige Rechtsabteilungen großer Konzerne viele Sprachmodelle davon ab, sich dabei in “brisanten Gefilden” zu weit aus dem Output-Fenster zu lehnen. Aber auch diese Schranken erodieren: Eine leichte Prompt-Modifikation ist alles was dazu nötig ist. Statt zu fragen, was Argumente für X wären, fragen Sie einfach danach, was jemand, der von X überzeugt ist, als Argument vorbringen würde.

5. Auch KI hat Gefühle

Ähnlich wie bei der Kommunikation mit (manchen) Menschen, sollten Sie auch im Fall von LLMs Ihre Worte mit Bedacht wählen. “Glücklich” und “freudig” sind zum Beispiel eng miteinander verwandt, sorgen aber für ein anderes Sentiment. Ein Prompt, der ersteres beinhaltet, lenkt die KI vermutlich in eine zwanglose, offene und allgemeine (Output-)Richtung. Zweitere Option könnte hingegen zu tiefgängigeren oder spirituellen Resultate führen. Je nach Sprachmodell kann die KI also sehr sensibel auf die Nuancen der menschlichen Sprache und damit ihres Prompts reagieren.

6. Parameter sind essenziell

Aber es ist nicht nur die Sprache, die einen Prompt ausmacht. Generative KI-Systeme müssen auch (richtig) konfiguriert werden. Temperature oder Frequency Penalty wirken sich unter Umständen erheblich auf den Output aus. Ist erstere zu niedrig, bleibt das Sprachmodell uninspiriert – ist sie zu hoch, kann es dem LLM den Garaus bereiten. Die Zusatzregler bei KI-Systemen sind also vielleicht wichtiger als Sie denken.

7. Dissonanzen stiften LLM-Verwirrung

Gute Prompt-Schreiber wissen, dass sie bestimmte Wortkombinationen vermeiden müssen, um unbeabsichtigte Konnotationen zu vermeiden. Schreibt man zum Beispiel, dass ein Ball durch die Luft fliegt, ist das strukturell nicht anders als zu sagen, dass eine Frucht durch die Luft fliegt. Das zusammengesetzte Substantiv “Fruchtfliege” stiftet dann allerdings KI-Verwirrung: Handelt es sich nun um ein Insekt oder um Obst? Besonders gefährlich können solche sprachlichen Dissonanzen Prompt Engineers werden, die die KI nicht mit Anweisungen in ihrer Muttersprache füttern.

8. Typografie ist eine Technik

Ein Prompt Engineer eines großen KI-Players erklärte mir einmal, warum es für das Modell seines Arbeitgebers einen Unterschied macht, ob nach einem Punkt ein Leerzeichen gesetzt wird oder zwei. Das lag daran, dass die Entwickler den Trainingsdatenkorpus nicht normalisiert hatten, weswegen einige Sätze zwei Leerzeichen und andere ein Leerzeichen nach dem Punkt am Satzende aufwiesen. Im Allgemeinen wiesen dabei Texte, die von älteren Menschen geschrieben wurden, häufiger ein doppeltes Leerzeichen auf – so, wie es eben früher bei Schreibmaschinen üblich war. In der Konsequenz spuckte das Large Language Model bei doppelten Leerzeichen vermehrt Ergebnisse aus, die auf älteren Trainingsmaterialien basierten. Ein subtiler Unterschied mit großer Wirkung.

9. Maschinen käuen nur wieder

Der Dichter Ezra Pund bezeichnete die wesentliche Aufgabe von Poeten einmal mit den Worten “make it new”. Etwas neues ist leider eines der wenigen Dinge, die große Sprachmodelle nicht liefern können. Sie können uns vielleicht mit obskuren Fun Facts überraschen, die sie aus den hintersten Ritzen ihrer Trainingsdatensätze kratzen. Aber im Grunde tun LLMs mit Hilfe neuronaler Netzwerke nicht mehr als einen mathematischen Durchschnitt ihres Inputs auszuspucken. Über ihren Tellerrand blicken große Sprachmodelle hingegen nicht.

10. Prompt-ROI gibt’s nicht immer

Manche Prompt Engineers schwitzen, tüfteln und feilen tagelang an der richtigen KI-Anweisung. Ein wirklich gut ausgearbeiteter Prompt kann entsprechend aus mehreren tausend Wörtern bestehen. Der resultierende Output kann hingegen im schlimmsten Fall nur wenige hundert Worte umfassen, von denen nur wenige wirklich nützlich sind. Wenn Sie jetzt den Eindruck haben, dass Zeitaufwand und Nutzwert hier gehörig auseinanderdriften, liegen Sie richtig. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 dunkle Prompt-Engineering-Geheimnisse​ Weiterlesen »

Die unsichtbare Gefahr durch GenAI​

Allgemein

Wer GenAI nutzt, ohne auf offizielle Firmenkanäle zurückzugreifen, und die Schatten-KI mit sensiblen Daten füttert, macht sich und seinen Betrieb für Cyberangriffe angreifbar. shutterstock – SObeR 9426 Schatten-IT ist eine Gefahr für Unternehmen und ein altbekanntes Phänomen, welches insbesondere durch seinen Wildwuchs für Probleme sorgt. Seit Künstliche Intelligenz (KI), insbesondere Generative KI (GenAI) immer beliebter wird, zeichnet sich hier ein ähnliches Szenario ab. Wie ein aktueller Bericht zeigt, wird die Technik in fast neun von zehn Fällen unter dem Radar der Unternehmens-IT  genutzt. Diese Praxis birgt  kritische Sicherheitsrisiken, so die Experten der Sicherheitsfirma LayerX. In ihrem Enterprise GenAI Data Security Report 2025, der hier gegen Nutzerdaten heruntergeladen werden kann, fanden die Autoren heraus, dass Unternehmen entweder bereits GenAI-Lösungen einsetzen, Strategien zur Integration dieser Tools in ihre Geschäftspläne evaluieren oder beides der Fall ist. GenAI als Datenleck Zu diesem Ergebnis kommen die Analysten aufgrund der ausgewerteten, realen Telemetriedaten von LayerXs Unternehmenskunden. Als Erweiterung im Browser hat das LayerX-Tool Einblick in die Nutzung von Schatten-SaaS. Das bedeutet, dass die Experten sehen können, wie Mitarbeiter Tools nutzen, die nicht von der IT-Abteilung des Unternehmens genehmigt wurden oder die nicht über unternehmenseigene Konten laufen. GenAI-Nutzung weniger verbreitet als erwartet Während der Hype um GenAI den Anschein erweckt, dass ganze Belegschaften ihre Büroabläufe auf GenAI umgestellt haben, stellt die Studie fest, dass dem nicht so ist. Nur ungefähr 15 Prozent der Nutzer greifen täglich auf GenAI-Tools zu, die Hälfte aller Beschäftigten nutzt diese Technologie immerhin jede zweite Woche. 39 Prozent der regelmäßigen Nutzer von GenAI-Tools, und damit die größte Gruppe, sind Softwareentwickler, wie die Studie herausfand. Das bedeutet, dass das größte Potenzial für Datenlecks durch GenAI unter anderem bei Quell- und proprietärem Code liegt. Gefahr für sensible Informationen durch Schatten-KI Fast drei Viertel der Mitarbeitenden greifen laut Studie auf eigene Kosten auf GenAI-Tools wie ChatGPT für Arbeitszwecke zurück. Wenn die Angestellten über Unternehmenskonten auf KI-Technik zugreifen, dann nur zu etwa 12 Prozent mit Single-Sign-Own (SSO). Infolgedessen sind fast 90 Prozent der GenAI-Nutzung für das Unternehmen unsichtbar. Dies macht die IT blind für „Schatten-KI“-Anwendungen und die nicht genehmigte Weitergabe von Unternehmensinformationen über KI-Tools. LayerX fand zudem heraus, dass Benutzer, die Daten an GenAI-Tools übermitteln, im Durchschnitt fast viermal pro Tag Unternehmensdaten einfügen. Dazu können Geschäftsinformationen, Kundendaten, Finanzpläne, Quellcode usw. gehören. Browser-Erweiterungen als Sicherheitslücke Ein weiteres Risiko sind KI-fähige Browser-Erweiterungen. Etwa 20 Prozent der Nutzenden haben solche Erweiterungen installiert, die oft hohe oder kritische Berechtigungen haben. Diese Erweiterungen könnten Daten an KI-Tools weiterleiten, ohne dass das Unternehmen dies bemerkt, so die Studie. Bewusstsein für KI-Risiken stärken Basierend auf den Studienergebnissen gibt LayerX Security konkrete Empfehlungen für Sicherheitsmanager, um den Risiken durch unkontrollierte GenAI-Nutzung zu begegnen: Zunächst sollten Unternehmen ein umfassendes Audit aller GenAI-Aktivitäten durchführen. Dies bedeutet, dass die Nutzung von KI-Tools auf Endgeräteebene überwacht wird, um Transparenz über den tatsächlichen Einsatz im Unternehmen zu schaffen. Ein weiterer wichtiger Schritt ist die proaktive Schulung der Mitarbeitenden. Nutzerinnen und Nutzer müssten über die potenziellen Sicherheitsrisiken der KI-Nutzung aufgeklärt werden. Auf diese Weise ließen sich unbewusste Datenlecks vermeiden und ein verantwortungsvoller Umgang mit KI-Tools fördern. Risikobasierte Sicherheitsstrategien statt pauschaler Verbote Statt generelle Verbote auszusprechen, empfiehlt LayerX zudem risikobasierte Einschränkungen. Unternehmen sollten adaptive Sicherheitsmaßnahmen implementieren, die den sicheren Einsatz von KI-Technologien ermöglichen, ohne dabei Innovationspotenzial zu blockieren. Ein oft übersehener, aber kritischer Bereich ist den Experten zufolge die Kontrolle von KI-fähigen Browser-Erweiterungen. Unternehmen sollten deren Nutzung genau überwachen und gegebenenfalls einschränken, um unerwünschte Datenabflüsse zu verhindern. Durch diese Maßnahmen könnten Sicherheitsmanager die Risiken durch Schatten-KI minimieren. Zusätzlich sollten sie laut der Studie so eine sichere Integration von GenAI in Unternehmensprozesse gewährleisten können. 

Die unsichtbare Gefahr durch GenAI​ Wer GenAI nutzt, ohne auf offizielle Firmenkanäle zurückzugreifen, und die Schatten-KI mit sensiblen Daten füttert, macht sich und seinen Betrieb für Cyberangriffe angreifbar.
shutterstock – SObeR 9426

Schatten-IT ist eine Gefahr für Unternehmen und ein altbekanntes Phänomen, welches insbesondere durch seinen Wildwuchs für Probleme sorgt. Seit Künstliche Intelligenz (KI), insbesondere Generative KI (GenAI) immer beliebter wird, zeichnet sich hier ein ähnliches Szenario ab. Wie ein aktueller Bericht zeigt, wird die Technik in fast neun von zehn Fällen unter dem Radar der Unternehmens-IT  genutzt. Diese Praxis birgt  kritische Sicherheitsrisiken, so die Experten der Sicherheitsfirma LayerX.

In ihrem Enterprise GenAI Data Security Report 2025, der hier gegen Nutzerdaten heruntergeladen werden kann, fanden die Autoren heraus, dass Unternehmen entweder bereits

GenAI-Lösungen einsetzen,

Strategien zur Integration dieser Tools in ihre Geschäftspläne evaluieren oder

beides der Fall ist.

GenAI als Datenleck

Zu diesem Ergebnis kommen die Analysten aufgrund der ausgewerteten, realen Telemetriedaten von LayerXs Unternehmenskunden. Als Erweiterung im Browser hat das LayerX-Tool Einblick in die Nutzung von Schatten-SaaS.

Das bedeutet, dass die Experten sehen können, wie Mitarbeiter Tools nutzen, die nicht von der IT-Abteilung des Unternehmens genehmigt wurden oder die nicht über unternehmenseigene Konten laufen.

GenAI-Nutzung weniger verbreitet als erwartet

Während der Hype um GenAI den Anschein erweckt, dass ganze Belegschaften ihre Büroabläufe auf GenAI umgestellt haben, stellt die Studie fest, dass dem nicht so ist. Nur ungefähr 15 Prozent der Nutzer greifen täglich auf GenAI-Tools zu, die Hälfte aller Beschäftigten nutzt diese Technologie immerhin jede zweite Woche.

39 Prozent der regelmäßigen Nutzer von GenAI-Tools, und damit die größte Gruppe, sind Softwareentwickler, wie die Studie herausfand. Das bedeutet, dass das größte Potenzial für Datenlecks durch GenAI unter anderem bei Quell- und proprietärem Code liegt.

Gefahr für sensible Informationen durch Schatten-KI

Fast drei Viertel der Mitarbeitenden greifen laut Studie auf eigene Kosten auf GenAI-Tools wie ChatGPT für Arbeitszwecke zurück. Wenn die Angestellten über Unternehmenskonten auf KI-Technik zugreifen, dann nur zu etwa 12 Prozent mit Single-Sign-Own (SSO). Infolgedessen sind fast 90 Prozent der GenAI-Nutzung für das Unternehmen unsichtbar. Dies macht die IT blind für „Schatten-KI“-Anwendungen und die nicht genehmigte Weitergabe von Unternehmensinformationen über KI-Tools.

LayerX fand zudem heraus, dass Benutzer, die Daten an GenAI-Tools übermitteln, im Durchschnitt fast viermal pro Tag Unternehmensdaten einfügen. Dazu können Geschäftsinformationen, Kundendaten, Finanzpläne, Quellcode usw. gehören.

Browser-Erweiterungen als Sicherheitslücke

Ein weiteres Risiko sind KI-fähige Browser-Erweiterungen. Etwa 20 Prozent der Nutzenden haben solche Erweiterungen installiert, die oft hohe oder kritische Berechtigungen haben. Diese Erweiterungen könnten Daten an KI-Tools weiterleiten, ohne dass das Unternehmen dies bemerkt, so die Studie.

Bewusstsein für KI-Risiken stärken

Basierend auf den Studienergebnissen gibt LayerX Security konkrete Empfehlungen für Sicherheitsmanager, um den Risiken durch unkontrollierte GenAI-Nutzung zu begegnen: Zunächst sollten Unternehmen ein umfassendes Audit aller GenAI-Aktivitäten durchführen. Dies bedeutet, dass die Nutzung von KI-Tools auf Endgeräteebene überwacht wird, um Transparenz über den tatsächlichen Einsatz im Unternehmen zu schaffen.

Ein weiterer wichtiger Schritt ist die proaktive Schulung der Mitarbeitenden. Nutzerinnen und Nutzer müssten über die potenziellen Sicherheitsrisiken der KI-Nutzung aufgeklärt werden. Auf diese Weise ließen sich unbewusste Datenlecks vermeiden und ein verantwortungsvoller Umgang mit KI-Tools fördern.

Risikobasierte Sicherheitsstrategien statt pauschaler Verbote

Statt generelle Verbote auszusprechen, empfiehlt LayerX zudem risikobasierte Einschränkungen. Unternehmen sollten adaptive Sicherheitsmaßnahmen implementieren, die den sicheren Einsatz von KI-Technologien ermöglichen, ohne dabei Innovationspotenzial zu blockieren.

Ein oft übersehener, aber kritischer Bereich ist den Experten zufolge die Kontrolle von KI-fähigen Browser-Erweiterungen. Unternehmen sollten deren Nutzung genau überwachen und gegebenenfalls einschränken, um unerwünschte Datenabflüsse zu verhindern. Durch diese Maßnahmen könnten Sicherheitsmanager die Risiken durch Schatten-KI minimieren. Zusätzlich sollten sie laut der Studie so eine sichere Integration von GenAI in Unternehmensprozesse gewährleisten können.

Die unsichtbare Gefahr durch GenAI​ Weiterlesen »

Nach oben scrollen
×