Computerhaus Quickborn

Juni 2025

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​

Allgemein

Bewertungsportale für Arbeitgeber spielen im Employer Branding eine immer wichtigere Rolle. Für Unternehmen kann die neue Transparenz im Netz Segen und Fluch zugleich sein. Firmen sollten einen Notfallplan haben, um im Netz angemessen auf Kritik reagieren zu können. Im Netz fallen die Bewertungen der Arbeitgeber nicht immer positiv aus. Unternehmen müssen sich dessen bewusst sein und konstruktiv mit der Kritik umgehen, um ihr Image aufzupolieren. Foto: aquarius83men – shutterstock.comVergleichs- und Bewertungsportale schießen wie Pilze aus dem Boden. Ob für Hotels, Restaurants, Handy-, Strom- und Versicherungstarife – oder eben für Unternehmen als Arbeitgeber. Bewerbungsverfahren, Arbeitsatmosphäre, Gehalt, Karrierechancen: In Erfahrungsberichten legen ehemalige oder noch aktive Mitarbeiter die Karten auf den Tisch und geben einen ersten Eindruck, ob sich eine Bewerbung lohnen könnte.Zumindest können Bewertungen im Netz die öffentliche Wahrnehmung stark prägen. Bewertungsportale für Arbeitgeber spielen im Bereich Employer Branding eine immer wichtigere Rolle. Kununu.com, 2007 gegründet und 2013 vom beruflichen Netzwerk Xing übernommen, gilt derzeit als Marktführer im deutschsprachigen Raum.Employer Branding hat seinen Preis Für Unternehmen ist die neue Transparenz im Netz dabei Segen und Fluch zugleich. Die Möglichkeiten, die eigene Unternehmensmarke öffentlich attraktiv zu präsentieren, das Image aufzupolieren und das Recruiting zu pushen, sind vielfältig. Es fließt viel Geld ins Employer Branding. Doch je transparenter man sich darstellt, desto angreifbarer wird man.Und natürlich fallen die Bewertungen nicht immer positiv aus. Dessen müssen sich Arbeitgeber bewusst sein und mit den Konsequenzen leben. Oder zumindest professionell auf die kritischen Stimmen reagieren. Wird ein Unternehmen einmal öffentlich inspiziert und werden interne Missstände aufgedeckt, die potenzielle Bewerber möglicherweise abschrecken, kann es schwerfallen, mit der Kritik – sie mag berechtigt sein oder nicht – konstruktiv umzugehen. Deshalb soll ein Notfallplan, sozusagen ein Erste-Hilfe-Kasten für Image-Krisenfälle, Hinweise geben, wie Arbeitgeber reagieren können. Bei andauernden und größeren Schäden sollte trotzdem unbedingt ein erfahrenes Team herangezogen werden, um die Situation professionell zu bewältigen.Sieben Tipps, wie Sie auf Kritik in Mitarbeiterportalen reagieren Employer Branding: Wie Sie die Unternehmensmarke schützenEmployer Branding: Wie Sie die Unternehmensmarke schützen Foto: PhuShutter – shutterstock.comArbeitgeber müssen reagieren, wenn sich aktive und ehemalige Beschäftigte negativ in Mitarbeiterportalen wie Kununu äußern. Hier finden Sie sieben Tipps, zusammengestellt von der Agentur Maisberger.Tipp 1 Foto: Ollyy – shutterstock.comStellung nehmen! Wegducken und ignorieren ist keine Lösung! Nutzen Sie die Möglichkeit, wie etwa auf Kununu, zu einzelnen Bewertungen Stellung zu beziehen.Tipp 2 Foto: Brian A Jackson – shutterstock.comReagieren Sie zügig – aber nehmen Sie sich trotzdem die nötige Zeit. Prüfen Sie intern gründlich die Ursachen für die Bewertung und formulieren Sie Ihre Stellungnahme mit Bedacht.Tipp 3 Foto: keport – shutterstock.comIndividuelle Reaktion auf individuelle Kritik: Beziehen Sie sich in Ihrer Antwort explizit auf das Anliegen des Verfassers. Mit vorgefertigten Antworten gießen Sie nur Öl ins Feuer!Tipp 4 Foto: keport – shutterstock.comBewertungen wertschätzen: Jede Kritik – sofern konstruktiv – birgt für Sie die Chance, sich zu verbessern. Äußern Sie daher stets auch Ihren Dank für die Bewertung.Tipp 5 Foto: keport – shutterstock.comSchuld haben nicht die anderen – die Kritik richtet sich an Sie! Fokussieren Sie sich auf die Lösung des Problems und nicht auf die Suche nach dem vermeintlichen Verursacher.Tipp 6 Foto: Yeexin Richelle – shutterstock.comDiskussionen im Netz können ausufern. Wenn ein Aufklärungsversuch aussichtslos ist, ziehen Sie einen Schlussstrich und lassen Sie sich nicht provozieren.Tipp 7 Foto: designer491 – shutterstock.comAnalysieren und monitoren! Je mehr Sie die Stimmen im Netz im Blick haben, desto besser können Sie sich ein Bild von der öffentlichen Meinung zu Ihrem Unternehmen machen. 

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​ Bewertungsportale für Arbeitgeber spielen im Employer Branding eine immer wichtigere Rolle.

Für Unternehmen kann die neue Transparenz im Netz Segen und Fluch zugleich sein.

Firmen sollten einen Notfallplan haben, um im Netz angemessen auf Kritik reagieren zu können.

Im Netz fallen die Bewertungen der Arbeitgeber nicht immer positiv aus. Unternehmen müssen sich dessen bewusst sein und konstruktiv mit der Kritik umgehen, um ihr Image aufzupolieren.
Foto: aquarius83men – shutterstock.comVergleichs- und Bewertungsportale schießen wie Pilze aus dem Boden. Ob für Hotels, Restaurants, Handy-, Strom- und Versicherungstarife – oder eben für Unternehmen als Arbeitgeber. Bewerbungsverfahren, Arbeitsatmosphäre, Gehalt, Karrierechancen: In Erfahrungsberichten legen ehemalige oder noch aktive Mitarbeiter die Karten auf den Tisch und geben einen ersten Eindruck, ob sich eine Bewerbung lohnen könnte.Zumindest können Bewertungen im Netz die öffentliche Wahrnehmung stark prägen. Bewertungsportale für Arbeitgeber spielen im Bereich Employer Branding eine immer wichtigere Rolle. Kununu.com, 2007 gegründet und 2013 vom beruflichen Netzwerk Xing übernommen, gilt derzeit als Marktführer im deutschsprachigen Raum.Employer Branding hat seinen Preis Für Unternehmen ist die neue Transparenz im Netz dabei Segen und Fluch zugleich. Die Möglichkeiten, die eigene Unternehmensmarke öffentlich attraktiv zu präsentieren, das Image aufzupolieren und das Recruiting zu pushen, sind vielfältig. Es fließt viel Geld ins Employer Branding. Doch je transparenter man sich darstellt, desto angreifbarer wird man.Und natürlich fallen die Bewertungen nicht immer positiv aus. Dessen müssen sich Arbeitgeber bewusst sein und mit den Konsequenzen leben. Oder zumindest professionell auf die kritischen Stimmen reagieren. Wird ein Unternehmen einmal öffentlich inspiziert und werden interne Missstände aufgedeckt, die potenzielle Bewerber möglicherweise abschrecken, kann es schwerfallen, mit der Kritik – sie mag berechtigt sein oder nicht – konstruktiv umzugehen. Deshalb soll ein Notfallplan, sozusagen ein Erste-Hilfe-Kasten für Image-Krisenfälle, Hinweise geben, wie Arbeitgeber reagieren können. Bei andauernden und größeren Schäden sollte trotzdem unbedingt ein erfahrenes Team herangezogen werden, um die Situation professionell zu bewältigen.Sieben Tipps, wie Sie auf Kritik in Mitarbeiterportalen reagieren Employer Branding: Wie Sie die Unternehmensmarke schützenEmployer Branding: Wie Sie die Unternehmensmarke schützen
Foto: PhuShutter – shutterstock.comArbeitgeber müssen reagieren, wenn sich aktive und ehemalige Beschäftigte negativ in Mitarbeiterportalen wie Kununu äußern. Hier finden Sie sieben Tipps, zusammengestellt von der Agentur Maisberger.Tipp 1
Foto: Ollyy – shutterstock.comStellung nehmen! Wegducken und ignorieren ist keine Lösung! Nutzen Sie die Möglichkeit, wie etwa auf Kununu, zu einzelnen Bewertungen Stellung zu beziehen.Tipp 2
Foto: Brian A Jackson – shutterstock.comReagieren Sie zügig – aber nehmen Sie sich trotzdem die nötige Zeit. Prüfen Sie intern gründlich die Ursachen für die Bewertung und formulieren Sie Ihre Stellungnahme mit Bedacht.Tipp 3
Foto: keport – shutterstock.comIndividuelle Reaktion auf individuelle Kritik: Beziehen Sie sich in Ihrer Antwort explizit auf das Anliegen des Verfassers. Mit vorgefertigten Antworten gießen Sie nur Öl ins Feuer!Tipp 4
Foto: keport – shutterstock.comBewertungen wertschätzen: Jede Kritik – sofern konstruktiv – birgt für Sie die Chance, sich zu verbessern. Äußern Sie daher stets auch Ihren Dank für die Bewertung.Tipp 5
Foto: keport – shutterstock.comSchuld haben nicht die anderen – die Kritik richtet sich an Sie! Fokussieren Sie sich auf die Lösung des Problems und nicht auf die Suche nach dem vermeintlichen Verursacher.Tipp 6
Foto: Yeexin Richelle – shutterstock.comDiskussionen im Netz können ausufern. Wenn ein Aufklärungsversuch aussichtslos ist, ziehen Sie einen Schlussstrich und lassen Sie sich nicht provozieren.Tipp 7
Foto: designer491 – shutterstock.comAnalysieren und monitoren! Je mehr Sie die Stimmen im Netz im Blick haben, desto besser können Sie sich ein Bild von der öffentlichen Meinung zu Ihrem Unternehmen machen.

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​ Weiterlesen »

Wie Sie den Compliance-Durchblick behalten​

Allgemein

loading=”lazy” width=”400px”>Sich in den Regelwerken der EU zurechtzufinden, ist oft gar nicht so einfach.alphaspirit – shutterstock.com Die EU hat in den vergangenen Jahren zahlreiche Gesetze verabschiedet, die Unternehmen dazu verpflichten, bestimmte Compliance-Regeln im Digitalbereich einzuhalten. Dazu gehören unter anderem die Datenschutzgrundverordnung (DSGVO), die KI-Verordnung (AI Act), die NIS-2-Richtlinie, der EU Data Act, die DORA-Verordnung und der Cyber Resilience Act (CRA). NIS2, DORA, Data Act & Co.: Die wichtigsten Security-Gesetze im Überblick All diese Gesetze zielen darauf ab, den Schutz von Daten, die Sicherheit von IT-Systemen und die Transparenz im Umgang mit digitalen Technologien sicherstellen. Doch einige dieser Vorschriften haben ähnliche oder sogar identische Anforderungen. Redundante Compliance-Pflichten Der Branchenverband Bitkom hat vor Kurzem ein Diskussionspapier vorgestellt, mit dem Titel „Digitalgesetzgebung der EU: Konfliktzonen und Wege zur Kohärenz“, das diese Redundanzen untersucht und zugleich erste praktische Lösungsansätze anbietet. In dem Papier werden mehrere Bereiche identifiziert, in denen sich Compliance-Pflichten verschiedener EU-Gesetze überschneiden: 1. Dokumentationspflichten Sowohl die DSGVO als auch die KI-Verordnung verlangen umfassende Dokumentationen. Das Verzeichnis der Verarbeitungstätigkeiten nach der DSGVO und die Risikobewertung sowie das Post-Market-Monitoring nach der KI-Verordnung verfolgen ähnliche Ziele. Unternehmen können hier durch eine zentrale Dokumentation, die den Anforderungen beider Gesetze gerecht wird, effizienter arbeiten. 2. Risikomanagement Auch die Datenschutzfolgenabschätzung nach Art. 35 DSGVO und die Risikobewertung nach Art. 2 Abs. 7 KI-Verordnung haben viele Überschneidungen. Zudem erkennen einige der EU-Digitalgesetze an, dass die Erfüllung der IT-Sicherheitsanforderungen nach anderen EU-Gesetzen zumindest teilweise die Vermutung auslöst, dass auch die Anforderungen der neuen Gesetze erfüllt sind. Unternehmen können hier ein einheitliches Risikomanagementsystem entwickeln, das die Anforderungen aller relevanten Gesetze abdeckt. 3. Meldepflichten für IT-Sicherheitsstörfälle Unterschiedliche Gesetze wie die DSGVO, die KI-Verordnung, die NIS-2-Richtlinie, der Cyber Resilience Act und die ePrivacy-Richtlinie verlangen Meldungen an unterschiedliche Behörden und haben unterschiedliche Meldefristen. Unternehmen sollten hier, soweit möglich, einheitliche Meldeprozesse etablieren und klare Verantwortlichkeiten definieren, um die Effizienz zu steigern und doppelte Arbeit oder gar widersprüchliche Meldeprozesse zu vermeiden. 4. IT-Sicherheitsstandards Anforderungen an den IT-Sicherheitsstandard sind in Art. 32 DSGVO, Art. 15 KI-Verordnung sowie der NIS-2-Richtlinie und der DORA-Verordnung teilweise überlappend oder gar identisch. Unternehmen sollten daher einen Mindest-Sicherheitsstandard wählen und in die Praxis umsetzen, der alle diese Anforderungen gleichzeitig erfüllt, um die Implementierung zu vereinfachen. Das beinhaltet auch die einheitliche und regelmäßige Weiterentwicklung nach dem jeweils aktuellen Stand der Technik. 5. Benennung eines EU-Vertreters Unternehmen ohne Sitz oder Niederlassung in der EU müssen einen Vertreter benennen, der als Ansprechpartner für Aufsichtsbehörden und Betroffene fungiert. Dies wird sowohl von der DSGVO, der KI-Verordnung, dem Cyber Resilience Act als auch der NIS-2-Richtlinie verlangt. Hier können Unternehmen einen Vertreter für mehrere Bereiche betrauen und ihn entsprechend in allen Registern benennen. Beispiele aus der Praxis Ein praktisches Beispiel für die effiziente Nutzung redundanter Compliance-Pflichten ist die Datenschutzfolgenabschätzung, die viele Unternehmen aktuell für den Einsatz von Microsoft Copilot durchführen. Die DSGVO-Dokumentationshilfen des Herstellers Microsoft unterstützen dabei, und sind zugleich hilfreich, um die Dokumentationspflichten als KI-Betreiber nach der KI-Verordnung zu erfüllen. Ein weiteres Beispiel sind die Empfehlungen des Bundesamts für Sicherheit in der Informationstechnik (BSI) zum aktuellen Stand der Technik für IT-Sicherheit. Diese Empfehlungen lassen sich für alle relevanten Digitalgesetze anwenden und bieten eine solide Grundlage für die Umsetzung der IT-Sicherheitsanforderungen. Die Umsetzungsempfehlungen der EU-Kommission zum Risikomanagement nach der NIS-2-Richtlinie bieten praxistaugliche Hilfestellungen, um die Anforderungen an das Risikomanagement in der IT-Sicherheit zu erfüllen. Darüber hinaus sind die Leitlinien des Europäischen Datenschutzausschusses zu den Meldepflichten nach der DSGVO ebenfalls hilfreich, um alle anderen Meldeprozesse zu strukturieren und effizient zu gestalten. Vorschriften vereinheitlichen und harmonisieren Der Bitkom weist darauf hin, dass die Überschneidungen und Doppelregelungen sowie uneinheitliche Begriffsdefinitionen zu Rechtsunsicherheit und erhöhtem Verwaltungsaufwand führen können. Um diese Herausforderungen zu bewältigen, empfiehlt der Verband unter anderem: • Einheitliche Definitionen: Die EU sollte klare und einheitliche Begriffsdefinitionen verwenden, um Verwirrungen zu vermeiden. • Gemeinsame Praxishandreichungen und Leitfäden: Die EU-Kommission könnte Leitfäden und Handreichungen bereitstellen, die die Umsetzung der verschiedenen Gesetze erleichtern und die Kohärenz fördern. •  Auflösung der Konkurrenz der gesetzlichen Regelungen: Durch Harmonisierung der Vorschriften könnten Unternehmen die Anforderungen effizienter erfüllen und Rechtsunsicherheiten minimieren. Fazit: Compliance einfacher und effizienter machen Für Unternehmer, Geschäftsführer, Vorstände und IT-Leiter kann es hilfreich sein, die Übereinstimmungen in den relevanten Digitalgesetzen zu identifizieren und dementsprechend vorhandene Compliance-Prozesse, Verantwortlichkeiten und Dokumentationen zusammenzuführen. Effizienzen hier besser zu nutzen, kann den Implementierungsaufwand erheblich reduzieren und die Einhaltung der gesetzlichen Anforderungen erleichtern. Durch eine enge Zusammenarbeit von Compliance-Teams aus den Bereichen Recht und IT sowie bei Bedarf externen Experten lässt sich die Umsetzung der EU-Digitalgesetze effizient und rechtssicher gestalten. Unternehmen können so nicht nur die Herausforderungen der neuen EU-Digitalgesetze meistern, sondern auch Wettbewerbsvorteile erzielen. (ba) 

Wie Sie den Compliance-Durchblick behalten​ loading=”lazy” width=”400px”>Sich in den Regelwerken der EU zurechtzufinden, ist oft gar nicht so einfach.alphaspirit – shutterstock.com

Die EU hat in den vergangenen Jahren zahlreiche Gesetze verabschiedet, die Unternehmen dazu verpflichten, bestimmte Compliance-Regeln im Digitalbereich einzuhalten. Dazu gehören unter anderem die Datenschutzgrundverordnung (DSGVO), die KI-Verordnung (AI Act), die NIS-2-Richtlinie, der EU Data Act, die DORA-Verordnung und der Cyber Resilience Act (CRA).

NIS2, DORA, Data Act & Co.: Die wichtigsten Security-Gesetze im Überblick

All diese Gesetze zielen darauf ab, den Schutz von Daten, die Sicherheit von IT-Systemen und die Transparenz im Umgang mit digitalen Technologien sicherstellen. Doch einige dieser Vorschriften haben ähnliche oder sogar identische Anforderungen.

Redundante Compliance-Pflichten

Der Branchenverband Bitkom hat vor Kurzem ein Diskussionspapier vorgestellt, mit dem Titel „Digitalgesetzgebung der EU: Konfliktzonen und Wege zur Kohärenz“, das diese Redundanzen untersucht und zugleich erste praktische Lösungsansätze anbietet. In dem Papier werden mehrere Bereiche identifiziert, in denen sich Compliance-Pflichten verschiedener EU-Gesetze überschneiden:

1. Dokumentationspflichten

Sowohl die DSGVO als auch die KI-Verordnung verlangen umfassende Dokumentationen. Das Verzeichnis der Verarbeitungstätigkeiten nach der DSGVO und die Risikobewertung sowie das Post-Market-Monitoring nach der KI-Verordnung verfolgen ähnliche Ziele. Unternehmen können hier durch eine zentrale Dokumentation, die den Anforderungen beider Gesetze gerecht wird, effizienter arbeiten.

2. Risikomanagement

Auch die Datenschutzfolgenabschätzung nach Art. 35 DSGVO und die Risikobewertung nach Art. 2 Abs. 7 KI-Verordnung haben viele Überschneidungen. Zudem erkennen einige der EU-Digitalgesetze an, dass die Erfüllung der IT-Sicherheitsanforderungen nach anderen EU-Gesetzen zumindest teilweise die Vermutung auslöst, dass auch die Anforderungen der neuen Gesetze erfüllt sind. Unternehmen können hier ein einheitliches Risikomanagementsystem entwickeln, das die Anforderungen aller relevanten Gesetze abdeckt.

3. Meldepflichten für IT-Sicherheitsstörfälle

Unterschiedliche Gesetze wie die DSGVO, die KI-Verordnung, die NIS-2-Richtlinie, der Cyber Resilience Act und die ePrivacy-Richtlinie verlangen Meldungen an unterschiedliche Behörden und haben unterschiedliche Meldefristen. Unternehmen sollten hier, soweit möglich, einheitliche Meldeprozesse etablieren und klare Verantwortlichkeiten definieren, um die Effizienz zu steigern und doppelte Arbeit oder gar widersprüchliche Meldeprozesse zu vermeiden.

4. IT-Sicherheitsstandards

Anforderungen an den IT-Sicherheitsstandard sind in Art. 32 DSGVO, Art. 15 KI-Verordnung sowie der NIS-2-Richtlinie und der DORA-Verordnung teilweise überlappend oder gar identisch. Unternehmen sollten daher einen Mindest-Sicherheitsstandard wählen und in die Praxis umsetzen, der alle diese Anforderungen gleichzeitig erfüllt, um die Implementierung zu vereinfachen. Das beinhaltet auch die einheitliche und regelmäßige Weiterentwicklung nach dem jeweils aktuellen Stand der Technik.

5. Benennung eines EU-Vertreters

Unternehmen ohne Sitz oder Niederlassung in der EU müssen einen Vertreter benennen, der als Ansprechpartner für Aufsichtsbehörden und Betroffene fungiert. Dies wird sowohl von der DSGVO, der KI-Verordnung, dem Cyber Resilience Act als auch der NIS-2-Richtlinie verlangt. Hier können Unternehmen einen Vertreter für mehrere Bereiche betrauen und ihn entsprechend in allen Registern benennen.

Beispiele aus der Praxis

Ein praktisches Beispiel für die effiziente Nutzung redundanter Compliance-Pflichten ist die Datenschutzfolgenabschätzung, die viele Unternehmen aktuell für den Einsatz von Microsoft Copilot durchführen. Die DSGVO-Dokumentationshilfen des Herstellers Microsoft unterstützen dabei, und sind zugleich hilfreich, um die Dokumentationspflichten als KI-Betreiber nach der KI-Verordnung zu erfüllen.

Ein weiteres Beispiel sind die Empfehlungen des Bundesamts für Sicherheit in der Informationstechnik (BSI) zum aktuellen Stand der Technik für IT-Sicherheit. Diese Empfehlungen lassen sich für alle relevanten Digitalgesetze anwenden und bieten eine solide Grundlage für die Umsetzung der IT-Sicherheitsanforderungen.

Die Umsetzungsempfehlungen der EU-Kommission zum Risikomanagement nach der NIS-2-Richtlinie bieten praxistaugliche Hilfestellungen, um die Anforderungen an das Risikomanagement in der IT-Sicherheit zu erfüllen. Darüber hinaus sind die Leitlinien des Europäischen Datenschutzausschusses zu den Meldepflichten nach der DSGVO ebenfalls hilfreich, um alle anderen Meldeprozesse zu strukturieren und effizient zu gestalten.

Vorschriften vereinheitlichen und harmonisieren

Der Bitkom weist darauf hin, dass die Überschneidungen und Doppelregelungen sowie uneinheitliche Begriffsdefinitionen zu Rechtsunsicherheit und erhöhtem Verwaltungsaufwand führen können. Um diese Herausforderungen zu bewältigen, empfiehlt der Verband unter anderem:

• Einheitliche Definitionen: Die EU sollte klare und einheitliche Begriffsdefinitionen verwenden, um Verwirrungen zu vermeiden.

• Gemeinsame Praxishandreichungen und Leitfäden: Die EU-Kommission könnte Leitfäden und Handreichungen bereitstellen, die die Umsetzung der verschiedenen Gesetze erleichtern und die Kohärenz fördern.

•  Auflösung der Konkurrenz der gesetzlichen Regelungen: Durch Harmonisierung der Vorschriften könnten Unternehmen die Anforderungen effizienter erfüllen und Rechtsunsicherheiten minimieren.

Fazit: Compliance einfacher und effizienter machen

Für Unternehmer, Geschäftsführer, Vorstände und IT-Leiter kann es hilfreich sein, die Übereinstimmungen in den relevanten Digitalgesetzen zu identifizieren und dementsprechend vorhandene Compliance-Prozesse, Verantwortlichkeiten und Dokumentationen zusammenzuführen. Effizienzen hier besser zu nutzen, kann den Implementierungsaufwand erheblich reduzieren und die Einhaltung der gesetzlichen Anforderungen erleichtern. Durch eine enge Zusammenarbeit von Compliance-Teams aus den Bereichen Recht und IT sowie bei Bedarf externen Experten lässt sich die Umsetzung der EU-Digitalgesetze effizient und rechtssicher gestalten. Unternehmen können so nicht nur die Herausforderungen der neuen EU-Digitalgesetze meistern, sondern auch Wettbewerbsvorteile erzielen. (ba)

Wie Sie den Compliance-Durchblick behalten​ Weiterlesen »

KI in Deutschland: Fortschritt mit angezogener Handbremse?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?quality=50&strip=all 7000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Statt mit KI durchzustarten, gibt es häufig noch Hemmungen, die Technologie in aller Konsequenz zu verwenden.Sunshine Seeds – Shutterstock Deutsche Unternehmen und IT-Hypes – eine Paarung, die nur selten wohlgemeinte Diskussionen hervorruft. Von verschlafenen Trends, Bedenkenträgern und der ohnehin viel zu großen “German Angst” ist da oft die Rede.  Dass das Thema Künstliche Intelligenz auch so ein IT-Hype ist, muss wohl die Untertreibung des Jahrhunderts sein. Seit nunmehr fast drei Jahren gibt es um KI, respektive GenAI diskursiv kein Herumkommen mehr, was nun die Frage in den Raum wirft: Wo stehen eigentlich die Unternehmen in Deutschland? Wo geht die Reise hin – und dürfen die wenig schmeichelhaften Situationsbeschreibungen diesmal der Debatte fernbleiben? Diese Fragen diskutierten die Experten beim COMPUTERWOCHE-Roundtable zum Thema “KI-as-a-Service”. Informationen zu den Partner-Paketen der Studie “KI as a Service 2025” On-Prem vs. Cloud: Mehr als eine Frage der Datensouveränität Zunächst ist eines auffällig: Die Debatte Cloud vs. On-Premises, die vielleicht an anderer Stelle nicht mehr so laut wie noch vor einigen Jahren geführt wird, findet in der Diskussion um die Datenhoheit beim Einsatz von KI einen interessanten Nebenschauplatz.  Denn der Trend zur Multi-Cloud-, beziehungsweise Hybrid-Strategie scheint sich auch beim Thema KI durchzusetzen. Während allein die hohen Anforderungen an die Hardware das Einsetzen der Cloud aus Gründen der Performanz beinahe verpflichtend machen, erfordern je nach Branche diverse kritische Use Cases auch souveräne Lösungen, wie Enrico Gabriele, Head of Data & AI Consulting von STACKIT, erklärt: “So können Unternehmen ihre kritischen Daten in einer souveränen Umgebung, beispielsweise On-Premises oder in einer souveränen Cloud, hosten und ihre Modelle dort trainieren, aber die daraus gewonnenen Erkenntnisse mit diversen Cloud-Lösungen kombinieren.” Enrico Gabriele, STACKIT: “Mit dem Aufbau der AI-Literacy in den Fachabteilungen lässt sich sehr viel erreichen, denn diese verstehen oft ihre eigenen Prozesse, aber nicht, wie KI diese Prozesse weiter optimieren kann. Dazu ist jedoch auch wichtig, dass das Management das Thema für sich annimmt und greifbar macht, welche Möglichkeiten sich durch den Einsatz künstlicher Intelligenz ergeben.” STACKIT GmbH & Co. KG Doch auch unabhängig von Datenschutzbedenken gibt es gute Gründe, nicht nur auf öffentlich zugängliche Modelle zu setzen. “Jeder muss sich fragen: Wofür will ich die KI eigentlich einsetzen”, gibt Rudy Kuhn, Lead Evangelist von Celonis, zu bedenken. “Wenn die KI spezifische Prozesse in meinem Unternehmen verbessern soll, muss ich sie auch mit meinen Daten anlernen – sonst kann sie mir zu meinen Prozessen gar nichts sagen.” Erfolgsrezept: schnelle Erfolge, langfristige Visionen Sich zu lange in “Was wäre wenn”-Szenarien aufzuhalten, hät Tolga Erdogan, Director Architects Germany von Salesforce, für kontraproduktiv. Dazu entwickle sich das Technologieumfeld heute viel zu rapide, erklärt Erdogan: ,„Selbst die Researcher wissen nicht, was als Nächstes passiert. Eine Lösung, die auch in hundert Jahren noch funktioniert, kann es nicht geben.” Angesichts des wachsenden Wettbewerbs seien Unternehmen besser beraten, einfach anzufangen und so Erfahrungen mit KI zu sammeln. Erdogan appelliert auch an die anderen Experten und hebt hervor, dass Berater und Dienstleister durchaus mehr Mut ausstrahlen sollten, da die Unternehmen oft angesichts der Entwicklungsgeschwindigkeit überfordert seien. “Wir stehen vor fundamentalen Herausforderungen und könnten noch viel mehr erreichen.”  Dass KI jedoch gekommen ist, um zu bleiben, daran besteht kein Zweifel. Und auch die Berührungsängste scheinen nach und nach zu verschwinden – was wichtig ist, denn wegignorieren lässt sich die Technologie nicht mehr.  “Wenn sich Unternehmen dem Thema nicht stellen, heißt das noch lange nicht, dass KI nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert”, erklärt Daniel Lüttgau, Head of AI Development von statworx. Wenn Mitarbeiter mit den Tools ihre Arbeit erleichtern können, würden sie sie einsetzen, ob mit oder ohne Governance, ergänzt Lüttgau. “Damit entziehe ich mich nicht dem Thema selbst, sondern nur der Möglichkeit, es kontrolliert anzugehen.” Daniel Lüttgau, Statworx: „Wenn sich Unternehmen dem Thema KI nicht stellen, heißt das noch lange nicht, dass die Technologie nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert. Ein strategischer Governance-Ansatz ist ebenso essenziell wie die Verfügbarkeit sauberer Daten – beides sind große Herausforderungen, wenn man KI erfolgreich einsetzen will. Use-Case-getriebene Ansätze sind gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden.“ Statworx GmbH Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema KI as a Service führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Die selbstständig entscheidende KI ist (noch) Zukunftsmusik Horst Mundt, Databricks: “Viele Unternehmen befinden sich noch in der Experimentierphase, auch wenn es durchaus schon einzelne Fälle mit wirklich soliden Business Cases gibt. Während KI in den meisten Fällen als Entscheidungshilfe eingesetzt wird, sieht man in Einzelfällen mehr und mehr, dass KI selbst Entscheidungen trifft – dazu muss jedoch die Datenbasis stimmen. Daher sollten Unternehmen vor allem darauf achten, Datensilos aufzulösen.” Databricks GmbH Die gute Nachricht für die IT-Abteilung ist jedoch: Wer das Thema KI-Governance vorantreiben will, rennt bei der Finanzabteilung in der Regel offene Türen ein. “Mit dem KI-Hype werden meistens Effizienzsteigerungen verbunden. Das führt dazu, dass vor allem CFO-seitig oft ein besonders hohes Interesse an der Technologie besteht”, wirft Horst Mundt, Director Field Engineering von Databricks, in die Runde.  Die Bereitschaft, KI einzusetzen, ist also in vielen Unternehmen bereits vorhanden. Und doch gibt es oft nach wie vor noch Hemmungen, die Technologie in aller Konsequenz zu verwenden. Denn in der Phase, dass KI bereits völlig eigenständig Entscheidungen treffen darf, sind wir (noch nicht). Rudy Kuhn, Celonis: “KI geht nicht ohne Process Intelligence. Wenn Unternehmen das volle Potenzial künstlicher Intelligenz ausschöpfen wollen, müssen sie ihre eigenen Prozesse kennen und die KI genau damit anlernen. Dann wird künstliche Intelligenz mehr als nur ein Effizienztool – nämlich eine Art vollwertiger Mitarbeiter, der echte, datenbasierte Entscheidungen trifft.” Celonis SE “In der Regel wertet KI ganze Datensätze aus und liefert dann Entscheidungsvorschläge, oft sogar mit ausladender Begründung”, erklärt Rudy Kuhn. Die endgültige Entscheidung läge aber in den allermeisten Fällen noch bei menschlichen Mitarbeitern. Ob das einen konkreten Nutzen hat oder sich nicht eher was “für’s gute Gefühl” so verhält, ist fraglich. “Wenn in 99 Prozent der Fälle sowieso der Empfehlung gefolgt wird, kann man die Entscheidung auch komplett an die KI auslagern.” Kuhn hebt hervor, dass Unternehmen den größten Nutzen aus KI ziehen, wenn sie diese in Endkonsequenz wie einen vollwertigen Mitarbeiter einsetzen. Doch wieso erscheint es so vielen so wichtig, dass die endgültige Entscheidung bei einem Menschen liegt? Michael Bochmann, Chief Product & Technology Officer von DocuWare, sieht dies vor allem in der empfundenen Verantwortlichkeit begründet: “Kaum jemand würde in ein vollständig KI-gesteuertes Flugzeug steigen. Nicht, weil ein menschlicher Pilot weniger fehleranfällig wäre, sondern weil wir an diesen die Verantwortung abgeben können.” KI sei immer nur so gut wie die Daten, die ihr zur Verfügung stehen – dies sei jedoch bei den Mitarbeitenden ganz genauso. Tolga Erdogan, Salesforce: “Unternehmen sollten nicht auf eine perfekte und 100% zukunftssichere Lösung warten. Die kann es nicht geben. Statt sich also zu fragen, was nicht geht, ist es besser zu schauen, was geht – und dann einfach anzufangen. Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.” Salesforce.com Germany GmbH Tolga Erdogan hebt hervor, dass viele Unternehmen dazu neigen, zu viel auf einmal zu wollen und sich dadurch selbst zu lähmen – und schlägt vor, neue Technologie zunächst zu behandeln wie einen neuen Mitarbeiter. “Neuen Kollegen übertrage ich auch nicht direkt riesige Verantwortungsbereiche, sondern setze sie erstmal in kleinem, kontrollierten Rahmen ein”, erklärt Erdogan. So sollten Unternehmen auch mit KI verfahren. “Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.” Das kann jedoch nur gelingen, wenn die KI nicht an jeder Ecke auf veraltete, analoge Prozesse trifft. “Die digitale Transformation muss von beiden Seiten angegangen werden”, sagt Enrico Gabriele. “Das bedeutet einerseits, zu prüfen, wo sich KI im kleinen Rahmen gewinnbringend einsetzen lässt. Aber auch, die Digitalisierung als Gesamtorganisation voranzutreiben, um ganze Prozesse zu digitalisieren.” KI funktioniert nur mit der richtigen Datenbasis Und noch etwas ist unbedingte Voraussetzung für den erfolgreichen Einsatz von KI in Unternehmen: “KI lebt von Daten – und die müssen KI-ready sein”, betont Michael Bochmann. Hier sieht er bei vielen Unternehmen noch durchaus Nachholbedarf. “Wenn vertrauliche Daten nicht sauber klassifiziert sind, kann ein Mensch diese vielleicht noch als solche erkennen – eine KI kann das nicht.” Entsprechende Aufbereitung der Daten sei daher das A und O. Michael Bochmann, DocuWare: “Viele vergessen bei der Debatte um KI, dass es auch immer die menschliche Komponente benötigt – die Mitarbeitenden, die die KI bedienen. Es reicht nicht, einfach nur einen Service einzukaufen, sondern ich brauche intern ein Grundgerüst an Expertise, um das Potenzial voll auszuschöpfen. Das sollten Unternehmen bei der Kosten-Nutzen-Rechnung unbedingt bedenken.” DocuWare GmbH Auch Daniel Lüttgau sieht die Notwendigkeit für einen systemischen Ansatz: “Leuchtturmprojekte mit schnellem Erfolg sind sehr wichtig, um Akzeptanz zu schaffen. Aber die Herausforderung, saubere Daten für die KI zu haben, ist eine sehr große und fundamentale.” Use-Case-getriebene Ansätze seien gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden, da sonst schnell ein sehr teurer Wildwuchs an Einzellösungen entstehen könnte und Unternehmen an die Grenzen des Potenzials stoßen. Letztlich zeigt die Debatte vor allem eins: an Gesprächsbedarf mangelt es nicht – was jedoch als gutes Zeichen gewertet werden darf. Dass sich deutsche Unternehmen der Technologie zunehmend öffnen und nach Wegen suchen, sie gewinnbringend einzusetzen, mag angesichts der Verheißungen folgerichtig erscheinen, auch wenn viele Fragen offen bleiben. Berührungsängste bleiben, doch von echter Innovationsskepsis der Marke “German Angst” scheinen wir nicht mehr reden zu können – und das ist doch schon etwas. (mb) 

KI in Deutschland: Fortschritt mit angezogener Handbremse?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?quality=50&strip=all 7000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Statt mit KI durchzustarten, gibt es häufig noch Hemmungen, die Technologie in aller Konsequenz zu verwenden.Sunshine Seeds – Shutterstock

Deutsche Unternehmen und IT-Hypes – eine Paarung, die nur selten wohlgemeinte Diskussionen hervorruft. Von verschlafenen Trends, Bedenkenträgern und der ohnehin viel zu großen “German Angst” ist da oft die Rede. 

Dass das Thema Künstliche Intelligenz auch so ein IT-Hype ist, muss wohl die Untertreibung des Jahrhunderts sein. Seit nunmehr fast drei Jahren gibt es um KI, respektive GenAI diskursiv kein Herumkommen mehr, was nun die Frage in den Raum wirft: Wo stehen eigentlich die Unternehmen in Deutschland? Wo geht die Reise hin – und dürfen die wenig schmeichelhaften Situationsbeschreibungen diesmal der Debatte fernbleiben? Diese Fragen diskutierten die Experten beim COMPUTERWOCHE-Roundtable zum Thema “KI-as-a-Service”.

Informationen zu den Partner-Paketen der Studie “KI as a Service 2025”

On-Prem vs. Cloud: Mehr als eine Frage der Datensouveränität

Zunächst ist eines auffällig: Die Debatte Cloud vs. On-Premises, die vielleicht an anderer Stelle nicht mehr so laut wie noch vor einigen Jahren geführt wird, findet in der Diskussion um die Datenhoheit beim Einsatz von KI einen interessanten Nebenschauplatz. 

Denn der Trend zur Multi-Cloud-, beziehungsweise Hybrid-Strategie scheint sich auch beim Thema KI durchzusetzen. Während allein die hohen Anforderungen an die Hardware das Einsetzen der Cloud aus Gründen der Performanz beinahe verpflichtend machen, erfordern je nach Branche diverse kritische Use Cases auch souveräne Lösungen, wie Enrico Gabriele, Head of Data & AI Consulting von STACKIT, erklärt: “So können Unternehmen ihre kritischen Daten in einer souveränen Umgebung, beispielsweise On-Premises oder in einer souveränen Cloud, hosten und ihre Modelle dort trainieren, aber die daraus gewonnenen Erkenntnisse mit diversen Cloud-Lösungen kombinieren.”

Enrico Gabriele, STACKIT:
“Mit dem Aufbau der AI-Literacy in den Fachabteilungen lässt sich sehr viel erreichen, denn diese verstehen oft ihre eigenen Prozesse, aber nicht, wie KI diese Prozesse weiter optimieren kann. Dazu ist jedoch auch wichtig, dass das Management das Thema für sich annimmt und greifbar macht, welche Möglichkeiten sich durch den Einsatz künstlicher Intelligenz ergeben.”
STACKIT GmbH & Co. KG

Doch auch unabhängig von Datenschutzbedenken gibt es gute Gründe, nicht nur auf öffentlich zugängliche Modelle zu setzen. “Jeder muss sich fragen: Wofür will ich die KI eigentlich einsetzen”, gibt Rudy Kuhn, Lead Evangelist von Celonis, zu bedenken. “Wenn die KI spezifische Prozesse in meinem Unternehmen verbessern soll, muss ich sie auch mit meinen Daten anlernen – sonst kann sie mir zu meinen Prozessen gar nichts sagen.”

Erfolgsrezept: schnelle Erfolge, langfristige Visionen

Sich zu lange in “Was wäre wenn”-Szenarien aufzuhalten, hät Tolga Erdogan, Director Architects Germany von Salesforce, für kontraproduktiv. Dazu entwickle sich das Technologieumfeld heute viel zu rapide, erklärt Erdogan: ,„Selbst die Researcher wissen nicht, was als Nächstes passiert. Eine Lösung, die auch in hundert Jahren noch funktioniert, kann es nicht geben.” Angesichts des wachsenden Wettbewerbs seien Unternehmen besser beraten, einfach anzufangen und so Erfahrungen mit KI zu sammeln. Erdogan appelliert auch an die anderen Experten und hebt hervor, dass Berater und Dienstleister durchaus mehr Mut ausstrahlen sollten, da die Unternehmen oft angesichts der Entwicklungsgeschwindigkeit überfordert seien. “Wir stehen vor fundamentalen Herausforderungen und könnten noch viel mehr erreichen.” 

Dass KI jedoch gekommen ist, um zu bleiben, daran besteht kein Zweifel. Und auch die Berührungsängste scheinen nach und nach zu verschwinden – was wichtig ist, denn wegignorieren lässt sich die Technologie nicht mehr. 

“Wenn sich Unternehmen dem Thema nicht stellen, heißt das noch lange nicht, dass KI nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert”, erklärt Daniel Lüttgau, Head of AI Development von statworx. Wenn Mitarbeiter mit den Tools ihre Arbeit erleichtern können, würden sie sie einsetzen, ob mit oder ohne Governance, ergänzt Lüttgau. “Damit entziehe ich mich nicht dem Thema selbst, sondern nur der Möglichkeit, es kontrolliert anzugehen.”

Daniel Lüttgau, Statworx:
„Wenn sich Unternehmen dem Thema KI nicht stellen, heißt das noch lange nicht, dass die Technologie nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert. Ein strategischer Governance-Ansatz ist ebenso essenziell wie die Verfügbarkeit sauberer Daten – beides sind große Herausforderungen, wenn man KI erfolgreich einsetzen will. Use-Case-getriebene Ansätze sind gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden.“
Statworx GmbH

Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema KI as a Service führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Die selbstständig entscheidende KI ist (noch) Zukunftsmusik

Horst Mundt, Databricks:
“Viele Unternehmen befinden sich noch in der Experimentierphase, auch wenn es durchaus schon einzelne Fälle mit wirklich soliden Business Cases gibt. Während KI in den meisten Fällen als Entscheidungshilfe eingesetzt wird, sieht man in Einzelfällen mehr und mehr, dass KI selbst Entscheidungen trifft – dazu muss jedoch die Datenbasis stimmen. Daher sollten Unternehmen vor allem darauf achten, Datensilos aufzulösen.”
Databricks GmbH

Die gute Nachricht für die IT-Abteilung ist jedoch: Wer das Thema KI-Governance vorantreiben will, rennt bei der Finanzabteilung in der Regel offene Türen ein. “Mit dem KI-Hype werden meistens Effizienzsteigerungen verbunden. Das führt dazu, dass vor allem CFO-seitig oft ein besonders hohes Interesse an der Technologie besteht”, wirft Horst Mundt, Director Field Engineering von Databricks, in die Runde. 

Die Bereitschaft, KI einzusetzen, ist also in vielen Unternehmen bereits vorhanden. Und doch gibt es oft nach wie vor noch Hemmungen, die Technologie in aller Konsequenz zu verwenden. Denn in der Phase, dass KI bereits völlig eigenständig Entscheidungen treffen darf, sind wir (noch nicht).

Rudy Kuhn, Celonis:
“KI geht nicht ohne Process Intelligence. Wenn Unternehmen das volle Potenzial künstlicher Intelligenz ausschöpfen wollen, müssen sie ihre eigenen Prozesse kennen und die KI genau damit anlernen. Dann wird künstliche Intelligenz mehr als nur ein Effizienztool – nämlich eine Art vollwertiger Mitarbeiter, der echte, datenbasierte Entscheidungen trifft.”
Celonis SE

“In der Regel wertet KI ganze Datensätze aus und liefert dann Entscheidungsvorschläge, oft sogar mit ausladender Begründung”, erklärt Rudy Kuhn. Die endgültige Entscheidung läge aber in den allermeisten Fällen noch bei menschlichen Mitarbeitern. Ob das einen konkreten Nutzen hat oder sich nicht eher was “für’s gute Gefühl” so verhält, ist fraglich. “Wenn in 99 Prozent der Fälle sowieso der Empfehlung gefolgt wird, kann man die Entscheidung auch komplett an die KI auslagern.” Kuhn hebt hervor, dass Unternehmen den größten Nutzen aus KI ziehen, wenn sie diese in Endkonsequenz wie einen vollwertigen Mitarbeiter einsetzen.

Doch wieso erscheint es so vielen so wichtig, dass die endgültige Entscheidung bei einem Menschen liegt? Michael Bochmann, Chief Product & Technology Officer von DocuWare, sieht dies vor allem in der empfundenen Verantwortlichkeit begründet: “Kaum jemand würde in ein vollständig KI-gesteuertes Flugzeug steigen. Nicht, weil ein menschlicher Pilot weniger fehleranfällig wäre, sondern weil wir an diesen die Verantwortung abgeben können.” KI sei immer nur so gut wie die Daten, die ihr zur Verfügung stehen – dies sei jedoch bei den Mitarbeitenden ganz genauso.

Tolga Erdogan, Salesforce:
“Unternehmen sollten nicht auf eine perfekte und 100% zukunftssichere Lösung warten. Die kann es nicht geben. Statt sich also zu fragen, was nicht geht, ist es besser zu schauen, was geht – und dann einfach anzufangen. Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.”
Salesforce.com Germany GmbH

Tolga Erdogan hebt hervor, dass viele Unternehmen dazu neigen, zu viel auf einmal zu wollen und sich dadurch selbst zu lähmen – und schlägt vor, neue Technologie zunächst zu behandeln wie einen neuen Mitarbeiter. “Neuen Kollegen übertrage ich auch nicht direkt riesige Verantwortungsbereiche, sondern setze sie erstmal in kleinem, kontrollierten Rahmen ein”, erklärt Erdogan. So sollten Unternehmen auch mit KI verfahren. “Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.”

Das kann jedoch nur gelingen, wenn die KI nicht an jeder Ecke auf veraltete, analoge Prozesse trifft. “Die digitale Transformation muss von beiden Seiten angegangen werden”, sagt Enrico Gabriele. “Das bedeutet einerseits, zu prüfen, wo sich KI im kleinen Rahmen gewinnbringend einsetzen lässt. Aber auch, die Digitalisierung als Gesamtorganisation voranzutreiben, um ganze Prozesse zu digitalisieren.”

KI funktioniert nur mit der richtigen Datenbasis

Und noch etwas ist unbedingte Voraussetzung für den erfolgreichen Einsatz von KI in Unternehmen: “KI lebt von Daten – und die müssen KI-ready sein”, betont Michael Bochmann. Hier sieht er bei vielen Unternehmen noch durchaus Nachholbedarf. “Wenn vertrauliche Daten nicht sauber klassifiziert sind, kann ein Mensch diese vielleicht noch als solche erkennen – eine KI kann das nicht.” Entsprechende Aufbereitung der Daten sei daher das A und O.

Michael Bochmann, DocuWare:
“Viele vergessen bei der Debatte um KI, dass es auch immer die menschliche Komponente benötigt – die Mitarbeitenden, die die KI bedienen. Es reicht nicht, einfach nur einen Service einzukaufen, sondern ich brauche intern ein Grundgerüst an Expertise, um das Potenzial voll auszuschöpfen. Das sollten Unternehmen bei der Kosten-Nutzen-Rechnung unbedingt bedenken.”
DocuWare GmbH

Auch Daniel Lüttgau sieht die Notwendigkeit für einen systemischen Ansatz: “Leuchtturmprojekte mit schnellem Erfolg sind sehr wichtig, um Akzeptanz zu schaffen. Aber die Herausforderung, saubere Daten für die KI zu haben, ist eine sehr große und fundamentale.” Use-Case-getriebene Ansätze seien gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden, da sonst schnell ein sehr teurer Wildwuchs an Einzellösungen entstehen könnte und Unternehmen an die Grenzen des Potenzials stoßen.

Letztlich zeigt die Debatte vor allem eins: an Gesprächsbedarf mangelt es nicht – was jedoch als gutes Zeichen gewertet werden darf. Dass sich deutsche Unternehmen der Technologie zunehmend öffnen und nach Wegen suchen, sie gewinnbringend einzusetzen, mag angesichts der Verheißungen folgerichtig erscheinen, auch wenn viele Fragen offen bleiben. Berührungsängste bleiben, doch von echter Innovationsskepsis der Marke “German Angst” scheinen wir nicht mehr reden zu können – und das ist doch schon etwas. (mb)

KI in Deutschland: Fortschritt mit angezogener Handbremse?​ Weiterlesen »

7 obligatorische JavaScript-Funktionen​

Allgemein

Diese Grundzutaten sollten Entwickler in petto haben, damit JavaScript seine Magie entfalten kann. Foto: Maksym Fesenko | shutterstock.com Suchmaschinen-Statistiken zeigen, dass Entwickler sieben JavaScript-Features gehäuft nachschlagen. Diese reichen für sich allein zwar nicht aus, um komplette Programme zu schreiben – aber ohne sie geht es auch nicht. Im Folgenden lesen Sie, welche sieben grundlegenden Sprachfunktionen ins Toolkit eines jeden JavaScript-Entwicklers gehören – egal ob Anfänger oder Silverback. 1. array Value Collections sind ein zentraler Aspekt aller Programmiersprachen. Im Fall von JavaScript kommen Arrays zum Einsatz, um solche Sammlungen zu speichern. Dabei sind JavaScript-Arrays dank des dynamischen Typisierungssystems der Sprache hochflexibel. Sie können ein leeres Array deklarieren – oder eines, das bereits Werte enthält: // make a new empty array: const myArray = []; //add a value: myArray.push(“Happy New Year”); console.log(myArray[0]); // outputs “Happy New Year” // make an array with values: const myOtherArray = [0, “test”, true]; Wie in den meisten anderen Sprachen sind Arrays in JavaScript “base 0”. Soll heißen, das erste Element weist einen Index von 0 statt 1 auf. Darüber hinaus sehen Sie in obigem Beispiel auch, dass myOtherArray diverse Types enthalten kann – Zahlen, Strings oder Boolesche Werte. 2. for Der for-Loop ist ebenfalls elementarer Bestandteil aller Programmiersprachen. Allerdings bringt dieses Element in JavaScript einige Besonderheiten mit. Die grundlegende Syntax des for-Loops sieht folgendermaßen aus: for (let i = 0; i console.log(“i is going up: “+ i); } Übersetzt in natürliche Sprache bedeutet dieser Code: “Gib mir eine Variable namens i und erledige, was in den geschweiften Klammern angegeben ist – insofern der Wert kleiner ist als 10. Füge dabei bei jedem Vorgang i eine 1 hinzu”. Hierbei handelt es sich um eine gängige Loop-Variable, wobei “i” für “Iterator” steht. Bei dieser Form spricht man von einem deklarativen Loop. Dieser ist äußerst flexibel, weil jeder Teil diverse Variationen aufweisen kann: // This will loop forever, unless something else changes i, because i is not modified by the loop for (let i = 0; i console.log(“i is going up: “+ i); } // you can declare multiple variables, tests and modifiers at once for (let i = 0, j = 10; i * j console.log(i * j); // outputs 0, 15, 40, 75 and breaks } Insbesondere bei komplexen und verschachtelten Loop-Konstruktionen kann es hilfreich sein, aussagekräftige(re) Iteratoren wie userIterator oder productCounter einzusetzen. Darüber hinaus existiert in JavaScript auch ein for-in-Loop, der nützlich ist, wenn es um Schleifen in Zusammenhang mit JSON-Objekten geht: let myObject = { foo: “bar”, test: 1000 } for (let x in myObject) { for (let x in myObject) { console.log(x + “=” + myObject[x]) } } // outputs: foo=bar test=1000 Zudem lässt sich for-in auch für Arrays verwenden: let arr = [5, 10, 15, 20]; for (let x in arr2) { console.log(x + “=” + arr2[x]); } // outputs: 0=5, 1=10, 2=15, 3=20 Bei Objekten dient der Iterator (x) als Property-Name, in einem Array wird er zum Index. Letzterer kann dazu genutzt werden, um auf die Properties und Elemente von Objekten oder Arrays zuzugreifen. 3. forEach Modernes JavaScript verschreibt sich der funktionalen Programmierung und die forEach-Funktion ist dafür ein hervorragendes Beispiel: Es handelt sich um eine simple, funktionale Methode, um über Sammlungen zu iterieren. Sie hält die gesamte Logik fest und macht fremde Iteratorvariablen (wie bei for) überflüssig. arr.forEach((x) => { console.log (x) }) // outputs: 5, 10, 15, 20 In diesem Beispiel haben wir eine Funktion an forEach übergeben und eine anonyme Inline-Funktion mit der Pfeil-Syntax definiert. Dabei werden Sie feststellen, dass die in forEach exponierte Variable (in diesem Fall x), tatsächlich den Wert des Elements erhält, nicht den des Index. Es gibt noch einen weiteren einfachen Weg zu einem Iterator, der dasselbe Verhalten aufweist: arr.forEach((x, i) => { console.log (i + “=” + x) }) // outputs 0=5, 1=10, 2=15, 3=20 Auch die simplifizierte Pfeil-Syntax in Kombination mit forEach ist gängig: arr2.forEach(x => console.log(x)) Diese Syntax gibt automatisch einen Return Value aus, allerdings ist das für forEach nicht erforderlich. Viele Entwickler ziehen forEach der traditionellen for-Schleife vor. Im Allgemeinen empfiehlt es sich, die Loop-Syntax zu verwenden, die Ihren Code klar, präzise und verständlich gestaltet. 4. map Während forEach einfach einen Loop über jedes Element “zieht”, lässt sich das mithilfe der map-Funktion auf Arrays ausweiten – und Aktionen auf jedes einzelne Element anwenden. Angenommen, Sie wollen in unserem Beispiel-Array jedes Element mit 10 multiplizieren, würde das wie folgt aussehen: let modifiedArr = arr.map((x) => { return x * 10 } ) // modifiedArray now holds: [50, 100, 150, 200] Sie haben auch die Möglichkeit, hierbei die Kurzform zu verwenden: let modifiedArr = arr.map(x => x * 100 ) // modifiedArray now holds: [500, 1000, 1500, 2000] Allerdings können Sie mit der längeren Form eine beliebige Logik innerhalb des Callbacks ausführen: let modifiedArr = arr.map((x) => { let foo = 1000; // Do more stuff return x * foo; }) Je aufwändiger die Callbacks ausfallen, desto mehr nimmt die Simplizität von map ab. Im Klartext: Bevorzugen Sie wann immer möglich simple Callbacks. 5. reduce Wann immer Sie eine JavaScript-Operation mit einem Array durchführen müssen, die dieses auf einen singulären Value “reduziert”, empfiehlt sich dafür reduce als funktionaler Bestandteil von JavaScript: const numbers = [1, 2, 3, 4]; const sum = numbers.reduce((accumulator, number) => accumulator + number); console.log(sum); // Output: 10 Beim ersten Argument handelt es sich um den Akkumulator. Diese Variable bleibt über alle Iterationen hinweg bestehen und wird schließlich zum Output des reduce-Calls. Das zweite Argument (number) ist der Wert des Elements für die Iteration. Sie können reduce außerdem nutzen, um eine Starting-Value anzugeben. Dazu setzen Sie ein zweites Argument nach der Callback-Funktion: // With initial value of 10 const sum2 = numbers.reduce((accumulator, number) => accumulator + number, 10); console.log(sum2); // Output: 20 (10 + 1 + 2 + 3 + 4) Das kann auch hilfreich sein, wenn es sich um eine “leere” Collection handelt. In diesem Fall dient das zweite Argument als Standard-Value. 6. substring Mit der Methode String.substring können Sie einen Teil des Strings abrufen: // Let’s get the substring of this Emerson quote: let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.” console.log(myString.substring(0,34)); // outputs: ‘Enthusiasm is the mother of effort’ 7. switch Das switch-Feature kommt ins Spiel, wenn es darum geht, den Branching Control Flow zu händeln – ermöglicht Entwicklern also, Verzweigungen kompakter und verständlicher zu gestalten als etwa mit if/else. Das ist insbesondere dann hilfreich, wenn es viele Optionen gibt. Im Laufe der Jahre hat sich das switch-Statement in JavaScript zunehmend zu einem mächtigen Werkzeug weiterentwickelt. Die grundlegende Syntax sieht folgendermaßen aus: switch (word) { case “Enthusiasm”: console.log(“This word is about passion and excitement.”); break; case “mother”: console.log(“This word is about the source or origin.”); break; case “effort”: console.log(“This word is about hard work and dedication.”); break; default: console.log(“I don’t have specific analysis for this word.”); } Das Keyword switch akzeptiert eine Variable – in diesem Fall word. Jedes case-Statement entspricht dabei einem möglichen Wert der switch-Variable. Zu beachten ist dabei, dass ein case-Block mit dem break-Statement beendet wird. Das ist auch der wesentliche Unterschied zu Konstrukten, die geschweifte Klammern verwenden, um den Anwendungsbereich zu definieren. Wird ein break-Statement weggelassen, wird der Code dem nächsten case-Statement zugeordnet. Im Folgenden verwenden wir das switch-Statement mit unserem Emerson-Zitat: let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.” function analyzeWord(word) { switch (word) { case “Enthusiasm”: console.log(“This word is about passion and excitement.”); break; case “mother”: console.log(“This word is about the source or origin.”); break; case “effort”: console.log(“This word is about hard work and dedication.”); break; default: console.log(“I don’t have specific analysis for this word.”); } } myString.split(” “).forEach((word) => analyzeWord(word)); Dieses Beispiel kombiniert mehrere Elemente: Wir teilen den string mit Hilfe von split(” “) in substrings auf, durchlaufen dann jedes Wort mit forEach und übergeben dieses an unser switch-Statement (das in einer Funktion verpackt ist). Wenn Sie diesen Code ausführen, wird für jedes bekannte Wort eine Beschreibung und der Standardwert für alle anderen ausgegeben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 obligatorische JavaScript-Funktionen​ Diese Grundzutaten sollten Entwickler in petto haben, damit JavaScript seine Magie entfalten kann.
Foto: Maksym Fesenko | shutterstock.com

Suchmaschinen-Statistiken zeigen, dass Entwickler sieben JavaScript-Features gehäuft nachschlagen. Diese reichen für sich allein zwar nicht aus, um komplette Programme zu schreiben – aber ohne sie geht es auch nicht. Im Folgenden lesen Sie, welche sieben grundlegenden Sprachfunktionen ins Toolkit eines jeden JavaScript-Entwicklers gehören – egal ob Anfänger oder Silverback.

1. array

Value Collections sind ein zentraler Aspekt aller Programmiersprachen. Im Fall von JavaScript kommen Arrays zum Einsatz, um solche Sammlungen zu speichern. Dabei sind JavaScript-Arrays dank des dynamischen Typisierungssystems der Sprache hochflexibel. Sie können ein leeres Array deklarieren – oder eines, das bereits Werte enthält:

// make a new empty array:

const myArray = [];

//add a value:

myArray.push(“Happy New Year”);

console.log(myArray[0]); // outputs “Happy New Year”

// make an array with values:

const myOtherArray = [0, “test”, true];

Wie in den meisten anderen Sprachen sind Arrays in JavaScript “base 0”. Soll heißen, das erste Element weist einen Index von 0 statt 1 auf. Darüber hinaus sehen Sie in obigem Beispiel auch, dass myOtherArray diverse Types enthalten kann – Zahlen, Strings oder Boolesche Werte.

2. for

Der for-Loop ist ebenfalls elementarer Bestandteil aller Programmiersprachen. Allerdings bringt dieses Element in JavaScript einige Besonderheiten mit. Die grundlegende Syntax des for-Loops sieht folgendermaßen aus:

for (let i = 0; i

console.log(“i is going up: “+ i);

}

Übersetzt in natürliche Sprache bedeutet dieser Code: “Gib mir eine Variable namens i und erledige, was in den geschweiften Klammern angegeben ist – insofern der Wert kleiner ist als 10. Füge dabei bei jedem Vorgang i eine 1 hinzu”. Hierbei handelt es sich um eine gängige Loop-Variable, wobei “i” für “Iterator” steht.

Bei dieser Form spricht man von einem deklarativen Loop. Dieser ist äußerst flexibel, weil jeder Teil diverse Variationen aufweisen kann:

// This will loop forever, unless something else changes i, because i is not modified by the loop

for (let i = 0; i

console.log(“i is going up: “+ i);

}

// you can declare multiple variables, tests and modifiers at once

for (let i = 0, j = 10; i * j

console.log(i * j); // outputs 0, 15, 40, 75 and breaks

}

Insbesondere bei komplexen und verschachtelten Loop-Konstruktionen kann es hilfreich sein, aussagekräftige(re) Iteratoren wie userIterator oder productCounter einzusetzen.

Darüber hinaus existiert in JavaScript auch ein for-in-Loop, der nützlich ist, wenn es um Schleifen in Zusammenhang mit JSON-Objekten geht:

let myObject = { foo: “bar”, test: 1000 }

for (let x in myObject) {

for (let x in myObject) { console.log(x + “=” + myObject[x]) }

}

// outputs: foo=bar test=1000

Zudem lässt sich for-in auch für Arrays verwenden:

let arr = [5, 10, 15, 20];

for (let x in arr2) {

console.log(x + “=” + arr2[x]);

}

// outputs: 0=5, 1=10, 2=15, 3=20

Bei Objekten dient der Iterator (x) als Property-Name, in einem Array wird er zum Index. Letzterer kann dazu genutzt werden, um auf die Properties und Elemente von Objekten oder Arrays zuzugreifen.

3. forEach

Modernes JavaScript verschreibt sich der funktionalen Programmierung und die forEach-Funktion ist dafür ein hervorragendes Beispiel: Es handelt sich um eine simple, funktionale Methode, um über Sammlungen zu iterieren. Sie hält die gesamte Logik fest und macht fremde Iteratorvariablen (wie bei for) überflüssig.

arr.forEach((x) => { console.log (x) })

// outputs: 5, 10, 15, 20

In diesem Beispiel haben wir eine Funktion an forEach übergeben und eine anonyme Inline-Funktion mit der Pfeil-Syntax definiert. Dabei werden Sie feststellen, dass die in forEach exponierte Variable (in diesem Fall x), tatsächlich den Wert des Elements erhält, nicht den des Index.

Es gibt noch einen weiteren einfachen Weg zu einem Iterator, der dasselbe Verhalten aufweist:

arr.forEach((x, i) => { console.log (i + “=” + x) })

// outputs 0=5, 1=10, 2=15, 3=20

Auch die simplifizierte Pfeil-Syntax in Kombination mit forEach ist gängig:

arr2.forEach(x => console.log(x))

Diese Syntax gibt automatisch einen Return Value aus, allerdings ist das für forEach nicht erforderlich.

Viele Entwickler ziehen forEach der traditionellen for-Schleife vor. Im Allgemeinen empfiehlt es sich, die Loop-Syntax zu verwenden, die Ihren Code klar, präzise und verständlich gestaltet.

4. map

Während forEach einfach einen Loop über jedes Element “zieht”, lässt sich das mithilfe der map-Funktion auf Arrays ausweiten – und Aktionen auf jedes einzelne Element anwenden. Angenommen, Sie wollen in unserem Beispiel-Array jedes Element mit 10 multiplizieren, würde das wie folgt aussehen:

let modifiedArr = arr.map((x) => { return x * 10 } )

// modifiedArray now holds: [50, 100, 150, 200]

Sie haben auch die Möglichkeit, hierbei die Kurzform zu verwenden:

let modifiedArr = arr.map(x => x * 100 )

// modifiedArray now holds: [500, 1000, 1500, 2000]

Allerdings können Sie mit der längeren Form eine beliebige Logik innerhalb des Callbacks ausführen:

let modifiedArr = arr.map((x) => {

let foo = 1000;

// Do more stuff

return x * foo;

})

Je aufwändiger die Callbacks ausfallen, desto mehr nimmt die Simplizität von map ab. Im Klartext: Bevorzugen Sie wann immer möglich simple Callbacks.

5. reduce

Wann immer Sie eine JavaScript-Operation mit einem Array durchführen müssen, die dieses auf einen singulären Value “reduziert”, empfiehlt sich dafür reduce als funktionaler Bestandteil von JavaScript:

const numbers = [1, 2, 3, 4];

const sum = numbers.reduce((accumulator, number) => accumulator + number);

console.log(sum); // Output: 10

Beim ersten Argument handelt es sich um den Akkumulator. Diese Variable bleibt über alle Iterationen hinweg bestehen und wird schließlich zum Output des reduce-Calls. Das zweite Argument (number) ist der Wert des Elements für die Iteration.

Sie können reduce außerdem nutzen, um eine Starting-Value anzugeben. Dazu setzen Sie ein zweites Argument nach der Callback-Funktion:

// With initial value of 10

const sum2 = numbers.reduce((accumulator, number) => accumulator + number, 10);

console.log(sum2); // Output: 20 (10 + 1 + 2 + 3 + 4)

Das kann auch hilfreich sein, wenn es sich um eine “leere” Collection handelt. In diesem Fall dient das zweite Argument als Standard-Value.

6. substring

Mit der Methode String.substring können Sie einen Teil des Strings abrufen:

// Let’s get the substring of this Emerson quote:

let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.”

console.log(myString.substring(0,34));

// outputs: ‘Enthusiasm is the mother of effort’

7. switch

Das switch-Feature kommt ins Spiel, wenn es darum geht, den Branching Control Flow zu händeln – ermöglicht Entwicklern also, Verzweigungen kompakter und verständlicher zu gestalten als etwa mit if/else. Das ist insbesondere dann hilfreich, wenn es viele Optionen gibt. Im Laufe der Jahre hat sich das switch-Statement in JavaScript zunehmend zu einem mächtigen Werkzeug weiterentwickelt. Die grundlegende Syntax sieht folgendermaßen aus:

switch (word) {

case “Enthusiasm”:

console.log(“This word is about passion and excitement.”);

break;

case “mother”:

console.log(“This word is about the source or origin.”);

break;

case “effort”:

console.log(“This word is about hard work and dedication.”);

break;

default:

console.log(“I don’t have specific analysis for this word.”);

}

Das Keyword switch akzeptiert eine Variable – in diesem Fall word. Jedes case-Statement entspricht dabei einem möglichen Wert der switch-Variable. Zu beachten ist dabei, dass ein case-Block mit dem break-Statement beendet wird. Das ist auch der wesentliche Unterschied zu Konstrukten, die geschweifte Klammern verwenden, um den Anwendungsbereich zu definieren. Wird ein break-Statement weggelassen, wird der Code dem nächsten case-Statement zugeordnet.

Im Folgenden verwenden wir das switch-Statement mit unserem Emerson-Zitat:

let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.”

function analyzeWord(word) {

switch (word) {

case “Enthusiasm”:

console.log(“This word is about passion and excitement.”);

break;

case “mother”:

console.log(“This word is about the source or origin.”);

break;

case “effort”:

console.log(“This word is about hard work and dedication.”);

break;

default:

console.log(“I don’t have specific analysis for this word.”);

}

}

myString.split(” “).forEach((word) => analyzeWord(word));

Dieses Beispiel kombiniert mehrere Elemente: Wir teilen den string mit Hilfe von split(” “) in substrings auf, durchlaufen dann jedes Wort mit forEach und übergeben dieses an unser switch-Statement (das in einer Funktion verpackt ist). Wenn Sie diesen Code ausführen, wird für jedes bekannte Wort eine Beschreibung und der Standardwert für alle anderen ausgegeben. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 obligatorische JavaScript-Funktionen​ Weiterlesen »

Cisco Live 2025: Security im Fokus​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?quality=50&strip=all 6144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Cisco Live! in San Diego stand dieses Jahr stark im Fokus von (KI-)Security.Cisco Cisco hat auf seiner Hausmesse eine Reihe von fortschrittlichen Firewall- und KI-Software-Erweiterungen vorgestellt. Die Intention dabei ist, Netzwerk- und Sicherheitstechnologien in Unternehmensinfrastrukturen stärker zusammenzuführen und zu vereinfachen. Konkret stellte der Anbieter ein neues Portfolio an Hybrid-Mesh-Firewalls vor und kündigte an, seine Zusammenarbeit mit Nvidia ím Security-Bereich auszubauen und die Integration seiner eigenen Technologie mit der Splunk-Plattform zu vertiefen. Das übergreifende Ziel ist dabei, sämtliche Aspekte von KI – darunter Workloads, Inferencing und Modelle – abzusichern und so die Basisinfrastruktur für den KI-Ausbau zuverlässig zu schützen. „Ohne Vertrauen und integrierte Sicherheit in der zugrunde liegenden Netzwerkinfrastruktur wird es keine vertrauenswürdige KI geben – denn jeder neue KI-Agent ist sowohl Ressource als auch potenzielle Sicherheitsbedrohung“, erklärt Jeetu Patel, President und Chief Product Officer von Cisco. „Agentic AI zwingt uns dazu, grundlegende Annahmen zu überdenken – etwa wie wir Identitäten validieren oder wie schnell wir auf Bedrohungen reagieren müssen. Die einzige skalierbare Lösung dafür ist, Sicherheit direkt ins Netzwerk zu integrieren – und genau das entwickeln wir mit Hochdruck.“ Secure Firewalls Zum Einstieg stellte Cisco zwei neue Firewall-Serien vor – die High-End-Firewall 6100 und die 200er-Serie für Zweigstellennetzwerke. Beide sind laut Cisco darauf ausgelegt, die Herausforderungen der Skalierbarkeit zu bewältigen, die KI-fähige Rechenzentren für Kunden darstellen. Die Secure Firewall 6100 bietet mit einer Leistung von 400 Gbps auf Layer 7 in einem kompakten 2-HE-Gehäuse eine herausragende Performance, heißt es in einem Blogbeitrag von Cisco. Laut Rick Miles, Vice President of Product Management, Cloud and Network Security, lassen sich in Cluster mit bis zu 16 Geräten über 4 Tbps erreichen. Schon mit acht Geräten ergibt sich demnach eine kosteneffiziente Lösung mit geringem Platz-, Energie- und Kühlbedarf. Dieser modulare Ansatz stelle sicher, dass Unternehmen schrittweise skalieren können, ohne ihre Infrastruktur überholen zu müssen, so Miles. Die Secure Firewall 200-Serie ist wiederum für Filialnetzwerke gedacht und bietet eine KI-gestützte Bedrohungsprüfung mit mehr als 1,5 Gbps direkt vor Ort – und das zu einem Drittel des üblichen Preis-Leistungs-Verhältnisses am Markt. Sie unterstützt fortschrittliche Sicherheitsfunktionen wie verschlüsselte Sichtbarkeit und Snort ML (Snort 3). Hinzu kommen integriertes SD-WAN, vorkonfigurierte Templates, einfache Einrichtung, SASE-Optionen und eine Cloud-basierte Sicherheitsverwaltung. Mesh-Richtlinien-Engine und Segmentierung Ciscos neue Hybrid Mesh Firewall nutzt ein verteiltes Sicherheitskonzept mit Zero-Trust-Architektur, das direkt in die Netzwerkinfrastruktur integriert ist. Es bietet Schutz vor Bedrohungen sowie Segmentierung für Rechenzentren, IoT-Umgebungen und KI-Anwendungen. Darüber hinaus stellt Cisco eine neue Mesh Policy Engine vor, mit der Unternehmen eine zentrale, Intent-basierte Richtlinie definieren können, die auf Firewalls von Cisco und Drittanbietern durchgesetzt werden kann. Die Engine ist Teil von Cisco Security Cloud Control, der KI-nativen, Cloud-basierten Security-Plattform des Unternehmens und ein wichtiger Bestandteil des übergreifenden Security-Cloud-Portfolios. Dies vereinfache den täglichen Betrieb und ermögliche es Unternehmen, Sicherheitsmaßnahmen flexibel zu verschieben, ohne bestehende Policies neu schreiben zu müssen, so Miles: “Die Mesh Policy Engine definiert die Art und Weise, wie der Netzwerkzugang gewährt und verwaltet wird, grundlegend neu, indem sie den Fokus weg von Firewall-spezifischen Richtlinien und stattdessen auf die tatsächliche Zugriffsanfrage der Anwendung verlagert wird.“ „Administratoren erstellen Richtlinien, die direkt dem entsprechen, was tatsächlich angefordert wird – die Mesh Policy Engine übernehme dann die aufwendige Arbeit, schreibt Miles. Sie wandele diese Anfragen in klassische Firewall-Regeln um, berechne die resultierende Gesamtrichtlinie und aktualisiere die betroffenen Firewalls. Dem Cisco-Manager zufolge können Teams über das Security-Cloud-Control-Dashboard nicht nur nachvollziehen, was und wo eine Regel greift, sondern auch warum – so werde sichergestellt, dass keine Firewall-Regel existiert, die nicht auf eine konkrete Anfrage zurückzuführen ist. Diese Intent-basierte Logik sorge für Transparenz und Konsistenz im Richtlinienmanagement – sowohl bei Cisco- als auch bei Drittanbieter-Firewalls. Miles ergänzt, dass Cisco die Durchsetzungspunkte für die Hybrid Mesh Firewall nun auch auf die Cisco Application Centric Infrastructure (ACI) ausweitet. ACI ist das Flaggschiff unter den softwaredefinierten Netzwerken von Cisco, um Rechenzentren und Cloud-Netzwerke zu verwalten – und laut Cisco künftig ein entscheidender Baustein zur Unterstützung von KI-Workloads. Das Ergebnis sei eine intelligentere Segmentierung, so Miles: “Secure Workload, eine Schlüsselkomponente der Cisco Hybrid Mesh Firewall, ist die branchenführende Mikrosegmentierungsfunktion von Cisco. Sie nutzt KI/ML, um die Netzwerktopologie, Workload-Metadaten, Netflows und die Prozessdaten der Anwendungen zu verarbeiten und generiert daraus intelligente Microsegmentation-Policies, die die Angriffsfläche reduzieren, ohne den Anwendungszugriff einzuschränken. Die Richtlinien werden dann entweder agentenlos – etwa über das Cisco-ACI-Fabric sowie andere Systeme wie Secure Firewall, Cloud-Anbieter oder Application Delivery Controller – oder durch den Secure-Workload-Agent durchgesetzt, der sowohl auf modernen als auch auf älteren Betriebssystemen eingesetzt werden kann.“ Firewall-Engpässe beseitigen Die Kombination aus der Mesh-Firewall und Ciscos Sicherheitsplattform Hypershield behebt laut Neil Anderson, Vice President für Cloud-, Infrastruktur- und KI-Lösungen bei World Wide Technology (WWT), mehrere Sicherheitsmängel in Unternehmen. Hypershield umfasst KI-basierte Software, virtuelle Maschinen und andere Technologien, die künftig direkt in zentrale Netzwerkkomponenten wie Switches, Router oder Server integriert werden sollen. Ziel ist es, Unternehmen eine autonome Netzwerksegmentierung bei Bedrohungen zu ermöglichen und schnellen Exploit-Schutz zu bieten – ganz ohne aufwändige Patches oder Firewall-Redesigns. „Seit rund 25 Jahren verfolgen wir ein Architekturmodell, bei dem der gesamte Datenverkehr durch eine leistungsstarke zentrale Firewall geleitet und dann wieder freigegeben wird“, erklärt Anderson. „Davon sind wir inzwischen weit entfernt. Wenn man die Geschwindigkeit bedenkt, mit der KI arbeitet, kann man sich so eine Bottleneck-Architektur nicht mehr leisten. Die Durchsetzung muss verteilt erfolgen.“ Die Idee, ein Firewall-Mesh genau dort zu haben, wo man es braucht – also verteilte Durchsetzungspunkte –, und diese dann einfach über Cisco Cloud Control oder Secure Cloud Control zu verwalten, sei ein echter Durchbruch, so Anderson weiter. „Das löst viele Skalierungsprobleme unserer Kunden.“ Splunk-Integration Auch im Bereich Firewalls stärkt Cisco die Integration mit seiner Splunk-Sicherheitsplattform. So können Cisco-Secure-Firewall-Kunden künftig Firewall-Protokolldaten in Splunk einspeisen und damit tiefgehendere Bedrohungsanalysen vornehmen. Darüber hinaus unterstützt die Cisco Security Cloud App für Splunk jetzt Cisco Secure Firewall Threat Defense und verbessert damit die Korrelation und die Analyse von Bedrohungen sowie Reaktionsabläufen. In Kombination mit der Telemetrie von Cisco AI Defense, Cisco XDR, Cisco Multicloud Defense, Cisco Talos und anderen Quellen beschleunigt Splunk laut Cisco die Erkennung von Anwendungsfällen in hybriden Umgebungen. Darüber hinaus können erweiterte Informationen zur Sicherheitsorchestrierung, Automatisierung und Reaktion (SOAR) jetzt auch spezifische Aktionen für Cisco Secure Firewall enthalten – etwa um Hosts zu isolieren, ausgehende Verbindungen zu blockieren oder Richtlinien anzuwenden. Ziel sei es, manuelle Eingriffe zu minimieren und die Reaktionszeit deutlich zu verkürzen, so der Konzern. Ausweitung der Cisco-Nvidia-Partnerschaft Cisco kündigte auf seiner Hausmesse auch eine Erweiterung seiner KI-Partnerschaft mit Nvidia an. Demnach können die Sicherheitsplattformen Cisco AI Defense und Hypershield jetzt auf Nvidia AI zugreifen, die vortrainierte Modelle und Entwicklungs-Tools für einsatzbereite KI bereitstellt. Ziel ist es, damit umfassende Transparenz, Validierung und Laufzeitschutz über den gesamten KI-Workflow hinweg zu bieten. AI Defense bietet Schutz für Unternehmenskunden, die KI-Anwendungen über Modelle und Cloud-Dienste hinweg entwickeln. Die Integration erweitert das kürzlich vorgestellte Paket Cisco Secure AI Factory with Nvidia, das Cisco-Technologien für Sicherheit und Netzwerk, Nvidia-DPUs sowie Speicherlösungen von Pure Storage, Hitachi Vantara, NetApp und VAST Data vereint. „Cisco AI Defense und Hypershield integrieren sich mit Nvidia AI, um leistungsstarke, skalierbare und vertrauenswürdige KI-Antworten für agentenbasierte und generative KI-Workloads bereitzustellen. Das validierte Design der Nvidia Enterprise AI Factory umfasst nun auch AI Defense und Hypershield, um jede Phase des KI-Lebenszyklus zu schützen – ein Schlüsselfaktor, um Unternehmen eine sichere KI-Skalierung zu ermöglichen“, schreibt Anne Hecht, Senior Director of Product Marketing für Enterprise-Softwareprodukte bei Nvidia, in einem Blogbeitrag. Zudem können offene KI-Modelle, die mit Nvidia NeMo nachtrainiert und mit Nvidia Blueprints abgesichert wurden, jetzt mit AI Defense validiert und geschützt werden. „Ciscos Modelle für Sicherheit, Datenschutz und Schutz laufen als Nvidia NIM Microservices, um die Inferenzleistung für produktive KI-Anwendungen zu optimieren. Cisco AI Defense bietet dabei Laufzeitüberwachung und Sichtbarkeit für KI-Anwendungen und -Agenten, die auf der Nvidia-AI-Plattform betrieben werden“, so Hecht. Außerdem werde Cisco Hypershield bald mit den Nvidia BlueField DPUs und dem Nvidia DOCA Argus Framework zusammenarbeiten und damit jedem Knoten der KI-Infrastruktur eine durchdringende, verteilte Sicherheit und Echtzeit-Bedrohungserkennung bieten, ergänzte die Nvidia-Managerin. Aus Sicht von WWT-Mann Anderson zeigen diese Schritte die enge Zusammenarbeit zwischen Cisco und Nvidia beim Aufbau eines umfassenden Sicherheitsstacks. Zudem werde klar, dass Cisco AI Defense und Hypershield aus Sicht von Nvidia zentral für Unternehmens-KI-Architekturen sind. „Nichts kann ein KI-Projekt schneller zum Scheitern bringen als Bedenken bei Sicherheit und Governance. Wenn man hier Technologien wie AI Defense und Hypershield einsetzen kann, hilft das Unternehmen, Risiken zu minimieren und sich auf die Umsetzung ihrer Geschäftsziele zu konzentrieren“, so Anderson. Agentenbasierte KI absichern Im Bereich der agentenbasierten KI erweitert Cisco seine Universal-Zero-Trust-Network-Architektur, um auch Identitäten von KI-Agenten abzusichern und ihre Aktivitäten vollständig nachverfolgen zu können. “Das Aufkommen von agentenbasierter KI revolutioniert die Arbeitswelt und bringt gleichzeitig erhebliche Herausforderungen für die Sicherheit mit sich“, erklärt Chief Product Manager Patel. „Diese KI-Agenten greifen autonom auf Unternehmensressourcen zu, treffen Entscheidungen und handeln im Namen von Nutzern. Das erfordert robuste Sicherheitsvorkehrungen.” Die Vision von Cisco umfasse modernste Funktionen wie automatische Agentenerkennung, delegierte Autorisierung, sicheren Zero-Trust-Agentenzugriff und native Unterstützung für das Model Context Protocol (MCP), so Patel. Laut Raj Chopra, Senior Vice President und Chief Product Officer für Cisco Security, dehnt Cisco die Prinzipien von Zero Trust auf agentenbasierte KI aus und setzt eine Reihe seiner Produkte in Kombination ein:   „Duo Identity & Access Management (IAM) stellt die Autorisierung bereit und Secure Access nimmt die semantische Prüfung vor, so dass der Endbenutzer nicht ständig Zugriff gewähren muss. Außerdem prüft AI Defense, ob die Aktionen des Agenten mit seinem Zweck übereinstimmen, und Cisco Identity Intelligence überwacht die Aktionen und sorgt für Transparenz“, schreibt der Cisco-Manager in einem Blogpost. Dort heißt es weiter: „Wir entwickeln die Fähigkeit für Unternehmen, ein dynamisches, kontextabhängiges Berechtigungsmanagement umzusetzen, das Agentenanfragen sowohl anhand expliziter Richtlinien als auch mittels semantischer Analyse des vom Agenten angegebenen Zwecks bewertet.“ „Das System ermöglicht es Mitarbeitenden, über einen zustimmungsbasierten Workflow granulare Berechtigungen zu delegieren – etwa einem Agenten das Lesen von E-Mails zur Zusammenfassung zu gestatten, ihn jedoch am Löschen dieser E-Mails zu hindern“, führt Patel aus. Dieser Workflow verfolge und verwalte gezielt die Lebenszyklen eng definierter Zugriffsrechte. Durch die Kombination von OAuth 2.1-Konformität (Autorisierung) mit semantischer Prüfung ließen sich verbotene Aktivitäten automatisch erkennen und blockieren, sodass die Nutzererfahrung reibungslos bleibt. Außerdem sei für kritische Aktionen stets eine explizite Autorisierung durch den Nutzer erforderlich, um Fehlverhalten zu verhindern. Im Zusammenhang mit Ciscos Agententechnologie erklärte Patel außerdem, dass das Unternehmen ein Live-Patching-System in Echtzeit anbietet. Dieses wendet Sicherheitskontrollen auf Kernel-Ebene an, um sich gegen neu entdeckte Schwachstellen (CVEs) zu schützen – ohne einen Neustart von Switches oder Routern zu erfordern. Die Live-Protect-Funktion kann entweder über Ciscos KI-Assistenten oder durch Hypershield-Workflows ausgelöst und verwaltet werden. (mb) 

Cisco Live 2025: Security im Fokus​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?quality=50&strip=all 6144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Cisco Live! in San Diego stand dieses Jahr stark im Fokus von (KI-)Security.Cisco

Cisco hat auf seiner Hausmesse eine Reihe von fortschrittlichen Firewall- und KI-Software-Erweiterungen vorgestellt. Die Intention dabei ist, Netzwerk- und Sicherheitstechnologien in Unternehmensinfrastrukturen stärker zusammenzuführen und zu vereinfachen.

Konkret stellte der Anbieter ein neues Portfolio an Hybrid-Mesh-Firewalls vor und kündigte an, seine Zusammenarbeit mit Nvidia ím Security-Bereich auszubauen und die Integration seiner eigenen Technologie mit der Splunk-Plattform zu vertiefen. Das übergreifende Ziel ist dabei, sämtliche Aspekte von KI – darunter Workloads, Inferencing und Modelle – abzusichern und so die Basisinfrastruktur für den KI-Ausbau zuverlässig zu schützen.

„Ohne Vertrauen und integrierte Sicherheit in der zugrunde liegenden Netzwerkinfrastruktur wird es keine vertrauenswürdige KI geben – denn jeder neue KI-Agent ist sowohl Ressource als auch potenzielle Sicherheitsbedrohung“, erklärt Jeetu Patel, President und Chief Product Officer von Cisco. „Agentic AI zwingt uns dazu, grundlegende Annahmen zu überdenken – etwa wie wir Identitäten validieren oder wie schnell wir auf Bedrohungen reagieren müssen. Die einzige skalierbare Lösung dafür ist, Sicherheit direkt ins Netzwerk zu integrieren – und genau das entwickeln wir mit Hochdruck.“

Secure Firewalls

Zum Einstieg stellte Cisco zwei neue Firewall-Serien vor – die High-End-Firewall 6100 und die 200er-Serie für Zweigstellennetzwerke. Beide sind laut Cisco darauf ausgelegt, die Herausforderungen der Skalierbarkeit zu bewältigen, die KI-fähige Rechenzentren für Kunden darstellen.

Die Secure Firewall 6100 bietet mit einer Leistung von 400 Gbps auf Layer 7 in einem kompakten 2-HE-Gehäuse eine herausragende Performance, heißt es in einem Blogbeitrag von Cisco. Laut Rick Miles, Vice President of Product Management, Cloud and Network Security, lassen sich in Cluster mit bis zu 16 Geräten über 4 Tbps erreichen. Schon mit acht Geräten ergibt sich demnach eine kosteneffiziente Lösung mit geringem Platz-, Energie- und Kühlbedarf. Dieser modulare Ansatz stelle sicher, dass Unternehmen schrittweise skalieren können, ohne ihre Infrastruktur überholen zu müssen, so Miles.

Die Secure Firewall 200-Serie ist wiederum für Filialnetzwerke gedacht und bietet eine KI-gestützte Bedrohungsprüfung mit mehr als 1,5 Gbps direkt vor Ort – und das zu einem Drittel des üblichen Preis-Leistungs-Verhältnisses am Markt. Sie unterstützt fortschrittliche Sicherheitsfunktionen wie verschlüsselte Sichtbarkeit und Snort ML (Snort 3). Hinzu kommen integriertes SD-WAN, vorkonfigurierte Templates, einfache Einrichtung, SASE-Optionen und eine Cloud-basierte Sicherheitsverwaltung.

Mesh-Richtlinien-Engine und Segmentierung

Ciscos neue Hybrid Mesh Firewall nutzt ein verteiltes Sicherheitskonzept mit Zero-Trust-Architektur, das direkt in die Netzwerkinfrastruktur integriert ist. Es bietet Schutz vor Bedrohungen sowie Segmentierung für Rechenzentren, IoT-Umgebungen und KI-Anwendungen.

Darüber hinaus stellt Cisco eine neue Mesh Policy Engine vor, mit der Unternehmen eine zentrale, Intent-basierte Richtlinie definieren können, die auf Firewalls von Cisco und Drittanbietern durchgesetzt werden kann. Die Engine ist Teil von Cisco Security Cloud Control, der KI-nativen, Cloud-basierten Security-Plattform des Unternehmens und ein wichtiger Bestandteil des übergreifenden Security-Cloud-Portfolios. Dies vereinfache den täglichen Betrieb und ermögliche es Unternehmen, Sicherheitsmaßnahmen flexibel zu verschieben, ohne bestehende Policies neu schreiben zu müssen, so Miles:

“Die Mesh Policy Engine definiert die Art und Weise, wie der Netzwerkzugang gewährt und verwaltet wird, grundlegend neu, indem sie den Fokus weg von Firewall-spezifischen Richtlinien und stattdessen auf die tatsächliche Zugriffsanfrage der Anwendung verlagert wird.“

„Administratoren erstellen Richtlinien, die direkt dem entsprechen, was tatsächlich angefordert wird – die Mesh Policy Engine übernehme dann die aufwendige Arbeit, schreibt Miles. Sie wandele diese Anfragen in klassische Firewall-Regeln um, berechne die resultierende Gesamtrichtlinie und aktualisiere die betroffenen Firewalls.

Dem Cisco-Manager zufolge können Teams über das Security-Cloud-Control-Dashboard nicht nur nachvollziehen, was und wo eine Regel greift, sondern auch warum – so werde sichergestellt, dass keine Firewall-Regel existiert, die nicht auf eine konkrete Anfrage zurückzuführen ist. Diese Intent-basierte Logik sorge für Transparenz und Konsistenz im Richtlinienmanagement – sowohl bei Cisco- als auch bei Drittanbieter-Firewalls.

Miles ergänzt, dass Cisco die Durchsetzungspunkte für die Hybrid Mesh Firewall nun auch auf die Cisco Application Centric Infrastructure (ACI) ausweitet. ACI ist das Flaggschiff unter den softwaredefinierten Netzwerken von Cisco, um Rechenzentren und Cloud-Netzwerke zu verwalten – und laut Cisco künftig ein entscheidender Baustein zur Unterstützung von KI-Workloads.

Das Ergebnis sei eine intelligentere Segmentierung, so Miles: “Secure Workload, eine Schlüsselkomponente der Cisco Hybrid Mesh Firewall, ist die branchenführende Mikrosegmentierungsfunktion von Cisco. Sie nutzt KI/ML, um die Netzwerktopologie, Workload-Metadaten, Netflows und die Prozessdaten der Anwendungen zu verarbeiten und generiert daraus intelligente Microsegmentation-Policies, die die Angriffsfläche reduzieren, ohne den Anwendungszugriff einzuschränken. Die Richtlinien werden dann entweder agentenlos – etwa über das Cisco-ACI-Fabric sowie andere Systeme wie Secure Firewall, Cloud-Anbieter oder Application Delivery Controller – oder durch den Secure-Workload-Agent durchgesetzt, der sowohl auf modernen als auch auf älteren Betriebssystemen eingesetzt werden kann.“

Firewall-Engpässe beseitigen

Die Kombination aus der Mesh-Firewall und Ciscos Sicherheitsplattform Hypershield behebt laut Neil Anderson, Vice President für Cloud-, Infrastruktur- und KI-Lösungen bei World Wide Technology (WWT), mehrere Sicherheitsmängel in Unternehmen.

Hypershield umfasst KI-basierte Software, virtuelle Maschinen und andere Technologien, die künftig direkt in zentrale Netzwerkkomponenten wie Switches, Router oder Server integriert werden sollen. Ziel ist es, Unternehmen eine autonome Netzwerksegmentierung bei Bedrohungen zu ermöglichen und schnellen Exploit-Schutz zu bieten – ganz ohne aufwändige Patches oder Firewall-Redesigns.

„Seit rund 25 Jahren verfolgen wir ein Architekturmodell, bei dem der gesamte Datenverkehr durch eine leistungsstarke zentrale Firewall geleitet und dann wieder freigegeben wird“, erklärt Anderson. „Davon sind wir inzwischen weit entfernt. Wenn man die Geschwindigkeit bedenkt, mit der KI arbeitet, kann man sich so eine Bottleneck-Architektur nicht mehr leisten. Die Durchsetzung muss verteilt erfolgen.“

Die Idee, ein Firewall-Mesh genau dort zu haben, wo man es braucht – also verteilte Durchsetzungspunkte –, und diese dann einfach über Cisco Cloud Control oder Secure Cloud Control zu verwalten, sei ein echter Durchbruch, so Anderson weiter. „Das löst viele Skalierungsprobleme unserer Kunden.“

Splunk-Integration

Auch im Bereich Firewalls stärkt Cisco die Integration mit seiner Splunk-Sicherheitsplattform. So können Cisco-Secure-Firewall-Kunden künftig Firewall-Protokolldaten in Splunk einspeisen und damit tiefgehendere Bedrohungsanalysen vornehmen.

Darüber hinaus unterstützt die Cisco Security Cloud App für Splunk jetzt Cisco Secure Firewall Threat Defense und verbessert damit die Korrelation und die Analyse von Bedrohungen sowie Reaktionsabläufen. In Kombination mit der Telemetrie von Cisco AI Defense, Cisco XDR, Cisco Multicloud Defense, Cisco Talos und anderen Quellen beschleunigt Splunk laut Cisco die Erkennung von Anwendungsfällen in hybriden Umgebungen.

Darüber hinaus können erweiterte Informationen zur Sicherheitsorchestrierung, Automatisierung und Reaktion (SOAR) jetzt auch spezifische Aktionen für Cisco Secure Firewall enthalten – etwa um Hosts zu isolieren, ausgehende Verbindungen zu blockieren oder Richtlinien anzuwenden. Ziel sei es, manuelle Eingriffe zu minimieren und die Reaktionszeit deutlich zu verkürzen, so der Konzern.

Ausweitung der Cisco-Nvidia-Partnerschaft

Cisco kündigte auf seiner Hausmesse auch eine Erweiterung seiner KI-Partnerschaft mit Nvidia an. Demnach können die Sicherheitsplattformen Cisco AI Defense und Hypershield jetzt auf Nvidia AI zugreifen, die vortrainierte Modelle und Entwicklungs-Tools für einsatzbereite KI bereitstellt. Ziel ist es, damit umfassende Transparenz, Validierung und Laufzeitschutz über den gesamten KI-Workflow hinweg zu bieten. AI Defense bietet Schutz für Unternehmenskunden, die KI-Anwendungen über Modelle und Cloud-Dienste hinweg entwickeln.

Die Integration erweitert das kürzlich vorgestellte Paket Cisco Secure AI Factory with Nvidia, das Cisco-Technologien für Sicherheit und Netzwerk, Nvidia-DPUs sowie Speicherlösungen von Pure Storage, Hitachi Vantara, NetApp und VAST Data vereint.

„Cisco AI Defense und Hypershield integrieren sich mit Nvidia AI, um leistungsstarke, skalierbare und vertrauenswürdige KI-Antworten für agentenbasierte und generative KI-Workloads bereitzustellen. Das validierte Design der Nvidia Enterprise AI Factory umfasst nun auch AI Defense und Hypershield, um jede Phase des KI-Lebenszyklus zu schützen – ein Schlüsselfaktor, um Unternehmen eine sichere KI-Skalierung zu ermöglichen“, schreibt Anne Hecht, Senior Director of Product Marketing für Enterprise-Softwareprodukte bei Nvidia, in einem Blogbeitrag.

Zudem können offene KI-Modelle, die mit Nvidia NeMo nachtrainiert und mit Nvidia Blueprints abgesichert wurden, jetzt mit AI Defense validiert und geschützt werden. „Ciscos Modelle für Sicherheit, Datenschutz und Schutz laufen als Nvidia NIM Microservices, um die Inferenzleistung für produktive KI-Anwendungen zu optimieren. Cisco AI Defense bietet dabei Laufzeitüberwachung und Sichtbarkeit für KI-Anwendungen und -Agenten, die auf der Nvidia-AI-Plattform betrieben werden“, so Hecht.

Außerdem werde Cisco Hypershield bald mit den Nvidia BlueField DPUs und dem Nvidia DOCA Argus Framework zusammenarbeiten und damit jedem Knoten der KI-Infrastruktur eine durchdringende, verteilte Sicherheit und Echtzeit-Bedrohungserkennung bieten, ergänzte die Nvidia-Managerin.

Aus Sicht von WWT-Mann Anderson zeigen diese Schritte die enge Zusammenarbeit zwischen Cisco und Nvidia beim Aufbau eines umfassenden Sicherheitsstacks. Zudem werde klar, dass Cisco AI Defense und Hypershield aus Sicht von Nvidia zentral für Unternehmens-KI-Architekturen sind.

„Nichts kann ein KI-Projekt schneller zum Scheitern bringen als Bedenken bei Sicherheit und Governance. Wenn man hier Technologien wie AI Defense und Hypershield einsetzen kann, hilft das Unternehmen, Risiken zu minimieren und sich auf die Umsetzung ihrer Geschäftsziele zu konzentrieren“, so Anderson.

Agentenbasierte KI absichern

Im Bereich der agentenbasierten KI erweitert Cisco seine Universal-Zero-Trust-Network-Architektur, um auch Identitäten von KI-Agenten abzusichern und ihre Aktivitäten vollständig nachverfolgen zu können.

“Das Aufkommen von agentenbasierter KI revolutioniert die Arbeitswelt und bringt gleichzeitig erhebliche Herausforderungen für die Sicherheit mit sich“, erklärt Chief Product Manager Patel. „Diese KI-Agenten greifen autonom auf Unternehmensressourcen zu, treffen Entscheidungen und handeln im Namen von Nutzern. Das erfordert robuste Sicherheitsvorkehrungen.”

Die Vision von Cisco umfasse modernste Funktionen wie automatische Agentenerkennung, delegierte Autorisierung, sicheren Zero-Trust-Agentenzugriff und native Unterstützung für das Model Context Protocol (MCP), so Patel.

Laut Raj Chopra, Senior Vice President und Chief Product Officer für Cisco Security, dehnt Cisco die Prinzipien von Zero Trust auf agentenbasierte KI aus und setzt eine Reihe seiner Produkte in Kombination ein:  

„Duo Identity & Access Management (IAM) stellt die Autorisierung bereit und Secure Access nimmt die semantische Prüfung vor, so dass der Endbenutzer nicht ständig Zugriff gewähren muss. Außerdem prüft AI Defense, ob die Aktionen des Agenten mit seinem Zweck übereinstimmen, und Cisco Identity Intelligence überwacht die Aktionen und sorgt für Transparenz“, schreibt der Cisco-Manager in einem Blogpost. Dort heißt es weiter:

„Wir entwickeln die Fähigkeit für Unternehmen, ein dynamisches, kontextabhängiges Berechtigungsmanagement umzusetzen, das Agentenanfragen sowohl anhand expliziter Richtlinien als auch mittels semantischer Analyse des vom Agenten angegebenen Zwecks bewertet.“

„Das System ermöglicht es Mitarbeitenden, über einen zustimmungsbasierten Workflow granulare Berechtigungen zu delegieren – etwa einem Agenten das Lesen von E-Mails zur Zusammenfassung zu gestatten, ihn jedoch am Löschen dieser E-Mails zu hindern“, führt Patel aus.

Dieser Workflow verfolge und verwalte gezielt die Lebenszyklen eng definierter Zugriffsrechte. Durch die Kombination von OAuth 2.1-Konformität (Autorisierung) mit semantischer Prüfung ließen sich verbotene Aktivitäten automatisch erkennen und blockieren, sodass die Nutzererfahrung reibungslos bleibt. Außerdem sei für kritische Aktionen stets eine explizite Autorisierung durch den Nutzer erforderlich, um Fehlverhalten zu verhindern.

Im Zusammenhang mit Ciscos Agententechnologie erklärte Patel außerdem, dass das Unternehmen ein Live-Patching-System in Echtzeit anbietet. Dieses wendet Sicherheitskontrollen auf Kernel-Ebene an, um sich gegen neu entdeckte Schwachstellen (CVEs) zu schützen – ohne einen Neustart von Switches oder Routern zu erfordern. Die Live-Protect-Funktion kann entweder über Ciscos KI-Assistenten oder durch Hypershield-Workflows ausgelöst und verwaltet werden. (mb)

Cisco Live 2025: Security im Fokus​ Weiterlesen »

IBM baut Quantencomputer der nächsten Generation​

Allgemein

Im Wettlauf mit Google und AWS setzt IBM auf eine besonders effiziente Fehlerkorrektur.IBM IBM treibt die Entwicklung des weltweit ersten hochskalierenden, fehlertoleranten Quantencomputers voran. IBM Quantum Starling heißt das Projekt und soll bis 2029 verfügbar sein. Geplant ist, dass dieses System voraussichtlich 20.000-mal mehr Quantenoperationen ausführen können wird als heutige Quantencomputer. Laut IBM soll der Speicher von mehr als einer Oktillion, das ist eine 1 mit 48 Nullen (10^48), der leistungsstärksten Supercomputer der Welt erforderlich sein, um die Rechenleistung von Starling nachzubilden. Roadmap zu Quantum Starling IBM verfolgt eine klare Quantum-Roadmap, die den Weg zu IBM Quantum Starling skizziert: IBM Quantum Loon (2025): Testet Architekturkomponenten zur Fehlerkorrektur, insbesondere den innovativen qLDPC-Code (Quantum Low-Density Parity-Check), sowie „C-Koppler“, die Qubits über größere Distanzen auf einem Chip verbinden. IBM Quantum Kookaburra (2026): Erster modularer Prozessor, der Quantenspeicher mit logischen Operationen kombiniert – entscheidend für die Skalierung fehlertoleranter Systeme über einzelne Chips hinaus. IBM Quantum Cockatoo (2027): Verbindet zwei Kookaburra-Module über „L-Koppler“ und ermöglicht so die Vernetzung von Quantenchips als Nodes in einem größeren System. Dies vermeidet laut IBM den Bau übermäßig großer Chips. Diese Entwicklungen zielen darauf ab, IBM Quantum Starling zu erschaffen, das dann mit 200 logischen Qubits etwa 100 Millionen Quantenoperationen ausführen können soll. Darauf aufbauend plant IBM den Nachfolger Quantum Blue Jay mit einer Milliarde Operationen über 2.000 logischen Qubits. Google, AWS und IBM im Effizienzvergleich Forscher weltweit entwickeln derzeit konkurrierende Verfahren zur Fehlerkorrektur in Quantencomputern: Während Googles Oberflächencode rund 100 physische Qubits pro logischem Qubit benötigt, setzen AWS (9 Qubits) und IBM (12 Qubits mit qLDPC-Code) auf vermeintlich effizientere Methoden. IBM unterscheidet sich hiervon durch sein Starling-Design, welches Fehler in Echtzeit mithilfe eines FPGA-basierten Dekodierungsalgorithmus diagnostizieren soll. Skalierung und Fehlertoleranz im Fokus IBM geht davon aus, dass ein fehlertoleranter Quantencomputer mit Hunderten bis Tausenden logischen Qubits enorme Rechenleistungen ermöglicht. Diese sollen in der Lage sein, in vielen Bereichen Revolutionäres zu schaffen. Hierzu zählen etwa die Arzneimittelentwicklung, Materialforschung, Chemie und komplexe Optimierungsprobleme. Das Unternehmen plant, IBM Quantum Starling als Grundlage für diese Fortschritte zu nutzen und damit neue Geschäftsmöglichkeiten zu eröffnen. 

IBM baut Quantencomputer der nächsten Generation​ Im Wettlauf mit Google und AWS setzt IBM auf eine besonders effiziente Fehlerkorrektur.IBM

IBM treibt die Entwicklung des weltweit ersten hochskalierenden, fehlertoleranten Quantencomputers voran. IBM Quantum Starling heißt das Projekt und soll bis 2029 verfügbar sein. Geplant ist, dass dieses System voraussichtlich 20.000-mal mehr Quantenoperationen ausführen können wird als heutige Quantencomputer. Laut IBM soll der Speicher von mehr als einer Oktillion, das ist eine 1 mit 48 Nullen (10^48), der leistungsstärksten Supercomputer der Welt erforderlich sein, um die Rechenleistung von Starling nachzubilden.

Roadmap zu Quantum Starling

IBM verfolgt eine klare Quantum-Roadmap, die den Weg zu IBM Quantum Starling skizziert:

IBM Quantum Loon (2025): Testet Architekturkomponenten zur Fehlerkorrektur, insbesondere den innovativen qLDPC-Code (Quantum Low-Density Parity-Check), sowie „C-Koppler“, die Qubits über größere Distanzen auf einem Chip verbinden.

IBM Quantum Kookaburra (2026): Erster modularer Prozessor, der Quantenspeicher mit logischen Operationen kombiniert – entscheidend für die Skalierung fehlertoleranter Systeme über einzelne Chips hinaus.

IBM Quantum Cockatoo (2027): Verbindet zwei Kookaburra-Module über „L-Koppler“ und ermöglicht so die Vernetzung von Quantenchips als Nodes in einem größeren System. Dies vermeidet laut IBM den Bau übermäßig großer Chips.

Diese Entwicklungen zielen darauf ab, IBM Quantum Starling zu erschaffen, das dann mit 200 logischen Qubits etwa 100 Millionen Quantenoperationen ausführen können soll. Darauf aufbauend plant IBM den Nachfolger Quantum Blue Jay mit einer Milliarde Operationen über 2.000 logischen Qubits.

Google, AWS und IBM im Effizienzvergleich

Forscher weltweit entwickeln derzeit konkurrierende Verfahren zur Fehlerkorrektur in Quantencomputern: Während Googles Oberflächencode rund 100 physische Qubits pro logischem Qubit benötigt, setzen AWS (9 Qubits) und IBM (12 Qubits mit qLDPC-Code) auf vermeintlich effizientere Methoden. IBM unterscheidet sich hiervon durch sein Starling-Design, welches Fehler in Echtzeit mithilfe eines FPGA-basierten Dekodierungsalgorithmus diagnostizieren soll.

Skalierung und Fehlertoleranz im Fokus

IBM geht davon aus, dass ein fehlertoleranter Quantencomputer mit Hunderten bis Tausenden logischen Qubits enorme Rechenleistungen ermöglicht. Diese sollen in der Lage sein, in vielen Bereichen Revolutionäres zu schaffen. Hierzu zählen etwa die Arzneimittelentwicklung, Materialforschung, Chemie und komplexe Optimierungsprobleme.

Das Unternehmen plant, IBM Quantum Starling als Grundlage für diese Fortschritte zu nutzen und damit neue Geschäftsmöglichkeiten zu eröffnen.

IBM baut Quantencomputer der nächsten Generation​ Weiterlesen »

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​

Allgemein

Obwohl es deutsche Unternehmen immer stärker in die Cloud zieht, herrscht dort nicht immer eitel Sonnenschein. tkhome23 – Shutterstock Die deutsche Wirtschaft schlägt Alarm: Laut dem “Cloud Report 2025” des Digitalverbands Bitkom sehen drei Viertel der Unternehmen (78 Prozent) eine zu große Abhängigkeit von US-amerikanischen Cloud-Anbietern. Jedes zweite Unternehmen (50 Prozent), das Cloud-Computing nutzt, sieht sich aufgrund der Politik der Trump-Regierung dazu gezwungen, seine Cloud-Strategie zu überdenken. Wie die repräsentative Befragung von 604 Unternehmen in Deutschland (ab 20 Mitarbeitern) ergab, haben Standort und Herkunft des Cloud-Anbieters nach dem Regierungswechsel in Washington an Bedeutung gewonnen: 100 Prozent bevorzugen einen deutschen Anbieter, 61 Prozent einen aus der EU, während US-Anbieter nur noch für sechs Prozent der Befragten attraktiv sind. Deutsche Cloud darf keine Kompromisslösung sein srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?quality=50&strip=all 1900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wunsch und Wirklichkeit: Alle Umfrageteilnehmer würden einen Cloud-Anbieter aus Deutschland bevorzugen. Bitkom Research „Die Cloud ist für die deutsche Wirtschaft unverzichtbar. Angesichts der geopolitischen Veränderungen ist der Cloud-Standort Deutschland in den Fokus gerückt“, erklärt Bitkom-Präsident Ralf Wintergerst Deutschland müsse sich von einseitigen Abhängigkeiten freimachen, auch bei digitaler Infrastruktur. Das werde eine zentrale Aufgabe der neuen Bundesregierung sein, so Wintergerst. Allerdings lassen sich die Unternehmen dabei nicht mit einer Notlösung abspeisen: Laut Umfrage wäre nur eine Minderheit bereit, bei einer deutschen Cloud Nachteile in Kauf zu nehmen, wie etwa: längere Wartezeiten auf neue Funktionen (12 Prozent), fehlende Funktionen (8 Prozent), höhere Kosten (7 Prozent für 10-20 Prozent mehr) oder Abstriche bei Bedienbarkeit und Service (6 Prozent). Zwei Drittel (65 Prozent) der Befragten würden sogar keine dieser Nachteile akzeptieren. „International wettbewerbsfähige Unternehmen brauchen eine international wettbewerbsfähige IT“, kommentiert Wintergerst die Ergebnisse. „Wir haben hierzulande Anbieter, die weltweit konkurrenzfähige Angebote aufbauen können. Klar ist: Eine deutsche Cloud muss genauso gut und genauso günstig sein, wie die Angebote anderer Anbieter. Ist sie das nicht, bleibt sie ein Nischenprodukt.“ Cloud-Aussichten: Heiter bis wolkig Der Wunsch nach einem vertrauenswürdigen Cloud-Anbieter ist berechtigt. Laut Bitkom-Umfrage nutzen mittlerweile 90 Prozent der Unternehmen Cloud-Dienste, vor einem Jahr waren es noch 81 Prozent. Bei rund zwei Dritteln hängt der Betrieb dabei sogar maßgeblich von der Cloud ab. In der Nutzung liegt die Private Cloud dabei mit 74 Prozent deutlich vor Public-Cloud-Angeboten (59 Prozent). 29 Prozent nutzen eine Hybrid-Cloud, also sowohl private als auch öffentliche Cloud-Dienste. Und 41 Prozent setzen auf Multi-Cloud, beziehen also Cloud-Dienste von mehreren Providern. Insgesamt werden in der deutschen Wirtschaft rund die Hälfte (47 Prozent) aller IT-Anwendungen aus der Cloud betrieben, 2024 waren es noch 38 Prozent. In fünf Jahren soll der Anteil bereits bei 58 Prozent liegen. Der Studie zufolge steht die Cloud dabei erstmals bei der Hälfte der Cloud-Nutzer im Mittelpunkt der IT-Strategie. So verfolgen 19 Prozent einen „Cloud-only“-Ansatz, bei dem Cloud Computing für ausnahmslos alle Anwendungen und Systeme genutzt wird und bestehende Lösungen in die Cloud überführt werden. Weitere 31 Prozent setzen auf „Cloud first“, verwenden also bevorzugt Cloud-Lösungen bei neuen Projekten und ziehen bestehende Anwendungen bei Bedarf in die Cloud um. Und 31 Prozent haben eine „Cloud too“-Strategie, ergänzen also bestehende IT-Lösungen um Cloud-Anwendungen. Laut Bitkom-Umfrage wird die Cloud meist genutzt, um interne Prozesse zu digitalisieren.Bitkom Research Allerdings erfolgt diese Fokussierung nicht immer aus freien Stücken, wie die Bitkom-Studie ergab: Mehr als zwei Drittel (64 Prozent) der befragten Unternehmen erklären, sie seien gezwungen, Cloud-Dienste zu nutzen, weil die Software nur noch Cloud-basiert angeboten wird. Gleichzeitig geben mehr als die Hälfte (53 Prozent) an, sie fühlten sich den Cloud-Anbietern ausgeliefert, was Preise und Vertragsgestaltung angeht. Fast ebenso viele (51 Prozent) rechnen damit, dass die Betriebskosten ihrer Cloud-Lösungen 2025 voraussichtlich steigen. Nur acht Prozent gehen von sinkenden Kosten aus. „Aktuell fällt es Kunden aufgrund des hohen Aufwands und der hohen Kosten bei einer Migration schwer, einen einmal gewählten Cloud-Anbieter wieder zu verlassen“, erklärt Bitkom-Präsident Wintergerst. Lock-In-Effekte dieser Art so gering wie möglich zu halten, sollte deshalb auch Teil der eigenen Cloud-Strategie sein. 

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​ Obwohl es deutsche Unternehmen immer stärker in die Cloud zieht, herrscht dort nicht immer eitel Sonnenschein. tkhome23 – Shutterstock

Die deutsche Wirtschaft schlägt Alarm: Laut dem “Cloud Report 2025” des Digitalverbands Bitkom sehen drei Viertel der Unternehmen (78 Prozent) eine zu große Abhängigkeit von US-amerikanischen Cloud-Anbietern. Jedes zweite Unternehmen (50 Prozent), das Cloud-Computing nutzt, sieht sich aufgrund der Politik der Trump-Regierung dazu gezwungen, seine Cloud-Strategie zu überdenken.

Wie die repräsentative Befragung von 604 Unternehmen in Deutschland (ab 20 Mitarbeitern) ergab, haben Standort und Herkunft des Cloud-Anbieters nach dem Regierungswechsel in Washington an Bedeutung gewonnen:

100 Prozent bevorzugen einen deutschen Anbieter,

61 Prozent einen aus der EU, während

US-Anbieter nur noch für sechs Prozent der Befragten attraktiv sind.

Deutsche Cloud darf keine Kompromisslösung sein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?quality=50&strip=all 1900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wunsch und Wirklichkeit: Alle Umfrageteilnehmer würden einen Cloud-Anbieter aus Deutschland bevorzugen. Bitkom Research

„Die Cloud ist für die deutsche Wirtschaft unverzichtbar. Angesichts der geopolitischen Veränderungen ist der Cloud-Standort Deutschland in den Fokus gerückt“, erklärt Bitkom-Präsident Ralf Wintergerst Deutschland müsse sich von einseitigen Abhängigkeiten freimachen, auch bei digitaler Infrastruktur. Das werde eine zentrale Aufgabe der neuen Bundesregierung sein, so Wintergerst.

Allerdings lassen sich die Unternehmen dabei nicht mit einer Notlösung abspeisen: Laut Umfrage wäre nur eine Minderheit bereit, bei einer deutschen Cloud Nachteile in Kauf zu nehmen, wie etwa:

längere Wartezeiten auf neue Funktionen (12 Prozent),

fehlende Funktionen (8 Prozent),

höhere Kosten (7 Prozent für 10-20 Prozent mehr) oder

Abstriche bei Bedienbarkeit und Service (6 Prozent).

Zwei Drittel (65 Prozent) der Befragten würden sogar keine dieser Nachteile akzeptieren.

„International wettbewerbsfähige Unternehmen brauchen eine international wettbewerbsfähige IT“, kommentiert Wintergerst die Ergebnisse. „Wir haben hierzulande Anbieter, die weltweit konkurrenzfähige Angebote aufbauen können. Klar ist: Eine deutsche Cloud muss genauso gut und genauso günstig sein, wie die Angebote anderer Anbieter. Ist sie das nicht, bleibt sie ein Nischenprodukt.“

Cloud-Aussichten: Heiter bis wolkig

Der Wunsch nach einem vertrauenswürdigen Cloud-Anbieter ist berechtigt. Laut Bitkom-Umfrage nutzen mittlerweile 90 Prozent der Unternehmen Cloud-Dienste, vor einem Jahr waren es noch 81 Prozent. Bei rund zwei Dritteln hängt der Betrieb dabei sogar maßgeblich von der Cloud ab.

In der Nutzung liegt die Private Cloud dabei mit 74 Prozent deutlich vor Public-Cloud-Angeboten (59 Prozent). 29 Prozent nutzen eine Hybrid-Cloud, also sowohl private als auch öffentliche Cloud-Dienste. Und 41 Prozent setzen auf Multi-Cloud, beziehen also Cloud-Dienste von mehreren Providern.

Insgesamt werden in der deutschen Wirtschaft rund die Hälfte (47 Prozent) aller IT-Anwendungen aus der Cloud betrieben, 2024 waren es noch 38 Prozent. In fünf Jahren soll der Anteil bereits bei 58 Prozent liegen.

Der Studie zufolge steht die Cloud dabei erstmals bei der Hälfte der Cloud-Nutzer im Mittelpunkt der IT-Strategie.

So verfolgen 19 Prozent einen „Cloud-only“-Ansatz, bei dem Cloud Computing für ausnahmslos alle Anwendungen und Systeme genutzt wird und bestehende Lösungen in die Cloud überführt werden.

Weitere 31 Prozent setzen auf „Cloud first“, verwenden also bevorzugt Cloud-Lösungen bei neuen Projekten und ziehen bestehende Anwendungen bei Bedarf in die Cloud um.

Und 31 Prozent haben eine „Cloud too“-Strategie, ergänzen also bestehende IT-Lösungen um Cloud-Anwendungen.

Laut Bitkom-Umfrage wird die Cloud meist genutzt, um interne Prozesse zu digitalisieren.Bitkom Research

Allerdings erfolgt diese Fokussierung nicht immer aus freien Stücken, wie die Bitkom-Studie ergab: Mehr als zwei Drittel (64 Prozent) der befragten Unternehmen erklären, sie seien gezwungen, Cloud-Dienste zu nutzen, weil die Software nur noch Cloud-basiert angeboten wird.

Gleichzeitig geben mehr als die Hälfte (53 Prozent) an, sie fühlten sich den Cloud-Anbietern ausgeliefert, was Preise und Vertragsgestaltung angeht. Fast ebenso viele (51 Prozent) rechnen damit, dass die Betriebskosten ihrer Cloud-Lösungen 2025 voraussichtlich steigen. Nur acht Prozent gehen von sinkenden Kosten aus.

„Aktuell fällt es Kunden aufgrund des hohen Aufwands und der hohen Kosten bei einer Migration schwer, einen einmal gewählten Cloud-Anbieter wieder zu verlassen“, erklärt Bitkom-Präsident Wintergerst. Lock-In-Effekte dieser Art so gering wie möglich zu halten, sollte deshalb auch Teil der eigenen Cloud-Strategie sein.

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​ Weiterlesen »

5 Boolean-Tipps für Entwickler​

Allgemein

True oder False – was kann da schon schiefgehen?Rohane Hamilton | shutterstock.com Boolesche Werte wirken trügerisch einfach. Nutzt man sie dann jedoch tatsächlich einmal, kann man sich schnell in einem weitläufigen Minenfeld wiederfinden. Verstehen Sie mich nicht falsch: Ich verstehe den Reiz, den Booleans entfalten – schließlich bin ich alt genug, um mich noch an die Zeiten zu erinnern, als es noch keine Booleschen Typen gab. Die mussten wir damals mit Integers simulieren. Etwa so: 10 LET FLAG = 0 20 IF FLAG = 1 THEN PRINT “YOU WILL NEVER SEE THIS” 30 LET FLAG = 1 40 IF FLAG = 1 THEN PRINT “NOW IT PRINTS” 50 END Im Vergleich dazu sind Booleans performant und simpel. Dennoch kann ich auf der Grundlage meiner jahrelangen Erfahrung als Entwickler nur empfehlen, sie nach Möglichkeit zu vermeiden. Und wenn das nicht möglich ist, sie äußerst vorsichtig und mit Bedacht einzusetzen. Natürlich gibt es auch Ausnahmen, beziehungsweise einfache Fälle wie isLoading, bei denen nur True oder False möglich ist. Von diesen Fällen abgesehen, können Entwickler mit Booleans jedoch leicht in eine Falle tappen – und am Ende komplizierten, schwer verständlichen Code produzieren. Um das zu verhindern, kann ich Ihnen die folgenden fünf Regeln ans Herz legen, an denen ich mich auch selbst stets orientiere. 1. Positiv bleiben Wenn ich es mit Booleschen Variablen zu tun bekomme, versuche ich, deren Namen stets positiv zu halten. Variablen, die True “sind”, gewährleisten, dass Dinge funktionieren und passieren. Deshalb bevorzuge ich Ausdrücke wie: if UserIsAuthorized { // Do something } Statt: if !UserIsNotAuthorized { // Do something } Ersterer Code ist wesentlich leichter lesbar und besser zu verstehen. Schließlich sind doppelte Verneinungen deutlich anstrengender für den menschlichen Denkapparat. 2. Positive-First-Ansatz durchziehen In diesem Sinne empfiehlt es sich auch, bei if…else-Konstruktionen die positive Klausel stets an erste Stelle zu setzen. Verzichten Sie also auf Vorgehensweisen wie: if not Authorized { // bad stuff } else { // good stuff } Und setzen Sie stattdessen auf: if Authorized { // Things are okay } else { // Go away!! } Das ist leichter zu lesen und erspart Ihrem Gehirn außerdem, not verarbeiten zu müssen. 3. Komplexe Ausdrücke vermeiden Erklärende Variablen werden unterschätzt und verkannt – in erster Linie, weil Developer schnell vorankommen wollen. Es lohnt sich allerdings fast immer, über den eigenen Code auch zu reflektieren. Ich für meinen Teil nutze zwischen benannten Variablen ausschließlich && und || – niemals Raw Expressions. Aber mir begegnen ständig Code-Schnipsel dieser Art: if (user.age > 18 && user.isActive && !user.isBanned && user.subscriptionLevel >= 2) { grantAccess(); } Denken Sie an den armen Tropf, der dieses Monstrum lesen – und dann wie folgt umschreiben muss: const isAdult = user.age > 18; const hasAccess = !user.isBanned; const isActive = user.isActive; const isSubscriber = user.subscriptionLevel >= 2; const canAccess = isAdult && hasAccess && isActive && isSubscriber; if (canAccess) { grantAccess(); } So ist das Ganze lesbar und transparent. Dabei sollten Sie sich nicht scheuen, erklärende Variablen klar herauszustellen. Die Wahrscheinlichkeit, dass sich jemand über Code wie den folgenden beschwert, ist eher gering: const userHasJumpedThroughAllTheRequiredHoops = true; Klar, das bedeutet mehr Tipparbeit, allerdings sollte Klarheit und Transparenz wichtiger sein, als ein paar Tastenanschläge zu sparen. Dazu kommt, dass sich erklärende Variablen hervorragend für Unit-Tests eignen und auch Logging und Debugging erheblich vereinfachen. 4. Auf Boolesche Parameter verzichten Kaum etwas generiert wohl pro Minute mehr “WTF?“-Kommentare als Boolesche Parameter. Vergegenwärtigen Sie sich beispielsweise folgendes “Juwel”: saveUser(user, true, false); // …the heck does this even mean? Wenn Sie diese Funktion schreiben, sieht erst einmal alles gut aus, weil die Parameter benannt sind. Geht es jedoch darum, die Funktion aufzurufen, muss ein Maintainer erst einmal die Funktionsdeklaration suchen, um zu verstehen, was hier übergeben wird. Ein besserer Weg: Vermeiden Sie Booleans einfach komplett und deklarieren Sie einen deskriptiven enum-Typ für die Parameter, der darüber Auskunft gibt, was vor sich geht: enum WelcomeEmailOption { Send, DoNotSend, } enum VerificationStatus { Verified, Unverified, } Ihre Funktion könnte dann wie folgt aussehen: function saveUser( user: User, emailOption: WelcomeEmailOption, verificationStatus: VerificationStatus ): void { if (emailOption === WelcomeEmailOption.Send) { sendEmail(user.email, ‘Welcome!’); } if (verificationStatus === VerificationStatus.Verified) { user.verified = true; } // save user to database… } Und so könnten Sie diese aufrufen: saveUser(newUser, WelcomeEmailOption.Send, VerificationStatus.Unverified); Eine Wohltat für jedes Dev-Gehirn, liest sich dieser Call wie eine Dokumentation: Klar, prägnant – und der Maintainer kann unmittelbar erkennen, was der Aufruf bewirkt und die Parameter bedeuten. 5. Vorausschauend programmieren Ein Vorteil von enums: Sie sind erweiterbar. Angenommen, Sie programmieren ein System für Lebensmittel, das auch große und kleine Getränke umfasst. Das könnte in folgendem Code resultieren: var IsSmallDrink: boolean; Anschließend bauen Sie Ihr System um diese Boolesche Variable herum auf und legen sogar Boolesche Felder in der Datenbank dafür an. Nur um dann in der nächsten Kaffeepause dem Chef in die Arme zu laufen, der Sie kurz angebunden darüber informiert, dass künftig auch mittelgroße Getränke zum Sortiment gehören. Und schon wird eine simple Boolesche Variable zu einem eklatanten Problem. Um Situationen wie diese gar nicht erst aufkommen zu lassen, vermeiden Sie Boolesche Variablen. Etwa damit: enum DrinkSize { Small, Large } Dieser Code macht es bedeutend leichter, die neue Getränkegröße hinzuzufügen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Boolean-Tipps für Entwickler​ True oder False – was kann da schon schiefgehen?Rohane Hamilton | shutterstock.com

Boolesche Werte wirken trügerisch einfach. Nutzt man sie dann jedoch tatsächlich einmal, kann man sich schnell in einem weitläufigen Minenfeld wiederfinden. Verstehen Sie mich nicht falsch: Ich verstehe den Reiz, den Booleans entfalten – schließlich bin ich alt genug, um mich noch an die Zeiten zu erinnern, als es noch keine Booleschen Typen gab. Die mussten wir damals mit Integers simulieren. Etwa so:

10 LET FLAG = 0
20 IF FLAG = 1 THEN PRINT “YOU WILL NEVER SEE THIS”
30 LET FLAG = 1
40 IF FLAG = 1 THEN PRINT “NOW IT PRINTS”
50 END

Im Vergleich dazu sind Booleans performant und simpel. Dennoch kann ich auf der Grundlage meiner jahrelangen Erfahrung als Entwickler nur empfehlen, sie nach Möglichkeit zu vermeiden. Und wenn das nicht möglich ist, sie äußerst vorsichtig und mit Bedacht einzusetzen. Natürlich gibt es auch Ausnahmen, beziehungsweise einfache Fälle wie isLoading, bei denen nur True oder False möglich ist.

Von diesen Fällen abgesehen, können Entwickler mit Booleans jedoch leicht in eine Falle tappen – und am Ende komplizierten, schwer verständlichen Code produzieren. Um das zu verhindern, kann ich Ihnen die folgenden fünf Regeln ans Herz legen, an denen ich mich auch selbst stets orientiere.

1. Positiv bleiben

Wenn ich es mit Booleschen Variablen zu tun bekomme, versuche ich, deren Namen stets positiv zu halten. Variablen, die True “sind”, gewährleisten, dass Dinge funktionieren und passieren. Deshalb bevorzuge ich Ausdrücke wie:

if UserIsAuthorized {
// Do something
}

Statt:

if !UserIsNotAuthorized {
// Do something
}

Ersterer Code ist wesentlich leichter lesbar und besser zu verstehen. Schließlich sind doppelte Verneinungen deutlich anstrengender für den menschlichen Denkapparat.

2. Positive-First-Ansatz durchziehen

In diesem Sinne empfiehlt es sich auch, bei if…else-Konstruktionen die positive Klausel stets an erste Stelle zu setzen. Verzichten Sie also auf Vorgehensweisen wie:

if not Authorized {
// bad stuff
} else {
// good stuff
}

Und setzen Sie stattdessen auf:

if Authorized {
// Things are okay
} else {
// Go away!!
}

Das ist leichter zu lesen und erspart Ihrem Gehirn außerdem, not verarbeiten zu müssen.

3. Komplexe Ausdrücke vermeiden

Erklärende Variablen werden unterschätzt und verkannt – in erster Linie, weil Developer schnell vorankommen wollen. Es lohnt sich allerdings fast immer, über den eigenen Code auch zu reflektieren. Ich für meinen Teil nutze zwischen benannten Variablen ausschließlich && und || – niemals Raw Expressions.

Aber mir begegnen ständig Code-Schnipsel dieser Art:

if (user.age > 18 && user.isActive && !user.isBanned && user.subscriptionLevel >= 2) {
grantAccess();
}

Denken Sie an den armen Tropf, der dieses Monstrum lesen – und dann wie folgt umschreiben muss:

const isAdult = user.age > 18;
const hasAccess = !user.isBanned;
const isActive = user.isActive;
const isSubscriber = user.subscriptionLevel >= 2;

const canAccess = isAdult && hasAccess && isActive && isSubscriber;

if (canAccess) {
grantAccess();
}

So ist das Ganze lesbar und transparent. Dabei sollten Sie sich nicht scheuen, erklärende Variablen klar herauszustellen. Die Wahrscheinlichkeit, dass sich jemand über Code wie den folgenden beschwert, ist eher gering:

const userHasJumpedThroughAllTheRequiredHoops = true;

Klar, das bedeutet mehr Tipparbeit, allerdings sollte Klarheit und Transparenz wichtiger sein, als ein paar Tastenanschläge zu sparen. Dazu kommt, dass sich erklärende Variablen hervorragend für Unit-Tests eignen und auch Logging und Debugging erheblich vereinfachen.

4. Auf Boolesche Parameter verzichten

Kaum etwas generiert wohl pro Minute mehr “WTF?“-Kommentare als Boolesche Parameter. Vergegenwärtigen Sie sich beispielsweise folgendes “Juwel”:

saveUser(user, true, false); // …the heck does this even mean?

Wenn Sie diese Funktion schreiben, sieht erst einmal alles gut aus, weil die Parameter benannt sind. Geht es jedoch darum, die Funktion aufzurufen, muss ein Maintainer erst einmal die Funktionsdeklaration suchen, um zu verstehen, was hier übergeben wird. Ein besserer Weg: Vermeiden Sie Booleans einfach komplett und deklarieren Sie einen deskriptiven enum-Typ für die Parameter, der darüber Auskunft gibt, was vor sich geht:

enum WelcomeEmailOption {
Send,
DoNotSend,
}

enum VerificationStatus {
Verified,
Unverified,
}

Ihre Funktion könnte dann wie folgt aussehen:

function saveUser(
user: User,
emailOption: WelcomeEmailOption,
verificationStatus: VerificationStatus
): void {
if (emailOption === WelcomeEmailOption.Send) {
sendEmail(user.email, ‘Welcome!’);
}
if (verificationStatus === VerificationStatus.Verified) {
user.verified = true;
}
// save user to database…
}

Und so könnten Sie diese aufrufen:

saveUser(newUser, WelcomeEmailOption.Send, VerificationStatus.Unverified);

Eine Wohltat für jedes Dev-Gehirn, liest sich dieser Call wie eine Dokumentation: Klar, prägnant – und der Maintainer kann unmittelbar erkennen, was der Aufruf bewirkt und die Parameter bedeuten.

5. Vorausschauend programmieren

Ein Vorteil von enums: Sie sind erweiterbar. Angenommen, Sie programmieren ein System für Lebensmittel, das auch große und kleine Getränke umfasst. Das könnte in folgendem Code resultieren:

var IsSmallDrink: boolean;

Anschließend bauen Sie Ihr System um diese Boolesche Variable herum auf und legen sogar Boolesche Felder in der Datenbank dafür an. Nur um dann in der nächsten Kaffeepause dem Chef in die Arme zu laufen, der Sie kurz angebunden darüber informiert, dass künftig auch mittelgroße Getränke zum Sortiment gehören. Und schon wird eine simple Boolesche Variable zu einem eklatanten Problem. Um Situationen wie diese gar nicht erst aufkommen zu lassen, vermeiden Sie Boolesche Variablen.

Etwa damit:

enum DrinkSize {
Small,
Large
}

Dieser Code macht es bedeutend leichter, die neue Getränkegröße hinzuzufügen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Boolean-Tipps für Entwickler​ Weiterlesen »

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​

Allgemein

1. Im T-Shirt zum Kunden?Ein Leser schreibt: ” Als IT-Experte wird man mehr respektiert, wenn man auch zum Kunden mit Jeans und T-Shirt fährt. Bei einem fachlichen Experten erwarten eben auch die Kunden keinen BWLer, sondern einen Nerd!”IT-Experten werden mehr respektiert, wenn sie auch zum Kunden mit Jeans und T-Shirt fahren, meint ein Leser. Die Stilexpertin sieht das etwas anders. Foto: Eugenio Marongiu – shutterstock.comChristina Tabernig von Korrekt empfiehlt, zumindest beim Erstkontakt mit dem Kunden nicht als Nerd im T-Shirt aufzutreten: “Wenn ich den Kunden noch nicht kenne, sollten auch IT-Profis nicht auf Hemd mit Anzug oder Kombination verzichten. Eine Krawatte ist dagegen kein Muss mehr. Beim Erstkontakt hat man wenig Spielraum, schließlich drückt eine angemessene Kleidung auch den Respekt gegenüber dem Kunden aus: Lieber die Latte höher hängen.” Mitarbeiter, die in Kundenkontakt stehen, sollten sich mit der Wahl ihrer Kleidung immer an der Branche des Kunden orientieren. Geht es beim Kunden auch lockerer zu, kann der IT-Profi auch mit Stoffhose und Poloshirt auftauchen. Von T-Shirts ohne Kragen rät sie ab. Jeans gingen nur in Kombination mit einem gepflegten Lederschuh, der die “Arbeiterhose” aufwerte.2. Ab 30 Grad sind Birkenstocks in der IT erlaubtEin IT-Mitarbeiter einer Bank sitzt bei 31,5 Grad mit einfarbiger 3/4 Hose und den besagten Birkenstock-Sandalen am PC und sieht um sich herum viele Nachahmer: “Meistens sind doch IT´ler/Techniker/Elektriker/usw. eher leger gekleidet und Birkenstocks angesagt.”“Kein Mann schaut in Sandalen gut aus”, lautet dazu der Kommentar von Christina Tabernig. Mitarbeiter, die nur intern unterwegs sind, können im Sommer auf Bootsschuhe oder Loafers ausweichen. Geht es zum Kunden, müssen aber auch diese Schuhe zuhause im Schrank bleiben.Christina Tabernig, korrekt: “Kein Mann schaut in Sandalen gut aus.” Foto: Christina Tabernig3. Mit kurzer Hose ins Büro?Ein Leser schreibt: “Auch bei deutschen Unternehmen, die von einem amerikanischen Mutterkonzern geführt werden, stelle ich immer häufiger die Kombination weißes Hemd mit kurzer Hose fest.”Kurze Hosen sind in den Augen der Knigge-Expertin im Home Office oder höchstens im stillen Kämmerlein erlaubt, in dem sich aber immer weniger der IT-Experten befinden. “Lange Hosen sind ein Muss für Herren”, betont Tabernig. Ob Dreiviertel- Hosen oder Bermudas, diese Beinkleider trägt man in der Freizeit. “Eine Faustregel sagt: Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen. Darunter fallen auch transparente Oberteile, Spaghettiträger oder zu kurze Röcke für die Frauen”, sagt Tabernig. Mitarbeiter sollten daran denken, dass auch ihr Chef registriert, in welchem Aufzug sie ins Büro kommen. Eine zu lockere oder zu nachlässige Kleidung verschlechtere oft die Karrierechancen.4. Die Hemdenfrage: Von kurzen Ärmeln und offenen KnöpfenMuss man den obersten Knopf immer schließen? Mancher Leser sieht darin ein Zeichen seiner “Angepasstheit” und lehnt das ab. Und was spricht gegen ein kurzes Hemd im Sommer?Dazu Christina Tabernig: “Der oberste Knopf kann offen bleiben, wenn man keine Krawatte trägt. Auch ein kurzes Hemd ist in Ordnung, aber dann bitte ohne Sakko und Krawatte. Das Motto ´lässig, aber nicht nachlässig´ ist hier eine gute Richtschnur. So wirkt es zum Beispiel nachlässig, wenn der oberste Knopf offen steht und die Krawatte auf Halbmast hängt.”5. Dresscode nur für Führungskräfte?Ein Leser stellt fest: “Es gibt keinen allgemeinen Business Dresscode. Es kommt immer darauf an, wo man arbeitet, welche Position man hat , usw.” Müssen sich zum Beispiel nur Führungskräfte an Kleidungsvorschriften halten?Auch Stilexpertin Tabernig empfiehlt, sich in Sachen Kleidung an den Gepflogenheiten im Unternehmen zu orientieren, und die können von Branche zu Branche sehr unterschiedlich sein. “Man sollte sich immer so kleiden wie die Position, die man als nächstes innehaben will”, sagt Tabernig. Einen Dresscode, der sich nur auf Führungskräfte bezieht, gebe es nicht. Allerdings nehme der Spielraum, wie sich Männer und Frauen kleiden können, mit zunehmender Hierarchiestufe ab. Je näher die Vorstandsebene rückt, desto grauer und dunkler würden die Farben.6. Wann darf Mann das Sakko ausziehen?Bei welcher Temperatur dürfen sich Männer in der Geschäftswelt ihres Sakkos entledigen? Das ist laut Tabernig keine Frage der Temperatur, sondern hat mit Rangordnung zu tun: “Wenn der Chef das Sakko auch bei 30 Grad anbehält, muss ich mitschwitzen.” Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Mehr zum Thema KleidungDresscodes im Job: Was ist Business Casual?13 Kleidungstipps für MännerKleidungstipps für BusinessfrauenDresscode: Sommer im BüroEndlich Sommer!Barfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig:Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an …… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts …… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen …… oder Birkenstocks …… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops …… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken …… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte …… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater …… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider …… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern …… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel …… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants …… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe …… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen …… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine AlternativeNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken …… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, …… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause …… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben. 

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​ 1. Im T-Shirt zum Kunden?Ein Leser schreibt: ” Als IT-Experte wird man mehr respektiert, wenn man auch zum Kunden mit Jeans und T-Shirt fährt. Bei einem fachlichen Experten erwarten eben auch die Kunden keinen BWLer, sondern einen Nerd!”IT-Experten werden mehr respektiert, wenn sie auch zum Kunden mit Jeans und T-Shirt fahren, meint ein Leser. Die Stilexpertin sieht das etwas anders.
Foto: Eugenio Marongiu – shutterstock.comChristina Tabernig von Korrekt empfiehlt, zumindest beim Erstkontakt mit dem Kunden nicht als Nerd im T-Shirt aufzutreten: “Wenn ich den Kunden noch nicht kenne, sollten auch IT-Profis nicht auf Hemd mit Anzug oder Kombination verzichten. Eine Krawatte ist dagegen kein Muss mehr. Beim Erstkontakt hat man wenig Spielraum, schließlich drückt eine angemessene Kleidung auch den Respekt gegenüber dem Kunden aus: Lieber die Latte höher hängen.” Mitarbeiter, die in Kundenkontakt stehen, sollten sich mit der Wahl ihrer Kleidung immer an der Branche des Kunden orientieren. Geht es beim Kunden auch lockerer zu, kann der IT-Profi auch mit Stoffhose und Poloshirt auftauchen. Von T-Shirts ohne Kragen rät sie ab. Jeans gingen nur in Kombination mit einem gepflegten Lederschuh, der die “Arbeiterhose” aufwerte.2. Ab 30 Grad sind Birkenstocks in der IT erlaubtEin IT-Mitarbeiter einer Bank sitzt bei 31,5 Grad mit einfarbiger 3/4 Hose und den besagten Birkenstock-Sandalen am PC und sieht um sich herum viele Nachahmer: “Meistens sind doch IT´ler/Techniker/Elektriker/usw. eher leger gekleidet und Birkenstocks angesagt.”“Kein Mann schaut in Sandalen gut aus”, lautet dazu der Kommentar von Christina Tabernig. Mitarbeiter, die nur intern unterwegs sind, können im Sommer auf Bootsschuhe oder Loafers ausweichen. Geht es zum Kunden, müssen aber auch diese Schuhe zuhause im Schrank bleiben.Christina Tabernig, korrekt: “Kein Mann schaut in Sandalen gut aus.”
Foto: Christina Tabernig3. Mit kurzer Hose ins Büro?Ein Leser schreibt: “Auch bei deutschen Unternehmen, die von einem amerikanischen Mutterkonzern geführt werden, stelle ich immer häufiger die Kombination weißes Hemd mit kurzer Hose fest.”Kurze Hosen sind in den Augen der Knigge-Expertin im Home Office oder höchstens im stillen Kämmerlein erlaubt, in dem sich aber immer weniger der IT-Experten befinden. “Lange Hosen sind ein Muss für Herren”, betont Tabernig. Ob Dreiviertel- Hosen oder Bermudas, diese Beinkleider trägt man in der Freizeit. “Eine Faustregel sagt: Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen. Darunter fallen auch transparente Oberteile, Spaghettiträger oder zu kurze Röcke für die Frauen”, sagt Tabernig. Mitarbeiter sollten daran denken, dass auch ihr Chef registriert, in welchem Aufzug sie ins Büro kommen. Eine zu lockere oder zu nachlässige Kleidung verschlechtere oft die Karrierechancen.4. Die Hemdenfrage: Von kurzen Ärmeln und offenen KnöpfenMuss man den obersten Knopf immer schließen? Mancher Leser sieht darin ein Zeichen seiner “Angepasstheit” und lehnt das ab. Und was spricht gegen ein kurzes Hemd im Sommer?Dazu Christina Tabernig: “Der oberste Knopf kann offen bleiben, wenn man keine Krawatte trägt. Auch ein kurzes Hemd ist in Ordnung, aber dann bitte ohne Sakko und Krawatte. Das Motto ´lässig, aber nicht nachlässig´ ist hier eine gute Richtschnur. So wirkt es zum Beispiel nachlässig, wenn der oberste Knopf offen steht und die Krawatte auf Halbmast hängt.”5. Dresscode nur für Führungskräfte?Ein Leser stellt fest: “Es gibt keinen allgemeinen Business Dresscode. Es kommt immer darauf an, wo man arbeitet, welche Position man hat , usw.” Müssen sich zum Beispiel nur Führungskräfte an Kleidungsvorschriften halten?Auch Stilexpertin Tabernig empfiehlt, sich in Sachen Kleidung an den Gepflogenheiten im Unternehmen zu orientieren, und die können von Branche zu Branche sehr unterschiedlich sein. “Man sollte sich immer so kleiden wie die Position, die man als nächstes innehaben will”, sagt Tabernig. Einen Dresscode, der sich nur auf Führungskräfte bezieht, gebe es nicht. Allerdings nehme der Spielraum, wie sich Männer und Frauen kleiden können, mit zunehmender Hierarchiestufe ab. Je näher die Vorstandsebene rückt, desto grauer und dunkler würden die Farben.6. Wann darf Mann das Sakko ausziehen?Bei welcher Temperatur dürfen sich Männer in der Geschäftswelt ihres Sakkos entledigen? Das ist laut Tabernig keine Frage der Temperatur, sondern hat mit Rangordnung zu tun: “Wenn der Chef das Sakko auch bei 30 Grad anbehält, muss ich mitschwitzen.” Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Mehr zum Thema KleidungDresscodes im Job: Was ist Business Casual?13 Kleidungstipps für MännerKleidungstipps für BusinessfrauenDresscode: Sommer im BüroEndlich Sommer!Barfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig:Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an …… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts …… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen …… oder Birkenstocks …… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops …… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken …… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte …… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater …… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider …… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern …… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel …… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants …… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe …… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen …… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine AlternativeNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken …… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, …… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause …… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben.

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​ Weiterlesen »

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​

Allgemein

DBOS stellt eine drastische (und auf den ersten Blick unter Umständen absonderliche) Abkehr von bisherigen Konzepten der App-Entwicklung in der Cloud dar. Foto: Tattoboo | shutterstock.com Das Open-Source-Projekt Database Oriented Operating System (DBOS) wurde von Wissenschaftlern des MIT und der Stanford University im Rahmen eines kooperativen Forschungsprojekts auf die Beine gestellt. DBOS stellt Entwicklern in Aussicht, stabile Cloud-Native-Applikationen bei hoher Fehlertoleranz schneller, einfacher und sicherer erstellen zu können. Im Folgenden werfen wir einen detaillierten Blick auf die Entstehungsgeschichte, Komponenten und Funktionen von DBOS – und sagen Ihnen, wie Sie erste Schritte in der Praxis gehen. Was ist DBOS? Ende März 2024 verkündete Postgres-Schöpfer und DBOS-Mitbegründer Mike Stonebraker im Rahmen eines Blogbeitrags die Veröffentlichung von DBOS Cloud, “einer transaktionalen, Serverless-Computing-Plattform, die durch das revolutionäre, neue Betriebssystem DBOS ermöglicht wird und Betriebssystem-Services auf einer verteilten Datenbank implementiert”. Das klingt bei initialem Konsum – gelinde gesagt – ein wenig seltsam, ergibt aber mit Blick auf die Entstehungsgeschichte von DBOS durchaus Sinn. Die erläutert Stonebraker ebenfalls in besagtem Blogbeitrag: “Die Idee für DBOS entstand vor drei Jahren, als ich erkannte, dass der State, den ein Betriebssystem aufrechterhalten muss (Dateien, Prozesse, Threads, Nachrichten etcetera), um etwa sechs Größenordnungen gewachsen ist, seit ich 1973 mit Unix auf einer PDP-11/40 meine ersten Schritte tat. Aus dieser Perspektive ist es in erster Linie ein Datenbankproblem, den OS-State zu speichern. Dazu kommt, dass es sich bei Linux um Legacy-Code handelt, der sich nur schwer weiterentwickeln lässt. So gibt es zum Beispiel keine Multi-Node-Version – ein Orchestrierungs-Tool wie Kubernetes ist also obligatorisch. Als ich dann einen Vortrag von Matei Zaharia hörte, in dem er sagte, dass Databricks für seine Zwecke herkömmliche OS-Scheduling-Technologien nicht nutzen konnte und stattdessen auf eine Datenbankmanagement-Lösung setzte, war mir klar: Es war an der Zeit, letztere in den Kernel zu verlagern und ein neues Betriebssystem zu entwickeln.” Die verteilte Datenbank fußt (auf dem Papier) auf einem Minimal-Kernel, ist aber unterhalb der OS Services angesiedelt – statt wie eine herkömmliche Datenbank im Applikations-Layer zu laufen. Foto: Martin Heller | IDG Falls Sie Mike Stonebraker noch nicht kannten: Er ist bereits seit den frühen 1970er Jahren als Informatiker mit Datenbank-Fokus tätig. Zu seinen Errungenschaften zählen unter anderem die Entwicklung des relationalen Datenbanksystems Ingres, das später Sybase inspirierte – was wiederum die Grundlage für Microsoft SQL Server bildete. Zudem leistete Stonebraker Grundlagenarbeit für Postgres, das sich später zu PostgreSQL (und Illustra) weiterentwickelte. Angesichts dieser Historie überrascht es nicht, dass DBOS eine verteilte PostgreSQL-Version als Kernel-Database-Layer nutzt. Introducing DBOS Cloud: transactional #serverless computing platform.DBOS Cloud enhances #TypeScript with auto-scaling, statefulness, fault-tolerance, & cyber-resilience.Learn more from DBOS CTO & #postgres creator, Mike Stonebrakerhttps://t.co/1TIOdgHrLI1/2— DBOS (@DBOS_Inc) March 12, 2024 DBOS-Funktionen Im Folgenden werfen wir einen Blick auf die wesentlichen Komponenten von DBOS und ihre Features. Im Anschluß betrachten wir einige besonders interessante Aspekte im Detail. Bei DBOS Transact handelt es sich um ein Open-Source-TypeScript-Framework. Dieses unterstützt unter anderem: Workflow-Orchestrierung, Authentifizierung und Autorisierung, und Unit-Testing. DBOS Cloud ist eine transaktionale Serverless-Plattform, um DBOS-Transact-Apps bereitzustellen. Sie bietet zum Beispiel Support für: Serverless App Deployment, Time Travel Debugging, Cloud-Datenbankmanagement und Observability. DBOS Transact Der Code im folgenden Screenshot demonstriert Transaktionen sowie HTTP-Serving mit GET. Es lohnt sich also, die 18 Zeilen genau zu analysieren. Dieser Typescript-Code für eine Hello-Klasse wird generiert, wenn Sie einen DBOS-Create-Prozess anstoßen. Foto: Martin Heller | IDG Der erste Import (Zeile 1) bringt die DBOS-SDK-Klassen ein, die wir benötigen. Der zweite Import (Zeile 2) beschert uns den Knex.js SQL Query Builder, der die parametrisierte Abfrage an die Postgres-Datenbank sendet und die resultierenden Zeilen zurückgibt. Das Datenbankschema wird schließlich in den Zeilen 4 bis 8 definiert. Die einzigen Spalten sind ein name-String und ein greet_count-Integer. Die einzige Methode innerhalb der Hello-Klasse ist helloTransaction. Sie wird mit den Decorators @GetApi und @Transaction verpackt. Diese bewirken jeweils, dass besagte Methode über den Pfad /greeting/ als Antwort auf einen HTTP GET-Request geliefert wird – gefolgt vom zu übergebenden Username-Parameter. Das stellt sicher, dass nicht zwei Instanzen parallel die Datenbank aktualisieren. Der Datenbank-Query-String in Zeile 16 nutzt PostgreSQL-Syntax, um für den zur Verfügung gestellten Namen eine Zeile in die Datenbank einzufügen und diese mit dem Initialwert 1 auszustatten. Sollte diese Zeile bereits existieren, führt der ON CONFLICT-Trigger eine Aktualisierungsoperation aus. Wie in Zeile 17 zu sehen, wird die SQL-Abfrage mit Knex.js an die DBOS-Systemdatenbank gesendet und ihr Ergebnis abgerufen. DBOS Time Travel Debugger Wenn Sie eine Anwendung in DBOS Cloud ausführen, wird jeder Schritt und jede Änderung in der Datenbank festgehalten. Debuggen können Sie dabei entweder mit Visual Studio Code oder der DBOS Time Travel Debugger Extension. Letztere erlaubt Ihnen, Ihre DBOS-Applikation anhand der Datenbank (so wie sie zum Zeitpunkt des ausgewählten Workflows aussah) zu debuggen. Um den Time Travel Debugger zu nutzen, starten Sie mit einer CodeLens, um aus einer Liste gespeicherter Workflows den betreffenden auszuwählen. Foto: Martin Heller | IDG Time-travel Debugging mit einem gespeicherten Workflow erinnert stark an rudimentäre Arbeit mit Visual Studio Code. Foto: Martin Heller | IDG DBOS Quickstart Tutorial Das folgende Quickstart-Tutorial erfordert Node.js 20 (oder höher) und eine PostgreSQL-Datenbank, zu der Sie entweder lokal, über einen Docker-Container oder remote eine Verbindung herstellen können. Der eigentliche Quickstart beginnt damit, ein DBOS-App-Verzeichnis mit Node.js zu erstellen. martinheller@Martins-M1-MBP ~ % npx -y @dbos-inc/create@latest -n myapp Merged .gitignore files saved to myapp/.gitignore added 590 packages, and audited 591 packages in 25s found 0 vulnerabilities added 1 package, and audited 592 packages in 1s found 0 vulnerabilities added 129 packages, and audited 721 packages in 5s found 0 vulnerabilities Application initialized successfully! Anschließend füttern Sie die Anwendung mit den Daten Ihres Postgres-Servers und exportieren Ihr Passwort in eine Umgebungsvariable. martinheller@Martins-M1-MBP ~ % cd myapp martinheller@Martins-M1-MBP myapp % npx dbos configure ? What is the hostname of your Postgres server? localhost ? What is the port of your Postgres server? 5432 ? What is your Postgres username? postgres martinheller@Martins-M1-MBP myapp % export PGPASSWORD=********* Im nächsten Schritt erstellen Sie eine “Hello”-Datenbank mit Node.js und Knex.js. martinheller@Martins-M1-MBP myapp % npx dbos migrate 2024-04-09 15:01:42 [info]: Starting migration: creating database hello if it does not exist 2024-04-09 15:01:42 [info]: Database hello does not exist, creating… 2024-04-09 15:01:42 [info]: Executing migration command: npx knex migrate:latest 2024-04-09 15:01:43 [info]: Batch 1 run: 1 migrations 2024-04-09 15:01:43 [info]: Creating DBOS tables and system database. 2024-04-09 15:01:43 [info]: Migration successful! Hiernach können Sie die DBOS-Applikation lokal erstellen und ausführen. martinheller@Martins-M1-MBP myapp % npm run build npx dbos start > myapp@0.0.1 build > tsc 2024-04-09 15:02:30 [info]: Workflow executor initialized 2024-04-09 15:02:30 [info]: HTTP endpoints supported: 2024-04-09 15:02:30 [info]: GET : /greeting/:user 2024-04-09 15:02:30 [info]: DBOS Server is running at http://localhost:3000 2024-04-09 15:02:30 [info]: DBOS Admin Server is running at http://localhost:3001 ^C An diesem Punkt können Sie http://localhost:3000 aufrufen, um die Anwendung zu testen. Danach registrieren Sie sich für DBOS Cloud und stellen dort Ihre eigene Datenbank bereit. martinheller@Martins-M1-MBP myapp % npx dbos-cloud register -u meheller 2024-04-09 15:11:35 [info]: Welcome to DBOS Cloud! 2024-04-09 15:11:35 [info]: Before creating an account, please tell us a bit about yourself! Enter First/Given Name: Martin Enter Last/Family Name: Heller Enter Company: self 2024-04-09 15:12:06 [info]: Please authenticate with DBOS Cloud! Login URL: https://login.dbos.dev/activate?user_code=QWKW-TXTB 2024-04-09 15:12:12 [info]: Waiting for login… 2024-04-09 15:12:17 [info]: Waiting for login… 2024-04-09 15:12:22 [info]: Waiting for login… 2024-04-09 15:12:27 [info]: Waiting for login… 2024-04-09 15:12:32 [info]: Waiting for login… 2024-04-09 15:12:38 [info]: Waiting for login… 2024-04-09 15:12:44 [info]: meheller successfully registered! martinheller@Martins-M1-MBP myapp % npx dbos-cloud db provision iw_db -U meheller Database Password: ******** 2024-04-09 15:19:22 [info]: Successfully started provisioning database: iw_db 2024-04-09 15:19:28 [info]: {“PostgresInstanceName”:”iw_db”,”HostName”:”userdb-51fcc211-6ed3-4450-a90e-0f864fc1066c.cvc4gmaa6qm9.us-east-1.rds.amazonaws.com”,”Status”:”available”,”Port”:5432,”DatabaseUsername”:”meheller”,”AdminUsername”:”meheller”} 2024-04-09 15:19:28 [info]: Database successfully provisioned! Im letzten Schritt können Sie schließlich Ihre Applikation über DBOS Cloud registrieren und bereitstellen. martinheller@Martins-M1-MBP myapp % npx dbos-cloud app register -d iw_db 2024-04-09 15:20:09 [info]: Loaded application name from package.json: myapp 2024-04-09 15:20:09 [info]: Registering application: myapp 2024-04-09 15:20:11 [info]: myapp ID: d8806829-c5b8-4df0-8b5a-2d1bf87c3322 2024-04-09 15:20:11 [info]: Successfully registered myapp! martinheller@Martins-M1-MBP myapp % npx dbos-cloud app deploy 2024-04-09 15:20:35 [info]: Loaded application name from package.json: myapp 2024-04-09 15:20:35 [info]: Submitting deploy request for myapp 2024-04-09 15:21:09 [info]: Submitted deploy request for myapp. Assigned version: 1712676035 2024-04-09 15:21:13 [info]: Waiting for myapp with version 1712676035 to be available 2024-04-09 15:21:21 [info]: Successfully deployed myapp! 2024-04-09 15:21:21 [info]: Access your application at https://meheller-myapp.cloud.dbos.dev/ Diese “Hello”-Anwendung resultiert aus dem obenstehenden Code. Foto: Martin Heller | IDG Diese Anwendung veranschaulicht einige Kernfunktionen von DBOS Transact und DBOS Cloud, ist dabei aber so einfach gestrickt, dass sie eher untauglich ist, um damit zu experimentieren. Das DBOS “Programming Quickstart“-Tutorial ist etwas tiefgehender angelegt. Hier lernen Sie zum Beispiel, wie Sie Communicator-Funktionen verwenden, um auf Dienste von Drittanbietern zuzugreifen oder wie Sie zuverlässige Workflows zusammenstellen. Fazit: DBOS (Cloud) verlockt! DBOS und DBOS Cloud sehen unserer Meinung nach sehr interessant aus, nicht zuletzt wegen der zuverlässigen Execution und der Möglichkeit des Time-Travel Debugging. Vor dem Real-World-Einsatz gilt es allerdings noch einige Fragen zu beantworten. Zum Beispiel mit Blick auf Skalierbarkeit und Kosten. Ob sich DBOS unter Entwicklern durchsetzt, bleibt ohnehin abzuwarten. Schließlich tendieren diese eher dazu, an Gewohnheiten festzuhalten – bis die nicht mehr funktionieren. Insofern könnte eine Umstellung auf DBOS und den auf den ersten Blick etwas extravagant anmutenden Code eine Herausforderung darstellen. Zu erwähnen ist auch, dass die aktuelle Implementierung von DBOS dem Schaubild am Anfang des Artikels eher fern als nah ist: DBOS läuft aktuell auf macOS, Linux, Windows – DBOS Cloud auf AWS. Von “Minimal Kernel” kann da eher keine Rede sein. Dennoch hat DBOS seinen Reiz und die Reputation der Köpfe hinter dem Projekt spricht für sich selbst. Bis DBOS Mainstream wird, könnte es trotzdem noch eine ganze Zeit lang dauern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​ DBOS stellt eine drastische (und auf den ersten Blick unter Umständen absonderliche) Abkehr von bisherigen Konzepten der App-Entwicklung in der Cloud dar.
Foto: Tattoboo | shutterstock.com

Das Open-Source-Projekt Database Oriented Operating System (DBOS) wurde von Wissenschaftlern des MIT und der Stanford University im Rahmen eines kooperativen Forschungsprojekts auf die Beine gestellt. DBOS stellt Entwicklern in Aussicht, stabile Cloud-Native-Applikationen bei hoher Fehlertoleranz schneller, einfacher und sicherer erstellen zu können.

Im Folgenden werfen wir einen detaillierten Blick auf die Entstehungsgeschichte, Komponenten und Funktionen von DBOS – und sagen Ihnen, wie Sie erste Schritte in der Praxis gehen.

Was ist DBOS?

Ende März 2024 verkündete Postgres-Schöpfer und DBOS-Mitbegründer Mike Stonebraker im Rahmen eines Blogbeitrags die Veröffentlichung von DBOS Cloud, “einer transaktionalen, Serverless-Computing-Plattform, die durch das revolutionäre, neue Betriebssystem DBOS ermöglicht wird und Betriebssystem-Services auf einer verteilten Datenbank implementiert”. Das klingt bei initialem Konsum – gelinde gesagt – ein wenig seltsam, ergibt aber mit Blick auf die Entstehungsgeschichte von DBOS durchaus Sinn. Die erläutert Stonebraker ebenfalls in besagtem Blogbeitrag:

“Die Idee für DBOS entstand vor drei Jahren, als ich erkannte, dass der State, den ein Betriebssystem aufrechterhalten muss (Dateien, Prozesse, Threads, Nachrichten etcetera), um etwa sechs Größenordnungen gewachsen ist, seit ich 1973 mit Unix auf einer PDP-11/40 meine ersten Schritte tat. Aus dieser Perspektive ist es in erster Linie ein Datenbankproblem, den OS-State zu speichern. Dazu kommt, dass es sich bei Linux um Legacy-Code handelt, der sich nur schwer weiterentwickeln lässt. So gibt es zum Beispiel keine Multi-Node-Version – ein Orchestrierungs-Tool wie Kubernetes ist also obligatorisch. Als ich dann einen Vortrag von Matei Zaharia hörte, in dem er sagte, dass Databricks für seine Zwecke herkömmliche OS-Scheduling-Technologien nicht nutzen konnte und stattdessen auf eine Datenbankmanagement-Lösung setzte, war mir klar: Es war an der Zeit, letztere in den Kernel zu verlagern und ein neues Betriebssystem zu entwickeln.”

Die verteilte Datenbank fußt (auf dem Papier) auf einem Minimal-Kernel, ist aber unterhalb der OS Services angesiedelt – statt wie eine herkömmliche Datenbank im Applikations-Layer zu laufen.
Foto: Martin Heller | IDG

Falls Sie Mike Stonebraker noch nicht kannten: Er ist bereits seit den frühen 1970er Jahren als Informatiker mit Datenbank-Fokus tätig. Zu seinen Errungenschaften zählen unter anderem die Entwicklung des relationalen Datenbanksystems Ingres, das später Sybase inspirierte – was wiederum die Grundlage für Microsoft SQL Server bildete. Zudem leistete Stonebraker Grundlagenarbeit für Postgres, das sich später zu PostgreSQL (und Illustra) weiterentwickelte. Angesichts dieser Historie überrascht es nicht, dass DBOS eine verteilte PostgreSQL-Version als Kernel-Database-Layer nutzt.

Introducing DBOS Cloud: transactional #serverless computing platform.DBOS Cloud enhances #TypeScript with auto-scaling, statefulness, fault-tolerance, & cyber-resilience.Learn more from DBOS CTO & #postgres creator, Mike Stonebrakerhttps://t.co/1TIOdgHrLI1/2— DBOS (@DBOS_Inc) March 12, 2024

DBOS-Funktionen

Im Folgenden werfen wir einen Blick auf die wesentlichen Komponenten von DBOS und ihre Features. Im Anschluß betrachten wir einige besonders interessante Aspekte im Detail.

Bei DBOS Transact handelt es sich um ein Open-Source-TypeScript-Framework. Dieses unterstützt unter anderem:

Workflow-Orchestrierung,

Authentifizierung und Autorisierung, und

Unit-Testing.

DBOS Cloud ist eine transaktionale Serverless-Plattform, um DBOS-Transact-Apps bereitzustellen. Sie bietet zum Beispiel Support für:

Serverless App Deployment,

Time Travel Debugging,

Cloud-Datenbankmanagement und

Observability.

DBOS Transact

Der Code im folgenden Screenshot demonstriert Transaktionen sowie HTTP-Serving mit GET. Es lohnt sich also, die 18 Zeilen genau zu analysieren.

Dieser Typescript-Code für eine Hello-Klasse wird generiert, wenn Sie einen DBOS-Create-Prozess anstoßen.
Foto: Martin Heller | IDG

Der erste Import (Zeile 1) bringt die DBOS-SDK-Klassen ein, die wir benötigen. Der zweite Import (Zeile 2) beschert uns den Knex.js SQL Query Builder, der die parametrisierte Abfrage an die Postgres-Datenbank sendet und die resultierenden Zeilen zurückgibt. Das Datenbankschema wird schließlich in den Zeilen 4 bis 8 definiert. Die einzigen Spalten sind ein name-String und ein greet_count-Integer.

Die einzige Methode innerhalb der Hello-Klasse ist helloTransaction. Sie wird mit den Decorators @GetApi und @Transaction verpackt. Diese bewirken jeweils, dass besagte Methode über den Pfad /greeting/ als Antwort auf einen HTTP GET-Request geliefert wird – gefolgt vom zu übergebenden Username-Parameter. Das stellt sicher, dass nicht zwei Instanzen parallel die Datenbank aktualisieren.

Der Datenbank-Query-String in Zeile 16 nutzt PostgreSQL-Syntax, um für den zur Verfügung gestellten Namen eine Zeile in die Datenbank einzufügen und diese mit dem Initialwert 1 auszustatten. Sollte diese Zeile bereits existieren, führt der ON CONFLICT-Trigger eine Aktualisierungsoperation aus. Wie in Zeile 17 zu sehen, wird die SQL-Abfrage mit Knex.js an die DBOS-Systemdatenbank gesendet und ihr Ergebnis abgerufen.

DBOS Time Travel Debugger

Wenn Sie eine Anwendung in DBOS Cloud ausführen, wird jeder Schritt und jede Änderung in der Datenbank festgehalten. Debuggen können Sie dabei entweder mit Visual Studio Code oder der DBOS Time Travel Debugger Extension. Letztere erlaubt Ihnen, Ihre DBOS-Applikation anhand der Datenbank (so wie sie zum Zeitpunkt des ausgewählten Workflows aussah) zu debuggen.

Um den Time Travel Debugger zu nutzen, starten Sie mit einer CodeLens, um aus einer Liste gespeicherter Workflows den betreffenden auszuwählen.
Foto: Martin Heller | IDG

Time-travel Debugging mit einem gespeicherten Workflow erinnert stark an rudimentäre Arbeit mit Visual Studio Code.
Foto: Martin Heller | IDG

DBOS Quickstart Tutorial

Das folgende Quickstart-Tutorial erfordert Node.js 20 (oder höher) und eine PostgreSQL-Datenbank, zu der Sie entweder lokal, über einen Docker-Container oder remote eine Verbindung herstellen können. Der eigentliche Quickstart beginnt damit, ein DBOS-App-Verzeichnis mit Node.js zu erstellen.

martinheller@Martins-M1-MBP ~ % npx -y @dbos-inc/create@latest -n myapp

Merged .gitignore files saved to myapp/.gitignore

added 590 packages, and audited 591 packages in 25s

found 0 vulnerabilities

added 1 package, and audited 592 packages in 1s

found 0 vulnerabilities

added 129 packages, and audited 721 packages in 5s

found 0 vulnerabilities

Application initialized successfully!

Anschließend füttern Sie die Anwendung mit den Daten Ihres Postgres-Servers und exportieren Ihr Passwort in eine Umgebungsvariable.

martinheller@Martins-M1-MBP ~ % cd myapp

martinheller@Martins-M1-MBP myapp % npx dbos configure

? What is the hostname of your Postgres server? localhost

? What is the port of your Postgres server? 5432

? What is your Postgres username? postgres

martinheller@Martins-M1-MBP myapp % export PGPASSWORD=*********

Im nächsten Schritt erstellen Sie eine “Hello”-Datenbank mit Node.js und Knex.js.

martinheller@Martins-M1-MBP myapp % npx dbos migrate

2024-04-09 15:01:42 [info]: Starting migration: creating database hello if it does not exist

2024-04-09 15:01:42 [info]: Database hello does not exist, creating…

2024-04-09 15:01:42 [info]: Executing migration command: npx knex migrate:latest

2024-04-09 15:01:43 [info]: Batch 1 run: 1 migrations

2024-04-09 15:01:43 [info]: Creating DBOS tables and system database.

2024-04-09 15:01:43 [info]: Migration successful!

Hiernach können Sie die DBOS-Applikation lokal erstellen und ausführen.

martinheller@Martins-M1-MBP myapp % npm run build

npx dbos start

> myapp@0.0.1 build

> tsc

2024-04-09 15:02:30 [info]: Workflow executor initialized

2024-04-09 15:02:30 [info]: HTTP endpoints supported:

2024-04-09 15:02:30 [info]: GET : /greeting/:user

2024-04-09 15:02:30 [info]: DBOS Server is running at http://localhost:3000

2024-04-09 15:02:30 [info]: DBOS Admin Server is running at http://localhost:3001

^C

An diesem Punkt können Sie http://localhost:3000 aufrufen, um die Anwendung zu testen. Danach registrieren Sie sich für DBOS Cloud und stellen dort Ihre eigene Datenbank bereit.

martinheller@Martins-M1-MBP myapp % npx dbos-cloud register -u meheller

2024-04-09 15:11:35 [info]: Welcome to DBOS Cloud!

2024-04-09 15:11:35 [info]: Before creating an account, please tell us a bit about yourself!

Enter First/Given Name: Martin

Enter Last/Family Name: Heller

Enter Company: self

2024-04-09 15:12:06 [info]: Please authenticate with DBOS Cloud!

Login URL: https://login.dbos.dev/activate?user_code=QWKW-TXTB

2024-04-09 15:12:12 [info]: Waiting for login…

2024-04-09 15:12:17 [info]: Waiting for login…

2024-04-09 15:12:22 [info]: Waiting for login…

2024-04-09 15:12:27 [info]: Waiting for login…

2024-04-09 15:12:32 [info]: Waiting for login…

2024-04-09 15:12:38 [info]: Waiting for login…

2024-04-09 15:12:44 [info]: meheller successfully registered!

martinheller@Martins-M1-MBP myapp % npx dbos-cloud db provision iw_db -U meheller

Database Password: ********

2024-04-09 15:19:22 [info]: Successfully started provisioning database: iw_db

2024-04-09 15:19:28 [info]: {“PostgresInstanceName”:”iw_db”,”HostName”:”userdb-51fcc211-6ed3-4450-a90e-0f864fc1066c.cvc4gmaa6qm9.us-east-1.rds.amazonaws.com”,”Status”:”available”,”Port”:5432,”DatabaseUsername”:”meheller”,”AdminUsername”:”meheller”}

2024-04-09 15:19:28 [info]: Database successfully provisioned!

Im letzten Schritt können Sie schließlich Ihre Applikation über DBOS Cloud registrieren und bereitstellen.

martinheller@Martins-M1-MBP myapp % npx dbos-cloud app register -d iw_db

2024-04-09 15:20:09 [info]: Loaded application name from package.json: myapp

2024-04-09 15:20:09 [info]: Registering application: myapp

2024-04-09 15:20:11 [info]: myapp ID: d8806829-c5b8-4df0-8b5a-2d1bf87c3322

2024-04-09 15:20:11 [info]: Successfully registered myapp!

martinheller@Martins-M1-MBP myapp % npx dbos-cloud app deploy

2024-04-09 15:20:35 [info]: Loaded application name from package.json: myapp

2024-04-09 15:20:35 [info]: Submitting deploy request for myapp

2024-04-09 15:21:09 [info]: Submitted deploy request for myapp. Assigned version: 1712676035

2024-04-09 15:21:13 [info]: Waiting for myapp with version 1712676035 to be available

2024-04-09 15:21:21 [info]: Successfully deployed myapp!

2024-04-09 15:21:21 [info]: Access your application at https://meheller-myapp.cloud.dbos.dev/

Diese “Hello”-Anwendung resultiert aus dem obenstehenden Code.
Foto: Martin Heller | IDG

Diese Anwendung veranschaulicht einige Kernfunktionen von DBOS Transact und DBOS Cloud, ist dabei aber so einfach gestrickt, dass sie eher untauglich ist, um damit zu experimentieren. Das DBOS “Programming Quickstart“-Tutorial ist etwas tiefgehender angelegt. Hier lernen Sie zum Beispiel, wie Sie Communicator-Funktionen verwenden, um auf Dienste von Drittanbietern zuzugreifen oder wie Sie zuverlässige Workflows zusammenstellen.

Fazit: DBOS (Cloud) verlockt!

DBOS und DBOS Cloud sehen unserer Meinung nach sehr interessant aus, nicht zuletzt wegen der zuverlässigen Execution und der Möglichkeit des Time-Travel Debugging. Vor dem Real-World-Einsatz gilt es allerdings noch einige Fragen zu beantworten. Zum Beispiel mit Blick auf Skalierbarkeit und Kosten.

Ob sich DBOS unter Entwicklern durchsetzt, bleibt ohnehin abzuwarten. Schließlich tendieren diese eher dazu, an Gewohnheiten festzuhalten – bis die nicht mehr funktionieren. Insofern könnte eine Umstellung auf DBOS und den auf den ersten Blick etwas extravagant anmutenden Code eine Herausforderung darstellen. Zu erwähnen ist auch, dass die aktuelle Implementierung von DBOS dem Schaubild am Anfang des Artikels eher fern als nah ist: DBOS läuft aktuell auf macOS, Linux, Windows – DBOS Cloud auf AWS. Von “Minimal Kernel” kann da eher keine Rede sein.

Dennoch hat DBOS seinen Reiz und die Reputation der Köpfe hinter dem Projekt spricht für sich selbst. Bis DBOS Mainstream wird, könnte es trotzdem noch eine ganze Zeit lang dauern. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​ Weiterlesen »

Behörden weiten Zugriff auf Nutzerkonten aus​

Allgemein

Behörden nehmen weltweit immer mehr Nutzerkonten ins Visier und verlangen Einblick von Apple, Google, Meta und Microsoft.AlinStock – shutterstock.com Regierungen und Behörden weltweit verlangen immer häufiger Zugriff auf Nutzerkonten bei Big Tech-Konzernen wie Apple, Google, Meta und Microsoft. Das zeigt ein Bericht von Surfshark, einem Cybersecurity-Anbieter. Demzufolge hätten seit 2020 rund 190 Regierungen insgesamt 8,4 Millionen Nutzerkonten angefragt. Die Länder mit den meisten Anfragen sind:  USA (33 Prozent),  Indien (21 Prozent),  Brasilien (13 Prozent),  Deutschland (8 Prozent),  Großbritannien (3,2 Prozent),  Frankreich (3,2 Prozent),  Südkorea (2,8 Prozent),  Polen (1,9 Prozent),  Spanien (1,2 Prozent) und  Italien (0,9 Prozent).  Laut dem Surfshark-Bericht fordern Regierungen mehr Nutzerdaten an als je zuvor. 2020 seien insgesamt 1,3 Millionen Konten angefragt worden. 2023 lag diese Zahl bereits bei 2,1 Millionen – ein Anstieg um 63 Prozent. Das erste Halbjahr 2024 deutet auf ein weiteres Rekordjahr hin. US- und EU-Behörden würden demzufolge die meisten Anfragen stellen und seien in den Jahren 2013 bis Mitte 2024 für 55 Prozent aller angefragten Konten verantwortlich gewesen.  Big Tech spielt mit Dabei steigt auch die Kooperationsbereitschaft von Big Tech. Lag die durchschnittliche Kooperationsrate zwischen 2013 und 2021 bei 70 Prozent, stieg sie von 2022 bis Mitte 2024 auf durchschnittlich 78 Prozent. Die Ergebnisse im Einzelnen:  Google erhielt 337.919 Anfragen und erfüllte 250.074 davon – eine Kooperationsrate von 74 Prozent.  Meta erhielt 215.942 Anfragen und kam 138.015 nach – eine Kooperationsrate von 64 Prozent.  Apple erhielt 11.712 Anfragen, davon wurden 7.894 erfüllt – eine Kooperationsrate von 67 Prozent.  Microsoft erhielt 107.029 Anfragen und kam 67.402 nach – eine Kooperationsrate von 63 Prozent.  Surfshark weist in seinem Bericht auch auf ein anderes bedenkliches Phänomen hin – den deutlichen Anstieg von Notfallanfragen, die gängige rechtliche Verfahren umgehen. Seit 2013 seien in Notfällen 153.000 Anfragen zu Nutzerdaten gestellt worden, allein im ersten Quartal 2024 rund 15.000. Tendenz offenbar steigend, wie Zahlen aus Deutschland belegen. Hierzulande hätten Behörden in der ersten Hälfte des Jahres 2024 Notfallanfragen für 661 Nutzerkonten gestellt – verglichen mit 418 im ersten Halbjahr 2023. Das entspricht einem Anstieg von 58 Prozent.  Schmaler Grat zwischen Schutz und Missbrauch „Notfallanfragen werden typischerweise in Situationen gestellt, in denen eine unmittelbare Gefahr für Leben oder schwere Verletzungen besteht, zum Beispiel bei Suizidandrohungen oder Amokläufen an Schulen“, erläutert Goda Sukackaite, Datenschutzexpertin bei Surfshark. Besorgniserregend sei jedoch, dass solche dringenden Anfragen von Regierungen oder Strafverfolgungsbehörden häufig ohne richterliche Anordnung oder Vorladung gestellt würden, um schnell auf Nutzerdaten zuzugreifen und Schaden zu verhindern. Regierungen verlangen Zugriff auf immer mehr Nutzerkonten.Surfshark „Sollten Regierungen diese Methoden missbräuchlich anwenden – beispielsweise durch eine übermäßig weite Interpretation des Begriffs ‚Bedrohung‘ – könnte dies in Massenüberwachung, der Sammlung enormer Datenmengen und der Gefährdung fundamentaler Freiheiten resultieren“, warnt Sukachaite. Notfallanfragen erfüllten zwar eine wichtige Rolle beim Schutz von Leben und öffentlicher Sicherheit, erforderten jedoch auch eine sorgfältige Regulierung und Aufsicht, um individuelle Rechte zu schützen und Missbrauch zu verhindern. Google bekommt die meisten Notfallanfragen Behörden in Großbritannien stellten von 2013 bis Mitte 2024 weltweit die meisten Notfallanfragen (26 Prozent und 40.000 Konten). Deutschland belegt in Europa den dritten Platz bei den Notfallanfragen und kommt weltweit auf einen Anteil von zwei Prozent (3.000 Konten).  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”> Von den Big-Tech-Konzernen veröffentlichen Google, Microsoft und Apple Zahlen zu erhaltenen Notfallanfragen, während Meta diese nicht separat ausweist. Google erhielt 85 Prozent aller Notfallanfragen und war zwischen 2013 und 2015 das einzige Unternehmen, das diese berichtete. 2013 erhielt Google 392 Anfragen, 2023 waren es bereits 25.500. Bei Apple liefen zehn Prozent aller Notfallanfragen auf, bei Microsoft fünf Prozent. Beide Unternehmen zeigen ähnliche Trends wie Google.  

Behörden weiten Zugriff auf Nutzerkonten aus​ Behörden nehmen weltweit immer mehr Nutzerkonten ins Visier und verlangen Einblick von Apple, Google, Meta und Microsoft.AlinStock – shutterstock.com

Regierungen und Behörden weltweit verlangen immer häufiger Zugriff auf Nutzerkonten bei Big Tech-Konzernen wie Apple, Google, Meta und Microsoft. Das zeigt ein Bericht von Surfshark, einem Cybersecurity-Anbieter. Demzufolge hätten seit 2020 rund 190 Regierungen insgesamt 8,4 Millionen Nutzerkonten angefragt. Die Länder mit den meisten Anfragen sind: 

USA (33 Prozent), 

Indien (21 Prozent), 

Brasilien (13 Prozent), 

Deutschland (8 Prozent), 

Großbritannien (3,2 Prozent), 

Frankreich (3,2 Prozent), 

Südkorea (2,8 Prozent), 

Polen (1,9 Prozent), 

Spanien (1,2 Prozent) und 

Italien (0,9 Prozent). 

Laut dem Surfshark-Bericht fordern Regierungen mehr Nutzerdaten an als je zuvor. 2020 seien insgesamt 1,3 Millionen Konten angefragt worden. 2023 lag diese Zahl bereits bei 2,1 Millionen – ein Anstieg um 63 Prozent. Das erste Halbjahr 2024 deutet auf ein weiteres Rekordjahr hin. US- und EU-Behörden würden demzufolge die meisten Anfragen stellen und seien in den Jahren 2013 bis Mitte 2024 für 55 Prozent aller angefragten Konten verantwortlich gewesen. 

Big Tech spielt mit

Dabei steigt auch die Kooperationsbereitschaft von Big Tech. Lag die durchschnittliche Kooperationsrate zwischen 2013 und 2021 bei 70 Prozent, stieg sie von 2022 bis Mitte 2024 auf durchschnittlich 78 Prozent. Die Ergebnisse im Einzelnen: 

Google erhielt 337.919 Anfragen und erfüllte 250.074 davon – eine Kooperationsrate von 74 Prozent. 

Meta erhielt 215.942 Anfragen und kam 138.015 nach – eine Kooperationsrate von 64 Prozent. 

Apple erhielt 11.712 Anfragen, davon wurden 7.894 erfüllt – eine Kooperationsrate von 67 Prozent. 

Microsoft erhielt 107.029 Anfragen und kam 67.402 nach – eine Kooperationsrate von 63 Prozent. 

Surfshark weist in seinem Bericht auch auf ein anderes bedenkliches Phänomen hin – den deutlichen Anstieg von Notfallanfragen, die gängige rechtliche Verfahren umgehen. Seit 2013 seien in Notfällen 153.000 Anfragen zu Nutzerdaten gestellt worden, allein im ersten Quartal 2024 rund 15.000. Tendenz offenbar steigend, wie Zahlen aus Deutschland belegen. Hierzulande hätten Behörden in der ersten Hälfte des Jahres 2024 Notfallanfragen für 661 Nutzerkonten gestellt – verglichen mit 418 im ersten Halbjahr 2023. Das entspricht einem Anstieg von 58 Prozent. 

Schmaler Grat zwischen Schutz und Missbrauch

„Notfallanfragen werden typischerweise in Situationen gestellt, in denen eine unmittelbare Gefahr für Leben oder schwere Verletzungen besteht, zum Beispiel bei Suizidandrohungen oder Amokläufen an Schulen“, erläutert Goda Sukackaite, Datenschutzexpertin bei Surfshark. Besorgniserregend sei jedoch, dass solche dringenden Anfragen von Regierungen oder Strafverfolgungsbehörden häufig ohne richterliche Anordnung oder Vorladung gestellt würden, um schnell auf Nutzerdaten zuzugreifen und Schaden zu verhindern.

Regierungen verlangen Zugriff auf immer mehr Nutzerkonten.Surfshark

„Sollten Regierungen diese Methoden missbräuchlich anwenden – beispielsweise durch eine übermäßig weite Interpretation des Begriffs ‚Bedrohung‘ – könnte dies in Massenüberwachung, der Sammlung enormer Datenmengen und der Gefährdung fundamentaler Freiheiten resultieren“, warnt Sukachaite. Notfallanfragen erfüllten zwar eine wichtige Rolle beim Schutz von Leben und öffentlicher Sicherheit, erforderten jedoch auch eine sorgfältige Regulierung und Aufsicht, um individuelle Rechte zu schützen und Missbrauch zu verhindern.

Google bekommt die meisten Notfallanfragen

Behörden in Großbritannien stellten von 2013 bis Mitte 2024 weltweit die meisten Notfallanfragen (26 Prozent und 40.000 Konten). Deutschland belegt in Europa den dritten Platz bei den Notfallanfragen und kommt weltweit auf einen Anteil von zwei Prozent (3.000 Konten). 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”>

Von den Big-Tech-Konzernen veröffentlichen Google, Microsoft und Apple Zahlen zu erhaltenen Notfallanfragen, während Meta diese nicht separat ausweist. Google erhielt 85 Prozent aller Notfallanfragen und war zwischen 2013 und 2015 das einzige Unternehmen, das diese berichtete. 2013 erhielt Google 392 Anfragen, 2023 waren es bereits 25.500. Bei Apple liefen zehn Prozent aller Notfallanfragen auf, bei Microsoft fünf Prozent. Beide Unternehmen zeigen ähnliche Trends wie Google. 

Behörden weiten Zugriff auf Nutzerkonten aus​ Weiterlesen »

Allianz zwischen OpenAI und Google Cloud​

Allgemein

OpenAI fährt mehrgleisig und will künftig neben der Azure-Infrastruktur von Microsoft auch Ressourcen aus der Google Cloud nutzen. Tada Images – shutterstock.com Eigentlich sind OpenAI und Google Cloud Konkurrenten im Bereich der Künstlichen Intelligenz (KI). Doch im Mai 2025 haben das Start-Up und der Techriese überraschend eine Partnerschaft vereinbart, wie das Nachrichtenportal Reuters berichtete. Ziel der Kooperation ist offenbar, OpenAIs wachsenden Bedarf an Rechenkapazitäten zu decken. Google Cloud ergänzt Azure Der abgeschlossene Cloud-Deal markiert eine strategische Abkehr der ChatGPT-Macher von der bisherigen exklusiven Partnerschaft mit Microsoft Azure. Diese besteht seit 2019 und wurde in den letzten Jahren durch erhebliche Investitionen von Microsoft intensiviert. OpenAI nutzt nun zusätzlich Googles Cloud-Infrastruktur, um seine KI-Modelle effizienter zu betreiben, wobei die Alphabet-Tochter dafür zusätzliche Rechenkapazitäten bereitstellt. Der Deal ist Teil einer Reihe von Maßnahmen von OpenAI, ihre Rechenressourcen zu diversifizieren. TPUs als Schlüssel Für Google ist die Aufnahme von OpenAI als Cloud-Kunde ein Beleg für die erfolgreiche Nutzung eigener Tensor Processing Units (TPUs), so Reuters. Diese wurden speziell für KI-Aufgaben entwickelt und sollen es Google ermöglichen, sich als bevorzugter Cloud-Anbieter für KI-Startups zu positionieren. Zusätzlich sollen die Chips Google dabei helfen, im Cloud-Wettbewerb mit Amazon und Microsoft im Cloud-Markt konkurrenzfähig zu bleiben. Trotz der strategischen Vorteile für Google birgt der Deal allerdings auch das Risiko, einen direkten Wettbewerber zu stärken. Denn Googles KI-Abteilung DeepMind steht bei der Entwicklung von KI-Modellen und -Tools in direktem Wettbewerb mit OpenAI. Sundar Pichai, CEO von Google deutete jedoch im Mai 2025 an, dass es im KI-Rennen nicht unbedingt einen eindeutigen Sieger geben muss. Neue Allianzen trotz Konkurrenz Die Partnerschaft zwischen OpenAI und Google Cloud verdeutlicht auf jeden Fall, wie der immense Bedarf an KI-Rechenleistung traditionelle Wettbewerbsgrenzen verändert und neue Kooperationsformen ermöglicht. Während OpenAI seine Infrastruktur breiter aufstellt, um den steigenden Anforderungen gerecht zu werden, nutzt Google die Gelegenheit, seine Cloud-Strategie im KI-Wettbewerb weiter auszubauen. 

Allianz zwischen OpenAI und Google Cloud​ OpenAI fährt mehrgleisig und will künftig neben der Azure-Infrastruktur von Microsoft auch Ressourcen aus der Google Cloud nutzen.
Tada Images – shutterstock.com

Eigentlich sind OpenAI und Google Cloud Konkurrenten im Bereich der Künstlichen Intelligenz (KI). Doch im Mai 2025 haben das Start-Up und der Techriese überraschend eine Partnerschaft vereinbart, wie das Nachrichtenportal Reuters berichtete. Ziel der Kooperation ist offenbar, OpenAIs wachsenden Bedarf an Rechenkapazitäten zu decken.

Google Cloud ergänzt Azure

Der abgeschlossene Cloud-Deal markiert eine strategische Abkehr der ChatGPT-Macher von der bisherigen exklusiven Partnerschaft mit Microsoft Azure. Diese besteht seit 2019 und wurde in den letzten Jahren durch erhebliche Investitionen von Microsoft intensiviert.

OpenAI nutzt nun zusätzlich Googles Cloud-Infrastruktur, um seine KI-Modelle effizienter zu betreiben, wobei die Alphabet-Tochter dafür zusätzliche Rechenkapazitäten bereitstellt. Der Deal ist Teil einer Reihe von Maßnahmen von OpenAI, ihre Rechenressourcen zu diversifizieren.

TPUs als Schlüssel

Für Google ist die Aufnahme von OpenAI als Cloud-Kunde ein Beleg für die erfolgreiche Nutzung eigener Tensor Processing Units (TPUs), so Reuters. Diese wurden speziell für KI-Aufgaben entwickelt und sollen es Google ermöglichen, sich als bevorzugter Cloud-Anbieter für KI-Startups zu positionieren.

Zusätzlich sollen die Chips Google dabei helfen, im Cloud-Wettbewerb mit Amazon und Microsoft im Cloud-Markt konkurrenzfähig zu bleiben. Trotz der strategischen Vorteile für Google birgt der Deal allerdings auch das Risiko, einen direkten Wettbewerber zu stärken. Denn Googles KI-Abteilung DeepMind steht bei der Entwicklung von KI-Modellen und -Tools in direktem Wettbewerb mit OpenAI. Sundar Pichai, CEO von Google deutete jedoch im Mai 2025 an, dass es im KI-Rennen nicht unbedingt einen eindeutigen Sieger geben muss.

Neue Allianzen trotz Konkurrenz

Die Partnerschaft zwischen OpenAI und Google Cloud verdeutlicht auf jeden Fall, wie der immense Bedarf an KI-Rechenleistung traditionelle Wettbewerbsgrenzen verändert und neue Kooperationsformen ermöglicht. Während OpenAI seine Infrastruktur breiter aufstellt, um den steigenden Anforderungen gerecht zu werden, nutzt Google die Gelegenheit, seine Cloud-Strategie im KI-Wettbewerb weiter auszubauen.

Allianz zwischen OpenAI und Google Cloud​ Weiterlesen »

Rimini Street verlängert SAP-Support bis 2040​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?quality=50&strip=all 5230w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rimini Street verspricht, SAP ECC 6.0 noch bis 2040 am Leben zu erhalten, 36 Jahre nach der Einführung. Kwangmoozaa – Shutterstock.com Kosten und Komplexität der Migration sind die Hauptgründe dafür, dass viele SAP-Kunden mit dem Wechsel auf S/4Hana zögern. Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Wird dieses Schneckentempo beibehalten, wären bis zum Ablauf der Deadline 2027 noch rund 17.000 Unternehmen bei ECC, so die Analysten. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten.  Geht es nach Rimini Street, sind sogar noch zehn weitere Jahre drin. Der Anbieter von Enterprise-Software-Support hat angekündigt, den vollen Support für alle SAP-ECC-6.0- und S/4HANA-Releases bis 2040 zu verlängern – sowohl für bestehende als auch für neue Kunden.  Lohnender Migrationsverzicht  Mit der Ankündigung positioniert sich das Unternehmen aus Las Vegas als Alternative für SAP-Kunden, die ihre aktuellen ECC-6.0- oder S/4HANA-Systeme über die offiziellen SAP-Wartungsfristen hinaus betreiben möchten. Sie könnten dabei nicht nur die Kosten und Risiken einer Migration zu S/4HANA auf RISE vermeiden, sondern auch jährliche Wartungseinsparungen von bis zu 90 Prozent erzielen, stellt Rimini Street in Aussicht.  „SAP-Lizenznehmer müssen keine hohen Kosten, Risiken und Betriebsunterbrechungen für eine Softwaremigration auf sich nehmen, die viele für unnötig und wenig wertstiftend halten“, erklärt Seth Ravin, CEO von Rimini Street, „verglichen mit dem sofortigen Nutzwert, den neue Technologien wie KI, Workflow- und Aufgabenautomatisierung bringen können.”  “Schon jetzt haben unsere Kunden neun Milliarden Dollar an IT-Betriebskosten eingespart und finanzieren Innovationen selbst, um sie voranzutreiben, ohne durch unnötige, kostspielige und riskante Upgrades, Migrationen oder Replatforming-Initiativen ausgebremst zu werden“, führt Ravin aus.  Die Company hat Rimini Support für SAP vor über fünfzehn Jahren eingeführt und unterstützt derzeit nach eigenen Angaben Hunderte von SAP-ECC-6.0- und S/4HANA-Kunden.   Das Ende von ERP wie wir es heute kennen „Wir sagen voraus, dass sich die Zukunft von ERP in den nächsten fünf bis zehn Jahren für immer verändern wird. ERP-Software wird durch neue, schnellere und flexiblere agentenbasierte ERP-Prozesse ersetzt, die wir bereits für unsere Kunden einsetzen“, so Ravin weiter. Der Rimini-Street-Chef verwies damit auf eine Partnerschaft, die das Unternehmen im Oktober 2025 mit ServiceNow eingegangen war. Die dieser Kooperation entsprungene, neue Lösung kombiniert die Now-Plattform von ServiceNow mit Rimini Support und Rimini Manage.   „Die Systeme des zwanzigsten Jahrhunderts haben ein Chaos an Komplexität geschaffen, das die Innovation des 21. Jahrhunderts behindert“, erklärte Bill McDermott, ServiceNow-CEO und früherer SAP-Chef, damals. “Durch die Partnerschaft von ServiceNow mit Rimini Street erhalten Kunden eine einheitliche, intelligente Plattform, mit der sie ihre bestehenden Software-Investitionen maximieren können, um einen schnelleren Weg zur Transformation zu finden.“   Die Mainstream-Wartung von SAP für ECC 6.0 läuft bis 2027, aber für die Enhancement Packages 0 bis 5 ist das Enddatum der 31. Dezember 2025. Ähnlich verhält es sich bei SAP S/4HANA, wo die Mainstream Maintenance je nach Version bereits abgelaufen ist oder 2025, 2026 oder 2027 enden wird. Die erweiterte Wartung von SAP ist für einige Versionen von ECC 6.0 und S/4HANA verfügbar, aber nicht für alle – und geht mit einem erheblichen Kostenanstieg einher.   

Rimini Street verlängert SAP-Support bis 2040​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?quality=50&strip=all 5230w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rimini Street verspricht, SAP ECC 6.0 noch bis 2040 am Leben zu erhalten, 36 Jahre nach der Einführung. Kwangmoozaa – Shutterstock.com

Kosten und Komplexität der Migration sind die Hauptgründe dafür, dass viele SAP-Kunden mit dem Wechsel auf S/4Hana zögern. Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Wird dieses Schneckentempo beibehalten, wären bis zum Ablauf der Deadline 2027 noch rund 17.000 Unternehmen bei ECC, so die Analysten. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten. 

Geht es nach Rimini Street, sind sogar noch zehn weitere Jahre drin. Der Anbieter von Enterprise-Software-Support hat angekündigt, den vollen Support für alle SAP-ECC-6.0- und S/4HANA-Releases bis 2040 zu verlängern – sowohl für bestehende als auch für neue Kunden. 

Lohnender Migrationsverzicht 

Mit der Ankündigung positioniert sich das Unternehmen aus Las Vegas als Alternative für SAP-Kunden, die ihre aktuellen ECC-6.0- oder S/4HANA-Systeme über die offiziellen SAP-Wartungsfristen hinaus betreiben möchten. Sie könnten dabei nicht nur die Kosten und Risiken einer Migration zu S/4HANA auf RISE vermeiden, sondern auch jährliche Wartungseinsparungen von bis zu 90 Prozent erzielen, stellt Rimini Street in Aussicht. 

„SAP-Lizenznehmer müssen keine hohen Kosten, Risiken und Betriebsunterbrechungen für eine Softwaremigration auf sich nehmen, die viele für unnötig und wenig wertstiftend halten“, erklärt Seth Ravin, CEO von Rimini Street, „verglichen mit dem sofortigen Nutzwert, den neue Technologien wie KI, Workflow- und Aufgabenautomatisierung bringen können.”  “Schon jetzt haben unsere Kunden neun Milliarden Dollar an IT-Betriebskosten eingespart und finanzieren Innovationen selbst, um sie voranzutreiben, ohne durch unnötige, kostspielige und riskante Upgrades, Migrationen oder Replatforming-Initiativen ausgebremst zu werden“, führt Ravin aus. 

Die Company hat Rimini Support für SAP vor über fünfzehn Jahren eingeführt und unterstützt derzeit nach eigenen Angaben Hunderte von SAP-ECC-6.0- und S/4HANA-Kunden.  

Das Ende von ERP wie wir es heute kennen

„Wir sagen voraus, dass sich die Zukunft von ERP in den nächsten fünf bis zehn Jahren für immer verändern wird. ERP-Software wird durch neue, schnellere und flexiblere agentenbasierte ERP-Prozesse ersetzt, die wir bereits für unsere Kunden einsetzen“, so Ravin weiter. Der Rimini-Street-Chef verwies damit auf eine Partnerschaft, die das Unternehmen im Oktober 2025 mit ServiceNow eingegangen war. Die dieser Kooperation entsprungene, neue Lösung kombiniert die Now-Plattform von ServiceNow mit Rimini Support und Rimini Manage.  

„Die Systeme des zwanzigsten Jahrhunderts haben ein Chaos an Komplexität geschaffen, das die Innovation des 21. Jahrhunderts behindert“, erklärte Bill McDermott, ServiceNow-CEO und früherer SAP-Chef, damals. “Durch die Partnerschaft von ServiceNow mit Rimini Street erhalten Kunden eine einheitliche, intelligente Plattform, mit der sie ihre bestehenden Software-Investitionen maximieren können, um einen schnelleren Weg zur Transformation zu finden.“  

Die Mainstream-Wartung von SAP für ECC 6.0 läuft bis 2027, aber für die Enhancement Packages 0 bis 5 ist das Enddatum der 31. Dezember 2025. Ähnlich verhält es sich bei SAP S/4HANA, wo die Mainstream Maintenance je nach Version bereits abgelaufen ist oder 2025, 2026 oder 2027 enden wird. Die erweiterte Wartung von SAP ist für einige Versionen von ECC 6.0 und S/4HANA verfügbar, aber nicht für alle – und geht mit einem erheblichen Kostenanstieg einher.  

Rimini Street verlängert SAP-Support bis 2040​ Weiterlesen »

Was kommt nach Stack Overflow?​

Allgemein

Wie sieht die KI-getriebene Dev-Zukunft aus?Collagery | shutterstock.com Mehr als ein Jahrzehnt war Stack Overflow die erste Anlaufstelle für Entwickler die mit fachlichen Problemstellungen, beziehungsweise Fragen konfrontiert waren. Zu seiner Blütezeit Anfang der 2010er Jahre wurden auf dem Dev-Portal monatlich mehr als 200.000 neue Fragen gestellt. Dann kam Generative AI, respektive ChatGPT, und damit ein drastischer Einbruch: Von März 2023 bis März 2024 sank die Zahl der gestellten Fragen auf Stack Overflow um 32 Prozent. Bis Ende 2024 steigerte sich dieses Minus auf 40 Prozent (im Vergleich zum Vorjahr). Inzwischen ist die Plattform auf einem Nutzungsniveau, das zuletzt 2009 erreicht wurde. Über das mit dieser Entwicklung verbundene Kannibalisierungsproblem habe ich bereits ausführlich geschrieben. Die eigentlich drängende Frage ist aber, wie die Zukunft aussehen soll: Auf welchen Daten werden KI-Modelle künftig trainiert, wenn Plattformen wie Stack Overflow endgültig verschwunden sind? Und vor allem: Wie lässt sich gewährleisten, dass die Outputs, die KI-Tools liefern, korrekt und zuverlässig sind? LLMs – die neuen Community-Plattformen? Jede gut erklärte Antwort, jede diskutierte Best Practice und jeder hochbewertete Code-Schnipsel in Foren wie Stack Overflow ist zum Futter für die KI-Mühle geworden. In einem sehr realen Sinn bilden die Daten, die aus solchen Community-Q&A-Plattformen fließen, das Fundament, auf dem zukünftige Iterationen von LLMs aufgebaut sind. Wenn Entwickler keine Fragen mehr auf Stack Overflow stellen (und beantworten), birgt das ab einem gewissen Punkt die Gefahr, dass die KI-Modelle in sich zusammenfallen und nur noch ihre eigenen Outputs recyclen, statt neue, (von Menschen) validierte Erkenntnisse aufzunehmen. Schrumpfende Trainingsdatensätze könnten außerdem dazu führen, dass die Genauigkeit und die Innovationskraft von KI-generierten Lösungen ganz allgemein sinkt. Davon abgesehen, werden Entwickler auch in Zukunft Unterstützung bei spezifischen Fragestellungen und Problemen benötigen. Die Lücke, die entsteht, wenn Q&A-Plattformen wie Stack Overflow wegfallen, dürfte nur schwer zu füllen sein. Allerdings zeichnet sich bereits ab, dass LLMs diese Rolle zukommen wird. Zumindest sind ChatGPT & Co. kurzfristig für viele Devs zur neuen, ersten Anlaufstelle geworden. Möglicherweise werden wir bald offizielle “Stack Overflow GPT”-Bots oder domänenspezifische LLMs sehen, die auf kuratiertem Programmierwissen trainiert wurden. Auch das Stack-Overflow-Team selbst experimentiert bereits mit der Technologie – und verweist dabei zur Kontextualisierung auf die Beiträge von Menschen. Dieser hybride Ansatz nutzt die Geschwindigkeit der KI, greift aber weiterhin auf die verifizierten Lösungen zurück, die die Community über Jahre hinweg aufgebaut hat. Davon abgesehen halten KI-Assistenten auch zunehmend in IDEs und Entwicklungsplattformen Einzug, beantworten spontan Fragen und ziehen relevante Code-Beispiele oder Dokumentationen heran. Die größte Herausforderung dabei besteht darin, sicherzustellen, dass die Outputs der Tools auf vertrauenswürdigen Quellen basieren. Das ist meiner Erfahrung nach im Moment vor allem Glückssache: Meistens ist es schwer nachzuvollziehen, woher ein LLM seine Informationen holt. Und selbst wenn die KI ihre Quellen offenlegt, sind darunter oft weniger vertrauenswürdige zu finden, mit denen das Halluzinationsrisiko steigt. Es bleibt zu hoffen, dass künftige LLM-Versionen sich vor allem auf offizielle Dokumente fokussieren oder Wissensdatenbanken direkt zitieren (ähnlich einer KI-gestützten Suchmaschine), damit die Developer entsprechend leichtes Spiel haben, die KI-Outputs zu überprüfen. Tools dieser Art könnten dann sogar KI einsetzen, um Community-Inhalte zu moderieren oder zu optimieren, beispielsweise indem sie anbieten, diese klarer zu formulieren oder zu präzisieren. So könnte KI zu einem allgegenwärtigen Assistenten innerhalb der Community werden – statt diese zu ersetzen. Eventuell können Stack Overflow, Reddit und Co. aber auch ihre Existenz mit angestrebten Datenpartnerschaften sichern. Dahinter steht die Idee, sowohl die Nutzung von Community-Inhalten durch KI-Unternehmen zu kontrollieren als auch einen Teil des Mehrwerts an die Urheber der Inhalte zurückfließen zu lassen. Das könnte künftig neue Anreize für Developer schaffen, weiter Wissen einzubringen. Ich rechne damit, dass keine einzelne Plattform oder Technologie Stack Overflow im herkömmlichen Sinne ersetzen wird. Stattdessen ist damit zu rechnen, dass die Rolle der Plattform auf KI-Assistenten, eine kleinere, aber enger verbundenere Community und offizielle Quellen aufgeteilt wird. Bleibt zu hoffen, dass diese Kombination die Vielfalt menschlichen Diskurses mit der Effizienz von KI vereinen kann. Anpassungstipps für Entwickler Für Softwareentwickler gibt es möglicherweise mit Blick auf KI kein Entrinnen mehr. Das bedeutet allerdings nicht, alles, was ChatGPT ausspuckt, blind zu akzeptieren. Im Gegenteil: Je mehr sich Devs auf KI verlassen, umso skeptischer sollten sie deren Outputs betrachten. Um Qualität und Genauigkeit sicherzustellen, können Entwickler folgendes tun: KI als Ausgangspunkt betrachten und die Technologie unermüdlich auf die Probe stellen. KI-generierte Vorschläge anhand offizieller Dokumentationen oder vertrauenswürdiger Quellen überprüfen. KI-generierte Code-Schnipsel nicht blind verwenden, ohne deren Auswirkungen zu verstehen. Linting-, SAST– und Scanning-Tools nutzen, um KI-generierten Code zu testen. Dieselbe Frage verschiedenen LLMs stellen, um Inkonsistenzen aufzudecken. Nutzen Sie davon abgesehen auch den Vorteil, keine Rücksicht auf die “Gefühle” von KI nehmen zu müssen: Teilen Sie es dem LLM ganz unverblümt und direkt mit, wenn es etwas falsch macht. Beteiligen Sie sich aktiv an KI-Feedbackschleifen, indem Sie falsche Antworten markieren, Korrekturen vorschlagen oder Quellen anfordern. Dieser “Human in the Loop”-Ansatz ist dazu geeignet, die Tools im Laufe der Zeit zu optimieren. In gewisser Weise repliziert er damit die Stack-Overflow-Erfahrung. Allerdings setzt dieser Ansatz auch voraus, in den Erwerb von Kernwissen zu investieren. Nur so können Sie wissen, wie und wann Sie den KI-Ergebnissen vertrauen können. Kontinuierlich zu lernen und Kompetenzen aufzubauen, bleibt also trotz aller KI-Annehmlichkeiten auch in Zukunft unerlässlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was kommt nach Stack Overflow?​ Wie sieht die KI-getriebene Dev-Zukunft aus?Collagery | shutterstock.com

Mehr als ein Jahrzehnt war Stack Overflow die erste Anlaufstelle für Entwickler die mit fachlichen Problemstellungen, beziehungsweise Fragen konfrontiert waren. Zu seiner Blütezeit Anfang der 2010er Jahre wurden auf dem Dev-Portal monatlich mehr als 200.000 neue Fragen gestellt. Dann kam Generative AI, respektive ChatGPT, und damit ein drastischer Einbruch: Von März 2023 bis März 2024 sank die Zahl der gestellten Fragen auf Stack Overflow um 32 Prozent. Bis Ende 2024 steigerte sich dieses Minus auf 40 Prozent (im Vergleich zum Vorjahr). Inzwischen ist die Plattform auf einem Nutzungsniveau, das zuletzt 2009 erreicht wurde. Über das mit dieser Entwicklung verbundene Kannibalisierungsproblem habe ich bereits ausführlich geschrieben.

Die eigentlich drängende Frage ist aber, wie die Zukunft aussehen soll: Auf welchen Daten werden KI-Modelle künftig trainiert, wenn Plattformen wie Stack Overflow endgültig verschwunden sind? Und vor allem: Wie lässt sich gewährleisten, dass die Outputs, die KI-Tools liefern, korrekt und zuverlässig sind?

LLMs – die neuen Community-Plattformen?

Jede gut erklärte Antwort, jede diskutierte Best Practice und jeder hochbewertete Code-Schnipsel in Foren wie Stack Overflow ist zum Futter für die KI-Mühle geworden. In einem sehr realen Sinn bilden die Daten, die aus solchen Community-Q&A-Plattformen fließen, das Fundament, auf dem zukünftige Iterationen von LLMs aufgebaut sind. Wenn Entwickler keine Fragen mehr auf Stack Overflow stellen (und beantworten), birgt das ab einem gewissen Punkt die Gefahr, dass die KI-Modelle in sich zusammenfallen und nur noch ihre eigenen Outputs recyclen, statt neue, (von Menschen) validierte Erkenntnisse aufzunehmen. Schrumpfende Trainingsdatensätze könnten außerdem dazu führen, dass die Genauigkeit und die Innovationskraft von KI-generierten Lösungen ganz allgemein sinkt.

Davon abgesehen, werden Entwickler auch in Zukunft Unterstützung bei spezifischen Fragestellungen und Problemen benötigen. Die Lücke, die entsteht, wenn Q&A-Plattformen wie Stack Overflow wegfallen, dürfte nur schwer zu füllen sein. Allerdings zeichnet sich bereits ab, dass LLMs diese Rolle zukommen wird. Zumindest sind ChatGPT & Co. kurzfristig für viele Devs zur neuen, ersten Anlaufstelle geworden. Möglicherweise werden wir bald offizielle “Stack Overflow GPT”-Bots oder domänenspezifische LLMs sehen, die auf kuratiertem Programmierwissen trainiert wurden. Auch das Stack-Overflow-Team selbst experimentiert bereits mit der Technologie – und verweist dabei zur Kontextualisierung auf die Beiträge von Menschen. Dieser hybride Ansatz nutzt die Geschwindigkeit der KI, greift aber weiterhin auf die verifizierten Lösungen zurück, die die Community über Jahre hinweg aufgebaut hat. Davon abgesehen halten KI-Assistenten auch zunehmend in IDEs und Entwicklungsplattformen Einzug, beantworten spontan Fragen und ziehen relevante Code-Beispiele oder Dokumentationen heran. Die größte Herausforderung dabei besteht darin, sicherzustellen, dass die Outputs der Tools auf vertrauenswürdigen Quellen basieren.

Das ist meiner Erfahrung nach im Moment vor allem Glückssache: Meistens ist es schwer nachzuvollziehen, woher ein LLM seine Informationen holt. Und selbst wenn die KI ihre Quellen offenlegt, sind darunter oft weniger vertrauenswürdige zu finden, mit denen das Halluzinationsrisiko steigt. Es bleibt zu hoffen, dass künftige LLM-Versionen sich vor allem auf offizielle Dokumente fokussieren oder Wissensdatenbanken direkt zitieren (ähnlich einer KI-gestützten Suchmaschine), damit die Developer entsprechend leichtes Spiel haben, die KI-Outputs zu überprüfen. Tools dieser Art könnten dann sogar KI einsetzen, um Community-Inhalte zu moderieren oder zu optimieren, beispielsweise indem sie anbieten, diese klarer zu formulieren oder zu präzisieren. So könnte KI zu einem allgegenwärtigen Assistenten innerhalb der Community werden – statt diese zu ersetzen.

Eventuell können Stack Overflow, Reddit und Co. aber auch ihre Existenz mit angestrebten Datenpartnerschaften sichern. Dahinter steht die Idee, sowohl die Nutzung von Community-Inhalten durch KI-Unternehmen zu kontrollieren als auch einen Teil des Mehrwerts an die Urheber der Inhalte zurückfließen zu lassen. Das könnte künftig neue Anreize für Developer schaffen, weiter Wissen einzubringen. Ich rechne damit, dass keine einzelne Plattform oder Technologie Stack Overflow im herkömmlichen Sinne ersetzen wird. Stattdessen ist damit zu rechnen, dass die Rolle der Plattform auf KI-Assistenten, eine kleinere, aber enger verbundenere Community und offizielle Quellen aufgeteilt wird. Bleibt zu hoffen, dass diese Kombination die Vielfalt menschlichen Diskurses mit der Effizienz von KI vereinen kann.

Anpassungstipps für Entwickler

Für Softwareentwickler gibt es möglicherweise mit Blick auf KI kein Entrinnen mehr. Das bedeutet allerdings nicht, alles, was ChatGPT ausspuckt, blind zu akzeptieren. Im Gegenteil: Je mehr sich Devs auf KI verlassen, umso skeptischer sollten sie deren Outputs betrachten. Um Qualität und Genauigkeit sicherzustellen, können Entwickler folgendes tun:

KI als Ausgangspunkt betrachten und die Technologie unermüdlich auf die Probe stellen.

KI-generierte Vorschläge anhand offizieller Dokumentationen oder vertrauenswürdiger Quellen überprüfen.

KI-generierte Code-Schnipsel nicht blind verwenden, ohne deren Auswirkungen zu verstehen.

Linting-, SAST– und Scanning-Tools nutzen, um KI-generierten Code zu testen.

Dieselbe Frage verschiedenen LLMs stellen, um Inkonsistenzen aufzudecken.

Nutzen Sie davon abgesehen auch den Vorteil, keine Rücksicht auf die “Gefühle” von KI nehmen zu müssen: Teilen Sie es dem LLM ganz unverblümt und direkt mit, wenn es etwas falsch macht. Beteiligen Sie sich aktiv an KI-Feedbackschleifen, indem Sie falsche Antworten markieren, Korrekturen vorschlagen oder Quellen anfordern. Dieser “Human in the Loop”-Ansatz ist dazu geeignet, die Tools im Laufe der Zeit zu optimieren. In gewisser Weise repliziert er damit die Stack-Overflow-Erfahrung. Allerdings setzt dieser Ansatz auch voraus, in den Erwerb von Kernwissen zu investieren. Nur so können Sie wissen, wie und wann Sie den KI-Ergebnissen vertrauen können. Kontinuierlich zu lernen und Kompetenzen aufzubauen, bleibt also trotz aller KI-Annehmlichkeiten auch in Zukunft unerlässlich. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was kommt nach Stack Overflow?​ Weiterlesen »

„AI First“ zwischen Mythos und Realität​

Allgemein

Max Hentschel, Mitbegründer von WaveSix Labs, empfiehlt, die Geschäftsprozesse mit Blick auf KI zu hinterfragen und KI dort einzusetzen, wo sie nachgewiesen Wert liefert.WaveSix Labs (Generative) KI wird als großer Heilsbringer gesehen und einige Vorreiter bauen ihre Organisation inzwischen konsequent dahingehend um, Stichwort „AI First“. So betonte beispielsweise Shopify-CEO Tobi Lütke unlängst, dass vor der Einstellung eines neuen Mitarbeiters der Beweis erbracht werden müsse, dass KI den Job nicht besser erledigen kann. Auf der anderen Seite gibt es aber auch Rückschläge, wenn der KI-Fokus zu stark ausgeprägt ist, etwa beim Zahlungsanbieter Klarna. Dieser musste einräumen, das mit dem Einsatz von KI im Kundenservice nicht nur die Kosten zurückgingen, sondern auch die Qualität. In der Konsequenz stellt das Unternehmen nun wieder menschliche Mitarbeiter an.  „AI First“ heißt nicht Kopf ausschalten  AI First muss allerdings nicht gleich so extrem gedacht werden, wie Max Hentschel, Mitbegründer von WaveSix Labs und TechTalk-Gast, ausführt. Für ihn bedeutet AI First nicht, pauschal für alles KI zu nutzen, ohne darüber nachzudenken, ob es funktioniert und Sinn ergibt. Vielmehr gehe es darum, bei allem, was man tagtäglich tut, KI im Hinterkopf zu haben.   Man sollte sich die Frage stellen: „Könnte ich dafür AI nutzen und wie könnte ich es nutzen?“, erklärt er. Das bedeute jedoch nicht automatisch, dass man KI dann auch unbedingt dafür nutzt, so Hentschel. Es gehe vielmehr darum, die eigenen Prozesse zu hinterfragen und KI dann in die Anwendung zu bringen, wenn man sieht, dass sie Wert schöpft.  Wie das funktioniert und warum dieser Ansatz auch für ältere, traditionelle Unternehmen möglich ist, das erfahren Sie in der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5ka3PODhBfZgBDnxWvnJZ2?utm_source=oembed”> 

„AI First“ zwischen Mythos und Realität​ Max Hentschel, Mitbegründer von WaveSix Labs, empfiehlt, die Geschäftsprozesse mit Blick auf KI zu hinterfragen und KI dort einzusetzen, wo sie nachgewiesen Wert liefert.WaveSix Labs

(Generative) KI wird als großer Heilsbringer gesehen und einige Vorreiter bauen ihre Organisation inzwischen konsequent dahingehend um, Stichwort „AI First“. So betonte beispielsweise Shopify-CEO Tobi Lütke unlängst, dass vor der Einstellung eines neuen Mitarbeiters der Beweis erbracht werden müsse, dass KI den Job nicht besser erledigen kann.

Auf der anderen Seite gibt es aber auch Rückschläge, wenn der KI-Fokus zu stark ausgeprägt ist, etwa beim Zahlungsanbieter Klarna. Dieser musste einräumen, das mit dem Einsatz von KI im Kundenservice nicht nur die Kosten zurückgingen, sondern auch die Qualität. In der Konsequenz stellt das Unternehmen nun wieder menschliche Mitarbeiter an. 

„AI First“ heißt nicht Kopf ausschalten 

AI First muss allerdings nicht gleich so extrem gedacht werden, wie Max Hentschel, Mitbegründer von WaveSix Labs und TechTalk-Gast, ausführt. Für ihn bedeutet AI First nicht, pauschal für alles KI zu nutzen, ohne darüber nachzudenken, ob es funktioniert und Sinn ergibt. Vielmehr gehe es darum, bei allem, was man tagtäglich tut, KI im Hinterkopf zu haben.  

Man sollte sich die Frage stellen: „Könnte ich dafür AI nutzen und wie könnte ich es nutzen?“, erklärt er. Das bedeute jedoch nicht automatisch, dass man KI dann auch unbedingt dafür nutzt, so Hentschel. Es gehe vielmehr darum, die eigenen Prozesse zu hinterfragen und KI dann in die Anwendung zu bringen, wenn man sieht, dass sie Wert schöpft. 

Wie das funktioniert und warum dieser Ansatz auch für ältere, traditionelle Unternehmen möglich ist, das erfahren Sie in der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5ka3PODhBfZgBDnxWvnJZ2?utm_source=oembed”>

„AI First“ zwischen Mythos und Realität​ Weiterlesen »

Agentic AI: Für Unternehmen der nächste Schritt in der KI-Evolution?​

Allgemein

Laut einer neuen ISG-Studie sind Data Governance und organisatorische Veränderungen der Schlüssel zur Skalierung von KI-Agenten. Thapana_Studio – shutterstock.com In den letzten Jahren stand Generative KI (GenAI) oft im Fokus der IT-Entscheider, doch mit dem Aufkommen autonomer KI-Agenten (Agentic AI) soll sich ein fundamentaler Wandel abzeichnen. Trotz der hohen Erwartungen an die autonome Ausführung komplexer Funktionen durch agentenbasierte KI kann heute fast die Hälfte der agentenbasierten Produktionssysteme nur vordefinierte Aktionen auslösen. Dies geht aus dem aktuellen State of Agentic AI Market Report des Beratungsunternehmens ISG hervor. Der Bericht stützt sich auf Umfragen unter Endnutzern, Interviews mit Unternehmen und Gesprächen mit Anbietern. Zwischen Autonomie und Kontrolle Agentic AI soll ein technologischer Umbruch ähnlich der industriellen Revolution sein. Noch befindet sich die Technologie jedoch in der Entwicklung, viele Unternehmen müssen strukturelle Anpassungen vornehmen. Aktuell arbeiten nur 25 Prozent der Anwendungen völlig autonom, während 45 Prozent beratend eingesetzt werden. Die Studienautoren merken hier an, dass die richtige Balance zwischen Autonomie und menschlicher Kontrolle entscheidend sei. Agentische KI ist grundsätzlich eine nächste Entwicklungsstufe Generativer KI (GenAI) und erweitert deren Möglichkeiten. Während GenAI Informationen verarbeitet und zusammenfasst, handelt Agentic AI eigenständig, trifft Entscheidungen und verfolgt Ziele ohne direkte menschliche Anleitung. Einfache Agenten, messbarer Nutzen Der Markt für Agentic AI sei laut den Autoren derzeit allerdings noch fragmentiert. Über die Hälfte der nicht branchenspezifischen Anwendungen konzentriert sich auf IT. Marketing, Vertrieb und Finanzen machen jeweils rund zehn Prozent aus. Branchenspezifisch dominieren drei Sektoren: Banken, Finanzdienstleistungen und Versicherungen (BFSI), Einzelhandel sowie Fertigung Sie machen zusammen sieben von zehn Anwendungsfällen aus. Mit 43 Prozent der Applikationen sind die meisten Agentic-AI-Anwendungen noch relativ einfache, aufgabenorientierte Agenten, die aber bereits heute signifikanten Nutzen haben. Komplexere, zielorientierte Agenten, die zum Beispiel Transportwege unter Berücksichtigung von Sicherheit und Wartung optimieren, gewinnen jedoch an Bedeutung. Dabei ist nicht immer mehr Autonomie besser: In manchen Fällen reicht klassische Robotic Process Automation (RPA) aus, um Aufgaben effizient zu erledigen, so die Studie. Ohne KI-Kompetenz kein klarer Business Case Trotz des Potenzials stehen Unternehmen laut den Studienmachern vor erheblichen Hürden. Datenfragmentierung und mangelnde organisatorische Bereitschaft seien zentrale Probleme: Zwar engagieren 38 Prozent der befragten Firmen Dienstleister, um ihr Datenmanagement zu verbessern, doch kämpft mehr als die Hälfte weiterhin mit veralteten Datenstrukturen. Fehlende KI-Kompetenzen und unklare Business Cases erschweren die Umsetzung. Zudem müssen Unternehmen ihre Prozesse neu denken, ähnlich wie bei der Einführung von Offshoring vor einigen Jahren, so die Autoren. Für den Return on Investment (ROI) bei Agentic AI sei Datenmanagement entscheidend, so die Experten von ISG. Anbieter entwickeln deshalb intelligente Agenten, die Datenquellen überwachen, anreichern und verwalten, um die Grundlage für skalierbare Agentic-AI-Lösungen zu schaffen. Dies erfordere aber eine Neugestaltung der bestehenden Datenarchitektur, da Agentic AI Daten anders nutzt als herkömmliche Technologien, so die Studie. Von Kostensenkung zu Innovation Die Auguren kommen zu dem Schluss, dass die Ziele von Unternehmen bei Agentic AI über Effizienzsteigerung hinausgehen. Während der Fokus aktuell auf Kosteneinsparungen liege, werde in zwei bis drei Jahren verstärkt Wachstum und Innovation angestrebt. Agentic AI solle zudem nicht nur Prozesse automatisieren, sondern auch neue Geschäftsmodelle und Produkte ermöglichen. Anbieter würden sich bereits jetzt auf komplexe Multi-Agenten-Systeme vorbereiten. Diese müssten aber noch orchestriert werden, um vielfältige Aufgaben zu koordinieren. 

Agentic AI: Für Unternehmen der nächste Schritt in der KI-Evolution?​ Laut einer neuen ISG-Studie sind Data Governance und organisatorische Veränderungen der Schlüssel zur Skalierung von KI-Agenten.
Thapana_Studio – shutterstock.com

In den letzten Jahren stand Generative KI (GenAI) oft im Fokus der IT-Entscheider, doch mit dem Aufkommen autonomer KI-Agenten (Agentic AI) soll sich ein fundamentaler Wandel abzeichnen. Trotz der hohen Erwartungen an die autonome Ausführung komplexer Funktionen durch agentenbasierte KI kann heute fast die Hälfte der agentenbasierten Produktionssysteme nur vordefinierte Aktionen auslösen.

Dies geht aus dem aktuellen State of Agentic AI Market Report des Beratungsunternehmens ISG hervor. Der Bericht stützt sich auf Umfragen unter Endnutzern, Interviews mit Unternehmen und Gesprächen mit Anbietern.

Zwischen Autonomie und Kontrolle

Agentic AI soll ein technologischer Umbruch ähnlich der industriellen Revolution sein. Noch befindet sich die Technologie jedoch in der Entwicklung, viele Unternehmen müssen strukturelle Anpassungen vornehmen.

Aktuell arbeiten nur 25 Prozent der Anwendungen völlig autonom, während 45 Prozent beratend eingesetzt werden. Die Studienautoren merken hier an, dass die richtige Balance zwischen Autonomie und menschlicher Kontrolle entscheidend sei.

Agentische KI ist grundsätzlich eine nächste Entwicklungsstufe Generativer KI (GenAI) und erweitert deren Möglichkeiten. Während GenAI Informationen verarbeitet und zusammenfasst, handelt Agentic AI eigenständig, trifft Entscheidungen und verfolgt Ziele ohne direkte menschliche Anleitung.

Einfache Agenten, messbarer Nutzen

Der Markt für Agentic AI sei laut den Autoren derzeit allerdings noch fragmentiert. Über die Hälfte der nicht branchenspezifischen Anwendungen konzentriert sich auf IT. Marketing, Vertrieb und Finanzen machen jeweils rund zehn Prozent aus. Branchenspezifisch dominieren drei Sektoren:

Banken,

Finanzdienstleistungen und Versicherungen (BFSI),

Einzelhandel sowie Fertigung

Sie machen zusammen sieben von zehn Anwendungsfällen aus.

Mit 43 Prozent der Applikationen sind die meisten Agentic-AI-Anwendungen noch relativ einfache, aufgabenorientierte Agenten, die aber bereits heute signifikanten Nutzen haben. Komplexere, zielorientierte Agenten, die zum Beispiel Transportwege unter Berücksichtigung von Sicherheit und Wartung optimieren, gewinnen jedoch an Bedeutung. Dabei ist nicht immer mehr Autonomie besser: In manchen Fällen reicht klassische Robotic Process Automation (RPA) aus, um Aufgaben effizient zu erledigen, so die Studie.

Ohne KI-Kompetenz kein klarer Business Case

Trotz des Potenzials stehen Unternehmen laut den Studienmachern vor erheblichen Hürden. Datenfragmentierung und mangelnde organisatorische Bereitschaft seien zentrale Probleme: Zwar engagieren 38 Prozent der befragten Firmen Dienstleister, um ihr Datenmanagement zu verbessern, doch kämpft mehr als die Hälfte weiterhin mit veralteten Datenstrukturen.

Fehlende KI-Kompetenzen und unklare Business Cases erschweren die Umsetzung. Zudem müssen Unternehmen ihre Prozesse neu denken, ähnlich wie bei der Einführung von Offshoring vor einigen Jahren, so die Autoren.

Für den Return on Investment (ROI) bei Agentic AI sei Datenmanagement entscheidend, so die Experten von ISG. Anbieter entwickeln deshalb intelligente Agenten, die Datenquellen überwachen, anreichern und verwalten, um die Grundlage für skalierbare Agentic-AI-Lösungen zu schaffen. Dies erfordere aber eine Neugestaltung der bestehenden Datenarchitektur, da Agentic AI Daten anders nutzt als herkömmliche Technologien, so die Studie.

Von Kostensenkung zu Innovation

Die Auguren kommen zu dem Schluss, dass die Ziele von Unternehmen bei Agentic AI über Effizienzsteigerung hinausgehen. Während der Fokus aktuell auf Kosteneinsparungen liege, werde in zwei bis drei Jahren verstärkt Wachstum und Innovation angestrebt.

Agentic AI solle zudem nicht nur Prozesse automatisieren, sondern auch neue Geschäftsmodelle und Produkte ermöglichen. Anbieter würden sich bereits jetzt auf komplexe Multi-Agenten-Systeme vorbereiten. Diese müssten aber noch orchestriert werden, um vielfältige Aufgaben zu koordinieren.

Agentic AI: Für Unternehmen der nächste Schritt in der KI-Evolution?​ Weiterlesen »

KI auf der Überholspur in der Autoindustrie​

Allgemein

Regionale Vorlieben beim Auto der Zukunft: In China dominiert der Sprachassistent, in Deutschland der Fahrkomfort. metamorworks – shutterstock.com Die Automobilindustrie erlebt einen tiefgreifenden Wandel hin zu softwaredefinierten Fahrzeugen (Software-Defined Vehicles, SDVs). Software und Künstliche Intelligenz (KI) werden hierbei zunehmend als zentrale Technologien verstanden. Das zumindest zeigt die aktuelle Studie „The State of Software-Defined Vehicles: Industry Perspectives and Market Trends“ von Sonatus. Grundlage war eine weltweite Befragung von Vertretern der Automobilindustrie. Verlagerter Fokus auf KI und Software Die Studienmacher prognostizieren anhand der Antworten, dass sich die Prioritäten der Branche verschieben werden: von Datenmanagement und Systemintegration hin zu KI-Integration und fortschrittlichen Softwarefähigkeiten. Im Jahr 2025 werden zum Beispiel KI-Anwendungen, insbesondere im Bereich der Fahrerassistenzsysteme (ADAS) und des autonomen Fahrens, eine zentrale Rolle spielen, so die Autoren. Regionale Unterschiede in Kundenpräferenzen Automatisierte Fahrfunktionen gelten laut der Studie weltweit als Haupttreiber für Kundentreue und Umsatz. Dennoch zeigen sich regionale Unterschiede: In China sind KI-basierte Sprachassistenten wichtiger als automatisiertes Fahren, während in Deutschland Personalisierung und Fahrkomfort im Vordergrund stehen. Hierzulande soll zudem das aktive dem automatisierten Fahren vorgezogen werden. In Nordamerika wiederum legt Wert auf eine ausgewogene Mischung aus automatisiertem Fahren, Personalisierung und Smart-Home-Integration. Japan dagegen favorisiert stark automatisierte Fahrfunktionen und Unterhaltung im Fahrzeug. Schlüsseltechnologien für Software-definierte Fahrzeuge 57 Prozent der Befragten sehen in der Monetarisierung von Fahrzeugdaten den größten Wert für Erstausrüster (OEMs), auch wenn konkrete Anwendungsfälle noch entwickelt werden. Zugleich hat die Akzeptanz von Open-Source-Lösungen in sicherheitskritischen Bereichen stark zugenommen. Hierbei sehen 83 Prozent der Teilnehmenden Android und Linux in solchen Systemen als praktikabel an. Im Jahr 2024 waren es noch zwölf Prozent. Weitere wichtige Technologien für SDVs sind, so die Autoren, Over-the-Air (OTA) Software-Updates, Continuous Integration/Continuous Deployment (CI/CD), KI-Anwendungen für ADAS/AV sowie eine schnelle In-Vehicle-Netzwerkinfrastruktur. Automobilhersteller setzen zudem auf Automatisierung der Softwarezertifizierung und virtuelle Entwicklungsumgebungen. Ziel sei es, die Entwicklungszyklen zu verkürzen und die Compliance sicherzustellen. Struktureller Wandel als Schlüssel zur Innovation Obwohl technologische Innovationen im Vordergrund stehen, behindern laut der Studie traditionelle Organisationsstrukturen und etablierte Lieferketten die digitale Transformation. Der Wandel erfordere allerdings nicht nur technologische Anpassungen, sondern auch die Bereitschaft, bestehende Prozesse sowie Strukturen grundlegend zu überdenken und neu zu gestalten. Die Autoren empfehlen daher, dass Automobilhersteller sich auf OTA-Updates, Automatisierung der Software-Zertifizierung und KI-Anwendungen außerhalb von ADAS/AV fokussieren, um Fahrzeugwert und Sicherheit über den gesamten Lebenszyklus zu sichern. Tier-1-Zulieferer besonderen Wert auf CI/CD-Methoden zur Effizienzsteigerung legen und sowohl KI-Anwendungen für ADAS/AV als auch andere Fahrzeugfunktionen unterstützen. Tier-2-Zulieferer sich auf KI-Anwendungen außerhalb von ADAS/AV und konsolidierte Hardwareplattformen, die mehrere Workloads unterstützen, sowie auf cloudbasierte Entwicklungswerkzeuge konzentrieren. Regionale Unterschiede bei der Umsetzungsgeschwindigkeit Die Einführung von KI in SDVs soll laut Sonatus grundsätzlich stufenweise erfolgen: 2026-2027: ADAS/AV-Systeme 2028-2029: Komfort- und Infotainment-Anwendungen ab 2030: organisatorische Prozesse Regionale Unterschiede zeigen sich vor allem in der Geschwindigkeit der Umsetzung, wobei Deutschland, Frankreich und Japan teilweise später folgen. Ab 2028 sollen dann neue Geschäftsmodelle wie abonnementbasierte Einnahmen, Kundenfeedback-Integration und die Vernetzung mit IoT-Ökosystemen und Smart Cities an Bedeutung gewinnen. Die Standardisierung von Fahrzeugplattformen und Software-Stacks sowie die Nutzung digitaler Zwillinge zur Datenanalyse und Nutzererfahrung werden von den Befragten als langfristige Ziele angesehen. Internationale Perspektiven aus vier Weltregionen Die Prognosen und Erkenntnisse basieren auf einer Online-Umfrage vom März 2025, die von Wards Intelligence im Auftrag von Sonatus durchgeführt wurde. An ihr nahmen 559 Personen teil, die gleichmäßig auf China, Japan, Frankreich, Deutschland, das Vereinigte Königreich sowie Nordamerika (USA und Kanada) verteilt waren. Die Befragten waren OEMs, Tier-1-Zulieferer, Tier-2-Zulieferer, Berater und Handelsverbände. 

KI auf der Überholspur in der Autoindustrie​ Regionale Vorlieben beim Auto der Zukunft: In China dominiert der Sprachassistent, in Deutschland der Fahrkomfort.
metamorworks – shutterstock.com

Die Automobilindustrie erlebt einen tiefgreifenden Wandel hin zu softwaredefinierten Fahrzeugen (Software-Defined Vehicles, SDVs). Software und Künstliche Intelligenz (KI) werden hierbei zunehmend als zentrale Technologien verstanden. Das zumindest zeigt die aktuelle Studie „The State of Software-Defined Vehicles: Industry Perspectives and Market Trends“ von Sonatus. Grundlage war eine weltweite Befragung von Vertretern der Automobilindustrie.

Verlagerter Fokus auf KI und Software

Die Studienmacher prognostizieren anhand der Antworten, dass sich die Prioritäten der Branche verschieben werden: von Datenmanagement und Systemintegration hin zu KI-Integration und fortschrittlichen Softwarefähigkeiten.

Im Jahr 2025 werden zum Beispiel KI-Anwendungen, insbesondere im Bereich der Fahrerassistenzsysteme (ADAS) und des autonomen Fahrens, eine zentrale Rolle spielen, so die Autoren.

Regionale Unterschiede in Kundenpräferenzen

Automatisierte Fahrfunktionen gelten laut der Studie weltweit als Haupttreiber für Kundentreue und Umsatz. Dennoch zeigen sich regionale Unterschiede: In China sind KI-basierte Sprachassistenten wichtiger als automatisiertes Fahren, während in Deutschland Personalisierung und Fahrkomfort im Vordergrund stehen. Hierzulande soll zudem das aktive dem automatisierten Fahren vorgezogen werden.

In Nordamerika wiederum legt Wert auf eine ausgewogene Mischung aus automatisiertem Fahren, Personalisierung und Smart-Home-Integration. Japan dagegen favorisiert stark automatisierte Fahrfunktionen und Unterhaltung im Fahrzeug.

Schlüsseltechnologien für Software-definierte Fahrzeuge

57 Prozent der Befragten sehen in der Monetarisierung von Fahrzeugdaten den größten Wert für Erstausrüster (OEMs), auch wenn konkrete Anwendungsfälle noch entwickelt werden. Zugleich hat die Akzeptanz von Open-Source-Lösungen in sicherheitskritischen Bereichen stark zugenommen. Hierbei sehen 83 Prozent der Teilnehmenden Android und Linux in solchen Systemen als praktikabel an. Im Jahr 2024 waren es noch zwölf Prozent.

Weitere wichtige Technologien für SDVs sind, so die Autoren,

Over-the-Air (OTA) Software-Updates,

Continuous Integration/Continuous Deployment (CI/CD),

KI-Anwendungen für ADAS/AV sowie

eine schnelle In-Vehicle-Netzwerkinfrastruktur.

Automobilhersteller setzen zudem auf Automatisierung der Softwarezertifizierung und virtuelle Entwicklungsumgebungen. Ziel sei es, die Entwicklungszyklen zu verkürzen und die Compliance sicherzustellen.

Struktureller Wandel als Schlüssel zur Innovation

Obwohl technologische Innovationen im Vordergrund stehen, behindern laut der Studie traditionelle Organisationsstrukturen und etablierte Lieferketten die digitale Transformation. Der Wandel erfordere allerdings nicht nur technologische Anpassungen, sondern auch die Bereitschaft, bestehende Prozesse sowie Strukturen grundlegend zu überdenken und neu zu gestalten.

Die Autoren empfehlen daher, dass

Automobilhersteller sich auf OTA-Updates, Automatisierung der Software-Zertifizierung und KI-Anwendungen außerhalb von ADAS/AV fokussieren, um Fahrzeugwert und Sicherheit über den gesamten Lebenszyklus zu sichern.

Tier-1-Zulieferer besonderen Wert auf CI/CD-Methoden zur Effizienzsteigerung legen und sowohl KI-Anwendungen für ADAS/AV als auch andere Fahrzeugfunktionen unterstützen.

Tier-2-Zulieferer sich auf KI-Anwendungen außerhalb von ADAS/AV und konsolidierte Hardwareplattformen, die mehrere Workloads unterstützen, sowie auf cloudbasierte Entwicklungswerkzeuge konzentrieren.

Regionale Unterschiede bei der Umsetzungsgeschwindigkeit

Die Einführung von KI in SDVs soll laut Sonatus grundsätzlich stufenweise erfolgen:

2026-2027: ADAS/AV-Systeme

2028-2029: Komfort- und Infotainment-Anwendungen

ab 2030: organisatorische Prozesse

Regionale Unterschiede zeigen sich vor allem in der Geschwindigkeit der Umsetzung, wobei Deutschland, Frankreich und Japan teilweise später folgen.

Ab 2028 sollen dann neue Geschäftsmodelle wie

abonnementbasierte Einnahmen,

Kundenfeedback-Integration und

die Vernetzung mit IoT-Ökosystemen und Smart Cities

an Bedeutung gewinnen. Die Standardisierung von Fahrzeugplattformen und Software-Stacks sowie die Nutzung digitaler Zwillinge zur Datenanalyse und Nutzererfahrung werden von den Befragten als langfristige Ziele angesehen.

Internationale Perspektiven aus vier Weltregionen

Die Prognosen und Erkenntnisse basieren auf einer Online-Umfrage vom März 2025, die von Wards Intelligence im Auftrag von Sonatus durchgeführt wurde.

An ihr nahmen 559 Personen teil, die gleichmäßig auf China, Japan, Frankreich, Deutschland, das Vereinigte Königreich sowie Nordamerika (USA und Kanada) verteilt waren. Die Befragten waren OEMs, Tier-1-Zulieferer, Tier-2-Zulieferer, Berater und Handelsverbände.

KI auf der Überholspur in der Autoindustrie​ Weiterlesen »

WWDC: Wie Apple sein Ökosystem verbessert​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die WWDC hatte auch 2025 Etliches für Business-Anwender zu bieten. Apple Das neue Design der Benutzeroberfläche, das Apple auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellte, mag ja eine kleine visuelle Ablenkung darstellen. Dennoch dachte Apple auch mit ein paar wichtigen Ankündigungen an die Business-Nutzer.  Angesichts der zahlreichen angekündigten Änderungen war die WWDC-Keynote von Apple alles andere als die von vielen erwartete Enttäuschung. Neben der neuen Benutzeroberfläche Liquid Glass, die auf allen Apple-Produkten zu sehen sein wird, gab es unter anderem auch APIs für Entwickler, um KI in ihre Software zu integrieren. Letzteres ist ein Hinweis auf die langsamen Bemühungen des Unternehmens, Apple Intelligence zu der Vorzeigetechnologie zu machen, die auf der WWDC im letzten Jahr versprochen wurde.  Aber zunächst einmal zu den Änderungen, die die größten Auswirkungen auf Unternehmensanwender haben dürften.   iPad  Nutzer von Apples iPads können künftig nicht nur mehrere App-Fenster gleichzeitig öffnen, Apple hat dafür außerdem ein cleveres und vielseitiges Fenstersystem entwickelt, das sogar eine Änderung der Größe, das Speichern der Position und mehr unterstützt.   Diese Verbesserungen beim Multitasking und der Fensterverwaltung sollten die professionelle Arbeit auf einem iPad erheblich erleichtern und sind die Art von Verbesserungen, die sich die Leute seit Jahren gewünscht haben.  Die Änderungen auf dem iPad erstrecken sich auch auf die Dateien-App, die wichtige und nützliche Updates erhält.  Dateien für uns alle   Alle Apple-Benutzer, nicht nur iPad-Besitzer, sollten von den Änderungen in der Dateien-App profitieren. Für iPad-Benutzer wird es damit einfacher, die benötigten Dateien zu finden und mit ihnen zu arbeiten. Gleichzeitig gibt es zusätzliche Sortieroptionen im Dateien-Fenster.   Da es sich bei Dateien um eine App handelt, kann man davon ausgehen, dass zumindest einige dieser Verbesserungen auch auf anderen Apple-Geräten verfügbar sein werden. Profi-Anwender werden wahrscheinlich auch die neue Möglichkeit zu schätzen wissen, Ordner mit Symbolen, Emojis und Farben zu versehen.  Die Transformation der Automatisierung  Apple hat Verbesserungen bei den Kurzbefehlen (Shortcuts) eingeführt, darunter die Möglichkeit, sie zu erstellen und Spotlight zu verwenden, um sie zu identifizieren und aufzurufen. Und da sich die erstellten Shortcuts über alle Geräte hinweg synchronisieren lassen, können Benutzer leistungsstarke Produktivitäts-Shortcuts auf einem Gerät erstellen und auf einem anderen verwenden. Diese Integration spiegelt sich natürlich auch in der Liquid-Glass-Benutzeroberfläche wider, die den reibungslosen Wechsel vom Mac über das Tablet zum iPhone unterstützen soll.  Spotlight entwickelt sich weiter  Apple kündigte auch große Änderungen bei der Spotlight- Suche auf dem Mac an, einschließlich intelligenter Aktionen, die auf Shortcuts und Apple Intelligence basieren. Weiterhin gibt es neue Spotlight-Aktionen und -Schnelltasten. Letztere zeigen automatisch Aktionen an, die Sie mit einem in Spotlight ausgewählten Objekt vornehmen möchten, und übernehmen diese Aktionen aus der Suche heraus. Das ist sehr effektiv – Sie können damit etwa aus Spotlight heraus ein Objekt finden, es ändern, speichern und weitergeben. Die Software kann auch aus Ihrem Verhalten lernen und Ihnen personalisierte Aktionen für das anbieten, was Sie vielleicht tun möchten.  „Während einer Suche werden jetzt alle Ergebnisse – einschließlich Dateien, Ordner, Ereignisse, Apps, Nachrichten und mehr – zusammen aufgelistet und intelligent nach Relevanz für den Benutzer sortiert“, so Apple. „Neue Filteroptionen schränken die Suche schnell auf genau das ein, was der Benutzer sucht, wie PDFs oder Mail-Nachrichten. Spotlight kann auch Ergebnisse für Dokumente anzeigen, die auf Cloud-Laufwerken von Drittanbietern gespeichert sind. Und wenn ein Benutzer nicht genau weiß, wonach er sucht, kann er mit den neuen Suchansichten von Spotlight ganz einfach seine Apps, Dateien, den Verlauf der Zwischenablage und vieles mehr durchsuchen.”  Sie können auch Hunderte von Aktionen direkt in Spotlight durchführen, also etwa eine E-Mail senden oder eine Notiz schreiben. Viele dieser Funktionen werden zwar für den Mac beworben, aber Spotlight funktioniert auf allen Apple-Plattformen. Es wird also interessant sein zu sehen, wo diese Funktionen noch auftauchen werden, wenn die Beta-Tests beginnen und die zukünftige Unterstützung eingeführt wird.  App Intents  App Intents gibt es schon eine Weile, aber das Framework ermöglicht es Entwicklern jetzt, Aktionen in ihren Apps über Kurzbefehle (Shortcuts) oder Spotlight systemweit verfügbar zu machen. Das sollte nicht zuletzt die Arbeit an sich erleichtern. Wenn diese Verbesserungen in Apples Ökosystem Einzug halten, wird die schwierigste Aufgabe wahrscheinlich darin bestehen, sich zu merken, welche Aktionen Sie durchführen können.  App Intents erhalten auch Unterstützung für visuelle Intelligenz, was Apps in die Lage versetzt, visuelle Suchergebnisse bereitzustellen und zu nutzen.  Vision Pro  Viele Unternehmen haben bereits Vision-Pro-Geräte im Einsatz und auch Apple verwies in seiner WWDC-Keynote auf die Möglichkeiten von Spatial Computing. Angesichts des hohen Preises dieser Geräte (ab 4.000 Euro) ist es eine willkommene Neuerung, dass es jetzt viel einfacher ist, sie in Arbeitsgruppen gemeinsam zu nutzen. Jeder Benutzer kann demnach sein eigenes Vision OS-Profil auf seinem iPhone speichern und dann das Vision-Gerät entsprechend einrichten.   Apple hat auch ein neues Vision Pro Tool vorgestellt, mit dem man einen Inhalt als geschützten Inhalt speichern können. Damit soll sichergestellt werden, dass Inhalte, die auf einem Vision- Pro-Gerät freigegeben werden, nicht außerhalb des Unternehmens gelangen.  Es gibt auch Unterstützung für ein neues Vision-Pro-Peripheriegerät, das nicht von Apple stammt. Logitech Muse ist ein neues Stift-/Steuerungsgerät für die Spatial Reality, mit dem man gemeinsam mit anderen an Projekten arbeiten und zeichnen kann.   Look to Scroll wiederum ermöglicht es Benutzern, Apps und Websites nur mit ihren Augen zu erkunden. Dabei können sie die Scroll-Geschwindigkeit nach ihren Wünschen anpassen. Wenig überraschend werden auch Entwickler in der Lage sein, Look to Scroll in ihre visionOS-Apps zu integrieren.   Apple Intelligence war überall  Wenn man zwischen den Zeilen liest, kann man erkennen, dass künstliche Intelligenz tatsächlich überall in den WWDC-Ankündigungen dieses Jahres zu finden ist. Eine der größten Ankündigungen in diesem Zusammenhang deutet auf kontextbezogene Intelligenz hin, von der Apple schon früher berichtet hat: Visuelle Intelligenz versteht jetzt, was auf dem Bildschirm zu sehen ist, ermöglicht es, Fragen dazu zu stellen, nach bestimmten Objekten zu suchen oder Ereignisse zum Kalender hinzuzufügen. Apple hat es Entwicklern natürlich ermöglicht, Auch diese Funktion können Entwickler künftig in ihren Apps unterstützen.  “Letztes Jahr haben wir die ersten Schritte unternommen, um den Nutzern hilfreiche, relevante und benutzerfreundliche Informationen genau dort zur Verfügung zu stellen, wo sie sie brauchen, und gleichzeitig ihre Privatsphäre zu schützen“, erklärte Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Jetzt werden die Modelle, die Apple Intelligence antreiben, immer leistungsfähiger und effizienter, und wir integrieren die Funktionen an noch mehr Stellen in jedem unserer Betriebssysteme.”  Oder kurz: Entwickler können jetzt dank des Foundation Model Framework die Apple Intelligence APIs nutzen, um deren Tools in ihre Apps einzubauen.  Entwickler können sich auch auf Xcode 26 freuen, das dank der eingebauten Unterstützung für ChatGPT große Sprachmodelle (LLMs) direkt in ihre Coding-Erfahrung einbinden kann. Alternativ können sie auch API-Schlüssel von anderen Anbietern verwenden oder lokale Modelle ausführen, um Xcode zu unterstützen.  Wie Apple weiter bekannt gab, werden die Apple Intelligence-Funktionen bis Ende des Jahres für acht weitere Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch.  Live-Übersetzung  Die Live-Übersetzung ist ebenfalls weitreichend. Sie ist in Messages, FaceTime und iPhone integriert und läuft vollständig auf dem Gerät. Sie kann automatisch Nachrichten zwischen Sprachen übersetzen, bei FaceTime-Anrufen übersetzte Untertitel anbieten oder die Übersetzung während eines Telefongesprächs laut vorlesen.   Apple hat auch ein neues System angekündigt, das die Barrierefreiheit in Apps unterstützen soll. Mit den Accessibility Nutrition Labels für die Produktseiten im App Store können Entwickler ihren Kunden mitteilen, welche Funktionen ihre Apps für die Barrierefreiheit unterstützen. (mb)  

WWDC: Wie Apple sein Ökosystem verbessert​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die WWDC hatte auch 2025 Etliches für Business-Anwender zu bieten. Apple

Das neue Design der Benutzeroberfläche, das Apple auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellte, mag ja eine kleine visuelle Ablenkung darstellen. Dennoch dachte Apple auch mit ein paar wichtigen Ankündigungen an die Business-Nutzer. 

Angesichts der zahlreichen angekündigten Änderungen war die WWDC-Keynote von Apple alles andere als die von vielen erwartete Enttäuschung. Neben der neuen Benutzeroberfläche Liquid Glass, die auf allen Apple-Produkten zu sehen sein wird, gab es unter anderem auch APIs für Entwickler, um KI in ihre Software zu integrieren. Letzteres ist ein Hinweis auf die langsamen Bemühungen des Unternehmens, Apple Intelligence zu der Vorzeigetechnologie zu machen, die auf der WWDC im letzten Jahr versprochen wurde. 

Aber zunächst einmal zu den Änderungen, die die größten Auswirkungen auf Unternehmensanwender haben dürften.  

iPad 

Nutzer von Apples iPads können künftig nicht nur mehrere App-Fenster gleichzeitig öffnen, Apple hat dafür außerdem ein cleveres und vielseitiges Fenstersystem entwickelt, das sogar eine Änderung der Größe, das Speichern der Position und mehr unterstützt.  

Diese Verbesserungen beim Multitasking und der Fensterverwaltung sollten die professionelle Arbeit auf einem iPad erheblich erleichtern und sind die Art von Verbesserungen, die sich die Leute seit Jahren gewünscht haben. 

Die Änderungen auf dem iPad erstrecken sich auch auf die Dateien-App, die wichtige und nützliche Updates erhält. 

Dateien für uns alle  

Alle Apple-Benutzer, nicht nur iPad-Besitzer, sollten von den Änderungen in der Dateien-App profitieren. Für iPad-Benutzer wird es damit einfacher, die benötigten Dateien zu finden und mit ihnen zu arbeiten. Gleichzeitig gibt es zusätzliche Sortieroptionen im Dateien-Fenster.  

Da es sich bei Dateien um eine App handelt, kann man davon ausgehen, dass zumindest einige dieser Verbesserungen auch auf anderen Apple-Geräten verfügbar sein werden. Profi-Anwender werden wahrscheinlich auch die neue Möglichkeit zu schätzen wissen, Ordner mit Symbolen, Emojis und Farben zu versehen. 

Die Transformation der Automatisierung 

Apple hat Verbesserungen bei den Kurzbefehlen (Shortcuts) eingeführt, darunter die Möglichkeit, sie zu erstellen und Spotlight zu verwenden, um sie zu identifizieren und aufzurufen. Und da sich die erstellten Shortcuts über alle Geräte hinweg synchronisieren lassen, können Benutzer leistungsstarke Produktivitäts-Shortcuts auf einem Gerät erstellen und auf einem anderen verwenden. Diese Integration spiegelt sich natürlich auch in der Liquid-Glass-Benutzeroberfläche wider, die den reibungslosen Wechsel vom Mac über das Tablet zum iPhone unterstützen soll. 

Spotlight entwickelt sich weiter 

Apple kündigte auch große Änderungen bei der Spotlight- Suche auf dem Mac an, einschließlich intelligenter Aktionen, die auf Shortcuts und Apple Intelligence basieren. Weiterhin gibt es neue Spotlight-Aktionen und -Schnelltasten. Letztere zeigen automatisch Aktionen an, die Sie mit einem in Spotlight ausgewählten Objekt vornehmen möchten, und übernehmen diese Aktionen aus der Suche heraus. Das ist sehr effektiv – Sie können damit etwa aus Spotlight heraus ein Objekt finden, es ändern, speichern und weitergeben. Die Software kann auch aus Ihrem Verhalten lernen und Ihnen personalisierte Aktionen für das anbieten, was Sie vielleicht tun möchten. 

„Während einer Suche werden jetzt alle Ergebnisse – einschließlich Dateien, Ordner, Ereignisse, Apps, Nachrichten und mehr – zusammen aufgelistet und intelligent nach Relevanz für den Benutzer sortiert“, so Apple. „Neue Filteroptionen schränken die Suche schnell auf genau das ein, was der Benutzer sucht, wie PDFs oder Mail-Nachrichten. Spotlight kann auch Ergebnisse für Dokumente anzeigen, die auf Cloud-Laufwerken von Drittanbietern gespeichert sind. Und wenn ein Benutzer nicht genau weiß, wonach er sucht, kann er mit den neuen Suchansichten von Spotlight ganz einfach seine Apps, Dateien, den Verlauf der Zwischenablage und vieles mehr durchsuchen.” 

Sie können auch Hunderte von Aktionen direkt in Spotlight durchführen, also etwa eine E-Mail senden oder eine Notiz schreiben. Viele dieser Funktionen werden zwar für den Mac beworben, aber Spotlight funktioniert auf allen Apple-Plattformen. Es wird also interessant sein zu sehen, wo diese Funktionen noch auftauchen werden, wenn die Beta-Tests beginnen und die zukünftige Unterstützung eingeführt wird. 

App Intents 

App Intents gibt es schon eine Weile, aber das Framework ermöglicht es Entwicklern jetzt, Aktionen in ihren Apps über Kurzbefehle (Shortcuts) oder Spotlight systemweit verfügbar zu machen. Das sollte nicht zuletzt die Arbeit an sich erleichtern. Wenn diese Verbesserungen in Apples Ökosystem Einzug halten, wird die schwierigste Aufgabe wahrscheinlich darin bestehen, sich zu merken, welche Aktionen Sie durchführen können. 

App Intents erhalten auch Unterstützung für visuelle Intelligenz, was Apps in die Lage versetzt, visuelle Suchergebnisse bereitzustellen und zu nutzen. 

Vision Pro 

Viele Unternehmen haben bereits Vision-Pro-Geräte im Einsatz und auch Apple verwies in seiner WWDC-Keynote auf die Möglichkeiten von Spatial Computing. Angesichts des hohen Preises dieser Geräte (ab 4.000 Euro) ist es eine willkommene Neuerung, dass es jetzt viel einfacher ist, sie in Arbeitsgruppen gemeinsam zu nutzen. Jeder Benutzer kann demnach sein eigenes Vision OS-Profil auf seinem iPhone speichern und dann das Vision-Gerät entsprechend einrichten.  

Apple hat auch ein neues Vision Pro Tool vorgestellt, mit dem man einen Inhalt als geschützten Inhalt speichern können. Damit soll sichergestellt werden, dass Inhalte, die auf einem Vision- Pro-Gerät freigegeben werden, nicht außerhalb des Unternehmens gelangen. 

Es gibt auch Unterstützung für ein neues Vision-Pro-Peripheriegerät, das nicht von Apple stammt. Logitech Muse ist ein neues Stift-/Steuerungsgerät für die Spatial Reality, mit dem man gemeinsam mit anderen an Projekten arbeiten und zeichnen kann.  

Look to Scroll wiederum ermöglicht es Benutzern, Apps und Websites nur mit ihren Augen zu erkunden. Dabei können sie die Scroll-Geschwindigkeit nach ihren Wünschen anpassen. Wenig überraschend werden auch Entwickler in der Lage sein, Look to Scroll in ihre visionOS-Apps zu integrieren.  

Apple Intelligence war überall 

Wenn man zwischen den Zeilen liest, kann man erkennen, dass künstliche Intelligenz tatsächlich überall in den WWDC-Ankündigungen dieses Jahres zu finden ist. Eine der größten Ankündigungen in diesem Zusammenhang deutet auf kontextbezogene Intelligenz hin, von der Apple schon früher berichtet hat: Visuelle Intelligenz versteht jetzt, was auf dem Bildschirm zu sehen ist, ermöglicht es, Fragen dazu zu stellen, nach bestimmten Objekten zu suchen oder Ereignisse zum Kalender hinzuzufügen. Apple hat es Entwicklern natürlich ermöglicht, Auch diese Funktion können Entwickler künftig in ihren Apps unterstützen. 

“Letztes Jahr haben wir die ersten Schritte unternommen, um den Nutzern hilfreiche, relevante und benutzerfreundliche Informationen genau dort zur Verfügung zu stellen, wo sie sie brauchen, und gleichzeitig ihre Privatsphäre zu schützen“, erklärte Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Jetzt werden die Modelle, die Apple Intelligence antreiben, immer leistungsfähiger und effizienter, und wir integrieren die Funktionen an noch mehr Stellen in jedem unserer Betriebssysteme.” 

Oder kurz: Entwickler können jetzt dank des Foundation Model Framework die Apple Intelligence APIs nutzen, um deren Tools in ihre Apps einzubauen. 

Entwickler können sich auch auf Xcode 26 freuen, das dank der eingebauten Unterstützung für ChatGPT große Sprachmodelle (LLMs) direkt in ihre Coding-Erfahrung einbinden kann. Alternativ können sie auch API-Schlüssel von anderen Anbietern verwenden oder lokale Modelle ausführen, um Xcode zu unterstützen. 

Wie Apple weiter bekannt gab, werden die Apple Intelligence-Funktionen bis Ende des Jahres für acht weitere Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch. 

Live-Übersetzung 

Die Live-Übersetzung ist ebenfalls weitreichend. Sie ist in Messages, FaceTime und iPhone integriert und läuft vollständig auf dem Gerät. Sie kann automatisch Nachrichten zwischen Sprachen übersetzen, bei FaceTime-Anrufen übersetzte Untertitel anbieten oder die Übersetzung während eines Telefongesprächs laut vorlesen.  

Apple hat auch ein neues System angekündigt, das die Barrierefreiheit in Apps unterstützen soll. Mit den Accessibility Nutrition Labels für die Produktseiten im App Store können Entwickler ihren Kunden mitteilen, welche Funktionen ihre Apps für die Barrierefreiheit unterstützen. (mb) 

WWDC: Wie Apple sein Ökosystem verbessert​ Weiterlesen »

Geht Karriere heute ohne Netzwerk?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?quality=50&strip=all 5700w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ein gutes Netzwerk sollte primär als Austausch- und Wissensquelle verstanden werden – nicht als Karrieresprungbrett.Connect world – Shutterstock 677793247 Wenn wir über Karrierewege, insbesondere ins Topmanagement, sprechen, fällt oft der Begriff der Leistung oder des Talents. Fleiß, Neugier, Engagement, Zielstrebigkeit und die Fähigkeit, sich in einem schnelllebigen Umfeld zu behaupten – das sind die Attribute, die häufig als Grundlage für eine erfolgreiche Laufbahn genannt werden. Und das keinesfalls zu Unrecht. Denn nur wer diese Attribute mitbringt, kann früher oder später den Weg ins Topmanagement einschlagen und sich dort langfristig behaupten.   Allerdings gibt es auch eine Kehrseite der Medaille: Wer sich intensiver mit dem Thema auseinandersetzt, wird schnell feststellen, dass nicht nur diese Faktoren am Ende den Unterschied ausmachen. In der Praxis spielen häufig auch andere Dimensionen eine ebenso große Rolle: soziale Herkunft, Zugänge, ungeschriebene Codes und vor allem Netzwerke.  Insbesondere Letzterem wird immer wieder eine große Bedeutung zugeschrieben, wenn es darum geht, beruflich erfolgreich zu sein und ganz oben mitzuspielen. Manche sprechen sogar davon, dass das Hinaufklettern der Karriereleiter nur bis zu einem bestimmten Punkt ohne ein Netzwerk möglich ist.     Beruflicher Einstieg ohne „Vitamin B“ versus familiäres Netzwerk In der Theorie gilt: Alle können Abitur machen, einen Uni-Abschluss erzielen und auf Basis dessen einen gut bezahlten Job und vielleicht sogar eine erfolgreiche Karriere anstreben. In der Praxis macht es allerdings einen Unterschied, ob ich als Arbeiter- oder Akademikerkind ins Berufsleben starte, zum Beispiel wenn es um den Praktikumsplatz während des Studiums geht, den potenziellen Nebenjob, um sich das Studium zu finanzieren oder den Einstieg in den ersten Vollzeitjob nach dem Uni-Abschluss.   Wer aus einem Akademiker-Elternhaus kommt, wird mit einer deutlich höheren Wahrscheinlichkeit die benötigten Ressourcen und Hilfestellungen an die Hand bekommen als diejenigen, die in einem Arbeiterhaushalt aufwachsen. Das zeigen auch diverse Studien seit Jahren.   Zwei Beispiele aus der Praxis:   Viele Bewerbungsverfahren – ob für Praktika oder die ersten Bewerbungen im Job – setzen voraus, dass man weiß, wie man sich „richtig“ bewirbt – das ist jedoch kein Selbstläufer. Wer aus einem nicht-akademischen Umfeld kommt, kennt oftmals die Spielregeln nicht. Was fehlt, ist der Zugang zu Mentoren, Empfehlungsschreiben oder „informellen Tipps“.   Das gleiche gilt für Netzwerke und das Verschaffen von Praktikumsplätzen sowie Jobangeboten. Akademikerkinder haben in den meisten Fällen viel selbstverständlicher Zugang zu attraktiven Praktika und Jobs oder zu einem Netzwerk, das Türen öffnet – oft über Eltern, die Familie, Bekannte oder das richtige Umfeld.   Der Glaubenssatz ,,Wer gute Noten hat und sich reinhängt, wird auch belohnt”, verfällt damit zwar nicht. Aber er wird verwässert. Denn Tatsache ist: Das Umfeld, in dem man aufwächst, spielt eine viel größere Rolle für den Karriereweg, als man zunächst denken mag. Zum Glück aber auch nicht die Einzige.    Chancen statt „Vitamin B” Man kann, gerade am Anfang der Karriere, auch ohne ein etabliertes Netzwerk oder elterliche Starthilfen weit kommen. Vorausgesetzt, es gibt Menschen, die an einen glauben und bereit sind, einem eine Chance zu geben. Diese Person muss man nicht zwingend kennen. Neben dem Vorgesetzten im aktuellen Job können auch fremde Menschen wie beispielweise Headhunter oder verantwortliche Recruiter im Bewerbungsprozess Türen öffnen. Gäbe es solche Personen nicht, würden Zugänge verwehrt und Türen verschlossen bleiben – auch wenn man alle benötigten Skills und Erfahrungen für die angestrebte Position mitbringt.   Ich spreche aus Erfahrung: Ich wuchs selbst als Kind in einem nicht-akademischen Haushalt auf – ohne ein elterliches Netzwerk, auf das ich zugreifen konnte. Ich hatte aber das große Glück während meiner Karriere immer wieder Menschen zu begegnen, die mich gefördert, stark weiterentwickelt und mir entsprechende Türen geöffnet haben.   Unter anderem, weil sie an mich geglaubt und mir die Chance gegeben haben, mich zu beweisen. So fand ich mit der Zeit – und durch harte Arbeit, Leistung, Mut zur Veränderung sowie Entschlossenheit – meinen Weg zunächst ins mittlere Management und konnte letztlich im Topmanagement und C-Level-Karriere machen.     Welche Rolle Netzwerke in der Karriere wirklich spielen Je weiter man in seiner Laufbahn voranschreitet, desto wichtiger wird allerdings ein gutes Netzwerk. Aber nicht im Sinne von „Vitamin B“ und direkten Vorteilen, sondern als Austausch- und Wissensquelle. Dieses Netzwerk bringt einen nicht unbedingt im klassischen Sinne die Karriereleiter weiter nach oben. Aber es gibt einem Rückhalt und fördert den Austausch mit Personen auf Augenhöhe.   Warum das so wertvoll ist? Man erhält ehrliches, fundiertes Feedback, kann berufliche Herausforderungen teilen und über neue Ideen sprechen. Gleichzeitig gewinnt man neue Impulse sowie Perspektiven, kann komplexe Entscheidungen abwägen und mögliche blinde Flecken erkennen. Der Austausch eröffnet außerdem die Möglichkeit, aus den Fehlern anderer zu lernen, bevor man sie selbst macht.   Letztlich sollte es bei einem Netzwerk nicht darum gehen, sich Vorteile zu verschaffen, sondern vielmehr darum, Neues zu lernen, besser zu werden und so den nächsten Schritt in der Karriere zu gehen.   Mit diesem Mindset habe ich mir mein professionelles Netzwerk in den letzten Jahren gezielt und bewusst aufgebaut – vor allem mit Peers in ähnlichen Funktionen in anderen Unternehmen. Dabei habe ich auf Qualität statt Quantität gesetzt. Warum? Ich habe lieber ein kleines, vertrautes Netzwerk mit zehn bis fünfzehn Menschen, mit denen ich mich auch privat austausche, Geburtstagsgrüße verschicke oder mal essen gehe. Dieses Vertrauen und die Offenheit machen für mich ein echtes und fundiertes Netzwerk aus.      Tipps für ein Peer-Netzwerk  Nachhaltige Netzwerke aufbauen: Netzwerken ist keine Einbahnstraße, sondern immer ein Geben und ein Nehmen. Fragen Sie sich daher nicht nur, was Sie von der anderen Person erhalten können, sondern auch, welchen Mehrwert Sie selbst einbringen können. Nur so können Verbindungen entstehen, die langfristig und nachhaltig wirksam sind.    Auf Augenhöhe austauschen: Fokussieren Sie sich nicht auf diejenigen, die beruflich schon “eine Stufe weiter” sind. Vernetzen Sie sich stattdessen mit Personen, mit denen Sie sich auf Augenhöhe austauschen können und die in ihrer Position vermutlich ähnliche Herausforderungen haben. Das ist für mich – bis heute – fachlich viel wichtiger und deutlich hilfreicher.  Selbst aktiv werden: Warten Sie nicht darauf angesprochen zu werden, sondern werden Sie selbst aktiv. Neben (fach-spezifischen) Offline-Events bieten vor allem berufliche Netzwerke wie LinkedIn eine ideale Möglichkeit, nach Gleichgesinnten Ausschau zu halten und sich mit ihnen zu vernetzen. Mein Tipp: Fügen Sie jeder Anfrage eine kurze Nachricht hinzu, in der Sie erwähnen, warum Sie sich mit der Person vernetzen möchten.   Fazit Das berühmte „Vitamin B” kann zwar einiges auf dem Karriereweg leichter und zugänglicher machen, es ist aber kein alleiniger Garant dafür, am Ende auch wirklich erfolgreich zu sein und Karriere zu machen. Einerseits haben viele Unternehmen – so auch Statista – standardisierte Bewerbungsverfahren, die es nicht möglich machen, dass man nur mit „Vitamin B” in Positionen kommt.   Es kann zwar eine Empfehlung für eine Person ausgesprochen werden, die dann möglicherweise im Bewerbungsprozess berücksichtigt wird, diese muss aber – wie alle anderen Bewerber – auch einen mehrstufigen Bewerbungsprozess durchlaufen. In diesen Prozess werden verschiedene Personen aus dem HR- und Fachbereich mit einbezogen, um am Ende zu einer gemeinsamen Entscheidung zu kommen.   Andererseits nützt einem die beste Empfehlung nichts, wenn man im Job nicht das leistet, was der Arbeitgeber sich durch die Einstellung erhofft hat. Letztlich zählt, was man aus den Möglichkeiten und Chancen macht, die sich einem ergeben. Wie man performt und welche Erfolge man für das Unternehmen erzielt. Das ist es, worauf es ankommt, wenn man beruflich erfolgreich sein möchte.   Aber auch auf Menschen, die an einen glauben, Potenziale erkennen und dadurch Türen öffnen, denn Karriere ist kein Solo-Projekt. Sie ist vor allem ein Prozess, der von gegenseitigem Vertrauen und Austausch lebt – und manchmal auch von einer Prise Glück. Denn: Wer es langfristig ins Topmanagement schaffen möchte, ist nicht nur fachlich herausragend, sondern hat oft auch das Glück, zur richtigen Zeit Unterstützung von den richtigen Menschen zu erhalten.  Ein gutes Netzwerk hingegen sollte primär als Austausch- und Wissensquelle verstanden werden – nicht als Karrieresprungbrett. Es ist eine langfristige Investition in die eigene berufliche Weiterentwicklung, die nicht nur den Zugang zu Chancen ermöglicht, sondern auch den notwendigen Rückhalt bietet.  

Geht Karriere heute ohne Netzwerk?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?quality=50&strip=all 5700w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Netzwerk-shutterstock_677793247.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ein gutes Netzwerk sollte primär als Austausch- und Wissensquelle verstanden werden – nicht als Karrieresprungbrett.Connect world – Shutterstock 677793247

Wenn wir über Karrierewege, insbesondere ins Topmanagement, sprechen, fällt oft der Begriff der Leistung oder des Talents. Fleiß, Neugier, Engagement, Zielstrebigkeit und die Fähigkeit, sich in einem schnelllebigen Umfeld zu behaupten – das sind die Attribute, die häufig als Grundlage für eine erfolgreiche Laufbahn genannt werden. Und das keinesfalls zu Unrecht. Denn nur wer diese Attribute mitbringt, kann früher oder später den Weg ins Topmanagement einschlagen und sich dort langfristig behaupten.  

Allerdings gibt es auch eine Kehrseite der Medaille: Wer sich intensiver mit dem Thema auseinandersetzt, wird schnell feststellen, dass nicht nur diese Faktoren am Ende den Unterschied ausmachen. In der Praxis spielen häufig auch andere Dimensionen eine ebenso große Rolle: soziale Herkunft, Zugänge, ungeschriebene Codes und vor allem Netzwerke. 

Insbesondere Letzterem wird immer wieder eine große Bedeutung zugeschrieben, wenn es darum geht, beruflich erfolgreich zu sein und ganz oben mitzuspielen. Manche sprechen sogar davon, dass das Hinaufklettern der Karriereleiter nur bis zu einem bestimmten Punkt ohne ein Netzwerk möglich ist.  

 

Beruflicher Einstieg ohne „Vitamin B“ versus familiäres Netzwerk

In der Theorie gilt: Alle können Abitur machen, einen Uni-Abschluss erzielen und auf Basis dessen einen gut bezahlten Job und vielleicht sogar eine erfolgreiche Karriere anstreben. In der Praxis macht es allerdings einen Unterschied, ob ich als Arbeiter- oder Akademikerkind ins Berufsleben starte, zum Beispiel wenn es um den Praktikumsplatz während des Studiums geht, den potenziellen Nebenjob, um sich das Studium zu finanzieren oder den Einstieg in den ersten Vollzeitjob nach dem Uni-Abschluss.  

Wer aus einem Akademiker-Elternhaus kommt, wird mit einer deutlich höheren Wahrscheinlichkeit die benötigten Ressourcen und Hilfestellungen an die Hand bekommen als diejenigen, die in einem Arbeiterhaushalt aufwachsen. Das zeigen auch diverse Studien seit Jahren.  

Zwei Beispiele aus der Praxis:  

Viele Bewerbungsverfahren – ob für Praktika oder die ersten Bewerbungen im Job – setzen voraus, dass man weiß, wie man sich „richtig“ bewirbt – das ist jedoch kein Selbstläufer. Wer aus einem nicht-akademischen Umfeld kommt, kennt oftmals die Spielregeln nicht. Was fehlt, ist der Zugang zu Mentoren, Empfehlungsschreiben oder „informellen Tipps“.  

Das gleiche gilt für Netzwerke und das Verschaffen von Praktikumsplätzen sowie Jobangeboten. Akademikerkinder haben in den meisten Fällen viel selbstverständlicher Zugang zu attraktiven Praktika und Jobs oder zu einem Netzwerk, das Türen öffnet – oft über Eltern, die Familie, Bekannte oder das richtige Umfeld.  

Der Glaubenssatz ,,Wer gute Noten hat und sich reinhängt, wird auch belohnt”, verfällt damit zwar nicht. Aber er wird verwässert. Denn Tatsache ist: Das Umfeld, in dem man aufwächst, spielt eine viel größere Rolle für den Karriereweg, als man zunächst denken mag. Zum Glück aber auch nicht die Einzige. 

 

Chancen statt „Vitamin B”

Man kann, gerade am Anfang der Karriere, auch ohne ein etabliertes Netzwerk oder elterliche Starthilfen weit kommen. Vorausgesetzt, es gibt Menschen, die an einen glauben und bereit sind, einem eine Chance zu geben. Diese Person muss man nicht zwingend kennen. Neben dem Vorgesetzten im aktuellen Job können auch fremde Menschen wie beispielweise Headhunter oder verantwortliche Recruiter im Bewerbungsprozess Türen öffnen. Gäbe es solche Personen nicht, würden Zugänge verwehrt und Türen verschlossen bleiben – auch wenn man alle benötigten Skills und Erfahrungen für die angestrebte Position mitbringt.  

Ich spreche aus Erfahrung: Ich wuchs selbst als Kind in einem nicht-akademischen Haushalt auf – ohne ein elterliches Netzwerk, auf das ich zugreifen konnte. Ich hatte aber das große Glück während meiner Karriere immer wieder Menschen zu begegnen, die mich gefördert, stark weiterentwickelt und mir entsprechende Türen geöffnet haben.  

Unter anderem, weil sie an mich geglaubt und mir die Chance gegeben haben, mich zu beweisen. So fand ich mit der Zeit – und durch harte Arbeit, Leistung, Mut zur Veränderung sowie Entschlossenheit – meinen Weg zunächst ins mittlere Management und konnte letztlich im Topmanagement und C-Level-Karriere machen.  

 

Welche Rolle Netzwerke in der Karriere wirklich spielen

Je weiter man in seiner Laufbahn voranschreitet, desto wichtiger wird allerdings ein gutes Netzwerk. Aber nicht im Sinne von „Vitamin B“ und direkten Vorteilen, sondern als Austausch- und Wissensquelle. Dieses Netzwerk bringt einen nicht unbedingt im klassischen Sinne die Karriereleiter weiter nach oben. Aber es gibt einem Rückhalt und fördert den Austausch mit Personen auf Augenhöhe.  

Warum das so wertvoll ist? Man erhält ehrliches, fundiertes Feedback, kann berufliche Herausforderungen teilen und über neue Ideen sprechen. Gleichzeitig gewinnt man neue Impulse sowie Perspektiven, kann komplexe Entscheidungen abwägen und mögliche blinde Flecken erkennen. Der Austausch eröffnet außerdem die Möglichkeit, aus den Fehlern anderer zu lernen, bevor man sie selbst macht.  

Letztlich sollte es bei einem Netzwerk nicht darum gehen, sich Vorteile zu verschaffen, sondern vielmehr darum, Neues zu lernen, besser zu werden und so den nächsten Schritt in der Karriere zu gehen.  

Mit diesem Mindset habe ich mir mein professionelles Netzwerk in den letzten Jahren gezielt und bewusst aufgebaut – vor allem mit Peers in ähnlichen Funktionen in anderen Unternehmen. Dabei habe ich auf Qualität statt Quantität gesetzt. Warum? Ich habe lieber ein kleines, vertrautes Netzwerk mit zehn bis fünfzehn Menschen, mit denen ich mich auch privat austausche, Geburtstagsgrüße verschicke oder mal essen gehe. Dieses Vertrauen und die Offenheit machen für mich ein echtes und fundiertes Netzwerk aus.  

  

Tipps für ein Peer-Netzwerk 

Nachhaltige Netzwerke aufbauen: Netzwerken ist keine Einbahnstraße, sondern immer ein Geben und ein Nehmen. Fragen Sie sich daher nicht nur, was Sie von der anderen Person erhalten können, sondern auch, welchen Mehrwert Sie selbst einbringen können. Nur so können Verbindungen entstehen, die langfristig und nachhaltig wirksam sind.   

Auf Augenhöhe austauschen: Fokussieren Sie sich nicht auf diejenigen, die beruflich schon “eine Stufe weiter” sind. Vernetzen Sie sich stattdessen mit Personen, mit denen Sie sich auf Augenhöhe austauschen können und die in ihrer Position vermutlich ähnliche Herausforderungen haben. Das ist für mich – bis heute – fachlich viel wichtiger und deutlich hilfreicher. 

Selbst aktiv werden: Warten Sie nicht darauf angesprochen zu werden, sondern werden Sie selbst aktiv. Neben (fach-spezifischen) Offline-Events bieten vor allem berufliche Netzwerke wie LinkedIn eine ideale Möglichkeit, nach Gleichgesinnten Ausschau zu halten und sich mit ihnen zu vernetzen. Mein Tipp: Fügen Sie jeder Anfrage eine kurze Nachricht hinzu, in der Sie erwähnen, warum Sie sich mit der Person vernetzen möchten.  

Fazit

Das berühmte „Vitamin B” kann zwar einiges auf dem Karriereweg leichter und zugänglicher machen, es ist aber kein alleiniger Garant dafür, am Ende auch wirklich erfolgreich zu sein und Karriere zu machen. Einerseits haben viele Unternehmen – so auch Statista – standardisierte Bewerbungsverfahren, die es nicht möglich machen, dass man nur mit „Vitamin B” in Positionen kommt.  

Es kann zwar eine Empfehlung für eine Person ausgesprochen werden, die dann möglicherweise im Bewerbungsprozess berücksichtigt wird, diese muss aber – wie alle anderen Bewerber – auch einen mehrstufigen Bewerbungsprozess durchlaufen. In diesen Prozess werden verschiedene Personen aus dem HR- und Fachbereich mit einbezogen, um am Ende zu einer gemeinsamen Entscheidung zu kommen.  

Andererseits nützt einem die beste Empfehlung nichts, wenn man im Job nicht das leistet, was der Arbeitgeber sich durch die Einstellung erhofft hat. Letztlich zählt, was man aus den Möglichkeiten und Chancen macht, die sich einem ergeben. Wie man performt und welche Erfolge man für das Unternehmen erzielt. Das ist es, worauf es ankommt, wenn man beruflich erfolgreich sein möchte.  

Aber auch auf Menschen, die an einen glauben, Potenziale erkennen und dadurch Türen öffnen, denn Karriere ist kein Solo-Projekt. Sie ist vor allem ein Prozess, der von gegenseitigem Vertrauen und Austausch lebt – und manchmal auch von einer Prise Glück. Denn: Wer es langfristig ins Topmanagement schaffen möchte, ist nicht nur fachlich herausragend, sondern hat oft auch das Glück, zur richtigen Zeit Unterstützung von den richtigen Menschen zu erhalten. 

Ein gutes Netzwerk hingegen sollte primär als Austausch- und Wissensquelle verstanden werden – nicht als Karrieresprungbrett. Es ist eine langfristige Investition in die eigene berufliche Weiterentwicklung, die nicht nur den Zugang zu Chancen ermöglicht, sondern auch den notwendigen Rückhalt bietet. 

Geht Karriere heute ohne Netzwerk?​ Weiterlesen »

Das sind die größten IT-Dienstleister Deutschlands​

Allgemein

Die Lünendonk-Liste 2025 zeigt: Der Bedarf an IT-Dienstleistungen ist nach wie vor hoch, aber das Budget knapp. Gorodenkoff – shutterstock.com Die maue Konjunkturlage in Deutschland hat den IT-Dienstleistern das Geschäftsjahr 2024 verhagelt. Ihr Umsatz legte im vergangenen Jahr 2024 lediglich um durchschnittlich 2,6 Prozent zu – 2023 betrug das Plus noch 9,4 Prozent. Dies ist ein erstes Ergebnis der Lünendonk-Studie 2025 „Der Markt für IT-Dienstleistungen in Deutschland“ des Research- und Analysten-Unternehmens Lünendonk & Hossenfelder.  Während die Anbieter im Jahr 2023 dem Rückgang der Wirtschaftsleistung noch trotzen konnten, schlugen die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten auf die Geschäfte der Anbieter durch, beobachteten die Lünendonk-Analysten. Viele Anwenderunternehmen seien gezwungen gewesen, ihre Investitionen in digitale Technologien zu priorisieren oder gar zu verschieben.  Für die IT-Dienstleistungsstudie hat Lünendonk vorab die Listen „Führende IT-Beratungs- und Systemintegrations-Unternehmen in Deutschland“ sowie “Führende IT-Service-Unternehmen in Deutschland“ veröffentlicht. Die umfangreiche Marktstudie soll Ende Juli 2025 folgen.  Lünendonk-Liste „IT-Beratung und Systemintegration“ In das Ranking aufgenommen wurden Unternehmen, die mehr als 60 Prozent des Umsatzes in Deutschland mit Management- und IT-Beratung, Systemintegration, Softwareentwicklung und -einführung erzielten.   Marktführer bleibt auch im Jahr 2024 Accenture mit einem Deutschland-Umsatz von 3,4 Milliarden Euro (2023: 3,3 Milliarden Euro). Auf Platz zwei folgt Capgemini mit im Vergleich zum Vorjahr unveränderten Einnahmen von 2,25 Milliarden Euro. Das Siegertreppchen komplettiert IBM auf Rang drei mit einem Umsatz von 2,2 Milliarden Euro (2023: 2,0 Milliarden Euro). Die Einnahmen der Top-3-Anbieter in diesem Ranking wurden von Lünendonk geschätzt.    Einen deutlichen Sprung nach vorne machte adesso. Der Dienstleister steigerte seinen Inlandsumsatz gegenüber dem Vorjahr um 15 Prozent auf 1,07 Milliarden Euro und knackte damit erstmals die Milliarden-Marke. Damit rückte adesso von Platz sechs auf Rang vier vor.  Die Top-5 komplett macht msg systems mit Einnahmen von 968,1 Millionen Euro, etwas weniger als im Jahr zuvor (970,2 Millionen Euro).  In den Top-10 der IT-Berater und Systemintegratoren platzierten sich außerdem:  Infosys mit 960 Millionen Euro (2023: 770 Milionen Euro)  Tata Consultancy Services (TCS) mit 921,6 Millionen Euro (2023: 958,1 Millionen Euro)  MHP Management & IT-Beratung GmbH mit 763,8 Millionen Euro (2023: 748 Millionen Euro)  Sopra Steria mit 673,1 Millionen Euro (2023: 715,2 Millionen Euro)  CGI mit 649,8 Millionen Euro (2023; 642,1 Millionen Euro)  Das Ranking „IT-Service“  In das IT-Service-Ranking hat Lünendonk IT-Dienstleister aufgenommen, die mehr als 50 Prozent ihres Umsatzes in Deutschland mit IT-Operations-Services (Hosting, Managed Services etc.) sowohl für den Betrieb von IT-Anwendungen als auch der IT-Infrastruktur sowie weitere signifikante Umsätze mit IT-Services wie IT-Beratung und Softwareentwicklung erwirtschaften.  Rang eins belegt wie im Vorjahr T-Systems mit einem Umsatz in Deutschland von 3,0 Milliarden Euro (2023: 2,95 Milliarden Euro). Den zweiten Platz sicherte sich NTT Data, die 2024 hierzulande auf Einnahmen in Höhe von 2,3 Milliarden Euro kamen (2023: 2,38 Milliarden Euro). Nummer drei im Ranking ist Atos mit 1,43 Milliarden Euro, etwas weniger als im Vorjahr (1,48 Milliarden Euro).  Unter die Top-5 schafften es auch DXC mit Einnahmen von 1,32 Milliarden Euro, etwas mehr als im Jahr 2023 (1,3 Milliarden Euro). Auch Kyndryl auf Rang fünf konnte zulegen, nämlich von 700 Millionen Euro Deutschland-Umsatz im Jahr 2023 auf 750,0 Millionen Euro im vergangenen Jahr.  In den Top-10 der IT-Serviceanbieter platzierten sich außerdem:  HCL Technologies mit 692 Millionen Euro (2023: 625 Millionen Euro)  Datagroup mit 495,9 Millionen Euro (2023: 484,2 Millionen Euro)  Arvato Systems mit 494,7 Millionen Euro (2023: 445,4 Millionen Euro)  Controlware mit 400 Millionen Euro (2023: 382 Millionen Euro)  All for One Group mit 382,8 Millionen Euro (2023: 383 Millionen Euro)  Ein Vergleich der Umsatzentwicklung der Unternehmen der beiden Listen zeigt, dass die 25 größten IT-Berater und Systemintegratoren hierzulande im vergangenen Jahr im Durchschnitt ein Umsatzplus von 3,4 Prozent erzielen konnten. Die 25 führenden IT-Service-Unternehmen lagen mit durchschnittlich 4,8 Prozent etwas darüber. Mit diesen Zahlen haben die Anbieter ihre Erwartungen deutlich verfehlt. Insgesamt hatten die IT-Dienstleister mit einem Wachstum von 10,7 Prozent gerechnet.  Mario Zillmann, Partner bei Lünendonk, bleibt dennoch optimistisch. „IT-Service-Unternehmen profitieren derzeit sehr stark von der notwendigen IT-Modernisierung sowie von hohen Investitionen in die Absicherung der Unternehmensnetzwerke“, konstatierte der Analyst. Auch im Zuge der Debatte um Souveränität seien viele lokale IT-Service-Unternehmen sehr gut aufgestellt, da sie über eigene Rechenzentren verfügten, in denen Daten und Softwareanwendungen souverän betrieben werden könnten.   Wachstum soll 2025 und 2026 wieder anziehen   Für das laufende Jahr 2025 erwarten IT-Dienstleister Lünendonk zufolge ein durchschnittliches Umsatzwachstum von 7,1 Prozent und für 2026 von 10,4 Prozent. „Der Druck zur digitalen Transformation bleibt hoch“, interpretiert Zillmann die optimistische Prognose. CIOs stünden vor der Herausforderung, einerseits Kosten zu senken, andererseits digitale Innovationen zu fördern und als Business Enabler zu agieren. „Vor dem Hintergrund des IT-Fachkräftemangels gelingt dieser Spagat oft nur mit externer Unterstützung.“ Die IT-Dienstleister blieben daher grundsätzlich positiv gestimmt, glaubt der Lünendonk-Analyst, schränkt aber im gleichen Atemzug ein, „wenngleich sich die Konjunktur auch auf ihr Geschäft auswirkt.“  

Das sind die größten IT-Dienstleister Deutschlands​ Die Lünendonk-Liste 2025 zeigt: Der Bedarf an IT-Dienstleistungen ist nach wie vor hoch, aber das Budget knapp. Gorodenkoff – shutterstock.com

Die maue Konjunkturlage in Deutschland hat den IT-Dienstleistern das Geschäftsjahr 2024 verhagelt. Ihr Umsatz legte im vergangenen Jahr 2024 lediglich um durchschnittlich 2,6 Prozent zu – 2023 betrug das Plus noch 9,4 Prozent. Dies ist ein erstes Ergebnis der Lünendonk-Studie 2025 „Der Markt für IT-Dienstleistungen in Deutschland“ des Research- und Analysten-Unternehmens Lünendonk & Hossenfelder. 

Während die Anbieter im Jahr 2023 dem Rückgang der Wirtschaftsleistung noch trotzen konnten, schlugen die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten auf die Geschäfte der Anbieter durch, beobachteten die Lünendonk-Analysten. Viele Anwenderunternehmen seien gezwungen gewesen, ihre Investitionen in digitale Technologien zu priorisieren oder gar zu verschieben. 

Für die IT-Dienstleistungsstudie hat Lünendonk vorab die Listen „Führende IT-Beratungs- und Systemintegrations-Unternehmen in Deutschland“ sowie “Führende IT-Service-Unternehmen in Deutschland“ veröffentlicht. Die umfangreiche Marktstudie soll Ende Juli 2025 folgen. 

Lünendonk-Liste „IT-Beratung und Systemintegration“

In das Ranking aufgenommen wurden Unternehmen, die mehr als 60 Prozent des Umsatzes in Deutschland mit Management- und IT-Beratung, Systemintegration, Softwareentwicklung und -einführung erzielten.  

Marktführer bleibt auch im Jahr 2024 Accenture mit einem Deutschland-Umsatz von 3,4 Milliarden Euro (2023: 3,3 Milliarden Euro). Auf Platz zwei folgt Capgemini mit im Vergleich zum Vorjahr unveränderten Einnahmen von 2,25 Milliarden Euro. Das Siegertreppchen komplettiert IBM auf Rang drei mit einem Umsatz von 2,2 Milliarden Euro (2023: 2,0 Milliarden Euro). Die Einnahmen der Top-3-Anbieter in diesem Ranking wurden von Lünendonk geschätzt.   

Einen deutlichen Sprung nach vorne machte adesso. Der Dienstleister steigerte seinen Inlandsumsatz gegenüber dem Vorjahr um 15 Prozent auf 1,07 Milliarden Euro und knackte damit erstmals die Milliarden-Marke. Damit rückte adesso von Platz sechs auf Rang vier vor.  Die Top-5 komplett macht msg systems mit Einnahmen von 968,1 Millionen Euro, etwas weniger als im Jahr zuvor (970,2 Millionen Euro). 

In den Top-10 der IT-Berater und Systemintegratoren platzierten sich außerdem: 

Infosys mit 960 Millionen Euro (2023: 770 Milionen Euro) 

Tata Consultancy Services (TCS) mit 921,6 Millionen Euro (2023: 958,1 Millionen Euro) 

MHP Management & IT-Beratung GmbH mit 763,8 Millionen Euro (2023: 748 Millionen Euro) 

Sopra Steria mit 673,1 Millionen Euro (2023: 715,2 Millionen Euro) 

CGI mit 649,8 Millionen Euro (2023; 642,1 Millionen Euro) 

Das Ranking „IT-Service“ 

In das IT-Service-Ranking hat Lünendonk IT-Dienstleister aufgenommen, die mehr als 50 Prozent ihres Umsatzes in Deutschland mit IT-Operations-Services (Hosting, Managed Services etc.) sowohl für den Betrieb von IT-Anwendungen als auch der IT-Infrastruktur sowie weitere signifikante Umsätze mit IT-Services wie IT-Beratung und Softwareentwicklung erwirtschaften. 

Rang eins belegt wie im Vorjahr T-Systems mit einem Umsatz in Deutschland von 3,0 Milliarden Euro (2023: 2,95 Milliarden Euro). Den zweiten Platz sicherte sich NTT Data, die 2024 hierzulande auf Einnahmen in Höhe von 2,3 Milliarden Euro kamen (2023: 2,38 Milliarden Euro). Nummer drei im Ranking ist Atos mit 1,43 Milliarden Euro, etwas weniger als im Vorjahr (1,48 Milliarden Euro). 

Unter die Top-5 schafften es auch DXC mit Einnahmen von 1,32 Milliarden Euro, etwas mehr als im Jahr 2023 (1,3 Milliarden Euro). Auch Kyndryl auf Rang fünf konnte zulegen, nämlich von 700 Millionen Euro Deutschland-Umsatz im Jahr 2023 auf 750,0 Millionen Euro im vergangenen Jahr. 

In den Top-10 der IT-Serviceanbieter platzierten sich außerdem: 

HCL Technologies mit 692 Millionen Euro (2023: 625 Millionen Euro) 

Datagroup mit 495,9 Millionen Euro (2023: 484,2 Millionen Euro) 

Arvato Systems mit 494,7 Millionen Euro (2023: 445,4 Millionen Euro) 

Controlware mit 400 Millionen Euro (2023: 382 Millionen Euro) 

All for One Group mit 382,8 Millionen Euro (2023: 383 Millionen Euro) 

Ein Vergleich der Umsatzentwicklung der Unternehmen der beiden Listen zeigt, dass die 25 größten IT-Berater und Systemintegratoren hierzulande im vergangenen Jahr im Durchschnitt ein Umsatzplus von 3,4 Prozent erzielen konnten. Die 25 führenden IT-Service-Unternehmen lagen mit durchschnittlich 4,8 Prozent etwas darüber. Mit diesen Zahlen haben die Anbieter ihre Erwartungen deutlich verfehlt. Insgesamt hatten die IT-Dienstleister mit einem Wachstum von 10,7 Prozent gerechnet. 

Mario Zillmann, Partner bei Lünendonk, bleibt dennoch optimistisch. „IT-Service-Unternehmen profitieren derzeit sehr stark von der notwendigen IT-Modernisierung sowie von hohen Investitionen in die Absicherung der Unternehmensnetzwerke“, konstatierte der Analyst. Auch im Zuge der Debatte um Souveränität seien viele lokale IT-Service-Unternehmen sehr gut aufgestellt, da sie über eigene Rechenzentren verfügten, in denen Daten und Softwareanwendungen souverän betrieben werden könnten.  

Wachstum soll 2025 und 2026 wieder anziehen  

Für das laufende Jahr 2025 erwarten IT-Dienstleister Lünendonk zufolge ein durchschnittliches Umsatzwachstum von 7,1 Prozent und für 2026 von 10,4 Prozent. „Der Druck zur digitalen Transformation bleibt hoch“, interpretiert Zillmann die optimistische Prognose. CIOs stünden vor der Herausforderung, einerseits Kosten zu senken, andererseits digitale Innovationen zu fördern und als Business Enabler zu agieren. „Vor dem Hintergrund des IT-Fachkräftemangels gelingt dieser Spagat oft nur mit externer Unterstützung.“ Die IT-Dienstleister blieben daher grundsätzlich positiv gestimmt, glaubt der Lünendonk-Analyst, schränkt aber im gleichen Atemzug ein, „wenngleich sich die Konjunktur auch auf ihr Geschäft auswirkt.“ 

Das sind die größten IT-Dienstleister Deutschlands​ Weiterlesen »

Nach oben scrollen
×