Computerhaus Quickborn

März 2025

KI-Agenten in der Fertigung: Die nächste Evolutionsstufe der Automatisierung​

Allgemein

loading=”lazy” width=”400px”>KI-Agenten, die (weitgehend) eigene Entscheidungen treffen, können die Prozesse in der Fertigung revolutionieren.Gorodenkoff – shutterstock.com KI-Agenten verändern die Industrie in rasantem Tempo, und die Fertigungsindustrie bildet da keine Ausnahme. Während sich die ersten Anwendungen auf die Optimierung des Personal-, Finanz-, Rechts- und Forderungsmanagements konzentrierten, sorgen KI-Agenten heute für erhebliche Verbesserungen in den Kernprozessen der Fertigung.  Diese intelligenten Systeme treten im Allgemeinen in zwei Formen auf:  Unabhängige KI-Agenten, die autonom arbeiten und komplexe, durchgängige Aufgaben mit minimaler menschlicher Beteiligung erledigen.  Kollaborative KI-Agenten, die sowohl mit Menschen als auch mit anderen KI-Agenten koordiniert zusammenarbeiten, Wissen austauschen und Prozesse gemeinsam optimieren.  Im Gegensatz zu herkömmlichen KI-gestützten Lösungen ist agentenbasierte KI proaktiv und in der Lage, komplexe Probleme eigenständig zu lösen. Dies ist ein wesentlicher Unterschied zur robotergestützten Prozessautomatisierung (Robotic Process Automation, RPA), die auf vordefinierten Ein- und Ausgaben basiert. KI-Agenten hingegen passen sich kontinuierlich an, lernen und optimieren Prozesse in Echtzeit.  Der Aufstieg der agentenbasierten KI  Mehrere Faktoren beschleunigen die Einführung von KI-Agenten in der Fertigung:  Datenexplosion – Die wachsende Menge an strukturierten und unstrukturierten Daten erfordert eine stärkere Automatisierung.  Bedarf an autonomen Systemen – Unternehmen benötigen selbstoptimierende Prozesse, die menschliche Eingriffe auf ein Minimum reduzieren.  Fortschritte in der künstlichen Intelligenz – Neue Modelle ermöglichen eine kontextbezogene Entscheidungsfindung und autonome Ausführung.  Skalierbarkeit von Cloud- und Rechenleistung – KI-Agenten können jetzt unternehmensweit eingesetzt werden.  Herkömmliche KI und sogar GenAI bleiben weitgehend passiv und reagieren nur auf Anfragen des Benutzers. Im Gegensatz dazu wird Agentic AI durch Inferenz gesteuert und ermöglicht selbstgesteuerte Systeme, die in der Lage sind, eigenständig zu handeln und Entscheidungen zu treffen.  Auch Softwareanbieter integrieren KI-Agenten in die Lösungen, die sie entwickeln und an Endnutzer verkaufen. Laut Gartner werden bis 2028 ein Drittel (33 Prozent) der Unternehmensanwendungen KI-Agenten enthalten – ein deutlicher Sprung von weniger als einem Prozent im Jahr 2024. Infolgedessen werden KI-Agenten schnell zur treibenden Kraft sowohl hinter Softwareanwendungen als auch hinter physischen Robotern – zumindest bis zur nächsten großen, technologischen Disruption.  Von der Lieferkette bis zur Produktion: KI-Agenten in Aktion  In der Fertigung ist dieser Wandel bereits im Gange. KI-Agenten definieren die Bereiche Konstruktion, Vorproduktion, Produktionsmanagement, Qualitätskontrolle, Wartung und Bestandsmanagement neu – Bereiche, die traditionell von Unternehmenssoftware-Suiten und Cloud-Plattformen dominiert werden. Durch die Einbettung von Intelligenz in diese Lösungen verbessern KI-Agenten die Autonomie, Effizienz und Anpassungsfähigkeit und machen Fertigungsabläufe widerstandsfähiger und zukunftssicherer.  In folgenden Bereichen können KI-Agenten (unter anderem) effektiv eingesetzt werden:  Vorausschauende Wartung und Zustandsüberwachung von Maschinen  KI-Agenten analysieren kontinuierlich die Leistungsdaten von Maschinen, um frühe Anzeichen von Ausfällen zu erkennen. Treten Muster auf, die auf potenzielle Ausfälle hindeuten, leiten sie präventive Wartungsmaßnahmen ein und reduzieren so ungeplante Ausfallzeiten.  Intelligentes und autonomes Supply Chain Management  Kollaborative KI-Agenten synchronisieren Nachfrageprognosen, Produktionsplanung, Bestandsmanagement, Lieferantenkoordination sowie Logistik und passen sich dynamisch an Echtzeitänderungen der Nachfrage, Lieferbeschränkungen und Transportbedingungen an.  KI-gestützte virtuelle Assistenten für Nutzer  KI-Agenten können in verschiedene Datenplattformen integriert werden, um Echtzeiteinblicke in Wetter, Verkehr, Maschinenstillstände und Produktionsmetriken zu liefern. Diese KI-gestützten Assistenten führen Dialoge mit mehreren Gesprächspartnern, erinnern sich an frühere Interaktionen und ermöglichen einen nahtlosen sprachgesteuerten Zugriff auf Informationen.  KI-Agenten in der Produktionsplanung  KI-Agenten optimieren Produktionspläne, indem sie Bedarfsprognosen, Lagerbestände, Maschinen- und Ersatzteilverfügbarkeit, Personalkapazitäten und Qualitätseinschränkungen analysieren. Sie passen die Pläne auf der Grundlage von Echtzeitsimulationen und Betriebsdaten dynamisch an.  Digitale Zwillings-Simulation mit Agentic AI  KI-gesteuerte digitale Zwillinge erweitern herkömmliche Simulationsmodelle, indem sie Auftragsausführung, Prozessoptimierung und Entscheidungsfindung autonom steuern. Multiagentensysteme sammeln, analysieren, prognostizieren und optimieren Daten über vernetzte Systeme hinweg und machen Simulationen anpassungsfähiger und reaktionsschneller.  KI-Agenten im Qualitätsmanagement  KI-Agenten analysieren Qualitätsberichte aus verschiedenen Quellen, erkennen wiederkehrende Fehler und empfehlen Korrekturmaßnahmen. Sie lernen kontinuierlich aus vergangenen Problemen und beschleunigen so die Qualitätsdokumentation und den Lösungs-Workflow.  Optimierung von Werkstatt und Fertigungsprozessen  KI-Agenten koordinieren mehrere Produktionsprozesse, einschließlich Materialverfügbarkeit, vorausschauende Wartung, Integration von Unternehmenssystemen und Qualitätskontrolle. Spezialisierte Agenten arbeiten in verschiedenen Fertigungsbereichen und reagieren dynamisch auf Änderungen in Echtzeit.  Die Zukunft von KI-Agenten in der Fertigung  KI-Agenten sind mehr als nur Automatisierungswerkzeuge – sie stehen für einen grundlegenden Wandel hin zu selbstoptimierenden, intelligenten Produktionsökosystemen. In dem Maße, wie Unternehmen zunehmend agentenbasierte KI einsetzen, werden Fertigungsprozesse robuster, effizienter und autonomer.  Der nächste Schritt? Unternehmen müssen KI-Agenten in ihre bestehenden Arbeitsabläufe integrieren, neue Effizienzpotenziale erschließen und ihren Ansatz für die digitale Transformation neu definieren. (mb) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!  

KI-Agenten in der Fertigung: Die nächste Evolutionsstufe der Automatisierung​ loading=”lazy” width=”400px”>KI-Agenten, die (weitgehend) eigene Entscheidungen treffen, können die Prozesse in der Fertigung revolutionieren.Gorodenkoff – shutterstock.com

KI-Agenten verändern die Industrie in rasantem Tempo, und die Fertigungsindustrie bildet da keine Ausnahme. Während sich die ersten Anwendungen auf die Optimierung des Personal-, Finanz-, Rechts- und Forderungsmanagements konzentrierten, sorgen KI-Agenten heute für erhebliche Verbesserungen in den Kernprozessen der Fertigung. 

Diese intelligenten Systeme treten im Allgemeinen in zwei Formen auf: 

Unabhängige KI-Agenten, die autonom arbeiten und komplexe, durchgängige Aufgaben mit minimaler menschlicher Beteiligung erledigen. 

Kollaborative KI-Agenten, die sowohl mit Menschen als auch mit anderen KI-Agenten koordiniert zusammenarbeiten, Wissen austauschen und Prozesse gemeinsam optimieren. 

Im Gegensatz zu herkömmlichen KI-gestützten Lösungen ist agentenbasierte KI proaktiv und in der Lage, komplexe Probleme eigenständig zu lösen. Dies ist ein wesentlicher Unterschied zur robotergestützten Prozessautomatisierung (Robotic Process Automation, RPA), die auf vordefinierten Ein- und Ausgaben basiert. KI-Agenten hingegen passen sich kontinuierlich an, lernen und optimieren Prozesse in Echtzeit. 

Der Aufstieg der agentenbasierten KI 

Mehrere Faktoren beschleunigen die Einführung von KI-Agenten in der Fertigung: 

Datenexplosion – Die wachsende Menge an strukturierten und unstrukturierten Daten erfordert eine stärkere Automatisierung. 

Bedarf an autonomen Systemen – Unternehmen benötigen selbstoptimierende Prozesse, die menschliche Eingriffe auf ein Minimum reduzieren. 

Fortschritte in der künstlichen Intelligenz – Neue Modelle ermöglichen eine kontextbezogene Entscheidungsfindung und autonome Ausführung. 

Skalierbarkeit von Cloud- und Rechenleistung – KI-Agenten können jetzt unternehmensweit eingesetzt werden. 

Herkömmliche KI und sogar GenAI bleiben weitgehend passiv und reagieren nur auf Anfragen des Benutzers. Im Gegensatz dazu wird Agentic AI durch Inferenz gesteuert und ermöglicht selbstgesteuerte Systeme, die in der Lage sind, eigenständig zu handeln und Entscheidungen zu treffen. 

Auch Softwareanbieter integrieren KI-Agenten in die Lösungen, die sie entwickeln und an Endnutzer verkaufen. Laut Gartner werden bis 2028 ein Drittel (33 Prozent) der Unternehmensanwendungen KI-Agenten enthalten – ein deutlicher Sprung von weniger als einem Prozent im Jahr 2024. Infolgedessen werden KI-Agenten schnell zur treibenden Kraft sowohl hinter Softwareanwendungen als auch hinter physischen Robotern – zumindest bis zur nächsten großen, technologischen Disruption. 

Von der Lieferkette bis zur Produktion: KI-Agenten in Aktion 

In der Fertigung ist dieser Wandel bereits im Gange. KI-Agenten definieren die Bereiche Konstruktion, Vorproduktion, Produktionsmanagement, Qualitätskontrolle, Wartung und Bestandsmanagement neu – Bereiche, die traditionell von Unternehmenssoftware-Suiten und Cloud-Plattformen dominiert werden. Durch die Einbettung von Intelligenz in diese Lösungen verbessern KI-Agenten die Autonomie, Effizienz und Anpassungsfähigkeit und machen Fertigungsabläufe widerstandsfähiger und zukunftssicherer. 

In folgenden Bereichen können KI-Agenten (unter anderem) effektiv eingesetzt werden: 

Vorausschauende Wartung und Zustandsüberwachung von Maschinen 

KI-Agenten analysieren kontinuierlich die Leistungsdaten von Maschinen, um frühe Anzeichen von Ausfällen zu erkennen. Treten Muster auf, die auf potenzielle Ausfälle hindeuten, leiten sie präventive Wartungsmaßnahmen ein und reduzieren so ungeplante Ausfallzeiten. 

Intelligentes und autonomes Supply Chain Management 

Kollaborative KI-Agenten synchronisieren Nachfrageprognosen, Produktionsplanung, Bestandsmanagement, Lieferantenkoordination sowie Logistik und passen sich dynamisch an Echtzeitänderungen der Nachfrage, Lieferbeschränkungen und Transportbedingungen an. 

KI-gestützte virtuelle Assistenten für Nutzer 

KI-Agenten können in verschiedene Datenplattformen integriert werden, um Echtzeiteinblicke in Wetter, Verkehr, Maschinenstillstände und Produktionsmetriken zu liefern. Diese KI-gestützten Assistenten führen Dialoge mit mehreren Gesprächspartnern, erinnern sich an frühere Interaktionen und ermöglichen einen nahtlosen sprachgesteuerten Zugriff auf Informationen. 

KI-Agenten in der Produktionsplanung 

KI-Agenten optimieren Produktionspläne, indem sie Bedarfsprognosen, Lagerbestände, Maschinen- und Ersatzteilverfügbarkeit, Personalkapazitäten und Qualitätseinschränkungen analysieren. Sie passen die Pläne auf der Grundlage von Echtzeitsimulationen und Betriebsdaten dynamisch an. 

Digitale Zwillings-Simulation mit Agentic AI 

KI-gesteuerte digitale Zwillinge erweitern herkömmliche Simulationsmodelle, indem sie Auftragsausführung, Prozessoptimierung und Entscheidungsfindung autonom steuern. Multiagentensysteme sammeln, analysieren, prognostizieren und optimieren Daten über vernetzte Systeme hinweg und machen Simulationen anpassungsfähiger und reaktionsschneller. 

KI-Agenten im Qualitätsmanagement 

KI-Agenten analysieren Qualitätsberichte aus verschiedenen Quellen, erkennen wiederkehrende Fehler und empfehlen Korrekturmaßnahmen. Sie lernen kontinuierlich aus vergangenen Problemen und beschleunigen so die Qualitätsdokumentation und den Lösungs-Workflow. 

Optimierung von Werkstatt und Fertigungsprozessen 

KI-Agenten koordinieren mehrere Produktionsprozesse, einschließlich Materialverfügbarkeit, vorausschauende Wartung, Integration von Unternehmenssystemen und Qualitätskontrolle. Spezialisierte Agenten arbeiten in verschiedenen Fertigungsbereichen und reagieren dynamisch auf Änderungen in Echtzeit. 

Die Zukunft von KI-Agenten in der Fertigung 

KI-Agenten sind mehr als nur Automatisierungswerkzeuge – sie stehen für einen grundlegenden Wandel hin zu selbstoptimierenden, intelligenten Produktionsökosystemen. In dem Maße, wie Unternehmen zunehmend agentenbasierte KI einsetzen, werden Fertigungsprozesse robuster, effizienter und autonomer. 

Der nächste Schritt? Unternehmen müssen KI-Agenten in ihre bestehenden Arbeitsabläufe integrieren, neue Effizienzpotenziale erschließen und ihren Ansatz für die digitale Transformation neu definieren. (mb)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Agenten in der Fertigung: Die nächste Evolutionsstufe der Automatisierung​ Weiterlesen »

Geschäftsessen: Zehn Tipps für den perfekten Gastgeber​

Allgemein

Sie laden gelegentlich Kunden oder Business-Kontakte zu Geschäftsessen ein? Dann wissen Sie vielleicht bereits, wie wichtig es ist, den richtigen Rahmen zu stecken. Und wie schwer das manchmal sein kann. Generell gilt: Gastgeber können durch einige Tricks und Vorbereitungen im Vorfeld dafür sorgen, dass ein Geschäftsessen erfolgreich verläuft. Gemäß dem Motto, der Regisseur bestimmt den Erfolg. Christina Tabernig (links) und Antje Quittschau von der Agentur korrekt! kennen sich aus in Sachen Business-Etikette. Foto: KorrektWie Gastgeber bei Geschäftsessen punkten können, dazu haben Anke Quittschau und Christina Tabernig von der Benimm-Agentur korrekt! zehn Tipps zusammengestellt, die beispielsweise dabei helfen, den perfekten Ort für ein Geschäftsessen zu wählen. Oder was man tun kann, damit sich die Geschäftspartner wohl fühlen. Oder über welche Themen man beim Geschäftsessen eher vermeiden sollte.1. Biergarten oder Sterne-Restaurant?Überlegen Sie, welche Zielsetzung sich aus Ihrer Restaurantwahl ablesen lässt. Ein teures Sterne-Restaurant kann bedeuten, dass sich die Wahl in Ihren Preisen für das beim Essen ausgehandelte Geschäft niederschlägt.2. Ist Ihr Gast Vegetarier?Prüfen Sie (eventuell über die Sekretärin), in welchem Umfeld Ihr Gast sich wohl fühlt. Lassen Sie sich auch über die Lieblingsspeisen informieren. Ist Ihr Kunde eventuell Vegetarier oder Diabetiker? Diese Fragen sollten Sie vorab klären.3. Der WohlfühlfaktorBesuchen Sie mit wichtigen Kunden nur Lokalitäten, die Sie kennen, auf die Sie sich hundertprozentig verlassen können. Und wählen Sie Restaurants, in denen Sie sich auch wohl fühlen. Denn das färbt auch auf Ihr Verhalten positiv ab.Ist der Rahmen zu steif, färbt das meist auch auf die Gesprächsrunde ab. Foto: krsmanovic – Fotolia.com4. Der perfekte OrtWählen Sie einen für alle Eingeladenen zentral gelegenen Ort und eine für die Gäste günstige Zeit. 5. Wer zahlt?Stellen Sie bereits bei der Einladung eindeutig klar, dass Sie der Gastgeber sind und bezahlen. Sagen Sie “Ich möchte Sie gerne zum Essen einladen. Passt Ihnen Dienstagabend?” statt “Wollen wir das mal bei einem Abendessen besprechen”, denn hier ist nicht klar, wer zahlt.6. Wo wartet man auf die Gäste?Erscheinen Sie zehn Minuten vor dem vereinbarten Termin und prüfen Sie die Tischreservierung. Warten Sie auf Ihre Gäste an der Bar. Denken Sie daran, die Gäste einander vorzustellen.7. Die Sitzordnung: Wer sitzt wo?Machen Sie sich bei einer größeren Runde im Vorfeld Gedanken über die Sitzordnung. Ihr Ehrengast sitzt rechts von Ihnen oder Ihnen gegenüber. Die Mitarbeiter beider Seiten sollten so platziert werden, dass fachbezogene Gespräche möglich sind – also nicht den Buchhalter zum Programmierer setzen.8. Worüber sollte man sprechen?Nehmen Sie keine Zehn-Punkte-Agenda mit in das Geschäftsessen. Hier gilt es, die Beziehungsebene zum Geschäftspartner aufzubauen und keine Arbeitsbesprechung daraus zu machen. Gehen Sie besser mit ein bis zwei in Gedanken notierten geschäftlichen Themen in den Abend, die Sie erst nach dem Hauptgang aufgreifen. Ziel sollte es sein, einen (weiteren) Termin im Büro entstehen zu lassen. Fängt der Kunde mit geschäftlichen Themen an, dürfen Sie natürlich einsteigen.9. Sie sind der ModeratorFühren Sie Smalltalk mit Ihren Gästen und beziehen Sie dabei auch die schweigsameren Personen aktiv ein.10. Essen vorbestellen?Denken Sie daran: Als Gastgeber sind Sie Regisseur. Bei einer Gruppe von mehr als sechs Personen bestellen Sie das Essen vor, im kleineren Kreis geben Sie Ihren Gästen Empfehlungen für die Menüwahl.Die wichtigsten Small-Talk-RegelnDas Geheimnis des Small TalkWir verraten Ihnen die wichtigsten Regeln für einen erfolgreichen Small Talk, damit sie mühelos kommunizieren.Nur Mut!Small Talk findet in der Regel nur unter Fremden statt. Aber auch wenn Sie Angst davor haben: ein bißchen Plaudern ist viel leichter als Sie denken!Der erste EindruckStellen Sie sich sympathisch dar, der erste Eindruck zählt. Aber sehen Sie Small Talk auch als Aufwärmphase. Gerade bei Geschäftspartnern aus anderen Kulturen kommt es nicht gut an, wenn Sie gleich mit der Tür ins Haus fallen.Nehmen Sie sich selbst zurückDamit geben Sie Ihrem Gegenüber Raum zum Reden und Sie erhalten oft wertvolle erste Informationen.Finden Sie GemeinsamkeitenDas geht am besten, indem Sie offene Fragen stellen, mit denen Sie Interesse am Gegenüber bekunden.Potenzielle ThemenFalls Sie sich schwertun, passende Fragen zu finden, beziehen Sie sich einfach auf das Umfeld oder den Anlass der Begegnung. “Wie haben Sie von dieser Veranstaltung gehört?” oder “Über welchen Kontakt sind Sie heute hier?” können der Auftakt zu einem netten Small Talk sein.Achtung, Tabu-Zone!Gefährlich wird es bei Gesprächsthemen, die polarisierend wirken wie z.B. Politik oder Religion. Falls Ihr Gegenüber da eine andere Meinung haben sollte als Sie, sind Sie schnell in die Falle getappt. Und hüten Sie sich vor negativen Themen wie verspätete Flüge! Gemeinsam jammern verbindet in den seltensten Fällen.Halten Sie keine Monologe!Die Wirkung auf Ihre Zuhörer dürfte absehbar sein. Hören Sie aktiv und aufmerksam zu.Ein gelegentliches Nicken oder “ja, ja” zeigt wenig Interesse und Wertschätzung. Hören Sie statt dessen wirklich zu und greifen Sie Informationen erinnernd wieder auf, die Ihr Gesprächspartner erwähnt hat: “Sie sagten vorhin, dass Sie…”Halten Sie Blickkontakt.Gerade auf einer größeren Veranstaltung ist die Versuchung groß, die Blicke schweifen zu lassen, um möglichst wenig zu verpassen. Das ist unhöflich gegenüber Ihrem aktuellen Gesprächspartner! Halten Sie deshalb Blickkontakt.Viele GesprächspartnerDas Wort ‘SMALL Talk’ beschreibt es perfekt: Auf größeren Veranstaltungen geht es um kurze Gespräche, um ein erstes Kennenlernen. Nutzen Sie die Möglichkeiten, indem Sie mit vielen verschiedenen Menschen in’s Gespräch kommen.Beenden Sie das Gespräch positiv.Wie schon gesagt, verbinden negative Themen nur selten und hinterlassen oft einen faden Beigeschmack. Setzen Sie stattdessen einen positiven Schlußpunkt. “Unser Gespräch hat mir viel Spaß gemacht, ich hoffe, wir können es später fortsetzen.” kann ein schöner Abschluss sein, wenn Sie es ehrlich meinen. Small Talk ist zum Netzwerken da.Beobachten macht Spaß, aber nutzen Sie auch die Chance, Beziehungen zu knüpfen, indem Sie sich aktiv auf die Suche nach neuen Gesprächspartnern machen. Halten Sie deshalb Ausschau nach Gruppen, die offen beieinander stehen oder Menschen, die Ihnen einen längeren Blickkontakt gewähren. Vorbereitung ist nützlichGespräche kommen oft leichter zustande, wenn Sie sich im Vorfeld ein bißchen über Ihren Gastgeber/Ihre Kunden informiert haben. 

Geschäftsessen: Zehn Tipps für den perfekten Gastgeber​ Sie laden gelegentlich Kunden oder Business-Kontakte zu Geschäftsessen ein? Dann wissen Sie vielleicht bereits, wie wichtig es ist, den richtigen Rahmen zu stecken. Und wie schwer das manchmal sein kann. Generell gilt: Gastgeber können durch einige Tricks und Vorbereitungen im Vorfeld dafür sorgen, dass ein Geschäftsessen erfolgreich verläuft. Gemäß dem Motto, der Regisseur bestimmt den Erfolg. Christina Tabernig (links) und Antje Quittschau von der Agentur korrekt! kennen sich aus in Sachen Business-Etikette.
Foto: KorrektWie Gastgeber bei Geschäftsessen punkten können, dazu haben Anke Quittschau und Christina Tabernig von der Benimm-Agentur korrekt! zehn Tipps zusammengestellt, die beispielsweise dabei helfen, den perfekten Ort für ein Geschäftsessen zu wählen. Oder was man tun kann, damit sich die Geschäftspartner wohl fühlen. Oder über welche Themen man beim Geschäftsessen eher vermeiden sollte.1. Biergarten oder Sterne-Restaurant?Überlegen Sie, welche Zielsetzung sich aus Ihrer Restaurantwahl ablesen lässt. Ein teures Sterne-Restaurant kann bedeuten, dass sich die Wahl in Ihren Preisen für das beim Essen ausgehandelte Geschäft niederschlägt.2. Ist Ihr Gast Vegetarier?Prüfen Sie (eventuell über die Sekretärin), in welchem Umfeld Ihr Gast sich wohl fühlt. Lassen Sie sich auch über die Lieblingsspeisen informieren. Ist Ihr Kunde eventuell Vegetarier oder Diabetiker? Diese Fragen sollten Sie vorab klären.3. Der WohlfühlfaktorBesuchen Sie mit wichtigen Kunden nur Lokalitäten, die Sie kennen, auf die Sie sich hundertprozentig verlassen können. Und wählen Sie Restaurants, in denen Sie sich auch wohl fühlen. Denn das färbt auch auf Ihr Verhalten positiv ab.Ist der Rahmen zu steif, färbt das meist auch auf die Gesprächsrunde ab.
Foto: krsmanovic – Fotolia.com4. Der perfekte OrtWählen Sie einen für alle Eingeladenen zentral gelegenen Ort und eine für die Gäste günstige Zeit. 5. Wer zahlt?Stellen Sie bereits bei der Einladung eindeutig klar, dass Sie der Gastgeber sind und bezahlen. Sagen Sie “Ich möchte Sie gerne zum Essen einladen. Passt Ihnen Dienstagabend?” statt “Wollen wir das mal bei einem Abendessen besprechen”, denn hier ist nicht klar, wer zahlt.6. Wo wartet man auf die Gäste?Erscheinen Sie zehn Minuten vor dem vereinbarten Termin und prüfen Sie die Tischreservierung. Warten Sie auf Ihre Gäste an der Bar. Denken Sie daran, die Gäste einander vorzustellen.7. Die Sitzordnung: Wer sitzt wo?Machen Sie sich bei einer größeren Runde im Vorfeld Gedanken über die Sitzordnung. Ihr Ehrengast sitzt rechts von Ihnen oder Ihnen gegenüber. Die Mitarbeiter beider Seiten sollten so platziert werden, dass fachbezogene Gespräche möglich sind – also nicht den Buchhalter zum Programmierer setzen.8. Worüber sollte man sprechen?Nehmen Sie keine Zehn-Punkte-Agenda mit in das Geschäftsessen. Hier gilt es, die Beziehungsebene zum Geschäftspartner aufzubauen und keine Arbeitsbesprechung daraus zu machen. Gehen Sie besser mit ein bis zwei in Gedanken notierten geschäftlichen Themen in den Abend, die Sie erst nach dem Hauptgang aufgreifen. Ziel sollte es sein, einen (weiteren) Termin im Büro entstehen zu lassen. Fängt der Kunde mit geschäftlichen Themen an, dürfen Sie natürlich einsteigen.9. Sie sind der ModeratorFühren Sie Smalltalk mit Ihren Gästen und beziehen Sie dabei auch die schweigsameren Personen aktiv ein.10. Essen vorbestellen?Denken Sie daran: Als Gastgeber sind Sie Regisseur. Bei einer Gruppe von mehr als sechs Personen bestellen Sie das Essen vor, im kleineren Kreis geben Sie Ihren Gästen Empfehlungen für die Menüwahl.Die wichtigsten Small-Talk-RegelnDas Geheimnis des Small TalkWir verraten Ihnen die wichtigsten Regeln für einen erfolgreichen Small Talk, damit sie mühelos kommunizieren.Nur Mut!Small Talk findet in der Regel nur unter Fremden statt. Aber auch wenn Sie Angst davor haben: ein bißchen Plaudern ist viel leichter als Sie denken!Der erste EindruckStellen Sie sich sympathisch dar, der erste Eindruck zählt. Aber sehen Sie Small Talk auch als Aufwärmphase. Gerade bei Geschäftspartnern aus anderen Kulturen kommt es nicht gut an, wenn Sie gleich mit der Tür ins Haus fallen.Nehmen Sie sich selbst zurückDamit geben Sie Ihrem Gegenüber Raum zum Reden und Sie erhalten oft wertvolle erste Informationen.Finden Sie GemeinsamkeitenDas geht am besten, indem Sie offene Fragen stellen, mit denen Sie Interesse am Gegenüber bekunden.Potenzielle ThemenFalls Sie sich schwertun, passende Fragen zu finden, beziehen Sie sich einfach auf das Umfeld oder den Anlass der Begegnung. “Wie haben Sie von dieser Veranstaltung gehört?” oder “Über welchen Kontakt sind Sie heute hier?” können der Auftakt zu einem netten Small Talk sein.Achtung, Tabu-Zone!Gefährlich wird es bei Gesprächsthemen, die polarisierend wirken wie z.B. Politik oder Religion. Falls Ihr Gegenüber da eine andere Meinung haben sollte als Sie, sind Sie schnell in die Falle getappt. Und hüten Sie sich vor negativen Themen wie verspätete Flüge! Gemeinsam jammern verbindet in den seltensten Fällen.Halten Sie keine Monologe!Die Wirkung auf Ihre Zuhörer dürfte absehbar sein. Hören Sie aktiv und aufmerksam zu.Ein gelegentliches Nicken oder “ja, ja” zeigt wenig Interesse und Wertschätzung. Hören Sie statt dessen wirklich zu und greifen Sie Informationen erinnernd wieder auf, die Ihr Gesprächspartner erwähnt hat: “Sie sagten vorhin, dass Sie…”Halten Sie Blickkontakt.Gerade auf einer größeren Veranstaltung ist die Versuchung groß, die Blicke schweifen zu lassen, um möglichst wenig zu verpassen. Das ist unhöflich gegenüber Ihrem aktuellen Gesprächspartner! Halten Sie deshalb Blickkontakt.Viele GesprächspartnerDas Wort ‘SMALL Talk’ beschreibt es perfekt: Auf größeren Veranstaltungen geht es um kurze Gespräche, um ein erstes Kennenlernen. Nutzen Sie die Möglichkeiten, indem Sie mit vielen verschiedenen Menschen in’s Gespräch kommen.Beenden Sie das Gespräch positiv.Wie schon gesagt, verbinden negative Themen nur selten und hinterlassen oft einen faden Beigeschmack. Setzen Sie stattdessen einen positiven Schlußpunkt. “Unser Gespräch hat mir viel Spaß gemacht, ich hoffe, wir können es später fortsetzen.” kann ein schöner Abschluss sein, wenn Sie es ehrlich meinen. Small Talk ist zum Netzwerken da.Beobachten macht Spaß, aber nutzen Sie auch die Chance, Beziehungen zu knüpfen, indem Sie sich aktiv auf die Suche nach neuen Gesprächspartnern machen. Halten Sie deshalb Ausschau nach Gruppen, die offen beieinander stehen oder Menschen, die Ihnen einen längeren Blickkontakt gewähren. Vorbereitung ist nützlichGespräche kommen oft leichter zustande, wenn Sie sich im Vorfeld ein bißchen über Ihren Gastgeber/Ihre Kunden informiert haben.

Geschäftsessen: Zehn Tipps für den perfekten Gastgeber​ Weiterlesen »

Audi virtualisiert die Shopfloor-Automatisierung​

Allgemein

Audi setzt im Karosseriebau auf eine virtuelle Steuerung mit KI. Audi AG Audi setzt auf das Automatisierungsportfolio von Siemens, um Produktionsabläufe zu standardisieren und zu optimieren. Ziel ist es, mithilfe eines spezifisch trainierten KI-Algorithmus und hochauflösender Bilder Schweißspritzer an Fahrzeugkarosserien zu erkennen und zu entfernen. Auf diese Weise will Audi eine höhere Karosseriequalität erreichen und seine Fertigungsprozesse effizienter gestalten. Diesen Übergang von einer automatisierten zu einer hochgradig anpassungsfähigen Produktion realisiert Audi durch eine schrittweise Virtualisierung. Hierbei werden die IT- und OT-Ebenen des Shopfloors stärker verzahnt. Automatisierung per Software Für diese softwaredefinierte Fabrikautomatisierung setzt Audi im Neckarsulmer Karosseriebau auf die virtuelle Steuerungslösung Simatic S7-1500V von Siemens. Der Autobauer hat mit der Integration der virtuellen speicherprogrammierbaren Steuerungen (PLCs) bereits begonnen. Dabei plant Audi, die virtuellen PLCs im Karosseriebau des Werks noch in diesem Jahr auszurollen. Wie es heißt, sind diese mit der Cloud-Infrastrukturplattform Edge Cloud 4 Production von Audi kompatibel. Aufbau eines Industrial Edge Die Simatic S7-1500V ist Teil des Siemens-Xcelerator-Portfolios, um IT- und Software-Fähigkeiten in der Automatisierungswelt zu integrieren. Laut Siemens ist die PLC voll kompatibel mit dem Totally-Integrated-Automation-Portfolio (TIA) und kann über das TIA Portal technisch ausgeführt werden. Der entsprechende Controller wird über ein Industrial Edge bereitgestellt und kann direkt in die IT-Umgebung integriert werden. Auf diese Weise kann Audi die virtuellen PLCs zentral verwalten und flexibel an die eigenen Bedürfnisse anpassen. Audi erhält so eine Infrastruktur, um ein KI-gesteuertes System zur Echtzeit-Qualitätskontrolle im Karosseriebau einzusetzen. Damit ist der Autobauer in der Lage, seine Produktionsprozesse KI-fähig zu machen. Auf Basis der Siemens Industrial AI Suite und des Simatic Industrie-PCs BX-59A als Edge Device kann Audi komplexe KI-basierte Qualitätsprüfungen wie die bereits erwähnte automatische Überprüfung auf Schweißspritzer durchführen. 

Audi virtualisiert die Shopfloor-Automatisierung​ Audi setzt im Karosseriebau auf eine virtuelle Steuerung mit KI.
Audi AG

Audi setzt auf das Automatisierungsportfolio von Siemens, um Produktionsabläufe zu standardisieren und zu optimieren. Ziel ist es, mithilfe eines spezifisch trainierten KI-Algorithmus und hochauflösender Bilder Schweißspritzer an Fahrzeugkarosserien zu erkennen und zu entfernen. Auf diese Weise will Audi eine höhere Karosseriequalität erreichen und seine Fertigungsprozesse effizienter gestalten.

Diesen Übergang von einer automatisierten zu einer hochgradig anpassungsfähigen Produktion realisiert Audi durch eine schrittweise Virtualisierung. Hierbei werden die IT- und OT-Ebenen des Shopfloors stärker verzahnt.

Automatisierung per Software

Für diese softwaredefinierte Fabrikautomatisierung setzt Audi im Neckarsulmer Karosseriebau auf die virtuelle Steuerungslösung Simatic S7-1500V von Siemens. Der Autobauer hat mit der Integration der virtuellen speicherprogrammierbaren Steuerungen (PLCs) bereits begonnen.

Dabei plant Audi, die virtuellen PLCs im Karosseriebau des Werks noch in diesem Jahr auszurollen. Wie es heißt, sind diese mit der Cloud-Infrastrukturplattform Edge Cloud 4 Production von Audi kompatibel.

Aufbau eines Industrial Edge

Die Simatic S7-1500V ist Teil des Siemens-Xcelerator-Portfolios, um IT- und Software-Fähigkeiten in der Automatisierungswelt zu integrieren. Laut Siemens ist die PLC voll kompatibel mit dem Totally-Integrated-Automation-Portfolio (TIA) und kann über das TIA Portal technisch ausgeführt werden. Der entsprechende Controller wird über ein Industrial Edge bereitgestellt und kann direkt in die IT-Umgebung integriert werden. Auf diese Weise kann Audi die virtuellen PLCs zentral verwalten und flexibel an die eigenen Bedürfnisse anpassen.

Audi erhält so eine Infrastruktur, um ein KI-gesteuertes System zur Echtzeit-Qualitätskontrolle im Karosseriebau einzusetzen. Damit ist der Autobauer in der Lage, seine Produktionsprozesse KI-fähig zu machen. Auf Basis der Siemens Industrial AI Suite und des Simatic Industrie-PCs BX-59A als Edge Device kann Audi komplexe KI-basierte Qualitätsprüfungen wie die bereits erwähnte automatische Überprüfung auf Schweißspritzer durchführen.

Audi virtualisiert die Shopfloor-Automatisierung​ Weiterlesen »

KI-Dienstleister finden: Ein AI-as-a-Service-Ratgeber​

Allgemein

Wer nicht die Zeit oder das Geld hat, um eigene KI-Instanzen aufzusetzen, könnte mit einem AI-as-a-Service-Angebot glücklich werden. Insofern die Voraussetzungen stimmen. Foto: VesnaArt | shutterstock.com Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen – On-Premises oder in der Cloud. Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen – die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten: Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf. Sie wenden sich an einen KI-Dienstleister. AI as a Service – kurz AIaaS – ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider – aber auch kleinere Anbieter – haben solche Dienstleistungsangebote im Portfolio. Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister – und ihre Angebote – vor. Wie funktioniert AI as a Service? KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt. “AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen”, konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte: die Anwendungsebene, die Ebene der Modellentwicklung und die Ebene der benutzerdefinierten Modellentwicklung. Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung – unter anderem: Bilderkennung, Datenanalyse, Natural Language Processing und Predictive Analytics. Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren. KI als Service – Kosten und Anforderungen Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell – entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS– oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf. Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option. Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: “Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen.” Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister. AI as a Service – Vor- und Nachteile Die Vorteile von AI as a Service im Überblick: Niedrigere Einstiegsschwelle: AIaaS ist wesentlich kostenintensiver als herkömmliche Cloud Services. Dennoch ist KI als Dienstleistung deutlich günstiger als die Hardware selbst anzuschaffen. Vom Modelltraining ganz zu schweigen. Kürzere Time-to-Market: KI-Hardware on Premises zu installieren und zu konfigurieren, ist ebenfalls kostspielig und zeitaufwändig. Zudem setzt das voraus, dass Sie auch die richtigen Experten an Bord haben, die entsprechende Lösungen bereitstellen und supporten können. Das Hardware-Management einem Serviceanbieter zu überlassen, spart Zeit und ermöglicht den Anwenderunternehmen, sich auf Kerngeschäft und -kompetenzen zu fokussieren. Zugang zu State-of-the-Art-Technologie: KI kann Wettbewerbsvorteile erschließen. Weil die Anbieter Kunden binden wollen, sind sie darauf bedacht, sich beständig zu verbessern und ihre Angebote weiterzuentwickeln. Skalierbarkeit: Da es sich um Cloud-basierte Dienstleistungen handelt, ist eines der wichtigsten Verkaufsargumente, dass sich AIaaS-Lösungen entsprechend den Bedürfnissen des Anwenderunternehmens anpassen lassen. Zugang zu KI-Expertise: KI steckt immer noch in den Kinderschuhen und die Anzahl der IT-Experten, die die Hardware konfigurieren und managen können, ist überschaubar – außer bei den großen Cloud Services Providern. Wo Licht ist, ist auch Schatten – da bildet AI as a Service keine Ausnahme: Vendor Lock-in. Wenn Sie sich einmal für eine Plattform entschieden haben, kann der Umstieg auf einen anderen Anbieter problematisch sein. Begrenzte Anpassungsmöglichkeiten. Vorgefertigte Modelle sind für allgemeine Zwecke gut geeignet, können aber nicht auf spezifische Anforderungen abgestimmt werden. Sie sind deshalb möglicherweise gezwungen, Ihre eigenen Modelle zu erstellen und zu verarbeiten. Security- und Datenschutzbedenken. Wenn es um Unternehmensdaten geht, ist sorgfältig abzuwägen, ob Drittanbieter miteinbezogen werden. AIaaS-Plattformen – Schlüsselkriterien Bei der Auswahl einer AIaaS-Plattform sollten Sie (unter anderem) verstärkt auf die folgenden Aspekte achten: Unterstützte Workloads: Laut Forrester-Chefanalyst Gaultieri ist das wichtigste Kriterium bei der Auswahl eines AIaaS-Anbieters, ob er alle KI-Phasen unterstützt: Datenvorbereitung, Modelltraining und Inferencing. Gerade ersteres wird in der KI-Debatte oft unter den Tisch gekehrt, ist jedoch unumgänglich, weil KI-Instanzen in der Regel auf unstrukturierte Daten zugreifen. Regionale Infrastruktur: Geht es nach Gartner-Analyst Dikate, sollten Anwender in erster Linie darauf achten, dass AIaaS-Anbieter über ausreichende Skalierungskapazitäten in ihrer Region verfügen. Nicht alle Cloud-Anbieter verfügen über global verteilte Ressourcen. Erfahrung sticht: Suchen Sie gezielt nach Anbietern mit Erfahrung in Ihrer Branche oder mit Projekten, die ähnliche Herausforderungen aufwerfen. Fragen Sie nach Fallstudien, Kundenreferenzen und Erfahrungsberichten. KI-Spezifizierung: Bilderkennung ist etwas völlig anderes als Intrusion Detection oder ein Chatbot. Nicht jeder AIaaS-Anbieter ist auf sämtliche KI-Arten spezialisiert. Sie sollten deshalb sicherstellen, dass die Spezialisierung Ihres KI-Dienstleisters möglichst Ihren Bedürfnissen entspricht. Daten- und Compliance-Kompatibilität: Stellen Sie sicher, dass die Anbieterplattform sowohl Ihr Datenformat als auch -volumen unterstützt. Wenn es sich um stark regulierte Daten handelt, sollten Sie sichergehen, dass der Anbieter entsprechend zertifiziert ist, um diese zu verarbeiten. Skalierbarkeit: KI-Dienstleister verfügen möglicherweise nicht mehr über die nötige Kapazität, wenn Ihr Bedarf weiter wächst. Natürlich sind Zukunftsprognosen schwierig, insbesondere bei sich rasant verändernden Branchen wie KI. Dennoch ist es ratsam, eine zufriedenstellende Zukunftsperspektive einzuholen. Modell-Updates und -Wartung: KI-Modelle funktionieren fast nie nur einmal und dann nie wieder. Sie müssen regelmäßig und routinemäßig auf den aktuellen Stand gebracht werden. Studieren Sie deshalb die Richtlinien des Anbieters mit Blick darauf, wie das Modell gespeichert und aktualisiert werden kann und wie es sich “aus dem System” On-Premises nehmen lässt. Workload Management Software: Schließlich sollten Sie sicherstellen, dass der Anbieter in der Lage ist, einen Workload neu zu starten, wenn während der Verarbeitung ein Problem auftritt. Gaultieri erklärt, warum: “Stellen Sie sich vor, Sie erstellen ein Large Language Model, lassen es eine Woche lang laufen und dann geht etwas schief. Wenn es sich um einen mehrwöchigen Workload handelt, möchten Sie nicht von vorne beginnen. Features wie Checkpointing sind deshalb ratsam.” Die 5 wichtigsten KI-Dienstleister AI as a Service ist kein kleines Unterfangen. Während neuere Anbieter wie Nvidia, OpenAI und auch einige Managed-Services-Anbieter auf den Plan treten, sind die wichtigsten Akteure im Bereich KI-Dienstleistungen in erster Linie die Cloud-Hyperscaler. Sie verfügen über die Ressourcen, um AIaaS im Enterprise-Maßstab zu supporten. Amazon Web Services Amazon Web Services (AWS) hat eine breite Palette von KI-Dienstleistungen im Angebot, angefangen bei vorgefertigten, sofort einsetzbaren Services, die den Start eines KI-Projekts erleichtern und den Bedarf an erfahrenen Datenwissenschaftlern und KI-Entwicklern minimieren können. Zu diesen Services gehören beispielsweise: Amazon Translate (Echtzeit-Übersetzungen), Amazon Rekognition (Bild- und Videoanalyse), Amazon Polly (Text-to-Speech) und Amazon Transcribe (Speech-to-Text). Zu den Tools im Bereich Managed Infrastructure gehören: Amazon SageMaker (Machine-Learning-Modelle erstellen, trainieren und bereitstellen), Amazon Machine Learning Drag-and-Drop-Tools und -Templates (ML-Modelle einfacher bereitstellen), Amazon Comprehend (Natural Language Processing), Amazon Forecast (akkurate Zeitreihenvorhersagen) und Amazon Personalize (personalisierte Produkt- und Content-Vorschläge). Im Bereich generative KI bietet AWS: Amazon Lex (KI-Chatbots erstellen), Amazon CodeGuru (Code analysieren und optimieren) sowie Amazon Kendra (intelligente Suchen). Microsoft Microsofts Azure KI Services richten sich an Entwickler und Datenwissenschaftler und basieren auf Anwendungen wie SQL Server, Office und Dynamics. Dabei haben die Redmonder künstliche Intelligenz in verschiedene Business-Apps integriert – sowohl in der Cloud als auch On-Premises. Bekanntermaßen ist Microsoft eine enge Partnerschaft mit ChatGPT-Entwickler OpenAI eingegangen. Entsprechend sind viele KI-Anwendungen auf dem Azure-Marktplatz zu finden. Darüber hinaus steht ein OpenAI Service mit vortrainierten Large Language Models wie GPT-3.5, Codex und DALL-E 2 zur Verfügung. Zu den vorgefertigten AI Services im Angebot von Microsoft zählen etwa: Spracherkennung, Textanalyse, Übersetzung, Bildverarbeitung und ML-Modell-Deployment. Google Cloud Der KI-Service von Google ist auf Data Analytics fokussiert und bietet Tools wie BigQuery und AI Platform sowie den Service AutoML, der Benutzern mit eingeschränkten Coding-Fähigkeiten ermöglicht, automatisch Modelle zu erstellen. Google Cloud bietet zudem die Plattform Vertex AI, um KI-Workflows zu optimieren und Entwicklung und Bereitstellung zu vereinfachen. Dazu gehört auch eine breite Palette von Services mit vorgefertigten Lösungen, benutzerdefiniertem Modelltraining und Generative-AI-Werkzeugen. Mit der Vertex AI Workbench stellt Google außerdem eine kollaborative KI-Projektumgebung für Datenwissenschaftler und Entwickler zur Verfügung. Die vorgefertigten KI-Lösungen von Google Cloud umfassen: Dialogflow (Plattform, um Chatbots und virtuelle Assistenten zu entwickeln), Natural Language API (Sentiment-Textanalysen, Entity-Extraktion etc.), Vision AI (Objekterkennung in Bildern und Videos), Translation API (maschinelle Übersetzungen in verschiedenen Sprachen) sowie Speech-to-Text und Text-to-Speech (Konversionen zwischen gesprochener Sprache und Text). Was Generative AI angeht, bietet Vertex AI Search and Conversation eine Tool-Sammlung, die speziell darauf konzipiert ist, GenAI-Applikationen wie Suchmaschinen und Chatbots zu entwickeln. Diese Suite enthält mehr als 130 vortrainierte Foundational-LLMs wie PaLM und Imagen, um Texte und/oder Bilder zu generieren. Darüber hinaus hat Google auch den Bard-Nachfolger Gemini im Programm, der (demnächst) in drei verschiedenen Versionen erhältlich ist: Gemini Nano für Smartphones, Gemini Pro sowie Gemini Ultra, das sich noch in der Entwicklung befindet und wesentlich leistungsfähiger als die Pro-Version sein soll. IBM IBMs Watsonx, ist ein umfassendes KI-Tool- und -Dienstleistungsangebot, das für seinen Fokus auf die Automatisierung komplexer Geschäftsprozesse und seine branchenspezifischen Lösungen, insbesondere für das Gesundheits- und Finanzwesen, bekannt ist. Watsonx.ai Studio ist das Herzstück dieser Plattform, auf der Sie KI-Modelle trainieren, validieren, abstimmen und einsetzen können – sowohl für maschinelles Lernen als auch für generative KI. Ein Data Lakehouse gewährleistet dabei ein sicheres und skalierbares Speichersystem für Ihre Daten (sowohl strukturierte als auch unstrukturierte). IBMs AI Toolkit ist eine Sammlung vorgefertigter Tools und Konnektoren, die die Integration von KI in Ihre bestehenden Workflows erleichtern. So lassen sich Tasks automatisieren, Erkenntnisse aus Daten gewinnen und intelligente Applikationen erstellen. Watsonx enthält auch eine Reihe vortrainierter KI-Modelle, die Sie direkt und ohne Training einsetzen können. Diese Modelle decken verschiedene Tasks ab – beispielsweise: Natural Language Processing, Computer Vision und Spracherkennung. Oracle Oracle liegt bislang weit hinter den Cloud-Hyperscalern zurück, bringt jedoch einige Vorteile mit, die Sie auf dem Schirm haben sollten – in erster Linie, weil es ein Riese in Sachen Business-Anwendungen und -Datenbanken ist. Alle On-Premises installierten Anwendungen können in die Cloud verlagert werden, um eine hybride Konfiguration zu verwirklichen. Das erleichtert es erheblich, Ihre lokalen Daten zu Data-Preparation- und Schulungszwecken in die Cloud zu verlagern. Oracle hat sehr stark in GPU-Technologie investiert, die derzeit das wichtigste Mittel zur KI-Datenverarbeitung darstellt. Wenn Sie also KI-Anwendungen auf Nvidia-Technologie laufen lassen wollen, können Sie sich an Oracle wenden. Ein weiterer gewichtiger Vorteil: Die KI-Dienstleistungen von Oracle sind mit die günstigsten. Die Oracle Cloud Infrastructure (OCI) AI Services decken ein breit gefächertes Portfolio von Tools und Services ab, um Unternehmen mit diversen KI-Funktionen zu versorgen. Ähnlich wie im Fall von IBMs Watsonx handelt es sich nicht um einen einzigen Service, sondern um eine Sammlung von Funktionen, die unterschiedliche Anforderungen erfüllen – darunter: Betrugserkennung und -prävention, Spracherkennung sowie Sprach- und Textanalyse. Oracles Generative-AI-Services unterstützt LLMs wie Cohere und Llama 2 und ermöglicht Anwendungsfälle wie: Schreib-Assistenten, Textzusammenfassungen, Chatbots oder Code-Generierung. Die Machine Learning Services von Oracle bieten Tools für Datenwissenschaftler, um ML-Modelle zu erstellen, zu trainieren und zu managen. Dabei werden populäre Open-Source-Frameworks wie TensorFlow und PyTorch unterstützt. Mit OCI Data Science ist es schließlich möglich, virtuelle Maschinen mit vorkonfigurierten Umgebungen für Data-Science-Aufgaben bereitzustellen – inklusive Jupyter-Notebooks und Zugang zu beliebten Bibliotheken, die die Datenexploration und den Modellentwicklungs-Workflow vereinfachen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Dienstleister finden: Ein AI-as-a-Service-Ratgeber​ Wer nicht die Zeit oder das Geld hat, um eigene KI-Instanzen aufzusetzen, könnte mit einem AI-as-a-Service-Angebot glücklich werden. Insofern die Voraussetzungen stimmen.
Foto: VesnaArt | shutterstock.com

Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen – On-Premises oder in der Cloud.

Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen – die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten:

Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf.

Sie wenden sich an einen KI-Dienstleister.

AI as a Service – kurz AIaaS – ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider – aber auch kleinere Anbieter – haben solche Dienstleistungsangebote im Portfolio.

Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister – und ihre Angebote – vor.

Wie funktioniert AI as a Service?

KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt.

“AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen”, konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte:

die Anwendungsebene,

die Ebene der Modellentwicklung und

die Ebene der benutzerdefinierten Modellentwicklung.

Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung – unter anderem:

Bilderkennung,

Datenanalyse,

Natural Language Processing und

Predictive Analytics.

Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren.

KI als Service – Kosten und Anforderungen

Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell – entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS– oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf.

Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option.

Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: “Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen.”

Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister.

AI as a Service – Vor- und Nachteile

Die Vorteile von AI as a Service im Überblick:

Niedrigere Einstiegsschwelle: AIaaS ist wesentlich kostenintensiver als herkömmliche Cloud Services. Dennoch ist KI als Dienstleistung deutlich günstiger als die Hardware selbst anzuschaffen. Vom Modelltraining ganz zu schweigen.

Kürzere Time-to-Market: KI-Hardware on Premises zu installieren und zu konfigurieren, ist ebenfalls kostspielig und zeitaufwändig. Zudem setzt das voraus, dass Sie auch die richtigen Experten an Bord haben, die entsprechende Lösungen bereitstellen und supporten können. Das Hardware-Management einem Serviceanbieter zu überlassen, spart Zeit und ermöglicht den Anwenderunternehmen, sich auf Kerngeschäft und -kompetenzen zu fokussieren.

Zugang zu State-of-the-Art-Technologie: KI kann Wettbewerbsvorteile erschließen. Weil die Anbieter Kunden binden wollen, sind sie darauf bedacht, sich beständig zu verbessern und ihre Angebote weiterzuentwickeln.

Skalierbarkeit: Da es sich um Cloud-basierte Dienstleistungen handelt, ist eines der wichtigsten Verkaufsargumente, dass sich AIaaS-Lösungen entsprechend den Bedürfnissen des Anwenderunternehmens anpassen lassen.

Zugang zu KI-Expertise: KI steckt immer noch in den Kinderschuhen und die Anzahl der IT-Experten, die die Hardware konfigurieren und managen können, ist überschaubar – außer bei den großen Cloud Services Providern.

Wo Licht ist, ist auch Schatten – da bildet AI as a Service keine Ausnahme:

Vendor Lock-in. Wenn Sie sich einmal für eine Plattform entschieden haben, kann der Umstieg auf einen anderen Anbieter problematisch sein.

Begrenzte Anpassungsmöglichkeiten. Vorgefertigte Modelle sind für allgemeine Zwecke gut geeignet, können aber nicht auf spezifische Anforderungen abgestimmt werden. Sie sind deshalb möglicherweise gezwungen, Ihre eigenen Modelle zu erstellen und zu verarbeiten.

Security- und Datenschutzbedenken. Wenn es um Unternehmensdaten geht, ist sorgfältig abzuwägen, ob Drittanbieter miteinbezogen werden.

AIaaS-Plattformen – Schlüsselkriterien

Bei der Auswahl einer AIaaS-Plattform sollten Sie (unter anderem) verstärkt auf die folgenden Aspekte achten:

Unterstützte Workloads: Laut Forrester-Chefanalyst Gaultieri ist das wichtigste Kriterium bei der Auswahl eines AIaaS-Anbieters, ob er alle KI-Phasen unterstützt: Datenvorbereitung, Modelltraining und Inferencing. Gerade ersteres wird in der KI-Debatte oft unter den Tisch gekehrt, ist jedoch unumgänglich, weil KI-Instanzen in der Regel auf unstrukturierte Daten zugreifen.

Regionale Infrastruktur: Geht es nach Gartner-Analyst Dikate, sollten Anwender in erster Linie darauf achten, dass AIaaS-Anbieter über ausreichende Skalierungskapazitäten in ihrer Region verfügen. Nicht alle Cloud-Anbieter verfügen über global verteilte Ressourcen.

Erfahrung sticht: Suchen Sie gezielt nach Anbietern mit Erfahrung in Ihrer Branche oder mit Projekten, die ähnliche Herausforderungen aufwerfen. Fragen Sie nach Fallstudien, Kundenreferenzen und Erfahrungsberichten.

KI-Spezifizierung: Bilderkennung ist etwas völlig anderes als Intrusion Detection oder ein Chatbot. Nicht jeder AIaaS-Anbieter ist auf sämtliche KI-Arten spezialisiert. Sie sollten deshalb sicherstellen, dass die Spezialisierung Ihres KI-Dienstleisters möglichst Ihren Bedürfnissen entspricht.

Daten- und Compliance-Kompatibilität: Stellen Sie sicher, dass die Anbieterplattform sowohl Ihr Datenformat als auch -volumen unterstützt. Wenn es sich um stark regulierte Daten handelt, sollten Sie sichergehen, dass der Anbieter entsprechend zertifiziert ist, um diese zu verarbeiten.

Skalierbarkeit: KI-Dienstleister verfügen möglicherweise nicht mehr über die nötige Kapazität, wenn Ihr Bedarf weiter wächst. Natürlich sind Zukunftsprognosen schwierig, insbesondere bei sich rasant verändernden Branchen wie KI. Dennoch ist es ratsam, eine zufriedenstellende Zukunftsperspektive einzuholen.

Modell-Updates und -Wartung: KI-Modelle funktionieren fast nie nur einmal und dann nie wieder. Sie müssen regelmäßig und routinemäßig auf den aktuellen Stand gebracht werden. Studieren Sie deshalb die Richtlinien des Anbieters mit Blick darauf, wie das Modell gespeichert und aktualisiert werden kann und wie es sich “aus dem System” On-Premises nehmen lässt.

Workload Management Software: Schließlich sollten Sie sicherstellen, dass der Anbieter in der Lage ist, einen Workload neu zu starten, wenn während der Verarbeitung ein Problem auftritt. Gaultieri erklärt, warum: “Stellen Sie sich vor, Sie erstellen ein Large Language Model, lassen es eine Woche lang laufen und dann geht etwas schief. Wenn es sich um einen mehrwöchigen Workload handelt, möchten Sie nicht von vorne beginnen. Features wie Checkpointing sind deshalb ratsam.”

Die 5 wichtigsten KI-Dienstleister

AI as a Service ist kein kleines Unterfangen. Während neuere Anbieter wie Nvidia, OpenAI und auch einige Managed-Services-Anbieter auf den Plan treten, sind die wichtigsten Akteure im Bereich KI-Dienstleistungen in erster Linie die Cloud-Hyperscaler. Sie verfügen über die Ressourcen, um AIaaS im Enterprise-Maßstab zu supporten.

Amazon Web Services

Amazon Web Services (AWS) hat eine breite Palette von KI-Dienstleistungen im Angebot, angefangen bei vorgefertigten, sofort einsetzbaren Services, die den Start eines KI-Projekts erleichtern und den Bedarf an erfahrenen Datenwissenschaftlern und KI-Entwicklern minimieren können. Zu diesen Services gehören beispielsweise:

Amazon Translate (Echtzeit-Übersetzungen),

Amazon Rekognition (Bild- und Videoanalyse),

Amazon Polly (Text-to-Speech) und

Amazon Transcribe (Speech-to-Text).

Zu den Tools im Bereich Managed Infrastructure gehören:

Amazon SageMaker (Machine-Learning-Modelle erstellen, trainieren und bereitstellen),

Amazon Machine Learning Drag-and-Drop-Tools und -Templates (ML-Modelle einfacher bereitstellen),

Amazon Comprehend (Natural Language Processing),

Amazon Forecast (akkurate Zeitreihenvorhersagen) und

Amazon Personalize (personalisierte Produkt- und Content-Vorschläge).

Im Bereich generative KI bietet AWS:

Amazon Lex (KI-Chatbots erstellen),

Amazon CodeGuru (Code analysieren und optimieren) sowie

Amazon Kendra (intelligente Suchen).

Microsoft

Microsofts Azure KI Services richten sich an Entwickler und Datenwissenschaftler und basieren auf Anwendungen wie SQL Server, Office und Dynamics. Dabei haben die Redmonder künstliche Intelligenz in verschiedene Business-Apps integriert – sowohl in der Cloud als auch On-Premises.

Bekanntermaßen ist Microsoft eine enge Partnerschaft mit ChatGPT-Entwickler OpenAI eingegangen. Entsprechend sind viele KI-Anwendungen auf dem Azure-Marktplatz zu finden. Darüber hinaus steht ein OpenAI Service mit vortrainierten Large Language Models wie GPT-3.5, Codex und DALL-E 2 zur Verfügung.

Zu den vorgefertigten AI Services im Angebot von Microsoft zählen etwa:

Spracherkennung,

Textanalyse,

Übersetzung,

Bildverarbeitung und

ML-Modell-Deployment.

Google Cloud

Der KI-Service von Google ist auf Data Analytics fokussiert und bietet Tools wie BigQuery und AI Platform sowie den Service AutoML, der Benutzern mit eingeschränkten Coding-Fähigkeiten ermöglicht, automatisch Modelle zu erstellen. Google Cloud bietet zudem die Plattform Vertex AI, um KI-Workflows zu optimieren und Entwicklung und Bereitstellung zu vereinfachen. Dazu gehört auch eine breite Palette von Services mit vorgefertigten Lösungen, benutzerdefiniertem Modelltraining und Generative-AI-Werkzeugen. Mit der Vertex AI Workbench stellt Google außerdem eine kollaborative KI-Projektumgebung für Datenwissenschaftler und Entwickler zur Verfügung.

Die vorgefertigten KI-Lösungen von Google Cloud umfassen:

Dialogflow (Plattform, um Chatbots und virtuelle Assistenten zu entwickeln),

Natural Language API (Sentiment-Textanalysen, Entity-Extraktion etc.),

Vision AI (Objekterkennung in Bildern und Videos),

Translation API (maschinelle Übersetzungen in verschiedenen Sprachen) sowie

Speech-to-Text und Text-to-Speech (Konversionen zwischen gesprochener Sprache und Text).

Was Generative AI angeht, bietet Vertex AI Search and Conversation eine Tool-Sammlung, die speziell darauf konzipiert ist, GenAI-Applikationen wie Suchmaschinen und Chatbots zu entwickeln. Diese Suite enthält mehr als 130 vortrainierte Foundational-LLMs wie PaLM und Imagen, um Texte und/oder Bilder zu generieren.

Darüber hinaus hat Google auch den Bard-Nachfolger Gemini im Programm, der (demnächst) in drei verschiedenen Versionen erhältlich ist:

Gemini Nano für Smartphones,

Gemini Pro sowie

Gemini Ultra, das sich noch in der Entwicklung befindet und wesentlich leistungsfähiger als die Pro-Version sein soll.

IBM

IBMs Watsonx, ist ein umfassendes KI-Tool- und -Dienstleistungsangebot, das für seinen Fokus auf die Automatisierung komplexer Geschäftsprozesse und seine branchenspezifischen Lösungen, insbesondere für das Gesundheits- und Finanzwesen, bekannt ist. Watsonx.ai Studio ist das Herzstück dieser Plattform, auf der Sie KI-Modelle trainieren, validieren, abstimmen und einsetzen können – sowohl für maschinelles Lernen als auch für generative KI. Ein Data Lakehouse gewährleistet dabei ein sicheres und skalierbares Speichersystem für Ihre Daten (sowohl strukturierte als auch unstrukturierte).

IBMs AI Toolkit ist eine Sammlung vorgefertigter Tools und Konnektoren, die die Integration von KI in Ihre bestehenden Workflows erleichtern. So lassen sich Tasks automatisieren, Erkenntnisse aus Daten gewinnen und intelligente Applikationen erstellen. Watsonx enthält auch eine Reihe vortrainierter KI-Modelle, die Sie direkt und ohne Training einsetzen können. Diese Modelle decken verschiedene Tasks ab – beispielsweise:

Natural Language Processing,

Computer Vision und

Spracherkennung.

Oracle

Oracle liegt bislang weit hinter den Cloud-Hyperscalern zurück, bringt jedoch einige Vorteile mit, die Sie auf dem Schirm haben sollten – in erster Linie, weil es ein Riese in Sachen Business-Anwendungen und -Datenbanken ist. Alle On-Premises installierten Anwendungen können in die Cloud verlagert werden, um eine hybride Konfiguration zu verwirklichen. Das erleichtert es erheblich, Ihre lokalen Daten zu Data-Preparation- und Schulungszwecken in die Cloud zu verlagern. Oracle hat sehr stark in GPU-Technologie investiert, die derzeit das wichtigste Mittel zur KI-Datenverarbeitung darstellt. Wenn Sie also KI-Anwendungen auf Nvidia-Technologie laufen lassen wollen, können Sie sich an Oracle wenden. Ein weiterer gewichtiger Vorteil: Die KI-Dienstleistungen von Oracle sind mit die günstigsten.

Die Oracle Cloud Infrastructure (OCI) AI Services decken ein breit gefächertes Portfolio von Tools und Services ab, um Unternehmen mit diversen KI-Funktionen zu versorgen. Ähnlich wie im Fall von IBMs Watsonx handelt es sich nicht um einen einzigen Service, sondern um eine Sammlung von Funktionen, die unterschiedliche Anforderungen erfüllen – darunter:

Betrugserkennung und -prävention,

Spracherkennung sowie

Sprach- und Textanalyse.

Oracles Generative-AI-Services unterstützt LLMs wie Cohere und Llama 2 und ermöglicht Anwendungsfälle wie:

Schreib-Assistenten,

Textzusammenfassungen,

Chatbots oder

Code-Generierung.

Die Machine Learning Services von Oracle bieten Tools für Datenwissenschaftler, um ML-Modelle zu erstellen, zu trainieren und zu managen. Dabei werden populäre Open-Source-Frameworks wie TensorFlow und PyTorch unterstützt. Mit OCI Data Science ist es schließlich möglich, virtuelle Maschinen mit vorkonfigurierten Umgebungen für Data-Science-Aufgaben bereitzustellen – inklusive Jupyter-Notebooks und Zugang zu beliebten Bibliotheken, die die Datenexploration und den Modellentwicklungs-Workflow vereinfachen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Dienstleister finden: Ein AI-as-a-Service-Ratgeber​ Weiterlesen »

Deutsche Industrie blickt optimistisch in die Zukunft​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Unternehmen, die auf moderne Technologien setzen, steigern nicht nur ihre betriebliche Effizienz, sondern erwarten auch höhere Wachstumsraten.Halfpoint – shutterstock.com Nach den vielen Hiobsbotschaften von Industrieunternehmen in den vergangenen Monaten gibt es kurz vor Beginn der Hannover Messe Industrie (HMI) Positives zu berichten: 81 Prozent der Industrieunternehmen hierzulande erwarten, dass die Branche in den nächsten drei bis fünf Jahren wachsen wird.   Besonders optimistisch blicken dabei technologisch fortschrittliche Industrieunternehmen in die Zukunft – also jene, die auf Technologien wie generative KI, Robotik, das Internet der Dinge (IoT) und Datenmanagement setzen. Denn während 73 Prozent aller befragten industriellen Unternehmen innerhalb der nächsten zwölf Monate mit einem Umsatzanstieg rechnen, liegt dieser Wert bei den technologieaffinen Industrieunternehmen sogar bei 91 Prozent.   Zu diesem Ergebnis kommt eine aktuelle, repräsentative Umfrage von Sapio im Auftrag von Snowflake. Befragt wurden 150 Entscheidungsträger in industriellen Unternehmen in Deutschland.   Aus Sicht der befragten Entscheider ist die Situation der deutschen Industrie nicht so schlecht wie häufig berichtet. Snowflake KI und Robotik auf dem Vormarsch  Wie die Studie ergab, liegt besonders der Einsatz autonomer Roboter im Trend. Demnach nutzen diese bereits 60 Prozent der Unternehmen, um die Betriebskosten zu senken und effizienter zu arbeiten – 57 Prozent haben sie vollständig in ihre Produktionsabläufe integriert. Kollaborative Robotik, die sicher mit Mitarbeitenden interagiert, wird laut der Snowflake-Umfrage in 55 Prozent der Unternehmen aktiv genutzt.  Bei den Schlüsseltechnologien Künstliche Intelligenz (KI) und maschinelles Lernen (ML) ist die Verbreitung noch größer: 72 Prozent der Unternehmen haben generative KI und ML bereits fest implementiert oder treiben den Ausbau aktiv voran.   Diesen Trend spiegeln auch die geplanten Investitionen wider: Laut Umfrage planen 59 Prozent der Unternehmen in den nächsten sechs bis zwölf Monaten mehr in GenAI und Machine Learning zu investieren, während lediglich 35 Prozent ihre Budgets für autonome Robotik aufstocken wollen. Dabei verfügen fast zwei Drittel (61 Prozent) über eine umfassende KI-Roadmap und einen Rollout-Plan für ihre Fabriken.   KI wird dabei zunehmend zur Optimierung betrieblicher Prozesse eingesetzt. So nutzen Industrieunternehmen KI-gestützte Lösungen vor allem dazu,  ihre Lieferketten zu optimieren (58 Prozent),   die künftige Nachfrage besser zu prognostizieren (55 Prozent), und   in Echtzeit Entscheidungen in den Betriebsabläufen zu treffen (51 Prozent).  Daneben verzeichnen die meisten Unternehmen laut Studie aber auch mit einem strukturierten Datenmanagement bereits nachweisbare Vorteile: 98 Prozent der Unternehmen berichten bereits von positiven Auswirkungen auf Umsatzwachstum oder Kostensenkungen. So hilft eine verlässliche Datenbasis, technologische Innovationen effizienter zu nutzen, während eine robuste Datenstrategie die Grundlage für fundierte Entscheidungen, optimierte Abläufe und nachhaltiges Wachstum bildet.  Wenig überraschend wollen die Industrieunternehmen vor allem die Investitionen in GenAI und ML hochfahren. Snowflake Selbst im internationalen Vergleich zuversichtlich  Was die globale Wettbewerbsfähigkeit angeht, sehen sich nach eigener Einschätzung aktuell nur 14 Prozent im Bereich generative KI und ML im Rückstand. Die Hälfte sieht sich der internationalen Konkurrenz voraus. In der autonomen Robotik sind die befragten Unternehmen ähnlich zuversichtlich. Hier sehen sich 23 Prozent als Nachzügler und 48 Prozent als Vorreiter. Die meisten befragten Unternehmen (80 Prozent) sind jedoch überzeugt, dass die deutsche Industrie ohne fortschrittliche Datenanalyse und KI an verliert.   „Deutschland spielt technologisch vorne mit – aber nur, wenn wir weiter mutig in Innovation investieren“, erklärt Jonah Rosenboom, Country Manager Deutschland bei Snowflake. Wie die Ergebnisse der Studie zeigten, steigerten Unternehmen, die auf moderne Technologien setzen, nicht nur ihre betriebliche Effizienz, sondern erwarteten auch höhere Wachstumsraten.   

Deutsche Industrie blickt optimistisch in die Zukunft​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Unternehmen, die auf moderne Technologien setzen, steigern nicht nur ihre betriebliche Effizienz, sondern erwarten auch höhere Wachstumsraten.Halfpoint – shutterstock.com

Nach den vielen Hiobsbotschaften von Industrieunternehmen in den vergangenen Monaten gibt es kurz vor Beginn der Hannover Messe Industrie (HMI) Positives zu berichten: 81 Prozent der Industrieunternehmen hierzulande erwarten, dass die Branche in den nächsten drei bis fünf Jahren wachsen wird.  

Besonders optimistisch blicken dabei technologisch fortschrittliche Industrieunternehmen in die Zukunft – also jene, die auf Technologien wie generative KI, Robotik, das Internet der Dinge (IoT) und Datenmanagement setzen. Denn während 73 Prozent aller befragten industriellen Unternehmen innerhalb der nächsten zwölf Monate mit einem Umsatzanstieg rechnen, liegt dieser Wert bei den technologieaffinen Industrieunternehmen sogar bei 91 Prozent.  

Zu diesem Ergebnis kommt eine aktuelle, repräsentative Umfrage von Sapio im Auftrag von Snowflake. Befragt wurden 150 Entscheidungsträger in industriellen Unternehmen in Deutschland.  

Aus Sicht der befragten Entscheider ist die Situation der deutschen Industrie nicht so schlecht wie häufig berichtet. Snowflake

KI und Robotik auf dem Vormarsch 

Wie die Studie ergab, liegt besonders der Einsatz autonomer Roboter im Trend. Demnach nutzen diese bereits 60 Prozent der Unternehmen, um die Betriebskosten zu senken und effizienter zu arbeiten – 57 Prozent haben sie vollständig in ihre Produktionsabläufe integriert. Kollaborative Robotik, die sicher mit Mitarbeitenden interagiert, wird laut der Snowflake-Umfrage in 55 Prozent der Unternehmen aktiv genutzt. 

Bei den Schlüsseltechnologien Künstliche Intelligenz (KI) und maschinelles Lernen (ML) ist die Verbreitung noch größer: 72 Prozent der Unternehmen haben generative KI und ML bereits fest implementiert oder treiben den Ausbau aktiv voran.  

Diesen Trend spiegeln auch die geplanten Investitionen wider: Laut Umfrage planen 59 Prozent der Unternehmen in den nächsten sechs bis zwölf Monaten mehr in GenAI und Machine Learning zu investieren, während lediglich 35 Prozent ihre Budgets für autonome Robotik aufstocken wollen. Dabei verfügen fast zwei Drittel (61 Prozent) über eine umfassende KI-Roadmap und einen Rollout-Plan für ihre Fabriken.  

KI wird dabei zunehmend zur Optimierung betrieblicher Prozesse eingesetzt. So nutzen Industrieunternehmen KI-gestützte Lösungen vor allem dazu, 

ihre Lieferketten zu optimieren (58 Prozent),  

die künftige Nachfrage besser zu prognostizieren (55 Prozent), und  

in Echtzeit Entscheidungen in den Betriebsabläufen zu treffen (51 Prozent). 

Daneben verzeichnen die meisten Unternehmen laut Studie aber auch mit einem strukturierten Datenmanagement bereits nachweisbare Vorteile: 98 Prozent der Unternehmen berichten bereits von positiven Auswirkungen auf Umsatzwachstum oder Kostensenkungen. So hilft eine verlässliche Datenbasis, technologische Innovationen effizienter zu nutzen, während eine robuste Datenstrategie die Grundlage für fundierte Entscheidungen, optimierte Abläufe und nachhaltiges Wachstum bildet. 

Wenig überraschend wollen die Industrieunternehmen vor allem die Investitionen in GenAI und ML hochfahren. Snowflake

Selbst im internationalen Vergleich zuversichtlich 

Was die globale Wettbewerbsfähigkeit angeht, sehen sich nach eigener Einschätzung aktuell nur 14 Prozent im Bereich generative KI und ML im Rückstand. Die Hälfte sieht sich der internationalen Konkurrenz voraus. In der autonomen Robotik sind die befragten Unternehmen ähnlich zuversichtlich. Hier sehen sich 23 Prozent als Nachzügler und 48 Prozent als Vorreiter. Die meisten befragten Unternehmen (80 Prozent) sind jedoch überzeugt, dass die deutsche Industrie ohne fortschrittliche Datenanalyse und KI an verliert.  

„Deutschland spielt technologisch vorne mit – aber nur, wenn wir weiter mutig in Innovation investieren“, erklärt Jonah Rosenboom, Country Manager Deutschland bei Snowflake. Wie die Ergebnisse der Studie zeigten, steigerten Unternehmen, die auf moderne Technologien setzen, nicht nur ihre betriebliche Effizienz, sondern erwarteten auch höhere Wachstumsraten.  

Deutsche Industrie blickt optimistisch in die Zukunft​ Weiterlesen »

Die gefragtesten Storage-Zertifizierungen​

Allgemein

Diese Zertifizierungen schärfen (nicht nur) Ihre Storage-Skills.DC Studio / Shutterstock Exponentielles Datenwachstum und komplexe, hybride Cloud-Umgebungen treiben die Nachfrage nach Storage-, Netzwerk- und Cloud-Profis. Kandidaten, die eine für den Job passende Zertifizierung vorweisen können, haben dabei im Zweifel die besseren Chancen. Auch Gina Smith, Research Director bei IDC, hält IT-Spezialisten, die Storage-Systeme effektiv managen, optimieren und absichern können, aus Unternehmensperspektive für unverzichtbar: “Von softwaredefinierten Lösungen bis hin zu Objektspeicher- und Datenschutzstrategien – mit modernen Speichertechnologien umgehen zu können, kann die Wettbewerbsfähigkeit beeinflussen“. Laut der IDC-Managerin ist Storage-Knowhow längst kein Nischenthema mehr, sondern eine grundlegende Voraussetzung, um die digitale Transformation und Innovationen im Unternehmen vorantreiben zu können. In diesem Artikel haben wir die wichtigsten, herstellerspezifischen (und -unabhängigen) Storage-Zertifizierungen für Sie zusammengefasst – wichtige Informationen zu Dauer und Kosten inklusive. Neben reinen Storage-Kenntnissen bescheinigen einige dieser Zertifizierungen zusätzlich auch Kompetenzen in den Bereichen Networking und Cloud: HPE ASE – Storage Solutions NetApp Certified Data Administrator Pure Storage Certified Data Storage Associate SNIA Certified Storage Professional (SCSP) Hitachi Vantara Qualified Professional-Ops Center Automation AWS Certified Solutions Architect – Professional Cisco Certified Internetwork Expert (CCIE) Data Center Microsoft Certified: Azure Administrator Associate VMware Certified Data Center Virtualization HPE ASE – Storage Solutions Diese HPE-Zertifizierung bescheinigt ihren Inhabern die Fähigkeit,  Enterprise-Storage-Architekturen und -Technologien des Unternehmens einrichten, konfigurieren, optimieren, aktualisieren, managen, überwachen und instandhalten zu können. Außerdem sind die in der Lage, Geschäftsanforderungen in Speicherlösungen zu übersetzen. Darüber hinaus deckt diese HPE-fokussierte Storage-Zertifizierung auch die Fähigkeit ab, Backup- und Recovery-Lösungen für Anwenderszenarien (inklusive zugehöriger Strategien) zu entwerfen.   Preis: 145 bis 260 Dollar Prüfungsdauer: 120 Minuten Voraussetzungen: mindestens ein bis drei Jahre Erfahrung mit Storage-Technologien NetApp Certified Data Administrator Mit der Zertifizierung zum NetApp Certified Data Administrator erwerben IT-Profis die nötigen Kenntnisse, um Storage-Systeme von NetApp zu managen und zu administrieren – mit besonderem Fokus auf das ONTAP-Betriebssystem. Dabei werden auch Kompetenzen vermittelt, um die Storage-Systeme in Multiprotokollumgebungen mit Blick auf Datenschutz, Hochverfügbarkeit und Datenmanagement zu konfigurieren, zu warten und zu optimieren. Preis: 150 Dollar Prüfungsdauer: 90 Minuten Voraussetzungen: mindestens sechs bis zwölf Monate praktische Erfahrung mit NetApp-Storage-Lösungen Pure Storage Certified Data Storage Associate Die Zertifizierung zum Pure Storage Certified Data Storage Associate bestätigt Enterprise-Storage-Kompetenzen auf Multi-Vendor-Level. Konkret beinhaltet das Skills in den Bereichen Netzwerk, Virtualisierung, Container, Cloud, Storage, Datenschutz und Hosting. Preis: Kostenlos Prüfungsdauer: 120 Minuten Voraussetzungen: mindestens drei bis sechs Monate allgemeine IT- und Storage-Erfahrung SNIA Certified Storage Professional (SCSP) Die Certified-Storage-Professional-Zertifizierung (PDF) der Storage Networking Industry Association (SNIA) vermittelt unter anderem grundlegende Kenntnisse zu Storage-Networking-Konzepten, Datenschutzpraktiken sowie Best Practices, um Storage-Systeme zu managen. Diese Zertifizierung ist herstellerunabhängig und deshalb für diverse Storage-Umgebungen relevant. Preis: 220 Dollar Prüfungsdauer: 90 Minuten Voraussetzungen: Die SNIA empfiehlt, sich vor dem Zertifizierungskurs mit den diversen Schulungsmaterialien der Organisation auseinanderzusetzen – dazu gehören neben E-Books und Onlinekursen auch Tutorials Hitachi Vantara Qualified Professional-Ops Center Automation In erster Linie an Hitachi-(Vantara-) Kunden richtet sich die Zertifizierung Hitachi Vantara Qualified Professional-Ops Center Automation (PDF). Sie bescheinigt unter anderem Kenntnisse darin, mit Hitachi Ops Center Automator Infrastrukturmanagement-Tasks zu automatisieren. Im Rahmen des Tests wird auch Wissen zum User Interface, der Nutzung von Rest-APIs und der Befehlszeilenschnittstelle von Hitachi-Storage-Systemen abgefragt. Preis: 100 Dollar Prüfungsdauer: 60 Minuten Voraussetzungen: grundlegende Kenntnisse über Storage-bezogene Prozesse aus Endbenutzerperspektive – inklusive Layouts AWS Certified Solutions Architect – Professional Eine Zertifizierung zum AWS Certified Solutions Architect – Professional verbrieft fortgeschrittene Fähigkeiten, wenn es darum geht, Lösungen von Amazon Web Services (AWS) mit Blick auf Sicherheit, Kosten und Performance zu optimieren – und manuelle Prozesse zu automatisieren. Potenzielle Interessenten sollten bereits architektonische Empfehlungen aussprechen können, wenn es darum geht, Applikationen auf AWS bereitzustellen.   Preis: 300 Dollar (AWS gewährt 50 Prozent Rabatt, sobald eine Zertifizierung erlangt wurde) Prüfungsdauer: 180 Minuten Voraussetzungen: mindestens zwei Jahre Erfahrung damit, Cloud-Lösungen mit AWS-Services zu entwerfen und zu implementieren Cisco Certified Internetwork Expert (CCIE) Data Center Mit einer Cisco-CCIE-Data-Center-Zertifizierung weisen Absolventen fortgeschrittene Skills nach, wenn es darum geht, komplexe Rechenzentrumsnetzwerke zu planen, zu entwickeln, bereitzustellen und zu optimieren. Darüber hinaus drehen sich die zugehörigen Kurse unter anderem auch um das Thema Infrastrukturorchestrierung (im Data Center), mit Fokus auf der nahtlosen Integration von Netzwerk-, Rechen- und Storage-Komponenten. Ein weiterer Schwerpunkt dieser Zertifizierung, der nicht unerwähnt bleiben sollte, liegt darauf, skalierbare, performante Netzwerke aufzubauen, um KI- und ML-Workloads zu unterstützen. Preis: 400 Dollar für die erste Prüfung, 1.600 Dollar für die zweite Prüfungsdauer: 120 Minuten für die erste, 480 Minuten für die zweite Voraussetzungen: fünf bis sieben Jahre Erfahrung mit Data-Center-Technologien und -Lösungen Microsoft Certified: Azure Administrator Associate Fachkräfte mit der Zertifizierung Microsoft Certified: Azure Administrator Associate verfügen offiziell über Expertise darin, Azure-Umgebungen zu implementieren, zu managen und zu monitoren. Sie kennen sich zudem auch bestens mit virtuellen Netzen, Storage Security und Governance aus. Preis: 126 Euro Prüfungsdauer: 100 Minuten Voraussetzungen: allgemeine Erfahrung mit Betriebssystemen, Networking, Server und Virtualisierung, sowie mit Microsoft-spezifischen Lösungen wie PowerShell, Azure CLI oder Entra ID VMware Certified Data Center Virtualization IT-Profis, die sich offiziell VMware Certified Professional – Data Center Virtualization nennen dürfen, kennen sich bestens mit den vSphere-Lösungen von VMware (respektive Broadcom) aus und wissen in diesem Zusammenhang auch Bescheid über virtuelle Maschinen, Netzwerke und Storage. Preis: 250 Dollar Prüfungsdauer: 130 Minuten Voraussetzungen: allgemeine Erfahrung mit der VMware-vSphere-Plattform (7.x oder 8.x) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die gefragtesten Storage-Zertifizierungen​ Diese Zertifizierungen schärfen (nicht nur) Ihre Storage-Skills.DC Studio / Shutterstock

Exponentielles Datenwachstum und komplexe, hybride Cloud-Umgebungen treiben die Nachfrage nach Storage-, Netzwerk- und Cloud-Profis. Kandidaten, die eine für den Job passende Zertifizierung vorweisen können, haben dabei im Zweifel die besseren Chancen.

Auch Gina Smith, Research Director bei IDC, hält IT-Spezialisten, die Storage-Systeme effektiv managen, optimieren und absichern können, aus Unternehmensperspektive für unverzichtbar: “Von softwaredefinierten Lösungen bis hin zu Objektspeicher- und Datenschutzstrategien – mit modernen Speichertechnologien umgehen zu können, kann die Wettbewerbsfähigkeit beeinflussen“. Laut der IDC-Managerin ist Storage-Knowhow längst kein Nischenthema mehr, sondern eine grundlegende Voraussetzung, um die digitale Transformation und Innovationen im Unternehmen vorantreiben zu können.

In diesem Artikel haben wir die wichtigsten, herstellerspezifischen (und -unabhängigen) Storage-Zertifizierungen für Sie zusammengefasst – wichtige Informationen zu Dauer und Kosten inklusive. Neben reinen Storage-Kenntnissen bescheinigen einige dieser Zertifizierungen zusätzlich auch Kompetenzen in den Bereichen Networking und Cloud:

HPE ASE – Storage Solutions

NetApp Certified Data Administrator

Pure Storage Certified Data Storage Associate

SNIA Certified Storage Professional (SCSP)

Hitachi Vantara Qualified Professional-Ops Center Automation

AWS Certified Solutions Architect – Professional

Cisco Certified Internetwork Expert (CCIE) Data Center

Microsoft Certified: Azure Administrator Associate

VMware Certified Data Center Virtualization

HPE ASE – Storage Solutions

Diese HPE-Zertifizierung bescheinigt ihren Inhabern die Fähigkeit,  Enterprise-Storage-Architekturen und -Technologien des Unternehmens einrichten, konfigurieren, optimieren, aktualisieren, managen, überwachen und instandhalten zu können. Außerdem sind die in der Lage, Geschäftsanforderungen in Speicherlösungen zu übersetzen. Darüber hinaus deckt diese HPE-fokussierte Storage-Zertifizierung auch die Fähigkeit ab, Backup- und Recovery-Lösungen für Anwenderszenarien (inklusive zugehöriger Strategien) zu entwerfen.  

Preis: 145 bis 260 Dollar

Prüfungsdauer: 120 Minuten

Voraussetzungen: mindestens ein bis drei Jahre Erfahrung mit Storage-Technologien

NetApp Certified Data Administrator

Mit der Zertifizierung zum NetApp Certified Data Administrator erwerben IT-Profis die nötigen Kenntnisse, um Storage-Systeme von NetApp zu managen und zu administrieren – mit besonderem Fokus auf das ONTAP-Betriebssystem. Dabei werden auch Kompetenzen vermittelt, um die Storage-Systeme in Multiprotokollumgebungen mit Blick auf Datenschutz, Hochverfügbarkeit und Datenmanagement zu konfigurieren, zu warten und zu optimieren.

Preis: 150 Dollar

Prüfungsdauer: 90 Minuten

Voraussetzungen: mindestens sechs bis zwölf Monate praktische Erfahrung mit NetApp-Storage-Lösungen

Pure Storage Certified Data Storage Associate

Die Zertifizierung zum Pure Storage Certified Data Storage Associate bestätigt Enterprise-Storage-Kompetenzen auf Multi-Vendor-Level. Konkret beinhaltet das Skills in den Bereichen Netzwerk, Virtualisierung, Container, Cloud, Storage, Datenschutz und Hosting.

Preis: Kostenlos

Prüfungsdauer: 120 Minuten

Voraussetzungen: mindestens drei bis sechs Monate allgemeine IT- und Storage-Erfahrung

SNIA Certified Storage Professional (SCSP)

Die Certified-Storage-Professional-Zertifizierung (PDF) der Storage Networking Industry Association (SNIA) vermittelt unter anderem grundlegende Kenntnisse zu Storage-Networking-Konzepten, Datenschutzpraktiken sowie Best Practices, um Storage-Systeme zu managen. Diese Zertifizierung ist herstellerunabhängig und deshalb für diverse Storage-Umgebungen relevant.

Preis: 220 Dollar

Prüfungsdauer: 90 Minuten

Voraussetzungen: Die SNIA empfiehlt, sich vor dem Zertifizierungskurs mit den diversen Schulungsmaterialien der Organisation auseinanderzusetzen – dazu gehören neben E-Books und Onlinekursen auch Tutorials

Hitachi Vantara Qualified Professional-Ops Center Automation

In erster Linie an Hitachi-(Vantara-) Kunden richtet sich die Zertifizierung Hitachi Vantara Qualified Professional-Ops Center Automation (PDF). Sie bescheinigt unter anderem Kenntnisse darin, mit Hitachi Ops Center Automator Infrastrukturmanagement-Tasks zu automatisieren. Im Rahmen des Tests wird auch Wissen zum User Interface, der Nutzung von Rest-APIs und der Befehlszeilenschnittstelle von Hitachi-Storage-Systemen abgefragt.

Preis: 100 Dollar

Prüfungsdauer: 60 Minuten

Voraussetzungen: grundlegende Kenntnisse über Storage-bezogene Prozesse aus Endbenutzerperspektive – inklusive Layouts

AWS Certified Solutions Architect – Professional

Eine Zertifizierung zum AWS Certified Solutions Architect – Professional verbrieft fortgeschrittene Fähigkeiten, wenn es darum geht, Lösungen von Amazon Web Services (AWS) mit Blick auf Sicherheit, Kosten und Performance zu optimieren – und manuelle Prozesse zu automatisieren. Potenzielle Interessenten sollten bereits architektonische Empfehlungen aussprechen können, wenn es darum geht, Applikationen auf AWS bereitzustellen.  

Preis: 300 Dollar (AWS gewährt 50 Prozent Rabatt, sobald eine Zertifizierung erlangt wurde)

Prüfungsdauer: 180 Minuten

Voraussetzungen: mindestens zwei Jahre Erfahrung damit, Cloud-Lösungen mit AWS-Services zu entwerfen und zu implementieren

Cisco Certified Internetwork Expert (CCIE) Data Center

Mit einer Cisco-CCIE-Data-Center-Zertifizierung weisen Absolventen fortgeschrittene Skills nach, wenn es darum geht, komplexe Rechenzentrumsnetzwerke zu planen, zu entwickeln, bereitzustellen und zu optimieren. Darüber hinaus drehen sich die zugehörigen Kurse unter anderem auch um das Thema Infrastrukturorchestrierung (im Data Center), mit Fokus auf der nahtlosen Integration von Netzwerk-, Rechen- und Storage-Komponenten. Ein weiterer Schwerpunkt dieser Zertifizierung, der nicht unerwähnt bleiben sollte, liegt darauf, skalierbare, performante Netzwerke aufzubauen, um KI- und ML-Workloads zu unterstützen.

Preis: 400 Dollar für die erste Prüfung, 1.600 Dollar für die zweite

Prüfungsdauer: 120 Minuten für die erste, 480 Minuten für die zweite

Voraussetzungen: fünf bis sieben Jahre Erfahrung mit Data-Center-Technologien und -Lösungen

Microsoft Certified: Azure Administrator Associate

Fachkräfte mit der Zertifizierung Microsoft Certified: Azure Administrator Associate verfügen offiziell über Expertise darin, Azure-Umgebungen zu implementieren, zu managen und zu monitoren. Sie kennen sich zudem auch bestens mit virtuellen Netzen, Storage Security und Governance aus.

Preis: 126 Euro

Prüfungsdauer: 100 Minuten

Voraussetzungen: allgemeine Erfahrung mit Betriebssystemen, Networking, Server und Virtualisierung, sowie mit Microsoft-spezifischen Lösungen wie PowerShell, Azure CLI oder Entra ID

VMware Certified Data Center Virtualization

IT-Profis, die sich offiziell VMware Certified Professional – Data Center Virtualization nennen dürfen, kennen sich bestens mit den vSphere-Lösungen von VMware (respektive Broadcom) aus und wissen in diesem Zusammenhang auch Bescheid über virtuelle Maschinen, Netzwerke und Storage.

Preis: 250 Dollar

Prüfungsdauer: 130 Minuten

Voraussetzungen: allgemeine Erfahrung mit der VMware-vSphere-Plattform (7.x oder 8.x)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die gefragtesten Storage-Zertifizierungen​ Weiterlesen »

OpenTofu – der Killer-Fork?​

Allgemein

OpenTofu ist weit mehr als nur ein Terraform-Ersatz.OpenTofu Speziell wenn es um Open Source Software geht, treten Forks (Abspaltungen) eher selten aus dem Schatten der Projekte, aus denen sie entstanden sind. Beim Infrastructure-as-Code (IaC)-Tool OpenTofu – einer von der Community vorangetriebenen Abspaltung von HashiCorps Terraform – verhält sich das anders. Nicht zuletzt wegen dem Lizenzgebaren, das der inzwischen zu IBM gehörende Automatisierungsspezialist an den Tag gelegt hat.   So konnte sich OpenTofu seit Januar 2024 von einem hoffungsvollen Manifest zu einem florierenden Open-Source-Projekt unter dem Dach der Linux Foundation entwickeln, das nicht nur von einer enthusiastischen Community, sondern auch von namhaften Sponsoren unterstützt wird. Wie stark das Projekt im Aufwind ist, zeigt sich insbesondere beim Blick auf: die eingeflossenen Code-Beiträge, die bereitgestellten Funktionen, sowie den Support durch Anbieter. Dass Terraform-Macher HashiCorp nach der Finalisierung der Übernahme seit Ende Februar 2025 nun offiziell Teil von IBM ist, könnte für OpenTofu eine enorme Chance darstellen. In diesem Artikel werfen wir einen Blick auf die bisherige Entwicklung von OpenTofu und die künftigen Herausforderungen für das ambitionierte Open-Source-Projekt. OpenTofu vs. Terraform 1. Community Mit Blick auf die gesammelten GitHub-Sterne liegt Terraform mit (circa) 45.000 zu 23.000 immer noch weit vor OpenTofu. Allerdings vermitteln diese Zahlen ein trügerisches Bild. Denn seit seiner allgemeinen Markteinführung im Januar 2024 hat sich die Zahl der OpenTofu-Kontributoren nahezu verdreifacht – und jedes neue Release sorgt für Interesse in der Community. Für Version 1.9 von OpenTofu reichten beispielsweise 49 Mitwirkende über 200 Pull Requests ein. Bei Terraform spielt sich hingegen eher ein gegenläufiger Trend ab: Das IaC-Tool startete mit einer riesigen Contributor-Basis (mehr als 1.800) ins Jahr 2024, verzeichnete allerdings schon zu diesem Zeitpunkt deutlich weniger neue Mitwirkende. Nachdem HashiCorp dann den Anwendern die BSL-Lizenz aufs Auge gedrückt hatte, gingen die Community-Beiträge zu Terraform drastisch zurück: Nur noch etwa neun Prozent der Pull Requests kamen im Monat des Lizenzwechsels von der Community – gegenüber zuvor 21 Prozent. Das hat sich bis heute nicht gebessert. Zwar zählt Terraform insgesamt über 34.000 Commits (OpenTofu: 32.500). Aber die kommen eben größtenteils von den Engineers von HashiCorp und nicht wie bei OpenTofu von einer engagierten, begeisterten Community.   Das OpenTofu ein Paradebeispiel für Open-Source-Kultur ist, verdeutlicht auch der Blick auf seinen Issue Tracker: Über einen Zeitraum von vier Monaten meldeten Benutzer Ende 2024 über 150 Probleme und reichten mehr als 200 Pull Requests ein. Für die Issues fand die Community schnell entsprechende Lösungen. Der Slack-Workspace und das GitHub-Forum von OpenTofu haben sich zu kommunikativen Drehscheiben entwickelt, die schnelles Feedback versprechen. Der Dialog in der Terraform-Community ist hingegen bestenfalls als verhalten zu bezeichnen – und findet größtenteils zwischen HashiCorp- (und IBM-) Mitarbeitern statt. Die lebhafte Community, die Terraform einmal ausgezeichnet hat, scheint nun bei OpenTofu zu gedeihen. Das könnte auch ein Grund dafür sein, warum Projekte wie Alpine Linux von Terraform auf OpenTofu umgeschwenkt sind. 2. Funktionen Mit Blick auf die Funktionen ist festzuhalten, dass OpenTofu weit davon entfernt ist, Terraform zu replizieren. Im Gegenteil: Es hat das HashiCorp-Tool in Bereichen, die die Community priorisiert, überholt und bahnbrechende Funktionen eingeführt, auf die Terraform-Anwender seit Jahren warten – etwa die native Ende-zu-Ende-Verschlüsselung für Statusdateien. Weitere Beispiel für OpenTofu-Problemlösungen, die bis heute nicht für Terraform existieren, sind: Provider Iteration (for_each), ein exclude-Flag für selektive Anwendungen, oder Dynamic Module Sourcing. Zwar werden die HashiCorp-eigenen Updates weiterhin zuverlässig eingespielt, allerdings halten Innovationen im Vergleich zu OpenTofu eher schrittweise und behäbig Einzug. Provider-definierte Funktionen und eine striktere Validierung von Variablen sind willkommene Optimierungen für Terraform – verblassen aber gegen die strategische Vorgehensweise, die das OpenTofu-Projekt an den Tag legt, zum Beispiel mit der Einführung der Dateierweiterung .tofu. Darüber hinaus unterstreicht die OpenTofu-Registry (mit Git-gestützter Dezentralisierung) die Absicht der Projektverantwortlichen, ein robustes, offenes Ökosystem aufzubauen, das sich wesentlich vom proprietären Ansatz von HashiCorp, respektive IBM, unterscheidet. 3. Anbieter-Support Bislang (Stand: März 2025) haben die großen Cloud-Anbieter keinen Code zu OpenTofu beigetragen. Allerdings haben sowohl Microsoft als auch Google Cloud und Amazon Web Services stillschweigend für Kompatibilität mit OpenTofu gesorgt. Ein offener(er) Support durch die Hyperscaler könnte also bevorstehen. Bis es soweit ist, haben kleinere Anbieter erhebliche Ressourcen für das Projekt zugesagt. Dazu zählen: Harness, Spacelift, env0, Scalr, sowie Gruntwork.   Diese Firmen wollen OpenTofu in den kommenden fünf Jahren mit insgesamt 18 Engineers (in Vollzeit) unterstützen. Insgesamt hat die Unterstützungsleistung durch Anbieterunternehmen von Anfang bis Ende 2024 erheblich angezogen. Auch Unternehmen wie Cloudflare oder Buildkite haben mit Infrastruktur-Support dazu beitragen, dass das Ökosystem von OpenTofu erblühen konnte.   Die OpenTofu-Zukunft Das soll nicht bedeuten, dass Terraform „tot“ ist oder sich auf dem absteigenden Ast befindet. Geht es um die Akzeptanz in der Unternehmenspraxis, nimmt Terraform nach wie vor einen hohen Stellenwert ein. HashiCorp verfügt über einen riesigen Kundenstamm und verdient mit seinem IaC-Tool vermutlich mehr Geld als je zuvor. Aber der Registrierungs-Traffic von OpenTofu wirft täglich millionenfache neue Anfragen auf (mehr als 300 Prozent Wachstum im Jahresvergleich) und die beträchtlichen CLI-Downloads deuten darauf hin, dass der Terraform-Fork gerade dabei ist, echte Zugkraft zu entfalten. Auch Tool-Anbieter wie Scalr berichten von stark steigenden Nutzungsraten. Damit hat OpenTofu das typische Fork-Schicksal, nämlich wahlweise Stagnation oder Bedeutungslosigkeit, bereits weit hinter sich gelassen. Dennoch bleiben Herausforderungen nicht aus. Um weitere Erfolge feiern zu können, wird es für das Open-Source-Projekt in Zukunft in erster Linie darauf ankommen: seine Dynamik aufrechtzuerhalten, sich auf Enterprise-Level zu bewähren, und seine Community weiter auszubauen. Gelingt das, könnten in Zukunft zahlreiche Unternehmen auf OpenTofu umschwenken. Zumindest im Open-Source-Bereich hat Terraform die IaC-Krone bereits an OpenTofu verloren. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

OpenTofu – der Killer-Fork?​ OpenTofu ist weit mehr als nur ein Terraform-Ersatz.OpenTofu

Speziell wenn es um Open Source Software geht, treten Forks (Abspaltungen) eher selten aus dem Schatten der Projekte, aus denen sie entstanden sind. Beim Infrastructure-as-Code (IaC)-Tool OpenTofu – einer von der Community vorangetriebenen Abspaltung von HashiCorps Terraform – verhält sich das anders. Nicht zuletzt wegen dem Lizenzgebaren, das der inzwischen zu IBM gehörende Automatisierungsspezialist an den Tag gelegt hat.  

So konnte sich OpenTofu seit Januar 2024 von einem hoffungsvollen Manifest zu einem florierenden Open-Source-Projekt unter dem Dach der Linux Foundation entwickeln, das nicht nur von einer enthusiastischen Community, sondern auch von namhaften Sponsoren unterstützt wird. Wie stark das Projekt im Aufwind ist, zeigt sich insbesondere beim Blick auf:

die eingeflossenen Code-Beiträge,

die bereitgestellten Funktionen, sowie

den Support durch Anbieter.

Dass Terraform-Macher HashiCorp nach der Finalisierung der Übernahme seit Ende Februar 2025 nun offiziell Teil von IBM ist, könnte für OpenTofu eine enorme Chance darstellen. In diesem Artikel werfen wir einen Blick auf die bisherige Entwicklung von OpenTofu und die künftigen Herausforderungen für das ambitionierte Open-Source-Projekt.

OpenTofu vs. Terraform

1. Community

Mit Blick auf die gesammelten GitHub-Sterne liegt Terraform mit (circa) 45.000 zu 23.000 immer noch weit vor OpenTofu. Allerdings vermitteln diese Zahlen ein trügerisches Bild. Denn seit seiner allgemeinen Markteinführung im Januar 2024 hat sich die Zahl der OpenTofu-Kontributoren nahezu verdreifacht – und jedes neue Release sorgt für Interesse in der Community. Für Version 1.9 von OpenTofu reichten beispielsweise 49 Mitwirkende über 200 Pull Requests ein.

Bei Terraform spielt sich hingegen eher ein gegenläufiger Trend ab: Das IaC-Tool startete mit einer riesigen Contributor-Basis (mehr als 1.800) ins Jahr 2024, verzeichnete allerdings schon zu diesem Zeitpunkt deutlich weniger neue Mitwirkende. Nachdem HashiCorp dann den Anwendern die BSL-Lizenz aufs Auge gedrückt hatte, gingen die Community-Beiträge zu Terraform drastisch zurück: Nur noch etwa neun Prozent der Pull Requests kamen im Monat des Lizenzwechsels von der Community – gegenüber zuvor 21 Prozent. Das hat sich bis heute nicht gebessert. Zwar zählt Terraform insgesamt über 34.000 Commits (OpenTofu: 32.500). Aber die kommen eben größtenteils von den Engineers von HashiCorp und nicht wie bei OpenTofu von einer engagierten, begeisterten Community.  

Das OpenTofu ein Paradebeispiel für Open-Source-Kultur ist, verdeutlicht auch der Blick auf seinen Issue Tracker: Über einen Zeitraum von vier Monaten meldeten Benutzer Ende 2024 über 150 Probleme und reichten mehr als 200 Pull Requests ein. Für die Issues fand die Community schnell entsprechende Lösungen. Der Slack-Workspace und das GitHub-Forum von OpenTofu haben sich zu kommunikativen Drehscheiben entwickelt, die schnelles Feedback versprechen. Der Dialog in der Terraform-Community ist hingegen bestenfalls als verhalten zu bezeichnen – und findet größtenteils zwischen HashiCorp- (und IBM-) Mitarbeitern statt. Die lebhafte Community, die Terraform einmal ausgezeichnet hat, scheint nun bei OpenTofu zu gedeihen. Das könnte auch ein Grund dafür sein, warum Projekte wie Alpine Linux von Terraform auf OpenTofu umgeschwenkt sind.

2. Funktionen

Mit Blick auf die Funktionen ist festzuhalten, dass OpenTofu weit davon entfernt ist, Terraform zu replizieren. Im Gegenteil: Es hat das HashiCorp-Tool in Bereichen, die die Community priorisiert, überholt und bahnbrechende Funktionen eingeführt, auf die Terraform-Anwender seit Jahren warten – etwa die native Ende-zu-Ende-Verschlüsselung für Statusdateien. Weitere Beispiel für OpenTofu-Problemlösungen, die bis heute nicht für Terraform existieren, sind:

Provider Iteration (for_each),

ein exclude-Flag für selektive Anwendungen, oder

Dynamic Module Sourcing.

Zwar werden die HashiCorp-eigenen Updates weiterhin zuverlässig eingespielt, allerdings halten Innovationen im Vergleich zu OpenTofu eher schrittweise und behäbig Einzug. Provider-definierte Funktionen und eine striktere Validierung von Variablen sind willkommene Optimierungen für Terraform – verblassen aber gegen die strategische Vorgehensweise, die das OpenTofu-Projekt an den Tag legt, zum Beispiel mit der Einführung der Dateierweiterung .tofu.

Darüber hinaus unterstreicht die OpenTofu-Registry (mit Git-gestützter Dezentralisierung) die Absicht der Projektverantwortlichen, ein robustes, offenes Ökosystem aufzubauen, das sich wesentlich vom proprietären Ansatz von HashiCorp, respektive IBM, unterscheidet.

3. Anbieter-Support

Bislang (Stand: März 2025) haben die großen Cloud-Anbieter keinen Code zu OpenTofu beigetragen. Allerdings haben sowohl Microsoft als auch Google Cloud und Amazon Web Services stillschweigend für Kompatibilität mit OpenTofu gesorgt. Ein offener(er) Support durch die Hyperscaler könnte also bevorstehen.

Bis es soweit ist, haben kleinere Anbieter erhebliche Ressourcen für das Projekt zugesagt. Dazu zählen:

Harness,

Spacelift,

env0,

Scalr, sowie

Gruntwork.  

Diese Firmen wollen OpenTofu in den kommenden fünf Jahren mit insgesamt 18 Engineers (in Vollzeit) unterstützen. Insgesamt hat die Unterstützungsleistung durch Anbieterunternehmen von Anfang bis Ende 2024 erheblich angezogen. Auch Unternehmen wie Cloudflare oder Buildkite haben mit Infrastruktur-Support dazu beitragen, dass das Ökosystem von OpenTofu erblühen konnte.  

Die OpenTofu-Zukunft

Das soll nicht bedeuten, dass Terraform „tot“ ist oder sich auf dem absteigenden Ast befindet. Geht es um die Akzeptanz in der Unternehmenspraxis, nimmt Terraform nach wie vor einen hohen Stellenwert ein. HashiCorp verfügt über einen riesigen Kundenstamm und verdient mit seinem IaC-Tool vermutlich mehr Geld als je zuvor. Aber der Registrierungs-Traffic von OpenTofu wirft täglich millionenfache neue Anfragen auf (mehr als 300 Prozent Wachstum im Jahresvergleich) und die beträchtlichen CLI-Downloads deuten darauf hin, dass der Terraform-Fork gerade dabei ist, echte Zugkraft zu entfalten. Auch Tool-Anbieter wie Scalr berichten von stark steigenden Nutzungsraten.

Damit hat OpenTofu das typische Fork-Schicksal, nämlich wahlweise Stagnation oder Bedeutungslosigkeit, bereits weit hinter sich gelassen. Dennoch bleiben Herausforderungen nicht aus. Um weitere Erfolge feiern zu können, wird es für das Open-Source-Projekt in Zukunft in erster Linie darauf ankommen:

seine Dynamik aufrechtzuerhalten,

sich auf Enterprise-Level zu bewähren, und

seine Community weiter auszubauen.

Gelingt das, könnten in Zukunft zahlreiche Unternehmen auf OpenTofu umschwenken. Zumindest im Open-Source-Bereich hat Terraform die IaC-Krone bereits an OpenTofu verloren.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

OpenTofu – der Killer-Fork?​ Weiterlesen »

Feedbackgespräche: Was Führungskräfte beachten sollten​

Allgemein

Führungskräfte sollten ihre Feedbackgespräche sehr sorgfältig vorbereiten, und wenn es Kritik gibt, sollte diese ganz konkret vorgebracht werden; einfach im Großen und Ganzen und pauschal das Jahr durchgehen, ist zu wenig. Foto: fizkes – shutterstock.comRegelmäßige Feedbackgespräche zwischen Vorgesetzten und ihren Mitarbeitern wirken sich positiv auf die Leistung der Mitarbeiter aus. Das belegen Studien. Sie sind zudem für die Personalentwicklung wichtig. Außerdem steigern sie, richtig geführt, die Zufriedenheit der Mitarbeiter und ihre Motivation. Trotzdem werden in vielen Unternehmen Feedbackgespräche eher sporadisch geführt – speziell dann, wenn in der Organisation ohnehin alle, zumindest gefühlt gestresst sind, zum Beispiel, weil sich so vieles ändert. Dabei wären sie gerade dann extrem wichtig.Eine mögliche Eskalation vermeidenEin Praxisbeispiel: Ein Bereichsleiter stellt fest, dass einige seiner Mitarbeiter die vereinbarten (Projekt-)Ziele erneut nicht erreicht haben. Seinen Unmut hierüber äußert er aber nicht. Denn er befürchtet: Die Stimmung in seinem Bereich verschlechtert sich, wenn er seine Erwartungen nochmals mit Nachdruck artikuliert. Also wursteln alle weiter wie bisher. Denn weil die Führungskraft die Mitarbeiter nicht auf die unerreichten Ziele anspricht, sind sie überzeugt: Unser Vorgesetzter ist mit unserer Leistung zufrieden. Und die nicht erreichten Ziele? Sie sind ihm nicht so wichtig. Also potenziert sich der Ärger der Führungskraft mit der Zeit so sehr, dass sie irgendwann “explodiert”. Und aufgrund ihrer angestauten Verärgerung vergreift sie sich im Ton. Das verletzt wiederum die Mitarbeiter emotional, wodurch ein Konflikt entsteht, der kaum noch zu beheben ist.Eine solche Eskalation lässt sich durch regelmäßige Feedback- und Mitarbeitergespräche vermeiden. In ihnen werden oft viele mögliche Quellen von Ärger, Frust und somit Demotivation beseitigt – unter anderem weil in ihnen die Beteiligten ihre wechselseitigen Erwartungen an die künftige (Zusammen-)Arbeit formulieren. Deshalb zählen regelmäßige Feedbackgespräche zum Standardführungsrepertoire in vielen Unternehmen.Mehr über Ziele und Erwartungen redenGenerell gilt: Die meisten Führungskräfte sprechen mit ihren Mitarbeitern zu wenig über ihre Arbeit sowie die Erwartungen und Ziele, die hiermit verbunden sind – und zwar unabhängig davon, ob diese im Betrieb oder Home-Office arbeiten. Dabei ist genau dies die Hauptfunktion von Feedbackgesprächen, den Mitarbeitern die nötige Orientierung zu geben.Feedback- und Zielvereinbarungsgespräche haben nicht das primäre Ziel, aktuelle Probleme in der alltäglichen (Zusammen-)Arbeit zu besprechen. Vielmehr soll das Verhalten des Mitarbeiters (und seiner Führungskraft) in einem Zeitabschnitt zusammenfassend betrachtet werden, um zu klären, wie die (Zusammen-)Arbeit verbessert werden kann. Einzelne Situationen und Vorkommnisse in der Vergangenheit dienen hierbei höchstens zur Erklärung. Weil die Vergangenheit reflektiert werden soll, machen Feedbackgespräche ohne Vorbereitung wenig Sinn. Hinzu kommt: Feedback ist nur wirksam, wenn es konkret ist. Hierfür benötigt man Beispiele aus dem Berufs- und Arbeitsalltag.Gespräche aus Überzeugung führenIn vielen (Groß-)Unternehmen ist das regelmäßige Führen von Mitarbeiter- beziehungsweise Feedbackgesprächen Pflicht. Das ist an sich gut! Die führt jedoch zuweilen dazu, dass die Führungskräfte diese Gespräche nur führen, um zum Beispiel der Personalabteilung “Vollzug” zu melden. Das heißt, sie erachten diese Gespräche nicht als notwendiges Führungsinstrument. Entsprechend gering ist ihre Qualität.Im Betriebsalltag führen oft die Führungskräfte die hochwertigsten Mitarbeitergespräche, bei denen dies am wenigsten “nötig” wäre, weil sie auch im Arbeitsalltag häufig und offen mit ihren Mitarbeitern kommunizieren. Um ein Mindestniveau der Gespräche zu sichern, ist es sinnvoll, dass nach jedem Mitarbeitergespräch Führungskraft und Mitarbeiter unabhängig voneinander einen Fragebogen ausfüllen und zum Beispiel an die Personalabteilung senden. Der Fragebogen kann Fragen enthalten wie: Wie zufrieden sind Sie mit dem Gesprächsverlauf? Wie zufrieden waren Sie mit der Atmosphäre? Wie lange dauerte das Gespräch? Wurden auch Entwicklungsthemen und -ziele angesprochen/vereinbart? Was sollte sich ändern, damit Sie und Ihr Gesprächspartner vom nächsten Gespräch noch mehr profitieren?Diese Rückmeldung an die Personalabteilung ist kein Garant für qualitativ hochwertige Feedbackgespräche; sie sorgt aber für eine Mindestqualität, die Schritt für Schritt gesteigert werden kann. Dies gilt insbesondere dann, wenn mit dem Gespräch die Verpflichtung verbunden ist, sich auf konkrete (Entwicklungs-)Ziele zu verständigen.Sich ausreichend Zeit nehmenEin Indikator für die Qualität eines Mitarbeiter- oder Feedbackgesprächs ist dessen Dauer. Eine Stunde sollten Führungskräfte pro Mitarbeiter hierfür mindestens einplanen. Denn damit eventuell auch heikle (persönliche) Themen angesprochen werden, ist eine entspannte Atmosphäre nötig. Diese gilt es zunächst zu schaffen.Feedbackgespräche sind umso wichtiger, je eigenständiger und -verantwortlicher Mitarbeiter arbeiten sollen oder müssen – zum Beispiel, weil sie weitgehend im Home-Office arbeiten. Denn ein selbständiges Arbeiten erfordert ab und zu eine Justierung. Das heißt, Führungskraft und Mitarbeiter müssen sich unter anderem über die Aufgaben, die Vorgehensweise, die Qualitätsansprüche und die wechselseitigen Erwartungen verständigen.Ein gut strukturiertes Feedback- und Mitarbeitergespräch besteht aus Phasen: Reflektion der vergangenen Zeiteinheit (zum Beispiel das zurückliegende Quartal), Einschätzung der aktuellen Situation und Blick nach vorne.Von besonderer Bedeutung ist, dass der Mitarbeiter auch ein Feedback über seine “Stärken” und “Schwächen” erhält. Was macht/kann er gut beziehungsweise weniger gut? Denn ohne ein Feedback und Austausch hierüber werden Lernfelder oft nicht erkannt.Eine Voraussetzung für offene Mitarbeitergespräche, in denen es auch möglich ist, heikle Themen anzusprechen und Lernfelder zu identifizieren, ist Vertrauen. Gelingt es einer Führungskraft im Alltag nicht, eine vertrauensvolle Beziehung zu ihren Mitarbeitern aufzubauen, öffnen sich diese auch im Mitarbeitergespräch nicht. Also kann die Führungskraft ihnen auch kein wirkungsvolles Feedback geben. Außerdem erhält sie selbst von ihnen keine brauchbare Rückmeldung für ihre eigene Entwicklung.Die investierte Zeit lohnt sichDas regelmäßige Führen von Feedback- und Mitarbeitergesprächen mit allen Mitarbeitern erfordert viel Zeit seitens der Führungskräfte – auch wegen der nötigen Vorbereitung. Diese Investition lohnt sich jedoch. Denn sie stellt sicher, dass im Arbeitsalltag weniger Unklarheiten bestehen, wodurch sich der Führungsaufwand reduziert.Untersuchungen zeigen, dass regelmäßige Mitarbeiter- und Feedbackgespräche (beziehungsweise Zielvereinbarungsgespräche) unter anderem folgende Faktoren positiv beeinflussen: die Beziehung zwischen den Mitarbeitern und Vorgesetzten, die Transparenz und Zielklarheit, die Kommunikations- und Führungskultur, die Transparenz und den Informationsfluss, die Zusammenarbeit und Leistung, das Selbstvertrauen der Mitarbeiter, ihre Kompetenzentwicklung, ihre Identifikation mit der Arbeit und den Zielen, ihre Eigenständigkeit und -verantwortlichkeit, ihr Qualitätsbewusstsein.Deshalb sollten Sie als Führungskraft die Feedback- und Zielvereinbarungsgespräche mit Ihren Mitarbeitern aus tiefster innerer Überzeugung führen. Denn die Mühe lohnt sich – für Sie, Ihre Mitarbeiter und das Unternehmen.Mögliche Themen für ein Feedbackgespräch: die Qualität der (Zusammen-)Arbeit, die Zufriedenheit mit der Arbeitssituation, die Unternehmens- und Bereichsziele, die Strategien und Vorhaben, die Aufgaben und Verantwortungsbereiche des Mitarbeiters, seine Stärken und Schwächen, mögliche Qualifizierungs- und Unterstützungsmaßnahmen, mögliche Verbesserungen, die Gesundheitsförderung, die Ziel- und Bonusvereinbarung.Lesen Sie auch: Wenn Sie der Chef kritisiert 

Feedbackgespräche: Was Führungskräfte beachten sollten​ Führungskräfte sollten ihre Feedbackgespräche sehr sorgfältig vorbereiten, und wenn es Kritik gibt, sollte diese ganz konkret vorgebracht werden; einfach im Großen und Ganzen und pauschal das Jahr durchgehen, ist zu wenig.
Foto: fizkes – shutterstock.comRegelmäßige Feedbackgespräche zwischen Vorgesetzten und ihren Mitarbeitern wirken sich positiv auf die Leistung der Mitarbeiter aus. Das belegen Studien. Sie sind zudem für die Personalentwicklung wichtig. Außerdem steigern sie, richtig geführt, die Zufriedenheit der Mitarbeiter und ihre Motivation. Trotzdem werden in vielen Unternehmen Feedbackgespräche eher sporadisch geführt – speziell dann, wenn in der Organisation ohnehin alle, zumindest gefühlt gestresst sind, zum Beispiel, weil sich so vieles ändert. Dabei wären sie gerade dann extrem wichtig.Eine mögliche Eskalation vermeidenEin Praxisbeispiel: Ein Bereichsleiter stellt fest, dass einige seiner Mitarbeiter die vereinbarten (Projekt-)Ziele erneut nicht erreicht haben. Seinen Unmut hierüber äußert er aber nicht. Denn er befürchtet: Die Stimmung in seinem Bereich verschlechtert sich, wenn er seine Erwartungen nochmals mit Nachdruck artikuliert. Also wursteln alle weiter wie bisher.

Denn weil die Führungskraft die Mitarbeiter nicht auf die unerreichten Ziele anspricht, sind sie überzeugt: Unser Vorgesetzter ist mit unserer Leistung zufrieden. Und die nicht erreichten Ziele? Sie sind ihm nicht so wichtig. Also potenziert sich der Ärger der Führungskraft mit der Zeit so sehr, dass sie irgendwann “explodiert”. Und aufgrund ihrer angestauten Verärgerung vergreift sie sich im Ton. Das verletzt wiederum die Mitarbeiter emotional, wodurch ein Konflikt entsteht, der kaum noch zu beheben ist.Eine solche Eskalation lässt sich durch regelmäßige Feedback- und Mitarbeitergespräche vermeiden. In ihnen werden oft viele mögliche Quellen von Ärger, Frust und somit Demotivation beseitigt – unter anderem weil in ihnen die Beteiligten ihre wechselseitigen Erwartungen an die künftige (Zusammen-)Arbeit formulieren. Deshalb zählen regelmäßige Feedbackgespräche zum Standardführungsrepertoire in vielen Unternehmen.Mehr über Ziele und Erwartungen redenGenerell gilt: Die meisten Führungskräfte sprechen mit ihren Mitarbeitern zu wenig über ihre Arbeit sowie die Erwartungen und Ziele, die hiermit verbunden sind – und zwar unabhängig davon, ob diese im Betrieb oder Home-Office arbeiten. Dabei ist genau dies die Hauptfunktion von Feedbackgesprächen, den Mitarbeitern die nötige Orientierung zu geben.Feedback- und Zielvereinbarungsgespräche haben nicht das primäre Ziel, aktuelle Probleme in der alltäglichen (Zusammen-)Arbeit zu besprechen. Vielmehr soll das Verhalten des Mitarbeiters (und seiner Führungskraft) in einem Zeitabschnitt zusammenfassend betrachtet werden, um zu klären, wie die (Zusammen-)Arbeit verbessert werden kann. Einzelne Situationen und Vorkommnisse in der Vergangenheit dienen hierbei höchstens zur Erklärung.

Weil die Vergangenheit reflektiert werden soll, machen Feedbackgespräche ohne Vorbereitung wenig Sinn. Hinzu kommt: Feedback ist nur wirksam, wenn es konkret ist. Hierfür benötigt man Beispiele aus dem Berufs- und Arbeitsalltag.Gespräche aus Überzeugung führenIn vielen (Groß-)Unternehmen ist das regelmäßige Führen von Mitarbeiter- beziehungsweise Feedbackgesprächen Pflicht. Das ist an sich gut! Die führt jedoch zuweilen dazu, dass die Führungskräfte diese Gespräche nur führen, um zum Beispiel der Personalabteilung “Vollzug” zu melden. Das heißt, sie erachten diese Gespräche nicht als notwendiges Führungsinstrument. Entsprechend gering ist ihre Qualität.Im Betriebsalltag führen oft die Führungskräfte die hochwertigsten Mitarbeitergespräche, bei denen dies am wenigsten “nötig” wäre, weil sie auch im Arbeitsalltag häufig und offen mit ihren Mitarbeitern kommunizieren. Um ein Mindestniveau der Gespräche zu sichern, ist es sinnvoll, dass nach jedem Mitarbeitergespräch Führungskraft und Mitarbeiter unabhängig voneinander einen Fragebogen ausfüllen und zum Beispiel an die Personalabteilung senden. Der Fragebogen kann Fragen enthalten wie: Wie zufrieden sind Sie mit dem Gesprächsverlauf? Wie zufrieden waren Sie mit der Atmosphäre? Wie lange dauerte das Gespräch? Wurden auch Entwicklungsthemen und -ziele angesprochen/vereinbart? Was sollte sich ändern, damit Sie und Ihr Gesprächspartner vom nächsten Gespräch noch mehr profitieren?Diese Rückmeldung an die Personalabteilung ist kein Garant für qualitativ hochwertige Feedbackgespräche; sie sorgt aber für eine Mindestqualität, die Schritt für Schritt gesteigert werden kann. Dies gilt insbesondere dann, wenn mit dem Gespräch die Verpflichtung verbunden ist, sich auf konkrete (Entwicklungs-)Ziele zu verständigen.Sich ausreichend Zeit nehmenEin Indikator für die Qualität eines Mitarbeiter- oder Feedbackgesprächs ist dessen Dauer. Eine Stunde sollten Führungskräfte pro Mitarbeiter hierfür mindestens einplanen. Denn damit eventuell auch heikle (persönliche) Themen angesprochen werden, ist eine entspannte Atmosphäre nötig. Diese gilt es zunächst zu schaffen.Feedbackgespräche sind umso wichtiger, je eigenständiger und -verantwortlicher Mitarbeiter arbeiten sollen oder müssen – zum Beispiel, weil sie weitgehend im Home-Office arbeiten. Denn ein selbständiges Arbeiten erfordert ab und zu eine Justierung. Das heißt, Führungskraft und Mitarbeiter müssen sich unter anderem über die Aufgaben, die Vorgehensweise, die Qualitätsansprüche und die wechselseitigen Erwartungen verständigen.Ein gut strukturiertes Feedback- und Mitarbeitergespräch besteht aus Phasen: Reflektion der vergangenen Zeiteinheit (zum Beispiel das zurückliegende Quartal), Einschätzung der aktuellen Situation und Blick nach vorne.Von besonderer Bedeutung ist, dass der Mitarbeiter auch ein Feedback über seine “Stärken” und “Schwächen” erhält. Was macht/kann er gut beziehungsweise weniger gut? Denn ohne ein Feedback und Austausch hierüber werden Lernfelder oft nicht erkannt.Eine Voraussetzung für offene Mitarbeitergespräche, in denen es auch möglich ist, heikle Themen anzusprechen und Lernfelder zu identifizieren, ist Vertrauen. Gelingt es einer Führungskraft im Alltag nicht, eine vertrauensvolle Beziehung zu ihren Mitarbeitern aufzubauen, öffnen sich diese auch im Mitarbeitergespräch nicht. Also kann die Führungskraft ihnen auch kein wirkungsvolles Feedback geben. Außerdem erhält sie selbst von ihnen keine brauchbare Rückmeldung für ihre eigene Entwicklung.Die investierte Zeit lohnt sichDas regelmäßige Führen von Feedback- und Mitarbeitergesprächen mit allen Mitarbeitern erfordert viel Zeit seitens der Führungskräfte – auch wegen der nötigen Vorbereitung. Diese Investition lohnt sich jedoch. Denn sie stellt sicher, dass im Arbeitsalltag weniger Unklarheiten bestehen, wodurch sich der Führungsaufwand reduziert.Untersuchungen zeigen, dass regelmäßige Mitarbeiter- und Feedbackgespräche (beziehungsweise Zielvereinbarungsgespräche) unter anderem folgende Faktoren positiv beeinflussen: die Beziehung zwischen den Mitarbeitern und Vorgesetzten, die Transparenz und Zielklarheit, die Kommunikations- und Führungskultur, die Transparenz und den Informationsfluss, die Zusammenarbeit und Leistung, das Selbstvertrauen der Mitarbeiter, ihre Kompetenzentwicklung, ihre Identifikation mit der Arbeit und den Zielen, ihre Eigenständigkeit und -verantwortlichkeit, ihr Qualitätsbewusstsein.Deshalb sollten Sie als Führungskraft die Feedback- und Zielvereinbarungsgespräche mit Ihren Mitarbeitern aus tiefster innerer Überzeugung führen. Denn die Mühe lohnt sich – für Sie, Ihre Mitarbeiter und das Unternehmen.Mögliche Themen für ein Feedbackgespräch: die Qualität der (Zusammen-)Arbeit, die Zufriedenheit mit der Arbeitssituation, die Unternehmens- und Bereichsziele, die Strategien und Vorhaben, die Aufgaben und Verantwortungsbereiche des Mitarbeiters, seine Stärken und Schwächen, mögliche Qualifizierungs- und Unterstützungsmaßnahmen, mögliche Verbesserungen, die Gesundheitsförderung, die Ziel- und Bonusvereinbarung.Lesen Sie auch: Wenn Sie der Chef kritisiert

Feedbackgespräche: Was Führungskräfte beachten sollten​ Weiterlesen »

Datenräume, Robotik und KI zur Gesundheitsversorgung​

Allgemein

Im Rahmen des Projekts Neighborhood Diagnostics zeigt das Fraunhofer ZDD, wie smarte Medizintechnik und vernetzte Datenräumen die Gesundheitsversorgung revolutionieren können. Fraunhofer IZI-BB Praxistauglich, nahtlos integrierbar und mit vertrauenswürdiger KI – diesen Anspruch wollen die Fraunhofer Institute mit ihren Lösungen zur digitalen Gesundheitsversorgung erfüllen. Das Spektrum reicht dabei von KI-gestützter Diagnostik über vernetzte Gesundheitsdatenräume bis hin zu Assistenzrobotik. Einen Einblick in die Gesundheits-IT der Zukunft geben die Institute auf dem Digital Health Event DMEA 2025 in Berlin. Künstliche Intelligenz (KI) wird zunehmend in Diagnostik und Therapie eingesetzt, doch Black-Box-Modelle, die nicht nachvollziehbar sind, stoßen auf Skepsis. Das Fraunhofer-Institut für Kognitive Systeme IKS setzt hier auf vertrauenswürdige KI-Modelle, die aus EKG-Daten oder medizinischen Bildern fundierte Erkenntnisse ableiten. Diese Modelle sorgen nicht nur für mehr Transparenz bei medizinischen Entscheidungen, sondern liefern auch interpretierbare Vorhersagen. KI schreibt Arztbrief Eine Lösung zur Risikobewertung und Entscheidungsunterstützung hat das Fraunhofer-Institut für Digitale Medizin MEVIS entwickelt. Dabei wird KI mit klinischen Daten kombiniert wird, um digitale, bildbasierte Biomarker zu entwickeln und damit die Diagnostik zu verbessern. Um die Arbeit der Ärzte zu entlasten, hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS einen Arztbriefgenerator gebaut. Basierend auf generativen Sprachmodellen, macht die KI die zeitraubende, aber essenzielle medizinische Dokumentation effizienter. So ermöglicht die Lösung die automatisierte Erstellung von Arztbriefen aus strukturierten und unstrukturierten medizinischen Datenquellen. Robotik in der Pflege Roboter könnten künftig eine tragende Rolle in der Gesundheitsversorgung spielen – nicht nur beim Materialtransport, sondern auch bei der Dokumentation und Diagnostik. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA hat mit einem multifunktionalen Assistenzroboter eine Lösung entworfen, die verschiedene Aufgaben in der Pflege kombiniert und so eine wirtschaftlich sinnvolle Nutzung ermöglicht. KI-gestützte Assistenzsysteme, wie der sprach- und touch-gesteuerte Pflegeassistent LUKAS oder das sensorbasierte Monitoring von Herzerkrankungen, werden vom Fraunhofer MEVIS entworfen und integriert. Personalisierte Behandlung Eine Grundlage der personalisierten Behandlung von Patienten ist die Kombination verschiedenster Patientendaten für die Entscheidungsfindung sowie die Erstellung und Analyse von Kohorten. Das Fraunhofer-Institut für Graphische Datenverarbeitung IGD entwickelt Werkzeuge für die visuell-interaktive Datenanalyse in enger Abstimmung mit klinischen Partnern. Das Analytics-Dashboard Anylytics unterstützt dabei eine Self-Service-Analyse in der medizinischen Forschung und der Pharma-Forschung. Anylytics wird bereits in den Bereichen Rheumatologie, Nephrologie und chronisch-entzündlicher Darmerkrankungen getestet. Datenräume für eine vernetzte Versorgung Gesundheitsdaten sind oft in verschiedenen Systemen isoliert, sodass wichtige Informationen zwischen Krankenhäusern, Arztpraxen und Pflegeeinrichtungen verloren gehen. Dem will das Fraunhofer-Institut für Software- und Systemtechnik ISST mit Health Data Spaces begegnen. Das Konzept sieht föderierte und interoperable Datenräume vor, die ein sicheres und transparentes Teilen medizinischer Daten über Einrichtungsgrenzen hinweg ermöglichen. Auf der DMEA werden Datenraum-Projekte zur Infrastruktur, zur Datennutzung und zu Services sowie Anwendungen präsentiert. Kontrolle über Gesundheitsdaten Die elektronische Patientenakte (ePA) soll den Zugriff auf medizinische Daten erleichtern. Doch viele Patientinnen und Patienten haben Schwierigkeiten, ihre eigenen Gesundheitsdaten zu überblicken und gezielt zu nutzen. Das Fraunhofer IGD arbeitet in Kooperation mit dem Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE an sicheren, interaktiven Plattformen. Sie sollen einen intuitiven und verständlichen Zugriff auf medizinische Daten ermöglichen. Damit können Patientinnen und Patienten ihre Gesundheitsinformationen visuell aufbereitet einsehen, gezielt freigeben und für Behandelnde nachvollziehbar aufbereiten. Digitale Gesundheitsversorgung im ländlichen Raum Das Fraunhofer-Zentrum für Digitale Diagnostik ZDD hat sich mit der Frage beschäftigt, wie die digitale Gesundheitsversorgung in ländlichen Regionen verbessert werden kann. Mit „Neighborhood Diagnostics“ entstand ein interaktiver Demonstrator, der verschiedene Szenarien von Gesundheitszuständen simuliert. Dabei wird gezeigt, wie Gesundheitsdaten über Smartphones und Wearables erfasst und nach Freigabe an behandelnde Instanzen übertragen werden. Zudem wird veranschaulicht, wie das Ökosystem die aggregierten Gesundheitsdaten nutzt, um den Gesundheitszustand von Patientinnen und Patienten besser einzuschätzen und Ärztinnen und Ärzten bei der Behandlungsentscheidung zu unterstützen. Darüber hinaus zeigt das Projekt SODIAPH, wie Datenbrüche in digitalen Patientenpfaden innerhalb eines Krankenhauses entstehen und wo sinnvoll angesetzt werden kann, um eine direkte Verbesserung der Datendurchgängigkeit zu erzielen. In diesem Zusammenhang gewinnt auch die kontaktlose Erfassung von Vitaldaten in der Telemedizin und im betrieblichen Gesundheitsmanagement an Bedeutung. Das Fraunhofer IGD ermöglicht mit den Technologien CareCam und Guardio eine kontinuierliche und diskrete Gesundheitsüberwachung – sowohl im häuslichen Umfeld als auch in Notfallsituationen. CareCam erfasst Vitalparameter wie Puls, Atmung und Körperhaltung und erkennt Stress anhand subtiler Veränderungen in Mimik und Blinzelverhalten. Guardio verwandelt ein Smartphone in ein mobiles EKG-Messgerät. 

Datenräume, Robotik und KI zur Gesundheitsversorgung​ Im Rahmen des Projekts Neighborhood Diagnostics zeigt das Fraunhofer ZDD, wie smarte Medizintechnik und vernetzte Datenräumen die Gesundheitsversorgung revolutionieren können.
Fraunhofer IZI-BB

Praxistauglich, nahtlos integrierbar und mit vertrauenswürdiger KI – diesen Anspruch wollen die Fraunhofer Institute mit ihren Lösungen zur digitalen Gesundheitsversorgung erfüllen. Das Spektrum reicht dabei von KI-gestützter Diagnostik über vernetzte Gesundheitsdatenräume bis hin zu Assistenzrobotik. Einen Einblick in die Gesundheits-IT der Zukunft geben die Institute auf dem Digital Health Event DMEA 2025 in Berlin.

Künstliche Intelligenz (KI) wird zunehmend in Diagnostik und Therapie eingesetzt, doch Black-Box-Modelle, die nicht nachvollziehbar sind, stoßen auf Skepsis. Das Fraunhofer-Institut für Kognitive Systeme IKS setzt hier auf vertrauenswürdige KI-Modelle, die aus EKG-Daten oder medizinischen Bildern fundierte Erkenntnisse ableiten. Diese Modelle sorgen nicht nur für mehr Transparenz bei medizinischen Entscheidungen, sondern liefern auch interpretierbare Vorhersagen.

KI schreibt Arztbrief

Eine Lösung zur Risikobewertung und Entscheidungsunterstützung hat das Fraunhofer-Institut für Digitale Medizin MEVIS entwickelt. Dabei wird KI mit klinischen Daten kombiniert wird, um digitale, bildbasierte Biomarker zu entwickeln und damit die Diagnostik zu verbessern. Um die Arbeit der Ärzte zu entlasten, hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS einen Arztbriefgenerator gebaut. Basierend auf generativen Sprachmodellen, macht die KI die zeitraubende, aber essenzielle medizinische Dokumentation effizienter. So ermöglicht die Lösung die automatisierte Erstellung von Arztbriefen aus strukturierten und unstrukturierten medizinischen Datenquellen.

Robotik in der Pflege

Roboter könnten künftig eine tragende Rolle in der Gesundheitsversorgung spielen – nicht nur beim Materialtransport, sondern auch bei der Dokumentation und Diagnostik. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA hat mit einem multifunktionalen Assistenzroboter eine Lösung entworfen, die verschiedene Aufgaben in der Pflege kombiniert und so eine wirtschaftlich sinnvolle Nutzung ermöglicht. KI-gestützte Assistenzsysteme, wie der sprach- und touch-gesteuerte Pflegeassistent LUKAS oder das sensorbasierte Monitoring von Herzerkrankungen, werden vom Fraunhofer MEVIS entworfen und integriert.

Personalisierte Behandlung

Eine Grundlage der personalisierten Behandlung von Patienten ist die Kombination verschiedenster Patientendaten für die Entscheidungsfindung sowie die Erstellung und Analyse von Kohorten. Das Fraunhofer-Institut für Graphische Datenverarbeitung IGD entwickelt Werkzeuge für die visuell-interaktive Datenanalyse in enger Abstimmung mit klinischen Partnern. Das Analytics-Dashboard Anylytics unterstützt dabei eine Self-Service-Analyse in der medizinischen Forschung und der Pharma-Forschung. Anylytics wird bereits in den Bereichen Rheumatologie, Nephrologie und chronisch-entzündlicher Darmerkrankungen getestet.

Datenräume für eine vernetzte Versorgung

Gesundheitsdaten sind oft in verschiedenen Systemen isoliert, sodass wichtige Informationen zwischen Krankenhäusern, Arztpraxen und Pflegeeinrichtungen verloren gehen. Dem will das Fraunhofer-Institut für Software- und Systemtechnik ISST mit Health Data Spaces begegnen. Das Konzept sieht föderierte und interoperable Datenräume vor, die ein sicheres und transparentes Teilen medizinischer Daten über Einrichtungsgrenzen hinweg ermöglichen. Auf der DMEA werden Datenraum-Projekte zur Infrastruktur, zur Datennutzung und zu Services sowie Anwendungen präsentiert.

Kontrolle über Gesundheitsdaten

Die elektronische Patientenakte (ePA) soll den Zugriff auf medizinische Daten erleichtern. Doch viele Patientinnen und Patienten haben Schwierigkeiten, ihre eigenen Gesundheitsdaten zu überblicken und gezielt zu nutzen. Das Fraunhofer IGD arbeitet in Kooperation mit dem Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE an sicheren, interaktiven Plattformen. Sie sollen einen intuitiven und verständlichen Zugriff auf medizinische Daten ermöglichen. Damit können Patientinnen und Patienten ihre Gesundheitsinformationen visuell aufbereitet einsehen, gezielt freigeben und für Behandelnde nachvollziehbar aufbereiten.

Digitale Gesundheitsversorgung im ländlichen Raum

Das Fraunhofer-Zentrum für Digitale Diagnostik ZDD hat sich mit der Frage beschäftigt, wie die digitale Gesundheitsversorgung in ländlichen Regionen verbessert werden kann. Mit „Neighborhood Diagnostics“ entstand ein interaktiver Demonstrator, der verschiedene Szenarien von Gesundheitszuständen simuliert. Dabei wird gezeigt, wie Gesundheitsdaten über Smartphones und Wearables erfasst und nach Freigabe an behandelnde Instanzen übertragen werden. Zudem wird veranschaulicht, wie das Ökosystem die aggregierten Gesundheitsdaten nutzt, um den Gesundheitszustand von Patientinnen und Patienten besser einzuschätzen und Ärztinnen und Ärzten bei der Behandlungsentscheidung zu unterstützen.

Darüber hinaus zeigt das Projekt SODIAPH, wie Datenbrüche in digitalen Patientenpfaden innerhalb eines Krankenhauses entstehen und wo sinnvoll angesetzt werden kann, um eine direkte Verbesserung der Datendurchgängigkeit zu erzielen. In diesem Zusammenhang gewinnt auch die kontaktlose Erfassung von Vitaldaten in der Telemedizin und im betrieblichen Gesundheitsmanagement an Bedeutung.

Das Fraunhofer IGD ermöglicht mit den Technologien CareCam und Guardio eine kontinuierliche und diskrete Gesundheitsüberwachung – sowohl im häuslichen Umfeld als auch in Notfallsituationen. CareCam erfasst Vitalparameter wie Puls, Atmung und Körperhaltung und erkennt Stress anhand subtiler Veränderungen in Mimik und Blinzelverhalten. Guardio verwandelt ein Smartphone in ein mobiles EKG-Messgerät.

Datenräume, Robotik und KI zur Gesundheitsversorgung​ Weiterlesen »

Fehlerkultur? In der IT oft Fehlanzeige​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Statt bei Fehlern gemeinsam nach einer Lösung zu suchen, hat in vielen IT-Organisationen die Suche nach dem Sündenbock Priorität.fizkes – shutterstock.com Der CrowdStrike-Ausfall im vergangenen Sommer hatte weltweit verheerende Auswirkungen. Innerhalb weniger Stunden stürzten weltweit 8,5 Millionen Geräte in einer Vielzahl von Branchen ab, was zu Verlusten in Milliardenhöhe führte.   Doch wie der Tech-Anbieter Adaptavist in einer Studie herausfand, haben die meisten Unternehmen ein halbes Jahr nach dem Ausfall zwar ihre technischen Schutzmaßnahmen verbessert. Kulturelle Muster, die dazu beigetragen haben, dass die meisten Unternehmen nicht auf den Crowdstrike-Vorfall vorbereitet waren, bestehen jedoch in der IT weitgehend unverändert. Dazu gehören:   eine allgemeine Verunsicherung,   eine mangelnde Fehlerkultur oder enormer Leistungsdruck auf Kosten der Qualität.,   Lähmende Angst prägt die IT  In der Umfrage erklärten vier von zehn IT-Führungskräften, sie hätten aufgrund einer Kultur der „Schuldzuweisung“ und „Angst“ in ihrem Unternehmen große Bedenken, ihre Fehler einzugestehen. Wie die Studie mit 400 IT-Führungskräften in Großbritannien, den USA und Deutschland ergab, hat dies erhebliche Auswirkungen auf:  Innovationen,   die Qualität der Ergebnisse,   die Leistung sowie   die psychologische Sicherheit.   Wie die Studie nahelegt, birgt das die Gefahr, die Widerstandsfähigkeit der IT zu untergraben.  So gaben 44 Prozent der Befragten (Deutschland: 37 Prozent) an, dass ein Mangel an psychologischer Sicherheit Innovationen in ihrer Organisation behindert. Ähnlich viele (42 Prozent, Deutschland: 36 Prozent) vertraten die Ansicht, dass die Angst, Fehler einzugestehen, die Cybersicherheit ihrer Organisation beeinträchtigt.   Besorgniserregend ist zudem die Aussage von 44 Prozent der IT-Führungskräfte, wonach ihre Organisation bei der Softwareentwicklung immer noch Geschwindigkeit vor Qualität stellt. Im weiteren Kontext des CrowdStrike-Ausfalls warnen fast zwei Fünftel (39 Prozent) entsprechend davor, dass die übermäßige Arbeitsbelastung sogar einen weiteren, größeren Vorfall auslösen könnte.   Als Schlüssel zur Verbesserung der Tech-Kultur schlägt Jon Mort, CTO von Adaptavist, „radikale Offenheit“ vor, also einen Kommunikationsrahmen für spezifisches und aufrichtiges Lob sowie freundliche und klare Kritik. Damit werde eine effektive Feedbackschleife geschaffen, die Effizienz priorisiere, ohne jemals „Schuldzuweisungen“ auszusprechen, so der Manager.   In der Studie gaben 41 Prozent der IT-Führungskräfte an, dass ihre Organisation bereits einen solchen Ansatz unterstützt, wenn es darum geht, Feedback zu bearbeiten. Bei 55 Prozent ist das „nicht unbedingt der Fall“.  

Fehlerkultur? In der IT oft Fehlanzeige​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Statt bei Fehlern gemeinsam nach einer Lösung zu suchen, hat in vielen IT-Organisationen die Suche nach dem Sündenbock Priorität.fizkes – shutterstock.com

Der CrowdStrike-Ausfall im vergangenen Sommer hatte weltweit verheerende Auswirkungen. Innerhalb weniger Stunden stürzten weltweit 8,5 Millionen Geräte in einer Vielzahl von Branchen ab, was zu Verlusten in Milliardenhöhe führte.  

Doch wie der Tech-Anbieter Adaptavist in einer Studie herausfand, haben die meisten Unternehmen ein halbes Jahr nach dem Ausfall zwar ihre technischen Schutzmaßnahmen verbessert. Kulturelle Muster, die dazu beigetragen haben, dass die meisten Unternehmen nicht auf den Crowdstrike-Vorfall vorbereitet waren, bestehen jedoch in der IT weitgehend unverändert. Dazu gehören:  

eine allgemeine Verunsicherung,  

eine mangelnde Fehlerkultur oder

enormer Leistungsdruck auf Kosten der Qualität.,  

Lähmende Angst prägt die IT 

In der Umfrage erklärten vier von zehn IT-Führungskräften, sie hätten aufgrund einer Kultur der „Schuldzuweisung“ und „Angst“ in ihrem Unternehmen große Bedenken, ihre Fehler einzugestehen. Wie die Studie mit 400 IT-Führungskräften in Großbritannien, den USA und Deutschland ergab, hat dies erhebliche Auswirkungen auf: 

Innovationen,  

die Qualität der Ergebnisse,  

die Leistung sowie  

die psychologische Sicherheit. 

 Wie die Studie nahelegt, birgt das die Gefahr, die Widerstandsfähigkeit der IT zu untergraben. 

So gaben 44 Prozent der Befragten (Deutschland: 37 Prozent) an, dass ein Mangel an psychologischer Sicherheit Innovationen in ihrer Organisation behindert. Ähnlich viele (42 Prozent, Deutschland: 36 Prozent) vertraten die Ansicht, dass die Angst, Fehler einzugestehen, die Cybersicherheit ihrer Organisation beeinträchtigt.  

Besorgniserregend ist zudem die Aussage von 44 Prozent der IT-Führungskräfte, wonach ihre Organisation bei der Softwareentwicklung immer noch Geschwindigkeit vor Qualität stellt. Im weiteren Kontext des CrowdStrike-Ausfalls warnen fast zwei Fünftel (39 Prozent) entsprechend davor, dass die übermäßige Arbeitsbelastung sogar einen weiteren, größeren Vorfall auslösen könnte.  

Als Schlüssel zur Verbesserung der Tech-Kultur schlägt Jon Mort, CTO von Adaptavist, „radikale Offenheit“ vor, also einen Kommunikationsrahmen für spezifisches und aufrichtiges Lob sowie freundliche und klare Kritik. Damit werde eine effektive Feedbackschleife geschaffen, die Effizienz priorisiere, ohne jemals „Schuldzuweisungen“ auszusprechen, so der Manager.  

In der Studie gaben 41 Prozent der IT-Führungskräfte an, dass ihre Organisation bereits einen solchen Ansatz unterstützt, wenn es darum geht, Feedback zu bearbeiten. Bei 55 Prozent ist das „nicht unbedingt der Fall“. 

Fehlerkultur? In der IT oft Fehlanzeige​ Weiterlesen »

Bürozwang sorgt für Aderlass in der Tech-Branche​

Allgemein

In der Tech-Branche wird der Ton seit geraumer Zeit rauer und die Forderungen, unter anderem wieder das Büro aufzusuchen, lauter. Eines der prominentesten Beispiele hierfür war im März 2025 Google-Mitbegründer Sergei Brin mit seiner Forderung nach einer 60 Stunden-Woche und mehr. Solche Ansprüche, die exemplarisch für die Tech-Branche sind, stehen in starkem Kontrast zu dem, was Mitarbeitende in der Tech-Branche fordern. Zu diesem Schluss kommt das neue Randstad Arbeitsbarometer 2025. Für die Studie haben die Personalvermittler mehr als 26.000 Mitarbeitern in 35 Ländern, darunter 2.548 Befragte aus dem Tech-Bereich, befragt. Kein Home-Office, keine Option Die Umfrage ergab, dass 40 Prozent der befragten Tech-Mitarbeiter bereits einmal aufgrund der strengen Richtlinien eine Stelle gekündigt haben. Weitere 56 Prozent drohten damit, sich eine Alternative zu suchen, wenn ihr Wunsch nach mehr Flexibilität ignoriert würde. Sollte der Arbeitgeber allerdings bei den Arbeitszeiten, der Intensität der Arbeit und dem Arbeitsort lockerer sein, gaben knapp zwei Drittel der Befragten an, diesem mehr zu vertrauen. Trotz gelebter räumlicher Nähe gaben zudem fast drei Viertel der Befragten aus der Tech-Branche an, dass Remote-Arbeit das Gemeinschaftsgefühl mit den Kollegen stärke. In anderen Branchen sind es im Durchschnitt dagegen nur 58 Prozent. Mehr Vertrauen durch Flexibilität Diese Einschätzungen spiegeln die Ergebnisse des American Trends Panel von Pew Research aus dem Januar 2025 wider. Dort gab fast die Hälfte der 5.395 zufällig ausgewählten US-Erwachsenen an, dass sie kündigen würden, wenn ihre Chefs ihnen die Arbeit von zuhause verbieten würden. Wie eine andere Umfrage von Randstad, diesmal unter unter 1.060 Personalverantwortlichen in 21 Ländern, andeutet, scheinen einige Arbeitgeber den Wünschen nach Flexibilität nachzukommen. Mehr als ein Drittel der Befragten gibt an, dass die Unternehmen inzwischen unterschiedliche Arbeitsregelungen zulassen und im vergangenen Jahr entsprechende Richtlinien eingeführt haben. 81 Prozent der Befragten sind der Meinung, dass dies zu mehr Gerechtigkeit am Arbeitsplatz beiträgt. Die Experten von Randstad Digital kommen zu dem Schluss, dass Unternehmen sowohl auf ihre eigenen Bedürfnisse als auch die ihrer Mitarbeitenden eingehen sollten. In Verbindung mit einem flexiblen und maßgeschneiderten Ansatz sollen sie sich so in wettbewerbsintensiven Märkten behaupten können. Darüber hinaus sollen sich durch personalisierte Arbeitsleistungen und Flexibilität auch Top-Talente gewinnen lassen. Gründe der Großen Viele Tech-Unternehmen, unter anderem Amazon, Meta, Google, Elon Musks Unternehmen, IBM und Dell, ignorieren allerdings die Wünsche ihrer Belegschaft und fordern stattdessen eine Rückkehr ins Büro. Dies begründen sie damit, dass die Arbeit vor Ort zu mehr Innovation führe, jüngere Mitarbeiter die Kultur sowie die Arbeit besser kennenlernen und die Produktivität steigt. 

Bürozwang sorgt für Aderlass in der Tech-Branche​ In der Tech-Branche wird der Ton seit geraumer Zeit rauer und die Forderungen, unter anderem wieder das Büro aufzusuchen, lauter. Eines der prominentesten Beispiele hierfür war im März 2025 Google-Mitbegründer Sergei Brin mit seiner Forderung nach einer 60 Stunden-Woche und mehr.

Solche Ansprüche, die exemplarisch für die Tech-Branche sind, stehen in starkem Kontrast zu dem, was Mitarbeitende in der Tech-Branche fordern. Zu diesem Schluss kommt das neue Randstad Arbeitsbarometer 2025. Für die Studie haben die Personalvermittler mehr als 26.000 Mitarbeitern in 35 Ländern, darunter 2.548 Befragte aus dem Tech-Bereich, befragt.

Kein Home-Office, keine Option

Die Umfrage ergab, dass 40 Prozent der befragten Tech-Mitarbeiter bereits einmal aufgrund der strengen Richtlinien eine Stelle gekündigt haben. Weitere 56 Prozent drohten damit, sich eine Alternative zu suchen, wenn ihr Wunsch nach mehr Flexibilität ignoriert würde.

Sollte der Arbeitgeber allerdings bei den Arbeitszeiten, der Intensität der Arbeit und dem Arbeitsort lockerer sein, gaben knapp zwei Drittel der Befragten an, diesem mehr zu vertrauen. Trotz gelebter räumlicher Nähe gaben zudem fast drei Viertel der Befragten aus der Tech-Branche an, dass Remote-Arbeit das Gemeinschaftsgefühl mit den Kollegen stärke. In anderen Branchen sind es im Durchschnitt dagegen nur 58 Prozent.

Mehr Vertrauen durch Flexibilität

Diese Einschätzungen spiegeln die Ergebnisse des American Trends Panel von Pew Research aus dem Januar 2025 wider. Dort gab fast die Hälfte der 5.395 zufällig ausgewählten US-Erwachsenen an, dass sie kündigen würden, wenn ihre Chefs ihnen die Arbeit von zuhause verbieten würden.

Wie eine andere Umfrage von Randstad, diesmal unter unter 1.060 Personalverantwortlichen in 21 Ländern, andeutet, scheinen einige Arbeitgeber den Wünschen nach Flexibilität nachzukommen. Mehr als ein Drittel der Befragten gibt an, dass die Unternehmen inzwischen unterschiedliche Arbeitsregelungen zulassen und im vergangenen Jahr entsprechende Richtlinien eingeführt haben. 81 Prozent der Befragten sind der Meinung, dass dies zu mehr Gerechtigkeit am Arbeitsplatz beiträgt.

Die Experten von Randstad Digital kommen zu dem Schluss, dass Unternehmen sowohl auf ihre eigenen Bedürfnisse als auch die ihrer Mitarbeitenden eingehen sollten. In Verbindung mit einem flexiblen und maßgeschneiderten Ansatz sollen sie sich so in wettbewerbsintensiven Märkten behaupten können. Darüber hinaus sollen sich durch personalisierte Arbeitsleistungen und Flexibilität auch Top-Talente gewinnen lassen.

Gründe der Großen

Viele Tech-Unternehmen, unter anderem Amazon, Meta, Google, Elon Musks Unternehmen, IBM und Dell, ignorieren allerdings die Wünsche ihrer Belegschaft und fordern stattdessen eine Rückkehr ins Büro. Dies begründen sie damit, dass

die Arbeit vor Ort zu mehr Innovation führe,

jüngere Mitarbeiter die Kultur sowie die Arbeit besser kennenlernen und

die Produktivität steigt.

Bürozwang sorgt für Aderlass in der Tech-Branche​ Weiterlesen »

Was ist Retrieval Augmented Generation (RAG)?​

Allgemein

Retrieval Augmented Generation (RAG) kann zu präziseren, aktuelleren und fundierteren GenAI-Outputs beitragen. Foto: VectorMine | shutterstock.com In Zusammenhang mit großen Sprachmodellen (auch Large Language Models; LLMs) sorgen zwei Aspekte immer wieder für Probleme: veraltete Trainingsdatensätze und begrenzter Kontext. Retrieval Augmented Generation (RAG) will diese Problemfelder auflösen. In diesem Artikel lesen Sie, wie sich RAG definiert, inwiefern es zur Problemlösung beiträgt, und wie das konkret auf technischer Ebene funktioniert. Retrieval Augmented Generation – Definition Bei Retrieval Augmented Generation handelt es sich um eine Technik, die den KI-Forschungslaboren von Facebook, respektive Meta entsprungen ist (PDF) und LLMs mit spezifischen Datenquellen “erdet”. Dabei handelt es sich in vielen Fällen um Informationen, die nicht in den ursprünglichen Trainingsdatensätzen enthalten waren. Dieser Prozess läuft ganz generell in drei Schritten ab: Die Informationen werden aus einer spezifischen Quelle gewonnen (“Retrieval”); Anschließend der Prompt mit dem Kontext der Quelle angereichert (“Augmentation”); Bevor dann mit Hilfe des Modells und dem augmentierten Prompt der Output generiert wird (“Generation”). RAG zu implementieren, kann die Ergebnisse, die große Sprachmodelle zu Tage fördern, qualitativ verbessern. Insbesondere dann, wenn dem Basis-LLM aktuelle Informationen fehlen oder es zu halluzinieren beginnt. Allerdings ist der Einsatz von Retrieval Augmented Generation auch kein Garant dafür, dass Large Language Models nicht (mehr) halluzinieren. Diese Probleme will RAG lösen Es kostet jede Menge Zeit und Ressourcen, Large Language Models zu trainieren. Manchmal vergehen dabei Monate, in denen hochmoderne Server-GPUs wie Nvidias H100 auf Hochtouren laufen. Die Sprachmodelle per Retraining stets auf dem aktuellen Stand zu halten, ist dabei ein Ding der Unmöglichkeit – trotz der Möglichkeit, das Basismodell auf neueren Daten feinabzustimmen. Denn dieser Prozess bringt manchmal seine eigenen Nachteile mit sich: Beispielsweise können neue Funktionalitäten, die durch die Feinabstimmung Einzug halten, die im Basismodell bereits vorhandenen einschränken. Wenn Sie ein LLM, das auf Daten aus dem Jahr 2022 trainiert wurde, nach etwas fragen, das im Jahr 2023 stattgefunden hat, gibt es zwei Möglichkeiten: Das Modell stellt fest, dass es die angefragten Informationen nicht kennt. Dann wird es Ihnen typischerweise etwas über seine veralteten Trainingsdaten mitteilen. Das Modell weiß nicht, dass es die Daten nicht kennt. Dann wird es versuchen, eine Antwort auf der Grundlage ähnlicher, historischer Fragen zu liefern – oder es halluziniert. Um LLM-Halluzinationen zu vermeiden, kann es manchmal hilfreich sein, seinen Prompt mit dem spezifischen Datum eines Ereignisses, eine relevante URL oder ein entsprechendes Dokument anzugeben. Dabei finden diese Zusatzinformationen ihre Grenze, wenn das “Context Limit” des LLM erreicht ist. Diese Kontextgrenzen unterscheiden sich von LLM zu LLM. Wie Retrieval Augmented Generation funktioniert Auf hoher Ebene betrachtet, funktioniert Retrieval Augmented Generation, indem es Sprachmodelle mit einer Internet- oder Dokumentensuche kombiniert. Dabei werden die Probleme, die beide Schritte bei manueller Ausführung verursachen würden, umgangen. Etwa, dass der Output die Kontextgrenze des LLMs überschreitet. Bezogen auf die weiter oben vorgestellten drei Schritte des RAG-Prozesses hier noch einmal die technischen Abläufe der einzelnen Phasen: Retrieval: Eine Internet-, Dokumenten- oder Datenbanksuche wird genutzt, um Quellinformationen in eine dichte, hochdimensionale Form zu vektorisieren. Typischerweise geschieht das, indem ein Einbettungsvektor erzeugt und in einer Vektordatenbank gespeichert wird. Augmentation: Dann wird die Abfrage selbst vektorisiert und mit Hilfe von FAISS oder anderen Suchtechniken (typischerweise unter Verwendung einer Cosinus-Metrik für die Ähnlichkeit) mit der Vektordatenbank abgeglichen. So werden die relevantesten Teile der Quellinformationen extrahiert und dem LLM zusammen mit dem Query-Text präsentiert. Generation: Schließlich generiert das LLM eine Antwort. Das hört sich möglicherweise kompliziert an – in der Praxis resultiert das allerdings lediglich in fünf Zeilen Python-Code (wenn Sie das LangChain-Framework zu Orchestrierungszwecken verwenden): from langchain.document_loaders import WebBaseLoader from langchain.indexes import VectorstoreIndexCreator loader = WebBaseLoader(“https://www.promptingguide.ai/techniques/rag”) index = VectorstoreIndexCreator().from_loaders([loader]) index.query(“What is RAG?”) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Retrieval Augmented Generation (RAG)?​ Retrieval Augmented Generation (RAG) kann zu präziseren, aktuelleren und fundierteren GenAI-Outputs beitragen.
Foto: VectorMine | shutterstock.com

In Zusammenhang mit großen Sprachmodellen (auch Large Language Models; LLMs) sorgen zwei Aspekte immer wieder für Probleme:

veraltete Trainingsdatensätze und

begrenzter Kontext.

Retrieval Augmented Generation (RAG) will diese Problemfelder auflösen.

In diesem Artikel lesen Sie, wie sich RAG definiert, inwiefern es zur Problemlösung beiträgt, und wie das konkret auf technischer Ebene funktioniert.

Retrieval Augmented Generation – Definition

Bei Retrieval Augmented Generation handelt es sich um eine Technik, die den KI-Forschungslaboren von Facebook, respektive Meta entsprungen ist (PDF) und LLMs mit spezifischen Datenquellen “erdet”. Dabei handelt es sich in vielen Fällen um Informationen, die nicht in den ursprünglichen Trainingsdatensätzen enthalten waren. Dieser Prozess läuft ganz generell in drei Schritten ab:

Die Informationen werden aus einer spezifischen Quelle gewonnen (“Retrieval”);

Anschließend der Prompt mit dem Kontext der Quelle angereichert (“Augmentation”);

Bevor dann mit Hilfe des Modells und dem augmentierten Prompt der Output generiert wird (“Generation”).

RAG zu implementieren, kann die Ergebnisse, die große Sprachmodelle zu Tage fördern, qualitativ verbessern. Insbesondere dann, wenn dem Basis-LLM aktuelle Informationen fehlen oder es zu halluzinieren beginnt. Allerdings ist der Einsatz von Retrieval Augmented Generation auch kein Garant dafür, dass Large Language Models nicht (mehr) halluzinieren.

Diese Probleme will RAG lösen

Es kostet jede Menge Zeit und Ressourcen, Large Language Models zu trainieren. Manchmal vergehen dabei Monate, in denen hochmoderne Server-GPUs wie Nvidias H100 auf Hochtouren laufen. Die Sprachmodelle per Retraining stets auf dem aktuellen Stand zu halten, ist dabei ein Ding der Unmöglichkeit – trotz der Möglichkeit, das Basismodell auf neueren Daten feinabzustimmen. Denn dieser Prozess bringt manchmal seine eigenen Nachteile mit sich: Beispielsweise können neue Funktionalitäten, die durch die Feinabstimmung Einzug halten, die im Basismodell bereits vorhandenen einschränken.

Wenn Sie ein LLM, das auf Daten aus dem Jahr 2022 trainiert wurde, nach etwas fragen, das im Jahr 2023 stattgefunden hat, gibt es zwei Möglichkeiten:

Das Modell stellt fest, dass es die angefragten Informationen nicht kennt. Dann wird es Ihnen typischerweise etwas über seine veralteten Trainingsdaten mitteilen.

Das Modell weiß nicht, dass es die Daten nicht kennt. Dann wird es versuchen, eine Antwort auf der Grundlage ähnlicher, historischer Fragen zu liefern – oder es halluziniert.

Um LLM-Halluzinationen zu vermeiden, kann es manchmal hilfreich sein, seinen Prompt mit dem spezifischen Datum eines Ereignisses, eine relevante URL oder ein entsprechendes Dokument anzugeben. Dabei finden diese Zusatzinformationen ihre Grenze, wenn das “Context Limit” des LLM erreicht ist. Diese Kontextgrenzen unterscheiden sich von LLM zu LLM.

Wie Retrieval Augmented Generation funktioniert

Auf hoher Ebene betrachtet, funktioniert Retrieval Augmented Generation, indem es Sprachmodelle mit einer Internet- oder Dokumentensuche kombiniert. Dabei werden die Probleme, die beide Schritte bei manueller Ausführung verursachen würden, umgangen. Etwa, dass der Output die Kontextgrenze des LLMs überschreitet. Bezogen auf die weiter oben vorgestellten drei Schritte des RAG-Prozesses hier noch einmal die technischen Abläufe der einzelnen Phasen:

Retrieval: Eine Internet-, Dokumenten- oder Datenbanksuche wird genutzt, um Quellinformationen in eine dichte, hochdimensionale Form zu vektorisieren. Typischerweise geschieht das, indem ein Einbettungsvektor erzeugt und in einer Vektordatenbank gespeichert wird.

Augmentation: Dann wird die Abfrage selbst vektorisiert und mit Hilfe von FAISS oder anderen Suchtechniken (typischerweise unter Verwendung einer Cosinus-Metrik für die Ähnlichkeit) mit der Vektordatenbank abgeglichen. So werden die relevantesten Teile der Quellinformationen extrahiert und dem LLM zusammen mit dem Query-Text präsentiert.

Generation: Schließlich generiert das LLM eine Antwort.

Das hört sich möglicherweise kompliziert an – in der Praxis resultiert das allerdings lediglich in fünf Zeilen Python-Code (wenn Sie das LangChain-Framework zu Orchestrierungszwecken verwenden):

from langchain.document_loaders import WebBaseLoader

from langchain.indexes import VectorstoreIndexCreator

loader = WebBaseLoader(“https://www.promptingguide.ai/techniques/rag”)

index = VectorstoreIndexCreator().from_loaders([loader])

index.query(“What is RAG?”)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Retrieval Augmented Generation (RAG)?​ Weiterlesen »

Python offline installieren​

Allgemein

Lesen Sie, wie “Airgapped”-Python geht.attem | shutterstock.com Moderne Softwareentwicklung setzt so gut wie immer voraus, dass eine konstante Netzwerkverbindung zur Verfügung steht. Ist diese ausfallaffin oder aus guten Gründen überhaupt nicht vorhanden, müssen Python-Entwickler zwei grundlegende Voraussetzungen erfüllen, um die Programmiersprache (und zugehörige Packages) trotzdem einrichten zu können: Sie brauchen einen zweiten Rechner mit Netzwerkverbindung. Sie müssen auf den isolierten Rechner manuell Dateien kopieren und diese installieren können. Die damit verbundenen Nachteile: Es ist ein aufwändiges Verfahren, das Flexibilitätseinbußen nach sich zieht. Developer, die dennoch offline mit Python arbeiten wollen oder müssen, sollten vorab wissen, was Sie dazu brauchen. Denn insbesondere mit Blick auf Drittanbieterabhängigkeiten kann es sich komplex gestalten, die Programmiersprache ohne Netzwerkverbindung einzurichten. In diesem Tutorial lesen Sie, wie Sie „Airgapped“-Python trotzdem zuverlässig in drei Schritten umsetzen. 1. Komponenten erfassen Im ersten Schritt empfiehlt es sich, alle Komponenten aufzulisten, die für Ihr Python-Projekt nötig sind. Diese lassen sich allgemein in zwei wesentliche Kategorien unterteilen: Python selbst und die zugehörigen Packages. Python Ist weder die richtige Python-Laufzeitumgebung noch die richtige -Edition auf dem Zielsystem vorhanden, müssen Sie das nachholen. Wenn Sie mit Windows oder macOS arbeiten, ist dazu nicht viel mehr erforderlich als das entsprechende Executable herunterzuladen. Für Linux-Benutzer gestaltet sich der Prozess deutlich komplexer – und variiert je nach Packet-Management-System. Für Ubuntu/Debian-Systeme steht zum Beispiel mit apt-offline eine Utility zur Verfügung, um offline installierbare Packages zu beziehen. Python-Packages Python-Pakete können als eigenständige .whl-Dateien verteilt werden. Die Installation ist denkbar einfach und erfordert lediglich den Befehl: pip install /path/to/file.whl. Ebenso simpel gestaltet es sich, wheels-Dateien über pip herunterzuladen: Der Befehl pip download ruft die .whl-Datei für das betreffende Paket ab und speichert sie im aktuellen Arbeitsverzeichnis. Sie können ihn auch dazu nutzen, alle Anforderungen für ein Package aus einer requirements.txt-Datei zu „ziehen“. Das geht mit: pip download -r . Bei der Verwendung von pip download gilt es, zwei wichtige Dinge zu beachten. Python-Pakete können Abhängigkeiten aufweisen – und Sie sollten alle auf dem Zettel haben, die für Ihr Projekt nötig sind. Idealerweise nutzen Sie dafür eine tatsächlich installierte Kopie der betreffenden Packages. Dazu gehen Sie wie folgt vor: Erstellen Sie eine virtuelle Umgebung. Dort installieren Sie alles, was Sie für Ihr Projekt benötigen. Schreiben Sie die Package-Liste mit pip freeze in eine Datei. Die kann auch als requirements.txt verwendet werden. Viele Packages sind von Python-Tools wie setuptools und wheel abhängig. Es ist deshalb empfehlenswert, diese direkt mit in die Liste aufzunehmen. Wichtig: Denken Sie daran, dass pip stets mit der Python-Version genutzt werden sollte, die auch auf dem Zielrechner zum Einsatz kommen soll. Ist das nicht möglich, können Sie auch –python-version übergeben. Das signalisiert pip download, die Python-Version entsprechend zu spezifizieren. Falls Sie .whl-Dateien manuell über PyPI herunterladen möchten, können Sie die Installationsdateien für jedes PyPI-Projekt direkt über dessen Seite herunterladen. Möglicherweise entspricht dabei der Dateinamen nicht Ihrer Python-Version. Das stellt aber nicht unbedingt ein Problem dar: Wheels-Dateien mit einer Kennung im Namen wie py3-none-any sind in der Regel mit den meisten aktuellen Versionen von Python kompatibel. 2. Interpreter & Apps einrichten Nachdem Sie die notwendigen Files auf das Zielsystem kopiert haben, gilt es, den Interpreter einzurichten. Wie dieser Prozess abläuft, hängt ebenfalls davon ab, welches Betriebssystem Sie nutzen. Unter Windows und macOS ist erneut lediglich ein Executable erforderlich. Im Fall von Linux verhält sich leider jeder Package Manager anders, wenn es darum geht, aus einem Offline-Package zu installieren (das gilt auch für die dafür notwendige Syntax). Die erforderlichen Informationen entnehmen Sie der Dokumentation des jeweiligen Package Managers Ihrer Distribution. Wenn Sie die Anforderungen für Ihre Python-Anwendung einrichten möchten, erstellen Sie dazu wie gewohnt eine virtuelle Umgebung für die App – und führen pip aus: pip install –no-index -f /path/to/wheels Hierbei ist die Datei, die die Projektanforderungen enthält. Mit –no-index wird pip dazu gezwungen, PyPI nicht auf Packages zu überprüfen. Die Option -f ermöglicht es, einen Pfad bereitzustellen, über den pip nach .whl-Dateien suchen soll. Hier geben Sie das Verzeichnis an, in das Sie diese Dateien kopiert haben. Für eine In-Place-Installation des Packages verwenden Sie folgende Befehlsvariante: pip install -e . –no-index -f /path/to/wheels Hierbei werden sämtliche Projektanforderungen verwendet, die in pyproject.toml vorliegen. 3. Drittanbieter-Packages installieren Komplex wird es (wie eingangs bereits erwähnt), wenn Drittanbieter-Abhängigkeiten ins Spiel kommen, die nicht als Python-Wheels verpackt sind. Nutzen Sie beispielsweise ein Python-Package mit einer C-Extension und installieren dieses nicht über ein vorkompiliertes Binary Wheel, versucht der Installationsprozess einen C-Compiler zu finden, um die Extension zu erstellen.   Soll heißen: Sie müssen auch sämtliche Build-Abhängigkeiten von Drittanbietern kopieren und einrichten. Die schlechte Nachricht ist dabei, dass die meisten davon nicht explizit in Python-Package-Manifesten aufgeführt sind, weil kein Mechanismus dafür existiert – im Gegensatz zu Drittanbieter-Distributionen wie Anaconda. Eine Komponente, die Python-Packages häufig fehlt, ist ein C-Compiler. Dieser kommt für gewöhnlich zum Einsatz, um CPython-Extensions aus Quellcode zu erstellen. Unter Windows ist das im Regelfall der Microsoft Visual C++ Compiler (MSVC), da CPython unter Windows damit kompiliert wird. Um MSVC zu nutzen, benötigen Sie jedoch nicht Visual Studio in vollem Umfang: Es gibt die Möglichkeit, eine abgespeckte, Kommandozeilen-Version von MSVC zu installieren. Und zwar über das Visual Studio C++ Build Tools-Package (siehe untenstehendes Youtube-Video). Ein Offline-Installations-Package von Visual Studio zu erstellen, um es lokal zu installieren, ist leider ein nicht minder komplexer Prozess. Dazu ist unter anderem eine „Local Layout“-Installation der benötigten Dateien nötig. Die bewirkt im Grunde genommen, dass nur die notwendigen Befehlszeilen-Komponenten von Visual Studio auf dem (vernetzten) Rechner installiert werden. Dieses Layout gilt es dann auf die isolierte Maschine zu übertragen – und zu installieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Python offline installieren​ Lesen Sie, wie “Airgapped”-Python geht.attem | shutterstock.com

Moderne Softwareentwicklung setzt so gut wie immer voraus, dass eine konstante Netzwerkverbindung zur Verfügung steht. Ist diese ausfallaffin oder aus guten Gründen überhaupt nicht vorhanden, müssen Python-Entwickler zwei grundlegende Voraussetzungen erfüllen, um die Programmiersprache (und zugehörige Packages) trotzdem einrichten zu können:

Sie brauchen einen zweiten Rechner mit Netzwerkverbindung.

Sie müssen auf den isolierten Rechner manuell Dateien kopieren und diese installieren können.

Die damit verbundenen Nachteile: Es ist ein aufwändiges Verfahren, das Flexibilitätseinbußen nach sich zieht. Developer, die dennoch offline mit Python arbeiten wollen oder müssen, sollten vorab wissen, was Sie dazu brauchen. Denn insbesondere mit Blick auf Drittanbieterabhängigkeiten kann es sich komplex gestalten, die Programmiersprache ohne Netzwerkverbindung einzurichten.

In diesem Tutorial lesen Sie, wie Sie „Airgapped“-Python trotzdem zuverlässig in drei Schritten umsetzen.

1. Komponenten erfassen

Im ersten Schritt empfiehlt es sich, alle Komponenten aufzulisten, die für Ihr Python-Projekt nötig sind. Diese lassen sich allgemein in zwei wesentliche Kategorien unterteilen:

Python selbst und

die zugehörigen Packages.

Python

Ist weder die richtige Python-Laufzeitumgebung noch die richtige -Edition auf dem Zielsystem vorhanden, müssen Sie das nachholen. Wenn Sie mit Windows oder macOS arbeiten, ist dazu nicht viel mehr erforderlich als das entsprechende Executable herunterzuladen.

Für Linux-Benutzer gestaltet sich der Prozess deutlich komplexer – und variiert je nach Packet-Management-System. Für Ubuntu/Debian-Systeme steht zum Beispiel mit apt-offline eine Utility zur Verfügung, um offline installierbare Packages zu beziehen.

Python-Packages

Python-Pakete können als eigenständige .whl-Dateien verteilt werden. Die Installation ist denkbar einfach und erfordert lediglich den Befehl: pip install /path/to/file.whl.

Ebenso simpel gestaltet es sich, wheels-Dateien über pip herunterzuladen: Der Befehl pip download ruft die .whl-Datei für das betreffende Paket ab und speichert sie im aktuellen Arbeitsverzeichnis. Sie können ihn auch dazu nutzen, alle Anforderungen für ein Package aus einer requirements.txt-Datei zu „ziehen“. Das geht mit: pip download -r .

Bei der Verwendung von pip download gilt es, zwei wichtige Dinge zu beachten. Python-Pakete können Abhängigkeiten aufweisen – und Sie sollten alle auf dem Zettel haben, die für Ihr Projekt nötig sind. Idealerweise nutzen Sie dafür eine tatsächlich installierte Kopie der betreffenden Packages. Dazu gehen Sie wie folgt vor:

Erstellen Sie eine virtuelle Umgebung.

Dort installieren Sie alles, was Sie für Ihr Projekt benötigen.

Schreiben Sie die Package-Liste mit pip freeze in eine Datei. Die kann auch als requirements.txt verwendet werden.

Viele Packages sind von Python-Tools wie setuptools und wheel abhängig. Es ist deshalb empfehlenswert, diese direkt mit in die Liste aufzunehmen.

Wichtig: Denken Sie daran, dass pip stets mit der Python-Version genutzt werden sollte, die auch auf dem Zielrechner zum Einsatz kommen soll. Ist das nicht möglich, können Sie auch –python-version übergeben. Das signalisiert pip download, die Python-Version entsprechend zu spezifizieren.

Falls Sie .whl-Dateien manuell über PyPI herunterladen möchten, können Sie die Installationsdateien für jedes PyPI-Projekt direkt über dessen Seite herunterladen. Möglicherweise entspricht dabei der Dateinamen nicht Ihrer Python-Version. Das stellt aber nicht unbedingt ein Problem dar: Wheels-Dateien mit einer Kennung im Namen wie py3-none-any sind in der Regel mit den meisten aktuellen Versionen von Python kompatibel.

2. Interpreter & Apps einrichten

Nachdem Sie die notwendigen Files auf das Zielsystem kopiert haben, gilt es, den Interpreter einzurichten. Wie dieser Prozess abläuft, hängt ebenfalls davon ab, welches Betriebssystem Sie nutzen.

Unter Windows und macOS ist erneut lediglich ein Executable erforderlich. Im Fall von Linux verhält sich leider jeder Package Manager anders, wenn es darum geht, aus einem Offline-Package zu installieren (das gilt auch für die dafür notwendige Syntax). Die erforderlichen Informationen entnehmen Sie der Dokumentation des jeweiligen Package Managers Ihrer Distribution.

Wenn Sie die Anforderungen für Ihre Python-Anwendung einrichten möchten, erstellen Sie dazu wie gewohnt eine virtuelle Umgebung für die App – und führen pip aus:

pip install –no-index -f /path/to/wheels

Hierbei ist die Datei, die die Projektanforderungen enthält. Mit –no-index wird pip dazu gezwungen, PyPI nicht auf Packages zu überprüfen. Die Option -f ermöglicht es, einen Pfad bereitzustellen, über den pip nach .whl-Dateien suchen soll. Hier geben Sie das Verzeichnis an, in das Sie diese Dateien kopiert haben.

Für eine In-Place-Installation des Packages verwenden Sie folgende Befehlsvariante:

pip install -e . –no-index -f /path/to/wheels

Hierbei werden sämtliche Projektanforderungen verwendet, die in pyproject.toml vorliegen.

3. Drittanbieter-Packages installieren

Komplex wird es (wie eingangs bereits erwähnt), wenn Drittanbieter-Abhängigkeiten ins Spiel kommen, die nicht als Python-Wheels verpackt sind. Nutzen Sie beispielsweise ein Python-Package mit einer C-Extension und installieren dieses nicht über ein vorkompiliertes Binary Wheel, versucht der Installationsprozess einen C-Compiler zu finden, um die Extension zu erstellen.  

Soll heißen: Sie müssen auch sämtliche Build-Abhängigkeiten von Drittanbietern kopieren und einrichten. Die schlechte Nachricht ist dabei, dass die meisten davon nicht explizit in Python-Package-Manifesten aufgeführt sind, weil kein Mechanismus dafür existiert – im Gegensatz zu Drittanbieter-Distributionen wie Anaconda.

Eine Komponente, die Python-Packages häufig fehlt, ist ein C-Compiler. Dieser kommt für gewöhnlich zum Einsatz, um CPython-Extensions aus Quellcode zu erstellen. Unter Windows ist das im Regelfall der Microsoft Visual C++ Compiler (MSVC), da CPython unter Windows damit kompiliert wird. Um MSVC zu nutzen, benötigen Sie jedoch nicht Visual Studio in vollem Umfang: Es gibt die Möglichkeit, eine abgespeckte, Kommandozeilen-Version von MSVC zu installieren. Und zwar über das Visual Studio C++ Build Tools-Package (siehe untenstehendes Youtube-Video).

Ein Offline-Installations-Package von Visual Studio zu erstellen, um es lokal zu installieren, ist leider ein nicht minder komplexer Prozess. Dazu ist unter anderem eine „Local Layout“-Installation der benötigten Dateien nötig. Die bewirkt im Grunde genommen, dass nur die notwendigen Befehlszeilen-Komponenten von Visual Studio auf dem (vernetzten) Rechner installiert werden. Dieses Layout gilt es dann auf die isolierte Maschine zu übertragen – und zu installieren.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Python offline installieren​ Weiterlesen »

Meeting-Flut bringt Mitarbeiter ins Schwimmen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?quality=50&strip=all 2736w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=768%2C431&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1024%2C575&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1536%2C862&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=2048%2C1150&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”575″ sizes=”(max-width: 1024px) 100vw, 1024px”>Manches Meeting könnte genauso gut eine E-Mail sein…HombreChica Neben einem verstärkten Trend zum ortsunabhängigen, hybriden Arbeiten und einer deutlich beschleunigten Digitalisierung hatte die Corona-Pandemie auch (mindestens) eine negative Auswirkung auf die Arbeitswelt: die – unter anderem dank Teams, Zoom & Co. – stark ausgeuferte Meeting-Kultur.   Zum Leidwesen der Belegschaft, denn laut einer repräsentativen Studie im Auftrag von HR Works:  findet fast die Hälfte der Arbeitnehmenden (48 Prozent), dass Besprechungen im Job mit Kollegen oder Kunden zu lange dauern.   verspürt die Hälfte von ihnen dadurch erhöhten, beruflichen Stress.   führen zeitlich schlecht geplante Meetings bei deutlich mehr als einem Drittel (38 Prozent) zu zusätzlichen Überstunden.  Zeitverschwendung – eine Männerdomäne?  Betrachtet man die Werte zu dieser missglückten Meeting-Kultur, wird klar, dass diesbezüglich einiges schiefläuft. Laut Studie haben die Deutschen im Durchschnitt pro Woche 4,4 Meetings, von denen sie 2,9 für verzichtbar halten. Dafür investieren sie 4,7 Stunden ihrer wöchentlichen Arbeitszeit, von denen sie 3,2 Stunden für verschenkt erachten. Hinzu kommt, dass mehr als ein Viertel (26 Prozent) der Befragten nach dem beruflichen Austausch das Gefühl hat, dass ihre Teilnahme daran nicht notwendig gewesen wäre.  Interessanterweise scheinen Meetings vor allem eine Männerdomäne zu sein. So ergab die Umfrage, dass 32 Prozent der Männer tägliche Besprechungen haben, während der weibliche Meeting-Anteil bei nur 14 Prozent liegt. Angesichts einer immer noch weitgehend männerdominierten Arbeitswelt könnte hier allerdings auch ein Zusammenhang mit der Position im Unternehmen bestehen. So ist beispielsweise auch die Taktung der Meetings für Beschäftigte mit akademischem Hintergrund besonders hoch. Laut Studie berichten von ihnen insgesamt 33 Prozent von täglichen Treffen.   “Back-To-Office” auch in der Meeting-Kultur  Hinsichtlich des Meeting-Ortes gilt in vielen Unternehmen das Motto “Back-to-Office“. Denn mehr als die Hälfte der Meetings (55 Prozent) finden laut Umfrage in Präsenz statt, während 37 Prozent online aus dem Homeoffice abgewickelt werden. Produktiver sind aus Sicht der meisten Arbeitnehmenden (56 Prozent) ganz klar physische Konferenzen, während 28 Prozent virtuelle Meetings ergiebiger finden.   Entsprechend würde sich auch mehr als die Hälfte der Befragten für persönliche Besprechungen entscheiden, wenn sie zwischen Online- und Präsenzmeetings wählen könnten.  „Ineffiziente Meetings sind nicht nur Zeitfresser, sondern können auch die Zufriedenheit und Produktivität der Mitarbeitenden beeinträchtigen“, kommentiert Ivana Baumann, Director HR & Recruiting bei HR WORKS, die Ergebnisse der Studie. Eine klare und zielführende Meeting-Kultur sollte daher das Ziel für Arbeitgeber sein. Dazu gehören aus Sicht der HR-Expertin weniger und kürzere Besprechungen mit klaren Agenden und fest definierten Verantwortlichkeiten.   Ein Tipp, den sich viele Manager zu Herzen nehmen sollten: In der Studie klagt jeder vierte Befragte (24 Prozent) darüber, dass die Meetings bei seinem aktuellen Arbeitgeber nie oder selten eine klare Agenda hätten. 31 Prozent geben zudem an, dass keine konkreten Entscheidungen bei solchen Meetings fallen.   Für die Studie hat das Marktforschungsunternehmen bilendi im Februar 2025 im Auftrag von HR WORKS 1.040 Beschäftigte befragt. 51 Prozent von ihnen waren weiblich, 49 Prozent männlich.   

Meeting-Flut bringt Mitarbeiter ins Schwimmen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?quality=50&strip=all 2736w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=768%2C431&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1024%2C575&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1536%2C862&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=2048%2C1150&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2502465471.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”575″ sizes=”(max-width: 1024px) 100vw, 1024px”>Manches Meeting könnte genauso gut eine E-Mail sein…HombreChica

Neben einem verstärkten Trend zum ortsunabhängigen, hybriden Arbeiten und einer deutlich beschleunigten Digitalisierung hatte die Corona-Pandemie auch (mindestens) eine negative Auswirkung auf die Arbeitswelt: die – unter anderem dank Teams, Zoom & Co. – stark ausgeuferte Meeting-Kultur.  

Zum Leidwesen der Belegschaft, denn laut einer repräsentativen Studie im Auftrag von HR Works: 

findet fast die Hälfte der Arbeitnehmenden (48 Prozent), dass Besprechungen im Job mit Kollegen oder Kunden zu lange dauern.  

verspürt die Hälfte von ihnen dadurch erhöhten, beruflichen Stress.  

führen zeitlich schlecht geplante Meetings bei deutlich mehr als einem Drittel (38 Prozent) zu zusätzlichen Überstunden. 

Zeitverschwendung – eine Männerdomäne? 

Betrachtet man die Werte zu dieser missglückten Meeting-Kultur, wird klar, dass diesbezüglich einiges schiefläuft. Laut Studie haben die Deutschen im Durchschnitt pro Woche 4,4 Meetings, von denen sie 2,9 für verzichtbar halten. Dafür investieren sie 4,7 Stunden ihrer wöchentlichen Arbeitszeit, von denen sie 3,2 Stunden für verschenkt erachten. Hinzu kommt, dass mehr als ein Viertel (26 Prozent) der Befragten nach dem beruflichen Austausch das Gefühl hat, dass ihre Teilnahme daran nicht notwendig gewesen wäre. 

Interessanterweise scheinen Meetings vor allem eine Männerdomäne zu sein. So ergab die Umfrage, dass 32 Prozent der Männer tägliche Besprechungen haben, während der weibliche Meeting-Anteil bei nur 14 Prozent liegt. Angesichts einer immer noch weitgehend männerdominierten Arbeitswelt könnte hier allerdings auch ein Zusammenhang mit der Position im Unternehmen bestehen. So ist beispielsweise auch die Taktung der Meetings für Beschäftigte mit akademischem Hintergrund besonders hoch. Laut Studie berichten von ihnen insgesamt 33 Prozent von täglichen Treffen.  

“Back-To-Office” auch in der Meeting-Kultur 

Hinsichtlich des Meeting-Ortes gilt in vielen Unternehmen das Motto “Back-to-Office“. Denn mehr als die Hälfte der Meetings (55 Prozent) finden laut Umfrage in Präsenz statt, während 37 Prozent online aus dem Homeoffice abgewickelt werden. Produktiver sind aus Sicht der meisten Arbeitnehmenden (56 Prozent) ganz klar physische Konferenzen, während 28 Prozent virtuelle Meetings ergiebiger finden.  

Entsprechend würde sich auch mehr als die Hälfte der Befragten für persönliche Besprechungen entscheiden, wenn sie zwischen Online- und Präsenzmeetings wählen könnten. 

„Ineffiziente Meetings sind nicht nur Zeitfresser, sondern können auch die Zufriedenheit und Produktivität der Mitarbeitenden beeinträchtigen“, kommentiert Ivana Baumann, Director HR & Recruiting bei HR WORKS, die Ergebnisse der Studie. Eine klare und zielführende Meeting-Kultur sollte daher das Ziel für Arbeitgeber sein. Dazu gehören aus Sicht der HR-Expertin weniger und kürzere Besprechungen mit klaren Agenden und fest definierten Verantwortlichkeiten.  

Ein Tipp, den sich viele Manager zu Herzen nehmen sollten: In der Studie klagt jeder vierte Befragte (24 Prozent) darüber, dass die Meetings bei seinem aktuellen Arbeitgeber nie oder selten eine klare Agenda hätten. 31 Prozent geben zudem an, dass keine konkreten Entscheidungen bei solchen Meetings fallen.  

Für die Studie hat das Marktforschungsunternehmen bilendi im Februar 2025 im Auftrag von HR WORKS 1.040 Beschäftigte befragt. 51 Prozent von ihnen waren weiblich, 49 Prozent männlich.  

Meeting-Flut bringt Mitarbeiter ins Schwimmen​ Weiterlesen »

Freelancer-Kompass 2025: IT-Freiberufler verdienen 105 Euro in der Stunde​

Allgemein

alexkich – Shutterstock 2295711717 Ähnlich wie in der letzten Auswertung wollen circa vier von zehn Freelancern ihre Stundensätze auch in den kommenden zwölf Monaten erhöhen. Die Hauptgründe dafür sind die Inflation (59 Prozent), mehr Berufserfahrung (51 Prozent) und die Angleichung an marktübliche Stundensätze (47 Prozent).  Besonders erfreulich: Das Gender Pay Gap, also die Lohnlücke zwischen Männern und Frauen, schließt sich weiter auf drei Prozent. So verbesserten die Männer ihre durchschnittliche Vergütung von 102 Euro im Jahr 2024 auf 105 Euro, Frauen steigerten ihr Gehalt im gleichen Zeitraum stärker – im Schnitt von 98 auf 102 Euro.    Bedenken finanzieller Unsicherheit im Alter wachsen Die Inflation, Rezession und die stagnierende Auftragslage spiegeln sich auch in der Altersvorsorge der Freelancer wider. So stieg der Anteil derer, die sich um ihre finanzielle Situation im Ruhestand sorgen, von 39 Prozent in der letzten Auswertung auf nun 44 Prozent. Daraus resultiert auch der Wunsch nach größeren Rücklagen für die Altersvorsorge: Legten Freiberufler im Jahr 2024 monatlich im Schnitt 1108 Euro zurück, stieg 2025 die Summe auf durchschnittlich 1312 Euro.  Thomas Maas, CEO von freelancermap, resümiert: „Der Freelancer-Kompass 2025 zeigt, dass sich die Selbständigkeit weiterhin lohnt: Die Stundensätze steigen und das Gender Pay Gap ist auf einem historischen Tiefstand.“ Gleichzeitig beobachte er, dass wirtschaftliche Unsicherheiten für viele Freelancer eine zunehmende Herausforderung darstellten.   Der Freelancer-Kompass von freelancermap bezeichnet sich als größte Studie zur Selbständigkeit im deutschsprachigen Raum. Diese analysiert neben den Arbeitsbedingungen und fachlichen Herausforderungen auch die aktuellen Gehaltsentwicklungen, Daten zur Gender Pay Gap und die Einkommenszufriedenheit im Freelancing.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?quality=50&strip=all 2000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=768%2C511&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1024%2C681&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1536%2C1022&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1047%2C697&quality=50&strip=all 1047w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=721%2C480&quality=50&strip=all 721w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=541%2C360&quality=50&strip=all 541w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=376%2C250&quality=50&strip=all 376w” width=”1024″ height=”681″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Maas: Die Stundensätze steigen und das Gender Pay Gap ist auf einem historischen Tiefstand.“Thomas Maas – Freelancermap 

Freelancer-Kompass 2025: IT-Freiberufler verdienen 105 Euro in der Stunde​ alexkich – Shutterstock 2295711717

Ähnlich wie in der letzten Auswertung wollen circa vier von zehn Freelancern ihre Stundensätze auch in den kommenden zwölf Monaten erhöhen. Die Hauptgründe dafür sind die Inflation (59 Prozent), mehr Berufserfahrung (51 Prozent) und die Angleichung an marktübliche Stundensätze (47 Prozent). 

Besonders erfreulich: Das Gender Pay Gap, also die Lohnlücke zwischen Männern und Frauen, schließt sich weiter auf drei Prozent. So verbesserten die Männer ihre durchschnittliche Vergütung von 102 Euro im Jahr 2024 auf 105 Euro, Frauen steigerten ihr Gehalt im gleichen Zeitraum stärker – im Schnitt von 98 auf 102 Euro. 

 

Bedenken finanzieller Unsicherheit im Alter wachsen

Die Inflation, Rezession und die stagnierende Auftragslage spiegeln sich auch in der Altersvorsorge der Freelancer wider. So stieg der Anteil derer, die sich um ihre finanzielle Situation im Ruhestand sorgen, von 39 Prozent in der letzten Auswertung auf nun 44 Prozent. Daraus resultiert auch der Wunsch nach größeren Rücklagen für die Altersvorsorge: Legten Freiberufler im Jahr 2024 monatlich im Schnitt 1108 Euro zurück, stieg 2025 die Summe auf durchschnittlich 1312 Euro. 

Thomas Maas, CEO von freelancermap, resümiert: „Der Freelancer-Kompass 2025 zeigt, dass sich die Selbständigkeit weiterhin lohnt: Die Stundensätze steigen und das Gender Pay Gap ist auf einem historischen Tiefstand.“ Gleichzeitig beobachte er, dass wirtschaftliche Unsicherheiten für viele Freelancer eine zunehmende Herausforderung darstellten.  

Der Freelancer-Kompass von freelancermap bezeichnet sich als größte Studie zur Selbständigkeit im deutschsprachigen Raum. Diese analysiert neben den Arbeitsbedingungen und fachlichen Herausforderungen auch die aktuellen Gehaltsentwicklungen, Daten zur Gender Pay Gap und die Einkommenszufriedenheit im Freelancing. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?quality=50&strip=all 2000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=768%2C511&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1024%2C681&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1536%2C1022&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=1047%2C697&quality=50&strip=all 1047w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=721%2C480&quality=50&strip=all 721w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=541%2C360&quality=50&strip=all 541w, https://b2b-contenthub.com/wp-content/uploads/2025/03/portrait-thomas-maas-5.jpg?resize=376%2C250&quality=50&strip=all 376w” width=”1024″ height=”681″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Maas: Die Stundensätze steigen und das Gender Pay Gap ist auf einem historischen Tiefstand.“Thomas Maas – Freelancermap

Freelancer-Kompass 2025: IT-Freiberufler verdienen 105 Euro in der Stunde​ Weiterlesen »

Duell: OnePlus 13 vs. Asus ROG Phone 9 Pro​

Allgemein

Foundry Es ist nicht leicht, sich zwischen den beiden Flaggschiff-Smartphones OnePlus 13 und dem ROG Phone 9 Pro zu entscheiden. Obwohl beide Geräte mit dem neuesten Snapdragon 8 Elite-Chipsatz ausgestattet sind, enden die Gemeinsamkeiten hier auch schon, denn sie sind für sehr unterschiedliche Zielgruppen konzipiert. Lassen Sie uns die beiden Flaggschiffe in den wichtigsten Bereichen vergleichen und herausfinden, welches der beiden Modelle für Sie die bessere Wahl ist. Design & Verarbeitung Das OnePlus 13 präsentiert ein hochwertiges und doch etwas eklektisches Design. Hier wurden verschiedene Designstile und -elemente kombiniert. Die weltweit erste Variante des OnePlus 13 aus veganem Mikrofaserleder (Midnight Ocean) sticht hervor, während das Modell Arctic Dawn mit einer strukturierten Holzmaserung aufwartet. Es gehört mit den Schutzklassen IP68 und IP69 außerdem zu den widerstandsfähigsten Smartphones und ist damit selbst wasser- und staubresistenter als seine größten Konkurrenten von Apple und Samsung. Foundry | Alex Walker-Todd Das ROG Phone 9 Pro hingegen wählt einen dezenteren Ansatz (insbesondere für ein Gaming-Smartphone), mit einer fingerabdruckresistenten Rückseite und einem zurückhaltenden Branding. Die AniMe Vision LED-Matrix bleibt jedoch erhalten, sodass Gamer benutzerdefinierte Animationen anzeigen können. Das Smartphone verfügt überdies über berührungsempfindliche AirTrigger. Sie fungieren als Schultertasten und machen das ROG Phone 9 Pro so zu einem hervorragenden Gaming-Gerät. Joshua Brown Das OnePlus 13 bietet ein raffinierteres und praktisches Flaggschiff-Erlebnis, während das ROG Phone 9 Pro seinen Gaming-Wurzeln mit zusätzlichen Features treu bleibt. Bildschirmtechnik OnePlus stattet das 13 mit einem 6,82 Zoll großen LTPO 4.1 OLED-Display aus, das mit 2K-Auflösung und einer beeindruckenden Spitzenhelligkeit von 4.500 Nits überzeugt. Als erstes Smartphone überhaupt erhält es das begehrte DisplayMate A-Rating – ein klares Zeichen für erstklassige Bildqualität. Es bietet einen exzellenten Kontrast, Farbgenauigkeit und stabile Blickwinkel. Außerdem verfügt es über einen reaktionsschnellen Ultraschall-Fingerabdrucksensor für verbesserte Sicherheit. Foundry | Alex Walker-Todd Das ROG Phone 9 Pro hingegen setzt auf ein 6,78 Zoll großes AMOLED-Display mit einer geringeren 1080p-Auflösung, aber einer beeindruckenden Bildwiederholfrequenz von 185 Hertz. Das Panel wurde speziell für Spiele entwickelt. Die Touch-Abtastrate von 960 Hertz sorgt für extrem reaktionsschnelle Interaktionen und macht es zur idealen Wahl für wettbewerbsfähige mobile Gamer. Foundry | Alex Walker-Todd Wenn Sie Wert auf ein scharfes, hochwertiges Display für den Medienkonsum und den täglichen Gebrauch legen, ist das OnePlus 13 die bessere Wahl. Wenn es jedoch um die Leistung beim Spielen geht, ist das ROG Phone 9 Pro mit seiner ultrahohen Bildwiederholrate und Touch-Reaktion das perfekte Smartphone für Sie. Akkulaufzeit & Aufladen Das OnePlus 13 verfügt über einen “Silicon NanoStack”-Akku mit 6.000 Milliamperestunden. Er bietet eine noch nie dagewesene Akkulaufzeit, die sogar mit speziellen Gaming-Handys mithalten kann. In unserem PCMark-Akkutest hielt das OnePlus 13 15 Stunden und 27 Minuten durch, verglichen mit 14 Stunden und 40 Minuten beim ROG Phone 9 Pro. Mit 100 Watt kabelgebundenem und 50 Watt drahtlosem Laden übertrifft es die meisten Konkurrenten auch bei der Ladegeschwindigkeit (50 Prozent Ladung nach 34 Minuten). OnePlus legt jedoch leider kein Ladegerät in die Verpackung. Foundry | Alex Walker-Todd Das ROG Phone 9 Pro verfügt über einen etwas kleineren Akku mit 5.800 Milliamperestunden, bietet aber dennoch eine außergewöhnliche Ausdauer. Das kabelgebundene Aufladen mit 65 Watt ist zwar langsamer als beim OnePlus 13, liefert aber bessere Ergebnisse. Eine 15-minütige Aufladung bringt etwa 41 Prozent aus dem leeren Zustand, eine 30-minütige Aufladung schafft bis zu etwa 70 Prozent. Das Smartphone bietet auch kabelloses Laden mit 15 Watt. Das funktioniert zwar, ist aber langsamer als bei seinem Konkurrenten. Ein Ladegerät befindet sich ebenfalls in der Verpackung. Joshua Brown Die Akkulaufzeit des OnePlus 13 ist wirklich herausragend und macht es zur besseren Wahl für allgemeine Nutzer, die sich eine lange Laufzeit wünschen. Der ausgewogene Akku, das schnelle Aufladen und das effiziente Kühlsystem des ROG Phone 9 Pro sorgen hingegen für eine stabile Leistung bei langen Gaming-Sessions. Weitere Unterschiede Das OnePlus 13 bietet eine raffiniertere Kameraausstattung mit drei 50-Megapixel-Sensoren, darunter ein neues, gefaltetes Teleobjektiv. Das ROG Phone 9 Pro verfügt ebenfalls über einen 50-Megapixel-Hauptsensor, legt aber weniger Wert auf die Tele- und Ultraweitwinkelkameras, sondern konzentriert sich stattdessen auf die Leistung. Beide Geräte laufen mit Android 15. Das OnePlus 13 verspricht vier Jahre lang Betriebssystem-Updates und sechs Jahre lang Sicherheits-Patches, während das ROG Phone 9 Pro nur zwei Jahre lang Betriebssystem-Updates und fünf Jahre lang Sicherheits-Updates bietet. Weiterhin verfügt das ROG Phone 9 Pro über einen seitlich angebrachten USB-C-Anschluss für einfacheres Aufladen beim Spielen, berührungsempfindliche AirTrigger und ein externes Lüfterkühlungszubehör. Derartige Extras sucht man beim OnePlus 13 vergeblich. Preis & Verfügbarkeit Der Preis für das OnePlus 13 liegt im OnePlus-Online-Shop bei 999 Euro für die 256-Gigabyte-Variante und bei 1.149 Euro für das 512-Gigabyte-Modell. Bei Amazon ist die Variante mit 256 Gigabyte schon für 979 Euro erhältlich. Aktuell bester Preis OnePlus 13 Die Preise für das ROG Phone 9 Pro beginnen bei Amazon für die Variante mit 12 Gigabyte RAM bei 1.149,99 Euro. Mit 16 Gigabyte Arbeitsspeicher kostet das Smartphone 1.299 Euro. Fazit Beide Smartphones sind eine hervorragende Optionen. Sie sind jedoch auf unterschiedliche Weise attraktiv. Das OnePlus 13 ist die beste Wahl für allgemeine Nutzer, die eine exzellente Akkulaufzeit, Displayqualität und Kameraleistung zu einem wettbewerbsfähigen Preis suchen. Das Gerät bietet zudem solide Gaming-Fähigkeiten. Das ROG Phone 9 Pro, die beste Wahl für echte Gamer, die hohe Bildwiederholraten, Kühllösungen und spezifische Funktionen wie AirTrigger und die AniMe Vision LED-Matrix benötigen. Das OnePlus 13 bietet unserer Meinung nach jedoch ein besseres Preis-Leistungs-Verhältnis. (PC-Welt) 

Duell: OnePlus 13 vs. Asus ROG Phone 9 Pro​ Foundry

Es ist nicht leicht, sich zwischen den beiden Flaggschiff-Smartphones OnePlus 13 und dem ROG Phone 9 Pro zu entscheiden. Obwohl beide Geräte mit dem neuesten Snapdragon 8 Elite-Chipsatz ausgestattet sind, enden die Gemeinsamkeiten hier auch schon, denn sie sind für sehr unterschiedliche Zielgruppen konzipiert.

Lassen Sie uns die beiden Flaggschiffe in den wichtigsten Bereichen vergleichen und herausfinden, welches der beiden Modelle für Sie die bessere Wahl ist.

Design & Verarbeitung

Das OnePlus 13 präsentiert ein hochwertiges und doch etwas eklektisches Design. Hier wurden verschiedene Designstile und -elemente kombiniert. Die weltweit erste Variante des OnePlus 13 aus veganem Mikrofaserleder (Midnight Ocean) sticht hervor, während das Modell Arctic Dawn mit einer strukturierten Holzmaserung aufwartet.

Es gehört mit den Schutzklassen IP68 und IP69 außerdem zu den widerstandsfähigsten Smartphones und ist damit selbst wasser- und staubresistenter als seine größten Konkurrenten von Apple und Samsung.

Foundry | Alex Walker-Todd

Das ROG Phone 9 Pro hingegen wählt einen dezenteren Ansatz (insbesondere für ein Gaming-Smartphone), mit einer fingerabdruckresistenten Rückseite und einem zurückhaltenden Branding. Die AniMe Vision LED-Matrix bleibt jedoch erhalten, sodass Gamer benutzerdefinierte Animationen anzeigen können.

Das Smartphone verfügt überdies über berührungsempfindliche AirTrigger. Sie fungieren als Schultertasten und machen das ROG Phone 9 Pro so zu einem hervorragenden Gaming-Gerät.

Joshua Brown

Das OnePlus 13 bietet ein raffinierteres und praktisches Flaggschiff-Erlebnis, während das ROG Phone 9 Pro seinen Gaming-Wurzeln mit zusätzlichen Features treu bleibt.

Bildschirmtechnik

OnePlus stattet das 13 mit einem 6,82 Zoll großen LTPO 4.1 OLED-Display aus, das mit 2K-Auflösung und einer beeindruckenden Spitzenhelligkeit von 4.500 Nits überzeugt. Als erstes Smartphone überhaupt erhält es das begehrte DisplayMate A-Rating – ein klares Zeichen für erstklassige Bildqualität.

Es bietet einen exzellenten Kontrast, Farbgenauigkeit und stabile Blickwinkel. Außerdem verfügt es über einen reaktionsschnellen Ultraschall-Fingerabdrucksensor für verbesserte Sicherheit.

Foundry | Alex Walker-Todd

Das ROG Phone 9 Pro hingegen setzt auf ein 6,78 Zoll großes AMOLED-Display mit einer geringeren 1080p-Auflösung, aber einer beeindruckenden Bildwiederholfrequenz von 185 Hertz. Das Panel wurde speziell für Spiele entwickelt. Die Touch-Abtastrate von 960 Hertz sorgt für extrem reaktionsschnelle Interaktionen und macht es zur idealen Wahl für wettbewerbsfähige mobile Gamer.

Foundry | Alex Walker-Todd

Wenn Sie Wert auf ein scharfes, hochwertiges Display für den Medienkonsum und den täglichen Gebrauch legen, ist das OnePlus 13 die bessere Wahl. Wenn es jedoch um die Leistung beim Spielen geht, ist das ROG Phone 9 Pro mit seiner ultrahohen Bildwiederholrate und Touch-Reaktion das perfekte Smartphone für Sie.

Akkulaufzeit & Aufladen

Das OnePlus 13 verfügt über einen “Silicon NanoStack”-Akku mit 6.000 Milliamperestunden. Er bietet eine noch nie dagewesene Akkulaufzeit, die sogar mit speziellen Gaming-Handys mithalten kann.

In unserem PCMark-Akkutest hielt das OnePlus 13 15 Stunden und 27 Minuten durch, verglichen mit 14 Stunden und 40 Minuten beim ROG Phone 9 Pro. Mit 100 Watt kabelgebundenem und 50 Watt drahtlosem Laden übertrifft es die meisten Konkurrenten auch bei der Ladegeschwindigkeit (50 Prozent Ladung nach 34 Minuten). OnePlus legt jedoch leider kein Ladegerät in die Verpackung.

Foundry | Alex Walker-Todd

Das ROG Phone 9 Pro verfügt über einen etwas kleineren Akku mit 5.800 Milliamperestunden, bietet aber dennoch eine außergewöhnliche Ausdauer.

Das kabelgebundene Aufladen mit 65 Watt ist zwar langsamer als beim OnePlus 13, liefert aber bessere Ergebnisse. Eine 15-minütige Aufladung bringt etwa 41 Prozent aus dem leeren Zustand, eine 30-minütige Aufladung schafft bis zu etwa 70 Prozent.

Das Smartphone bietet auch kabelloses Laden mit 15 Watt. Das funktioniert zwar, ist aber langsamer als bei seinem Konkurrenten. Ein Ladegerät befindet sich ebenfalls in der Verpackung.

Joshua Brown

Die Akkulaufzeit des OnePlus 13 ist wirklich herausragend und macht es zur besseren Wahl für allgemeine Nutzer, die sich eine lange Laufzeit wünschen. Der ausgewogene Akku, das schnelle Aufladen und das effiziente Kühlsystem des ROG Phone 9 Pro sorgen hingegen für eine stabile Leistung bei langen Gaming-Sessions.

Weitere Unterschiede

Das OnePlus 13 bietet eine raffiniertere Kameraausstattung mit drei 50-Megapixel-Sensoren, darunter ein neues, gefaltetes Teleobjektiv. Das ROG Phone 9 Pro verfügt ebenfalls über einen 50-Megapixel-Hauptsensor, legt aber weniger Wert auf die Tele- und Ultraweitwinkelkameras, sondern konzentriert sich stattdessen auf die Leistung.

Beide Geräte laufen mit Android 15. Das OnePlus 13 verspricht vier Jahre lang Betriebssystem-Updates und sechs Jahre lang Sicherheits-Patches, während das ROG Phone 9 Pro nur zwei Jahre lang Betriebssystem-Updates und fünf Jahre lang Sicherheits-Updates bietet.

Weiterhin verfügt das ROG Phone 9 Pro über einen seitlich angebrachten USB-C-Anschluss für einfacheres Aufladen beim Spielen, berührungsempfindliche AirTrigger und ein externes Lüfterkühlungszubehör. Derartige Extras sucht man beim OnePlus 13 vergeblich.

Preis & Verfügbarkeit

Der Preis für das OnePlus 13 liegt im OnePlus-Online-Shop bei 999 Euro für die 256-Gigabyte-Variante und bei 1.149 Euro für das 512-Gigabyte-Modell. Bei Amazon ist die Variante mit 256 Gigabyte schon für 979 Euro erhältlich.

Aktuell bester Preis OnePlus 13

Die Preise für das ROG Phone 9 Pro beginnen bei Amazon für die Variante mit 12 Gigabyte RAM bei 1.149,99 Euro. Mit 16 Gigabyte Arbeitsspeicher kostet das Smartphone 1.299 Euro.

Fazit

Beide Smartphones sind eine hervorragende Optionen. Sie sind jedoch auf unterschiedliche Weise attraktiv. Das OnePlus 13 ist die beste Wahl für allgemeine Nutzer, die eine exzellente Akkulaufzeit, Displayqualität und Kameraleistung zu einem wettbewerbsfähigen Preis suchen. Das Gerät bietet zudem solide Gaming-Fähigkeiten.

Das ROG Phone 9 Pro, die beste Wahl für echte Gamer, die hohe Bildwiederholraten, Kühllösungen und spezifische Funktionen wie AirTrigger und die AniMe Vision LED-Matrix benötigen. Das OnePlus 13 bietet unserer Meinung nach jedoch ein besseres Preis-Leistungs-Verhältnis.

(PC-Welt)

Duell: OnePlus 13 vs. Asus ROG Phone 9 Pro​ Weiterlesen »

Podcast: Geopolitische Risiken nicht im Griff​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Die Betriebe müssen lernen, mit Unwägbarkeiten umzugehen. fordert Konfliktforscher Nicolas Schwank im Podcast „TechTalk Smart Leadership“. alphaspirit.it – shutterstock.com „Wir beobachten seit 1945 die weltweiten Konflikte und können sagen: So viele akute Bedrohungen wie im Moment haben wir noch nie gesehen.“ Nicolas Schwank, Chief Data Scientist of Political Risk bei der Michael Bauer International GmbH, spricht im Podcast „TechTalk Smart Leadership“ von COMPUTERWOCHE, CIO-Magazin und CSO online nicht nur kriegerische Konflikte an.   Laut Schwank ist auch der „Systemkonflikt“ zwischen den USA und China akut. Immerhin seien die Brics-Staaten (Brics = Brasilien, Russland, Indien, China, Südafrika) erklärtermaßen angetreten, den Dollar als weltweite Leitwährung abzulösen und die Vorherrschaft der Amerikaner und Europäer im Bereich der Industrieproduktion zu brechen. „Je nachdem, wie diese Situation eskaliert, werden wir darunter zu leiden haben“, sagt der Konfliktforscher.   Noch aktueller sei für Deutschland das spürbare Auseinanderdriften der EU-Staaten, in denen die nationalen Interessen wieder stärker in den Vordergrund rückten. Zudem gebe es zahlreiche kriegerische Konflikte, etwa in Afrika, über die niemand spreche – in Äthiopien oder Eritrea etwa. Hinzu kämen ungezählte „leise Konflikte“, die aber große Auswirkungen haben könnten. Als Beispiel nennt Schwank eine Situation, in der Demonstranten eine Rohstoffmine oder den einzigen Zugang zu einem Hafen verbarrikadieren.    Dem Konfliktforscher zufolge stehen viele Unternehmen beim Managen dieser Risiken noch ganz am Anfang. Im Vergleich zu beispielsweise IT-Sicherheits- oder Brandrisiken seien solche geopolitischen Störungen auch nur schwer greifbar. „Das Problem ist, dass Unternehmen diese politischen Risiken nicht aktiv bearbeiten können“, so der Experte. „Man fühlt sich den Ereignissen ausgeliefert – ist es aber gar nicht.“ Die Betriebe müssten lernen, Risiken früh zu erkennen, zu verstehen und sich in Szenarien darauf vorzubereiten.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”> Informationen aus Presse oder Fernsehen Oft bemühen sich die Firmen laut Schwank nicht ausreichend um eine exakte Wahrnehmung ihrer Risiken. Die Verantwortlichen beziehen ihr Wissen dann lediglich aus der Tagespresse oder dem Fernsehen. Beispielsweise sei der China-Taiwan-Konflikt vor gut einem Jahr in den Medien überaus präsent gewesen, so dass viele Betriebe Strategien entwickelt hätten, um damit umgehen zu können. Inzwischen beherrsche das Thema nicht mehr die Schlagzeilen, sei aber noch genauso akut wie vor einem Jahr. In den Risikoüberlegungen der Unternehmen spiele ein möglicher Krieg im Roten Meer derzeit aber kaum eine Rolle.    Schwank empfiehlt moderne IT-Lösungen, die – integriert in betriebswirtschaftlicher Software – mit lokalem Bezug auf aktuelle oder aufkommende Risiken hinweisen. So könnten Unternehmen ständig ihre Lieferanten am Standort monitoren und auf mögliche Ausfallrisiken hin bewerten. Das verlange allerdings auch eine intensive Beschäftigung mit den Lieferanten selbst: Wo produzieren sie? Woher beziehen sie ihre Rohstoffe und Vorprodukte?   Mit dem viel gescholtenen „Lieferkettensorgfaltspflichtengesetz“ hat sich aus Sicht des Risiko-Spezialisten nichts verbessert. Politische Risiken seien damit nicht auf die Agenda der Betriebe gekommen, und das Augenmerk habe sich in den Lieferketten auch nicht – wie erhofft – auf Aspekte des Menschenrechts oder des Umweltschutzes gerichtet. Vielmehr sei ein „bürokratisches Monster“ entstanden, das sich unter anderem durch das Delegieren von Verantwortung in den Lieferketten auszeichne.   Schwank empfiehlt in Sachen Risiko-Management „ein breites Umdenken“, das bis hinunter auf die Abteilungsebene stattfinden müsse. Es brauche ein breites Verständnis davon, was es bedeute, wenn ein Lieferant einem erhöhten Risiko ausgesetzt sei. Außerdem müssten die Betriebe lernen, mit Unwägbarkeiten umzugehen. „Die Dynamiken sind so gravierend und oft auch so unterschiedlich, dass wir nur mit Wahrscheinlichkeiten arbeiten können. Exakte Prognosen sind meistens nicht möglich.“ (hv)  

Podcast: Geopolitische Risiken nicht im Griff​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Die Betriebe müssen lernen, mit Unwägbarkeiten umzugehen. fordert Konfliktforscher Nicolas Schwank im Podcast „TechTalk Smart Leadership“. alphaspirit.it – shutterstock.com

„Wir beobachten seit 1945 die weltweiten Konflikte und können sagen: So viele akute Bedrohungen wie im Moment haben wir noch nie gesehen.“ Nicolas Schwank, Chief Data Scientist of Political Risk bei der Michael Bauer International GmbH, spricht im Podcast „TechTalk Smart Leadership“ von COMPUTERWOCHE, CIO-Magazin und CSO online nicht nur kriegerische Konflikte an.  

Laut Schwank ist auch der „Systemkonflikt“ zwischen den USA und China akut. Immerhin seien die Brics-Staaten (Brics = Brasilien, Russland, Indien, China, Südafrika) erklärtermaßen angetreten, den Dollar als weltweite Leitwährung abzulösen und die Vorherrschaft der Amerikaner und Europäer im Bereich der Industrieproduktion zu brechen. „Je nachdem, wie diese Situation eskaliert, werden wir darunter zu leiden haben“, sagt der Konfliktforscher.  

Noch aktueller sei für Deutschland das spürbare Auseinanderdriften der EU-Staaten, in denen die nationalen Interessen wieder stärker in den Vordergrund rückten. Zudem gebe es zahlreiche kriegerische Konflikte, etwa in Afrika, über die niemand spreche – in Äthiopien oder Eritrea etwa. Hinzu kämen ungezählte „leise Konflikte“, die aber große Auswirkungen haben könnten. Als Beispiel nennt Schwank eine Situation, in der Demonstranten eine Rohstoffmine oder den einzigen Zugang zu einem Hafen verbarrikadieren.   

Dem Konfliktforscher zufolge stehen viele Unternehmen beim Managen dieser Risiken noch ganz am Anfang. Im Vergleich zu beispielsweise IT-Sicherheits- oder Brandrisiken seien solche geopolitischen Störungen auch nur schwer greifbar. „Das Problem ist, dass Unternehmen diese politischen Risiken nicht aktiv bearbeiten können“, so der Experte. „Man fühlt sich den Ereignissen ausgeliefert – ist es aber gar nicht.“ Die Betriebe müssten lernen, Risiken früh zu erkennen, zu verstehen und sich in Szenarien darauf vorzubereiten. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”>

Informationen aus Presse oder Fernsehen

Oft bemühen sich die Firmen laut Schwank nicht ausreichend um eine exakte Wahrnehmung ihrer Risiken. Die Verantwortlichen beziehen ihr Wissen dann lediglich aus der Tagespresse oder dem Fernsehen. Beispielsweise sei der China-Taiwan-Konflikt vor gut einem Jahr in den Medien überaus präsent gewesen, so dass viele Betriebe Strategien entwickelt hätten, um damit umgehen zu können. Inzwischen beherrsche das Thema nicht mehr die Schlagzeilen, sei aber noch genauso akut wie vor einem Jahr. In den Risikoüberlegungen der Unternehmen spiele ein möglicher Krieg im Roten Meer derzeit aber kaum eine Rolle.   

Schwank empfiehlt moderne IT-Lösungen, die – integriert in betriebswirtschaftlicher Software – mit lokalem Bezug auf aktuelle oder aufkommende Risiken hinweisen. So könnten Unternehmen ständig ihre Lieferanten am Standort monitoren und auf mögliche Ausfallrisiken hin bewerten. Das verlange allerdings auch eine intensive Beschäftigung mit den Lieferanten selbst: Wo produzieren sie? Woher beziehen sie ihre Rohstoffe und Vorprodukte?  

Mit dem viel gescholtenen „Lieferkettensorgfaltspflichtengesetz“ hat sich aus Sicht des Risiko-Spezialisten nichts verbessert. Politische Risiken seien damit nicht auf die Agenda der Betriebe gekommen, und das Augenmerk habe sich in den Lieferketten auch nicht – wie erhofft – auf Aspekte des Menschenrechts oder des Umweltschutzes gerichtet. Vielmehr sei ein „bürokratisches Monster“ entstanden, das sich unter anderem durch das Delegieren von Verantwortung in den Lieferketten auszeichne.  

Schwank empfiehlt in Sachen Risiko-Management „ein breites Umdenken“, das bis hinunter auf die Abteilungsebene stattfinden müsse. Es brauche ein breites Verständnis davon, was es bedeute, wenn ein Lieferant einem erhöhten Risiko ausgesetzt sei. Außerdem müssten die Betriebe lernen, mit Unwägbarkeiten umzugehen. „Die Dynamiken sind so gravierend und oft auch so unterschiedlich, dass wir nur mit Wahrscheinlichkeiten arbeiten können. Exakte Prognosen sind meistens nicht möglich.“ (hv) 

Podcast: Geopolitische Risiken nicht im Griff​ Weiterlesen »

Was Sie über Outsourcing wissen sollten​

Allgemein

Outsourcing kann Ihrem Unternehmen zahlreiche Vorteile verschaffen – wenn Sie es richtig angehen. Foto: thodonal88 – shutterstock.comInsbesondere wenn es darum geht, Beziehungen zu IT-Dienstleistern zu managen und Verträge mit ihnen auszuhandeln, können Sie mit Herausforderungen und Risiken konfrontiert werden. Dieser Artikel verrät Ihnen, was Sie zum Thema Outsourcing wissen müssen – und wie Sie damit erfolgreich sind.Outsourcing – DefinitionOutsourcing ist eine Geschäftspraxis, bei der Dienstleistungen oder Jobfunktionen zeitweise oder dauerhaft an einen Drittanbieter ausgelagert werden. Im IT-Bereich kann eine Outsourcing-Initiative eine Reihe von Prozessen umfassen, von der gesamten IT-Funktion bis hin zu einzelnen Komponenten – etwa Disaster Recovery, Netzwerkdienste, Softwareentwicklung oder QA-Tests. Wenn Unternehmen in diesem Zusammenhang mit Technologieanbietern zusammenarbeiten, können sie wählen, wie sie Dienstleistungen auslagern wollen:onshore (im eigenen Land),nearshore (in ein Nachbarland oder eines in derselben Zeitzone) oderoffshore (in ein weiter entferntes Land in anderer Zeitzone).Nearshore- und Offshore-Outsourcing sind traditionell Mittel, um Kosten zu senken.Business Process Outsourcing (BPO) ist ein übergreifender Begriff dafür, bestimmte Geschäftsprozess-Tasks auszulagern, beispielsweise die Lohnbuchhaltung. BPO wird häufig in zwei Kategorien unterteilt:Back-Office-BPO umfasst interne Geschäftsfunktionen wie Rechnungsstellung oder Einkauf;Front-Office-BPO beinhaltet kundenbezogene Dienstleistungen wie Marketing oder technischen Support.IT-Outsourcing bildet eine Untergruppe von Business Process Outsourcing und fällt traditionell in eine von zwei Kategorien:Infrastruktur-Outsourcing kann Service-Desk-Funktionen, Rechenzentren, Netzwerkdienste, Managed Security Operations oder das gesamte Infrastrukturmanagement umfassen.Anwendungs-Outsourcing kann die Entwicklung neuer Anwendungen, die Wartung von Altsystemen, Test- und Qualitätssicherungsdienste sowie die Implementierung und Verwaltung von Softwarepaketen umfassen.Die Angebote von Software-, Infrastructure- und Platform-as-a-Service-Anbietern zu nutzen, ist ebenfalls eine Spielart von IT-Outsourcing. Diese Art von Cloud Services haben nicht nur traditionelle Outsourcing-Anbieter im Programm, sondern auch Softwareanbieter oder sogar Industrieunternehmen, die technologiegestützte Dienstleistungen anbieten.Outsourcing – Vor- und NachteileDie Gründe für Outsourcing unterscheiden sich je nach individueller Situation. Dennoch lassen sich einige allgemeine Vor- und Nachteile von Outsourcing-Initiativen benennen:Vorteile:niedrigere Kosten (aufgrund von Skaleneffekten oder niedrigeren Löhnen)höhere Effizienzvariable Nutzung von KapazitätenAuslagerung nicht-strategischer Aufgaben und Fokus auf KernkompetenzenZugang zu Skills und Ressourcenerhöhte Flexibilität, um sich schnell an veränderte Business- oder Marktbedingungen anzupassenkürzere Time-to-Marketgeringere laufende Investitionen in die eigene InfrastrukturZugang zu Innovationen, geistigem Eigentum und Thought Leadershipmöglicher Cash-Zufluss durch die Übertragung von Assets an den neuen AnbieterNachteile:verlängerte Turnaround-Zeitmöglicher Mangel an Business- oder Fachwissen beim Partnersprachliche und/oder kulturelle BarrierenZeitzonen-Unterschiedeschlechte KontrollmöglichkeitenInterpretationsspielraum in Service Level Agreements (SLAs) So my outsourcing partner doesn’t speak English 100% but she does understands the universal language that is Spongebob memes.We’re making headway. pic.twitter.com/p3YIAtJ99B— BONES (@BONES_Gaming) June 10, 2019 IT-Outsourcing – (Preis-)ModelleDas geeignete Modell für eine IT-Dienstleistung hängt davon ab, welche Leistung erbracht wird. Die meisten Outsourcing-Verträge stellen auf Zeit und Material ab oder rechnen auf Festpreisbasis ab. Da die Outsourcing-Dienstleistungen jedoch zunehmend strategische Umgestaltungs- und Innovationsinitiativen umfassen, haben sich auch die vertraglichen Ansätze weiterentwickelt und umfassen nun auch Managed Services und ergebnisorientierte Vereinbarungen. Die gängigsten Möglichkeiten, einen Outsourcing-Vertrag zu strukturieren, sind:Zeit und Material: Der Kunde bezahlt den Anbieter auf der Grundlage seines Zeit- und Materialaufwands. In der Vergangenheit kam dieses Modell vor allem bei langfristigen Anwendungsentwicklungs- und Wartungsverträgen zum Einsatz. Es kann sinnvoll sein, wenn Umfang und Spezifikationen schwer abzuschätzen sind oder sich der Bedarf schnell ändert.Stück-/Abrufpreise: Der Anbieter legt einen Festpreis für einen bestimmten Service-Level fest, der Kunde zahlt auf der Grundlage seiner Nutzung. Die nutzungsabhängige Preisgestaltung kann vom ersten Tag an Produktivitätsgewinne bringen und die Analyse und Anpassung der Komponentenkosten erleichtern. Das erfordert jedoch, das Nachfragevolumen akkurat einzuschätzen und sich zu einem Mindesttransaktionsvolumen zu verpflichten. Festpreise: Hierbei wird der Preis zu Beginn festgelegt. Das kann gut funktionieren, wenn es stabile Anforderungen, Ziele und einen festen Umfang gibt. Festpreise machen die Kosten vorhersehbar, allerdings bleiben sie auch bei sinkenden Marktpreisen unverändert. Für den Anbieter kann dieses Modell schwierig werden, weil er die Leistung zum Festpreis unabhängig davon erbringen muss, wie viele Ressourcen das erfordert.Variable Preisgestaltung: Der Kunde zahlt einen festgelegten Preis am unteren Ende des Leistungsangebots. Die Preise können angehoben werden, wenn höhere Servicelevel in Anspruch genommen werden.Cost-Plus: Der Kunde zahlt dem Anbieter seine Kosten plus einen vorher festgelegten Prozentsatz. Dieses Outsourcing-Modell lässt keine Flexibilität zu, wenn sich Ziele oder Technologien ändern und bietet dem Anbieter zudem wenig Anreiz, effektive Leistung abzuliefern.Leistungsabhängige Preisgestaltung: Dieses Modell veranlasst Anbieter durch finanzielle Anreize zu optimaler Leistung. Bei einem unzureichenden Leistungsniveau drohen zudem Vertragsstrafen. Dieses Modell wird häufig in Verbindung mit einer traditionellen Preisgestaltung, z. B. nach Zeit und Material, verwendet und kann von Vorteil sein, wenn die Kunden spezifische Investitionen ermitteln können, die der Lieferant tätigen könnte, um ein höheres Leistungsniveau zu erzielen.Gewinnbeteiligung: Die Preisgestaltung variiert mit den Vorteilen, die der Kunde erzielt. So kann beispielsweise ein Automobilhersteller einen Dienstleister auf Grundlage der Anzahl der produzierten Fahrzeuge bezahlen. Bei dieser Art von Vereinbarung haben sowohl der Kunde als auch der Anbieter einen Anteil am Gewinn – wenn die Leistung des Anbieters optimal ausfällt und die Outsourcing-Ziele des Kunden erfüllt werden.Geteiltes Risiko/Belohnung: Anbieter und Kunde finanzieren gemeinsam die Entwicklung neuer Produkte, Lösungen und Dienstleistungen, wobei der Anbieter für einen bestimmten Zeitraum am Gewinn beteiligt wird. Dieses Modell ermutigt den Anbieter, Ideen einzubringen, um das Geschäft zu verbessern und verteilt das finanzielle Risiko auf beide Parteien. Allerdings erfordert dieses Outsourcing-Modell auch ein höheres Governance-Maß, um erfolgreich zu sein.Outsourcing – HerausforderungenDie Misserfolgsquote bei Outsourcing-Beziehungen ist nach wie vor hoch und liegt zwischen 40 und 70 Prozent. Der Kern des Problems ist der inhärente Interessenkonflikt, der mit jeder Outsourcing-Vereinbarung einhergeht. Der Kunde möchte einen besseren Service – der aber weniger kosten soll, als wenn er die Arbeit selbst erledigen würde. Der Anbieter möchte einen Gewinn erzielen. Dieses Spannungsverhältnis muss genau gesteuert werden, um ein erfolgreiches Ergebnis für Kunde und Anbieter zu gewährleisten.Ein Service Level Agreement (SLA) ist ein Hebel, um diesen Konflikt zu bewältigen, wenn er denn richtig ausgestaltet ist. Ein SLA ist ein Vertrag zwischen einem IT-Dienstleister und einem Kunden, in dem in messbarer Form festgelegt wird, welche Dienstleistungen der Anbieter erbringen wird. Service Levels werden zu Beginn jeder Outsourcing-Beziehung festgelegt und dienen dazu, die Performance des Anbieters zu messen und zu überwachen.In einer Krisensituation überstürzt auszulagern, um die Kosten zu senken, ist eine Ausgangslage, in der Outsourcing oft scheitert. Beim Outsourcing sollte es um eine Investition gehen, die darauf abzielt, den Skill-Levek zu erhöhen, zu expandieren, die Agilität und Rentabilität zu verbessern oder einen Wettbewerbsvorteil zu erzielen. Wenn die Grenzen zwischen den Verantwortlichkeiten von Kunden und Anbietern verschwimmen, nehmen die Risiken generell zu. Unabhängig von der Art des Outsourcings wird die Beziehung nur dann erfolgreich sein, wenn sowohl Anbieter als auch Kunde die erwarteten Vorteile erzielen können.Weil viele CIOs heute einen Multi-Vendor-Ansatz bevorzugen, in dessen Rahmen sie Dienstleistungen von mehreren Best-of-Breed-Anbietern beziehen, entstehen weitere Herausforderungen: Beim Multisourcing sollte der Kunde über ausgereifte Governance- und Vendor-Management-Prozesse verfügen. Bei den Vertragsverhandlungen müssen CIOs außerdem deutlich machen, dass unkooperative Anbieter Gefahr laufen, den Auftrag zu verlieren. Daneben gilt es für IT-Entscheider auch, qualifizierte Vendor-Manager zu beschäftigen, die sowohl über finanzielle als auch technische Kenntnisse verfügen, um ein Projektmanagement-Büro oder eine andere Einrichtung zu betreiben, die das Outsourcing-Portfolio verwalten kann.Mit den Fortschritten in der digitalen Transformation haben viele Unternehmen isolierten IT-Services den Rücken gekehrt. Da die Betriebe neue Entwicklungsmethoden und -Infrastrukturen einsetzen, sind eigenständige IT-Servicebereiche oft nicht mehr sinnvoll. Einige IT-Dienstleister versuchen, durch Vermittlungsdienste oder Partnerschaftsvereinbarungen zu One-Stop-Shops für die Kunden zu werden.Outsourcing – Dienstleister wählenDie Auswahl eines Service Providers ist, gerade wenn es um Outsourcing geht, eine schwierige Entscheidung. Kein Dienstleister wird dabei exakt zu den eigenen Bedürfnissen passen. Um eine fundierte Entscheidung treffen zu können, sollten Sie zunächst Ihre Anforderungen an die Outsourcing-Beziehung formulieren und Ihre wichtigsten Kriterien herausarbeiten. Es ist essenziell, dass Sie sich klar darüber sind, was für Ihr Unternehmen am besten ist, bevor Sie sich an einen Outsourcing-Dienstleister wenden. Folgende Fragen sollten Sie dabei zum Beispiel beantworten:Was ist für Sie wichtiger: die Gesamteinsparungen, die ein Outsourcing-Anbieter für Sie erzielen kann, oder seine Fähigkeit, möglichst schnell Ihre Kosten zu senken?Brauchen Sie ein breites Spektrum an Skills oder Fachwissen in einem spezifischen Bereich?Bevorzugen Sie niedrige Festpreise oder eher variable Preise?Sobald Sie Ihre Bedürfnisse definiert und nach Prioritäten geordnet haben, können Sie besser entscheiden, welche Kompromisse Sie einzugehen bereit sind. Viele Unternehmen ziehen bei diesem Schritt einen Sourcing-Berater hinzu, um sich dabei unterstützen zu lassen, Anforderungen und Prioritäten zu definieren. Grundsätzlich kann das Fachwissen eines außenstehenden Dritten an dieser Stelle hilfreich sein. Es ist allerdings wichtig, diesen Consultant gut zu recherchieren. Manche Berater haben ein persönliches Interesse daran, Sie zum Outsourcing zu bewegen, anstatt Ihnen dabei zu helfen herauszufinden, ob Outsourcing für Ihr Unternehmen überhaupt eine gute Option ist.Ein guter Sourcing-Berater kann einem unerfahrenen Einkäufer bei der Auswahl des Anbieters helfen, indem er ihn bei Schritten wie der Due-Diligence-Prüfung, dem Ausschreibungsverfahren und der endgültigen Entscheidung für einen Provider unterstützt.Das Ziel des folgenden Verhandlungsprozesses, der emotional und sogar streitbar sein kann, besteht darin, die Risiken und Vorteile für beide Parteien abzuwägen. Kluge Einkäufer übernehmen die Führung in den Verhandlungen und setzen die für sie wichtigen Prioritäten, anstatt das Geschehen vom Provider diktieren zu lassen.Einen Zeitplan und eine Deadline für die Verhandlungen festzulegen, hilft dabei, den Prozess in den Griff zu bekommen. Ohne einen solchen Zeitplan können sich die Diskussionen ewig hinziehen. Andererseits sollten Sie bei Diskussionsbedarf auch bei Bedarf ein zwei Tage anhängen können. Wichtig ist dabei außerdem, keine Arbeit auszulagern solange die Vertragsverhandlungen laufen. Damit geben sie dem Anbieter lediglich mehr Macht im Verhandlungsprozess.Outsourcing – versteckte KostenJe nachdem, was an wen ausgelagert wird, zahlen Unternehmen am Ende mindestens zehn Prozent mehr als die vereinbarte Investitionssumme, um den Deal langfristig zu managen. Zu den wichtigsten zusätzlichen Ausgaben im Zusammenhang mit Outsourcing gehören:Kosten für Benchmarking und Analysen, um festzustellen, ob Outsourcing die richtige Wahl ist;Kosten, um Anbieter zu evaluieren und auszuwählen;Kosten für den Transfer von Arbeit und Wissen an den Outsourcing-Dienstleister;Kosten, die durch mögliche Entlassungen und damit verbundene Personalfragen entstehen;Kosten für laufende Einstellungen und Outsourcing-Beziehungsmanagement;Diese versteckten Kosten sollten Sie berücksichtigen, wenn Sie einen Business Case für Outsourcing erstellen.Outsourcing – GovernanceEine kooperative Beziehung, die auf effektivem Vertragsmanagement und Vertrauen basiert, kann den Wert einer Outsourcing-Beziehung erhöhen. Eine gegenteilige Beziehung kann jedoch den Wert der Vereinbarung erheblich schmälern, insbesondere durch den erhöhten Überwachungs- und Prüfungsbedarf. In einem solchen Umfeld eskalieren Konflikte häufig und Projekte werden nicht zu Ende geführt.Bei erfolgreichem Outsourcing geht es ebenso sehr um Beziehungen wie um tatsächliche IT-Dienstleistungen oder Transaktionen. Daher ist die Outsourcing-Governance der wichtigste Faktor, der über den Erfolg eines Outsourcing-Geschäfts entscheidet. Ohne sie laufen sorgfältig ausgehandelte und dokumentierte Rechte in einem Outsourcing-Vertrag Gefahr, nicht durchgesetzt werden zu können.IT-Backsourcing?Ein Backsourcing von IT-Tasks, also die Rückführung eines ausgelagerten Dienstes, ist immer eine Option, wenn eine Outsourcing-Vereinbarung nicht funktioniert – entweder weil es von vornherein keinen guten Business Case dafür gab oder weil sich das Business-Umfeld geändert hat. Es kann jedoch schwierig sein, aus einer Outsourcing-Beziehung auszusteigen. Deswegen verhandeln viele Kunden, die mit ihren Outsourcing-Ergebnissen unzufrieden sind, ihre Verträge und Beziehungen neu und organisieren sie um, anstatt zu versuchen, zum Zustand vor dem Outsourcing zurückzukehren.In manchen Fällen kann es jedoch die beste Option darstellen, die IT wieder ins eigene Haus zu holen. Das sollte dann allerdings mit Sorgfalt geschehen.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.7 Governance-Tipps1. Gesunder MenschenverstandDie IT-Governance muss klar verständlich und preisgünstig umsetzbar sein. Testfrage: Würden Sie selbst die IT Governance verstehen und umsetzen wollen?2. Frühzeitige OrganisationWenn es noch keine Governance-Organisation im Unternehmen gibt, sollte sie laut Experton mindestens ein Jahr vor einem großen Outsourcing-Vorhaben geschaffen werden. Testfrage: Sind IT-Abteilung und interne Anwender schon an Vorgaben und Kontrolle durch die IT-Governance gewöhnt?3. Governance vor VereinbarungDie IT-Governance sollte stehen, bevor das Outsourcing startet. Testfrage: Sind die neuen Regeln und Prozesse bereits überall bekannt und werden sie gelebt? 4. Aktivitäten im VorfeldDie Governance-Organisation sollte bereits während der Ausschreibungs- und Vergabephase beteiligt werden. Testfragen: Hat die Governance-Organisation bereits Input zur Ausschreibung geleistet? Hat sie bereits Anpassungen ihrer Vorgaben und Prozesse im Hinblick auf das Outsourcing vorgenommen?5. Rasche Einbindung Die übrige bleibende IT-Abteilung sollte auch frühzeitig in den Outsourcing-Prozess eingebunden werden. Vor allem in der Transitions- und Transformationsphase, so Experton. Testfragen: Sind Personal, Aufgaben und Rollen der Retained Organisation bereits klar definiert? Ist sie vom Kick-Off an in alle Gremien und Prozesse fest eingebunden?6. Gelebte KulturDie neue Governance-Kultur sollte konsequent gelebt und umgesetzt werden. Testfragen: Haben Sie Sanktionen für Verstöße definiert? Haben Sie in den ersten drei Monaten nach Einführung gezielt nach Verstößen gesucht und diese behoben? Weiß jeder Anwender und für Sie tätige Mitarbeiter des Anbieters genau, welche Regeln er einhalten muss?7. Kontrolle unumgänglichKey Performance Indicators (KPIs) und Service Level Agreements (SLAs) müssen nach Umsetzung der Transaktion eingehalten, regelmäßig überprüft und anschaulich berichtet werden. “Sonst nützt die schönste IT Governance nichts”, warnt Experton. Testfragen: Haben Sie genaue Berichtsvorgaben für die SLA definiert? Wird die Einhaltung aller KPI durch dedizierte Mitarbeiter der Retained Organisation regelmäßig und gezielt nachgeprüft? 

Was Sie über Outsourcing wissen sollten​ Outsourcing kann Ihrem Unternehmen zahlreiche Vorteile verschaffen – wenn Sie es richtig angehen.
Foto: thodonal88 – shutterstock.comInsbesondere wenn es darum geht, Beziehungen zu IT-Dienstleistern zu managen und Verträge mit ihnen auszuhandeln, können Sie mit Herausforderungen und Risiken konfrontiert werden. Dieser Artikel verrät Ihnen, was Sie zum Thema Outsourcing wissen müssen – und wie Sie damit erfolgreich sind.Outsourcing – DefinitionOutsourcing ist eine Geschäftspraxis, bei der Dienstleistungen oder Jobfunktionen zeitweise oder dauerhaft an einen Drittanbieter ausgelagert werden. Im IT-Bereich kann eine Outsourcing-Initiative eine Reihe von Prozessen umfassen, von der gesamten IT-Funktion bis hin zu einzelnen Komponenten – etwa Disaster Recovery, Netzwerkdienste, Softwareentwicklung oder QA-Tests.

Wenn Unternehmen in diesem Zusammenhang mit Technologieanbietern zusammenarbeiten, können sie wählen, wie sie Dienstleistungen auslagern wollen:onshore (im eigenen Land),nearshore (in ein Nachbarland oder eines in derselben Zeitzone) oderoffshore (in ein weiter entferntes Land in anderer Zeitzone).Nearshore- und Offshore-Outsourcing sind traditionell Mittel, um Kosten zu senken.Business Process Outsourcing (BPO) ist ein übergreifender Begriff dafür, bestimmte Geschäftsprozess-Tasks auszulagern, beispielsweise die Lohnbuchhaltung. BPO wird häufig in zwei Kategorien unterteilt:Back-Office-BPO umfasst interne Geschäftsfunktionen wie Rechnungsstellung oder Einkauf;Front-Office-BPO beinhaltet kundenbezogene Dienstleistungen wie Marketing oder technischen Support.IT-Outsourcing bildet eine Untergruppe von Business Process Outsourcing und fällt traditionell in eine von zwei Kategorien:Infrastruktur-Outsourcing kann Service-Desk-Funktionen, Rechenzentren, Netzwerkdienste, Managed Security Operations oder das gesamte Infrastrukturmanagement umfassen.Anwendungs-Outsourcing kann die Entwicklung neuer Anwendungen, die Wartung von Altsystemen, Test- und Qualitätssicherungsdienste sowie die Implementierung und Verwaltung von Softwarepaketen umfassen.Die Angebote von Software-, Infrastructure- und Platform-as-a-Service-Anbietern zu nutzen, ist ebenfalls eine Spielart von IT-Outsourcing. Diese Art von Cloud Services haben nicht nur traditionelle Outsourcing-Anbieter im Programm, sondern auch Softwareanbieter oder sogar Industrieunternehmen, die technologiegestützte Dienstleistungen anbieten.Outsourcing – Vor- und NachteileDie Gründe für Outsourcing unterscheiden sich je nach individueller Situation. Dennoch lassen sich einige allgemeine Vor- und Nachteile von Outsourcing-Initiativen benennen:Vorteile:niedrigere Kosten (aufgrund von Skaleneffekten oder niedrigeren Löhnen)höhere Effizienzvariable Nutzung von KapazitätenAuslagerung nicht-strategischer Aufgaben und Fokus auf KernkompetenzenZugang zu Skills und Ressourcenerhöhte Flexibilität, um sich schnell an veränderte Business- oder Marktbedingungen anzupassenkürzere Time-to-Marketgeringere laufende Investitionen in die eigene InfrastrukturZugang zu Innovationen, geistigem Eigentum und Thought Leadershipmöglicher Cash-Zufluss durch die Übertragung von Assets an den neuen AnbieterNachteile:verlängerte Turnaround-Zeitmöglicher Mangel an Business- oder Fachwissen beim Partnersprachliche und/oder kulturelle BarrierenZeitzonen-Unterschiedeschlechte KontrollmöglichkeitenInterpretationsspielraum in Service Level Agreements (SLAs)

So my outsourcing partner doesn’t speak English 100% but she does understands the universal language that is Spongebob memes.We’re making headway. pic.twitter.com/p3YIAtJ99B— BONES (@BONES_Gaming) June 10, 2019

IT-Outsourcing – (Preis-)ModelleDas geeignete Modell für eine IT-Dienstleistung hängt davon ab, welche Leistung erbracht wird. Die meisten Outsourcing-Verträge stellen auf Zeit und Material ab oder rechnen auf Festpreisbasis ab. Da die Outsourcing-Dienstleistungen jedoch zunehmend strategische Umgestaltungs- und Innovationsinitiativen umfassen, haben sich auch die vertraglichen Ansätze weiterentwickelt und umfassen nun auch Managed Services und ergebnisorientierte Vereinbarungen. Die gängigsten Möglichkeiten, einen Outsourcing-Vertrag zu strukturieren, sind:Zeit und Material: Der Kunde bezahlt den Anbieter auf der Grundlage seines Zeit- und Materialaufwands. In der Vergangenheit kam dieses Modell vor allem bei langfristigen Anwendungsentwicklungs- und Wartungsverträgen zum Einsatz. Es kann sinnvoll sein, wenn Umfang und Spezifikationen schwer abzuschätzen sind oder sich der Bedarf schnell ändert.Stück-/Abrufpreise: Der Anbieter legt einen Festpreis für einen bestimmten Service-Level fest, der Kunde zahlt auf der Grundlage seiner Nutzung. Die nutzungsabhängige Preisgestaltung kann vom ersten Tag an Produktivitätsgewinne bringen und die Analyse und Anpassung der Komponentenkosten erleichtern. Das erfordert jedoch, das Nachfragevolumen akkurat einzuschätzen und sich zu einem Mindesttransaktionsvolumen zu verpflichten. Festpreise: Hierbei wird der Preis zu Beginn festgelegt. Das kann gut funktionieren, wenn es stabile Anforderungen, Ziele und einen festen Umfang gibt. Festpreise machen die Kosten vorhersehbar, allerdings bleiben sie auch bei sinkenden Marktpreisen unverändert. Für den Anbieter kann dieses Modell schwierig werden, weil er die Leistung zum Festpreis unabhängig davon erbringen muss, wie viele Ressourcen das erfordert.Variable Preisgestaltung: Der Kunde zahlt einen festgelegten Preis am unteren Ende des Leistungsangebots. Die Preise können angehoben werden, wenn höhere Servicelevel in Anspruch genommen werden.Cost-Plus: Der Kunde zahlt dem Anbieter seine Kosten plus einen vorher festgelegten Prozentsatz. Dieses Outsourcing-Modell lässt keine Flexibilität zu, wenn sich Ziele oder Technologien ändern und bietet dem Anbieter zudem wenig Anreiz, effektive Leistung abzuliefern.Leistungsabhängige Preisgestaltung: Dieses Modell veranlasst Anbieter durch finanzielle Anreize zu optimaler Leistung. Bei einem unzureichenden Leistungsniveau drohen zudem Vertragsstrafen. Dieses Modell wird häufig in Verbindung mit einer traditionellen Preisgestaltung, z. B. nach Zeit und Material, verwendet und kann von Vorteil sein, wenn die Kunden spezifische Investitionen ermitteln können, die der Lieferant tätigen könnte, um ein höheres Leistungsniveau zu erzielen.Gewinnbeteiligung: Die Preisgestaltung variiert mit den Vorteilen, die der Kunde erzielt. So kann beispielsweise ein Automobilhersteller einen Dienstleister auf Grundlage der Anzahl der produzierten Fahrzeuge bezahlen. Bei dieser Art von Vereinbarung haben sowohl der Kunde als auch der Anbieter einen Anteil am Gewinn – wenn die Leistung des Anbieters optimal ausfällt und die Outsourcing-Ziele des Kunden erfüllt werden.Geteiltes Risiko/Belohnung: Anbieter und Kunde finanzieren gemeinsam die Entwicklung neuer Produkte, Lösungen und Dienstleistungen, wobei der Anbieter für einen bestimmten Zeitraum am Gewinn beteiligt wird. Dieses Modell ermutigt den Anbieter, Ideen einzubringen, um das Geschäft zu verbessern und verteilt das finanzielle Risiko auf beide Parteien. Allerdings erfordert dieses Outsourcing-Modell auch ein höheres Governance-Maß, um erfolgreich zu sein.Outsourcing – HerausforderungenDie Misserfolgsquote bei Outsourcing-Beziehungen ist nach wie vor hoch und liegt zwischen 40 und 70 Prozent. Der Kern des Problems ist der inhärente Interessenkonflikt, der mit jeder Outsourcing-Vereinbarung einhergeht. Der Kunde möchte einen besseren Service – der aber weniger kosten soll, als wenn er die Arbeit selbst erledigen würde. Der Anbieter möchte einen Gewinn erzielen. Dieses Spannungsverhältnis muss genau gesteuert werden, um ein erfolgreiches Ergebnis für Kunde und Anbieter zu gewährleisten.Ein Service Level Agreement (SLA) ist ein Hebel, um diesen Konflikt zu bewältigen, wenn er denn richtig ausgestaltet ist. Ein SLA ist ein Vertrag zwischen einem IT-Dienstleister und einem Kunden, in dem in messbarer Form festgelegt wird, welche Dienstleistungen der Anbieter erbringen wird. Service Levels werden zu Beginn jeder Outsourcing-Beziehung festgelegt und dienen dazu, die Performance des Anbieters zu messen und zu überwachen.In einer Krisensituation überstürzt auszulagern, um die Kosten zu senken, ist eine Ausgangslage, in der Outsourcing oft scheitert. Beim Outsourcing sollte es um eine Investition gehen, die darauf abzielt, den Skill-Levek zu erhöhen, zu expandieren, die Agilität und Rentabilität zu verbessern oder einen Wettbewerbsvorteil zu erzielen. Wenn die Grenzen zwischen den Verantwortlichkeiten von Kunden und Anbietern verschwimmen, nehmen die Risiken generell zu. Unabhängig von der Art des Outsourcings wird die Beziehung nur dann erfolgreich sein, wenn sowohl Anbieter als auch Kunde die erwarteten Vorteile erzielen können.Weil viele CIOs heute einen Multi-Vendor-Ansatz bevorzugen, in dessen Rahmen sie Dienstleistungen von mehreren Best-of-Breed-Anbietern beziehen, entstehen weitere Herausforderungen: Beim Multisourcing sollte der Kunde über ausgereifte Governance- und Vendor-Management-Prozesse verfügen. Bei den Vertragsverhandlungen müssen CIOs außerdem deutlich machen, dass unkooperative Anbieter Gefahr laufen, den Auftrag zu verlieren. Daneben gilt es für IT-Entscheider auch, qualifizierte Vendor-Manager zu beschäftigen, die sowohl über finanzielle als auch technische Kenntnisse verfügen, um ein Projektmanagement-Büro oder eine andere Einrichtung zu betreiben, die das Outsourcing-Portfolio verwalten kann.Mit den Fortschritten in der digitalen Transformation haben viele Unternehmen isolierten IT-Services den Rücken gekehrt. Da die Betriebe neue Entwicklungsmethoden und -Infrastrukturen einsetzen, sind eigenständige IT-Servicebereiche oft nicht mehr sinnvoll. Einige IT-Dienstleister versuchen, durch Vermittlungsdienste oder Partnerschaftsvereinbarungen zu One-Stop-Shops für die Kunden zu werden.Outsourcing – Dienstleister wählenDie Auswahl eines Service Providers ist, gerade wenn es um Outsourcing geht, eine schwierige Entscheidung. Kein Dienstleister wird dabei exakt zu den eigenen Bedürfnissen passen. Um eine fundierte Entscheidung treffen zu können, sollten Sie zunächst Ihre Anforderungen an die Outsourcing-Beziehung formulieren und Ihre wichtigsten Kriterien herausarbeiten. Es ist essenziell, dass Sie sich klar darüber sind, was für Ihr Unternehmen am besten ist, bevor Sie sich an einen Outsourcing-Dienstleister wenden. Folgende Fragen sollten Sie dabei zum Beispiel beantworten:Was ist für Sie wichtiger: die Gesamteinsparungen, die ein Outsourcing-Anbieter für Sie erzielen kann, oder seine Fähigkeit, möglichst schnell Ihre Kosten zu senken?Brauchen Sie ein breites Spektrum an Skills oder Fachwissen in einem spezifischen Bereich?Bevorzugen Sie niedrige Festpreise oder eher variable Preise?Sobald Sie Ihre Bedürfnisse definiert und nach Prioritäten geordnet haben, können Sie besser entscheiden, welche Kompromisse Sie einzugehen bereit sind. Viele Unternehmen ziehen bei diesem Schritt einen Sourcing-Berater hinzu, um sich dabei unterstützen zu lassen, Anforderungen und Prioritäten zu definieren. Grundsätzlich kann das Fachwissen eines außenstehenden Dritten an dieser Stelle hilfreich sein. Es ist allerdings wichtig, diesen Consultant gut zu recherchieren. Manche Berater haben ein persönliches Interesse daran, Sie zum Outsourcing zu bewegen, anstatt Ihnen dabei zu helfen herauszufinden, ob Outsourcing für Ihr Unternehmen überhaupt eine gute Option ist.Ein guter Sourcing-Berater kann einem unerfahrenen Einkäufer bei der Auswahl des Anbieters helfen, indem er ihn bei Schritten wie der Due-Diligence-Prüfung, dem Ausschreibungsverfahren und der endgültigen Entscheidung für einen Provider unterstützt.Das Ziel des folgenden Verhandlungsprozesses, der emotional und sogar streitbar sein kann, besteht darin, die Risiken und Vorteile für beide Parteien abzuwägen. Kluge Einkäufer übernehmen die Führung in den Verhandlungen und setzen die für sie wichtigen Prioritäten, anstatt das Geschehen vom Provider diktieren zu lassen.Einen Zeitplan und eine Deadline für die Verhandlungen festzulegen, hilft dabei, den Prozess in den Griff zu bekommen. Ohne einen solchen Zeitplan können sich die Diskussionen ewig hinziehen. Andererseits sollten Sie bei Diskussionsbedarf auch bei Bedarf ein zwei Tage anhängen können. Wichtig ist dabei außerdem, keine Arbeit auszulagern solange die Vertragsverhandlungen laufen. Damit geben sie dem Anbieter lediglich mehr Macht im Verhandlungsprozess.Outsourcing – versteckte KostenJe nachdem, was an wen ausgelagert wird, zahlen Unternehmen am Ende mindestens zehn Prozent mehr als die vereinbarte Investitionssumme, um den Deal langfristig zu managen. Zu den wichtigsten zusätzlichen Ausgaben im Zusammenhang mit Outsourcing gehören:Kosten für Benchmarking und Analysen, um festzustellen, ob Outsourcing die richtige Wahl ist;Kosten, um Anbieter zu evaluieren und auszuwählen;Kosten für den Transfer von Arbeit und Wissen an den Outsourcing-Dienstleister;Kosten, die durch mögliche Entlassungen und damit verbundene Personalfragen entstehen;Kosten für laufende Einstellungen und Outsourcing-Beziehungsmanagement;Diese versteckten Kosten sollten Sie berücksichtigen, wenn Sie einen Business Case für Outsourcing erstellen.Outsourcing – GovernanceEine kooperative Beziehung, die auf effektivem Vertragsmanagement und Vertrauen basiert, kann den Wert einer Outsourcing-Beziehung erhöhen. Eine gegenteilige Beziehung kann jedoch den Wert der Vereinbarung erheblich schmälern, insbesondere durch den erhöhten Überwachungs- und Prüfungsbedarf. In einem solchen Umfeld eskalieren Konflikte häufig und Projekte werden nicht zu Ende geführt.Bei erfolgreichem Outsourcing geht es ebenso sehr um Beziehungen wie um tatsächliche IT-Dienstleistungen oder Transaktionen. Daher ist die Outsourcing-Governance der wichtigste Faktor, der über den Erfolg eines Outsourcing-Geschäfts entscheidet. Ohne sie laufen sorgfältig ausgehandelte und dokumentierte Rechte in einem Outsourcing-Vertrag Gefahr, nicht durchgesetzt werden zu können.IT-Backsourcing?Ein Backsourcing von IT-Tasks, also die Rückführung eines ausgelagerten Dienstes, ist immer eine Option, wenn eine Outsourcing-Vereinbarung nicht funktioniert – entweder weil es von vornherein keinen guten Business Case dafür gab oder weil sich das Business-Umfeld geändert hat. Es kann jedoch schwierig sein, aus einer Outsourcing-Beziehung auszusteigen. Deswegen verhandeln viele Kunden, die mit ihren Outsourcing-Ergebnissen unzufrieden sind, ihre Verträge und Beziehungen neu und organisieren sie um, anstatt zu versuchen, zum Zustand vor dem Outsourcing zurückzukehren.In manchen Fällen kann es jedoch die beste Option darstellen, die IT wieder ins eigene Haus zu holen. Das sollte dann allerdings mit Sorgfalt geschehen.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.7 Governance-Tipps1. Gesunder MenschenverstandDie IT-Governance muss klar verständlich und preisgünstig umsetzbar sein. Testfrage: Würden Sie selbst die IT Governance verstehen und umsetzen wollen?2. Frühzeitige OrganisationWenn es noch keine Governance-Organisation im Unternehmen gibt, sollte sie laut Experton mindestens ein Jahr vor einem großen Outsourcing-Vorhaben geschaffen werden. Testfrage: Sind IT-Abteilung und interne Anwender schon an Vorgaben und Kontrolle durch die IT-Governance gewöhnt?3. Governance vor VereinbarungDie IT-Governance sollte stehen, bevor das Outsourcing startet. Testfrage: Sind die neuen Regeln und Prozesse bereits überall bekannt und werden sie gelebt? 4. Aktivitäten im VorfeldDie Governance-Organisation sollte bereits während der Ausschreibungs- und Vergabephase beteiligt werden. Testfragen: Hat die Governance-Organisation bereits Input zur Ausschreibung geleistet? Hat sie bereits Anpassungen ihrer Vorgaben und Prozesse im Hinblick auf das Outsourcing vorgenommen?5. Rasche Einbindung Die übrige bleibende IT-Abteilung sollte auch frühzeitig in den Outsourcing-Prozess eingebunden werden. Vor allem in der Transitions- und Transformationsphase, so Experton. Testfragen: Sind Personal, Aufgaben und Rollen der Retained Organisation bereits klar definiert? Ist sie vom Kick-Off an in alle Gremien und Prozesse fest eingebunden?6. Gelebte KulturDie neue Governance-Kultur sollte konsequent gelebt und umgesetzt werden. Testfragen: Haben Sie Sanktionen für Verstöße definiert? Haben Sie in den ersten drei Monaten nach Einführung gezielt nach Verstößen gesucht und diese behoben? Weiß jeder Anwender und für Sie tätige Mitarbeiter des Anbieters genau, welche Regeln er einhalten muss?7. Kontrolle unumgänglichKey Performance Indicators (KPIs) und Service Level Agreements (SLAs) müssen nach Umsetzung der Transaktion eingehalten, regelmäßig überprüft und anschaulich berichtet werden. “Sonst nützt die schönste IT Governance nichts”, warnt Experton. Testfragen: Haben Sie genaue Berichtsvorgaben für die SLA definiert? Wird die Einhaltung aller KPI durch dedizierte Mitarbeiter der Retained Organisation regelmäßig und gezielt nachgeprüft?

Was Sie über Outsourcing wissen sollten​ Weiterlesen »

Refurbished Laptops: 4 Argumente für “generalüberholt”​

Allgemein

Refurbished-Devices waren zwar schon einmal in Gebrauch, sind aber keine Gebrauchtgeräte. Foto: Thichaa – shutterstock.com Wenn der Begriff “Refurbished Laptop” bei Ihnen erst einmal die Alarmglocken schrillen lässt: Damit sind Sie nicht allein. Allerdings sind generalüberholte Refurbished-Geräte nicht mit gebrauchten Devices gleichzusetzen, die man etwas auf dem Flohmarkt kauft. Letztere werden nämlich im Regelfall nicht auf Qualitätsaspekte hin überprüft. Ein Notebook, das als refurbished verkauft wird, wurde hingegen von einem (meist) seriösen Händler inspiziert, repariert und eventuell auch aufgerüstet. Im Folgenden lesen Sie, welche Vorteile es hat, sich für ein Refurbished-Gerät zu entscheiden. Die gelten nicht unbedingt exklusiv für Laptops, sondern sind auch auf andere Geräteklassen wie Smartphones übertragbar. Am Ende des Artikels finden Sie zudem einen Abschnitt mit häufig gestellten Fragen in Zusammenhang mit generalüberholten Notebooks. Refurbished Laptop: 4 Benefits 1. Refurbished schont den Geldbeutel Ein Refurbished Laptop wird nicht die neueste und beste Hardware beinhalten. Wenn Sie allerdings einfach nur ein Gerät wollen, das zuverlässig funktioniert, Ihren Anforderungen gerecht wird und dabei einen vernünftigen Preis bietet, ist ein generalüberholter Laptop eine gute Option. Solange Sie mit Hardware der letzten Generation zurechtkommen, können Sie insbesondere bei hochwertigeren Laptops unter Umständen einen richtig guten Deal machen. 2. Refurbished heißt nicht ohne Garantie Diverse Plattformen mit Refurbished-Angeboten (etwa Ebay oder Backmarket) bieten auch für Refurbished-Geräte Garantieleistungen und Rückgaberecht – im Regelfall ohne zusätzliche Kosten. Zudem gelten meist klare Regeln für generalüberholte Geräte – beziehungsweise deren Zustand. Bei Ebay etwa gibt es vier verschiedene Refurbished-Einstufungen. 3. Refurbished schont die Umwelt Wiederaufbereitete Laptops tragen dazu bei, Elektroschrott zu vermindern, weil sie die Lebensdauer nicht mehr ganz frischer Hardware verlängern. Wie inzwischen hinlänglich bekannt, verursacht Elektroschrott verheerende Umweltschäden durch die enthaltenen Chemikalien. Das ist gerade auch in Europa ein anhaltendes, respektive wachsendes Problem. Ein Refurbished Laptop ist also genau die richtige Wahl, wenn Ihnen der Umweltschutz am Herzen liegt. 4. Refurbished heißt (in der Regel) gründlich getestet Wie eingangs bereits angemerkt, unterscheidet sich ein Refurbished- von einem Gebraucht-Gerät in erster Linie durch umfassende Funktions- und Qualitätskontrollen. Defekte Teile werden im Rahmen der Generalüberholung im Regelfall durch neue ersetzt – funktionstüchtige Komponenten zumindest gründlich gereinigt. Getestet werden Refurbished-Geräte entweder vom Hersteller selbst oder einem (Trusted) Drittanbieter. FAQ Refurbished Laptops Was sind Refurbished Laptops? Einfach ausgedrückt, sind generalüberholte Laptops gebrauchte Geräte, die repariert, aufgerüstet und gereinigt wurden, um sie wiederzuverkaufen. In der Regel handelt es dabei sich um Rückläufer, Überbestände oder Devices mit kosmetischen Schäden. Wie lange halten Refurbished Laptops? Ein generalüberholtes Notebook sollte zwischen zwei und fünf Jahren halten – insofern Sie es schonend behandeln und regelmäßig warten (sowohl physisch als auch softwarebezogen). Gibt es irgendwelche Nachteile bei generalüberholten Laptops? Neben kosmetischen Mängeln kann unter Umständen auch die Lebensdauer des Akkus verkürzt sein. Überprüfen Sie deshalb dessen Zustand. Wo gibt es Refurbished Laptops zu kaufen? Refurbished-Geräte finden Sie nicht nur bei Ebay, sondern auch auf dedizierten Marktplätzen wie Backmarket oder auch direkt bei Herstellern wie Apple oder Dell. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Refurbished Laptops: 4 Argumente für “generalüberholt”​ Refurbished-Devices waren zwar schon einmal in Gebrauch, sind aber keine Gebrauchtgeräte.
Foto: Thichaa – shutterstock.com

Wenn der Begriff “Refurbished Laptop” bei Ihnen erst einmal die Alarmglocken schrillen lässt: Damit sind Sie nicht allein. Allerdings sind generalüberholte Refurbished-Geräte nicht mit gebrauchten Devices gleichzusetzen, die man etwas auf dem Flohmarkt kauft. Letztere werden nämlich im Regelfall nicht auf Qualitätsaspekte hin überprüft. Ein Notebook, das als refurbished verkauft wird, wurde hingegen von einem (meist) seriösen Händler inspiziert, repariert und eventuell auch aufgerüstet.

Im Folgenden lesen Sie, welche Vorteile es hat, sich für ein Refurbished-Gerät zu entscheiden. Die gelten nicht unbedingt exklusiv für Laptops, sondern sind auch auf andere Geräteklassen wie Smartphones übertragbar. Am Ende des Artikels finden Sie zudem einen Abschnitt mit häufig gestellten Fragen in Zusammenhang mit generalüberholten Notebooks.

Refurbished Laptop: 4 Benefits

1. Refurbished schont den Geldbeutel

Ein Refurbished Laptop wird nicht die neueste und beste Hardware beinhalten. Wenn Sie allerdings einfach nur ein Gerät wollen, das zuverlässig funktioniert, Ihren Anforderungen gerecht wird und dabei einen vernünftigen Preis bietet, ist ein generalüberholter Laptop eine gute Option.

Solange Sie mit Hardware der letzten Generation zurechtkommen, können Sie insbesondere bei hochwertigeren Laptops unter Umständen einen richtig guten Deal machen.

2. Refurbished heißt nicht ohne Garantie

Diverse Plattformen mit Refurbished-Angeboten (etwa Ebay oder Backmarket) bieten auch für Refurbished-Geräte Garantieleistungen und Rückgaberecht – im Regelfall ohne zusätzliche Kosten. Zudem gelten meist klare Regeln für generalüberholte Geräte – beziehungsweise deren Zustand. Bei Ebay etwa gibt es vier verschiedene Refurbished-Einstufungen.

3. Refurbished schont die Umwelt

Wiederaufbereitete Laptops tragen dazu bei, Elektroschrott zu vermindern, weil sie die Lebensdauer nicht mehr ganz frischer Hardware verlängern. Wie inzwischen hinlänglich bekannt, verursacht Elektroschrott verheerende Umweltschäden durch die enthaltenen Chemikalien. Das ist gerade auch in Europa ein anhaltendes, respektive wachsendes Problem. Ein Refurbished Laptop ist also genau die richtige Wahl, wenn Ihnen der Umweltschutz am Herzen liegt.

4. Refurbished heißt (in der Regel) gründlich getestet

Wie eingangs bereits angemerkt, unterscheidet sich ein Refurbished- von einem Gebraucht-Gerät in erster Linie durch umfassende Funktions- und Qualitätskontrollen. Defekte Teile werden im Rahmen der Generalüberholung im Regelfall durch neue ersetzt – funktionstüchtige Komponenten zumindest gründlich gereinigt. Getestet werden Refurbished-Geräte entweder vom Hersteller selbst oder einem (Trusted) Drittanbieter.

FAQ Refurbished Laptops

Was sind Refurbished Laptops?

Einfach ausgedrückt, sind generalüberholte Laptops gebrauchte Geräte, die repariert, aufgerüstet und gereinigt wurden, um sie wiederzuverkaufen. In der Regel handelt es dabei sich um Rückläufer, Überbestände oder Devices mit kosmetischen Schäden.

Wie lange halten Refurbished Laptops?

Ein generalüberholtes Notebook sollte zwischen zwei und fünf Jahren halten – insofern Sie es schonend behandeln und regelmäßig warten (sowohl physisch als auch softwarebezogen).

Gibt es irgendwelche Nachteile bei generalüberholten Laptops?

Neben kosmetischen Mängeln kann unter Umständen auch die Lebensdauer des Akkus verkürzt sein. Überprüfen Sie deshalb dessen Zustand.

Wo gibt es Refurbished Laptops zu kaufen?

Refurbished-Geräte finden Sie nicht nur bei Ebay, sondern auch auf dedizierten Marktplätzen wie Backmarket oder auch direkt bei Herstellern wie Apple oder Dell. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Refurbished Laptops: 4 Argumente für “generalüberholt”​ Weiterlesen »

10 Präventivmaßnahmen gegen Supply-Chain-Angriffe​

Allgemein

Softwarelieferketten abzusichern, ist angesichts der drohenden Folgen für alle Beteiligten unverzichtbar.OB KCP | shutterstock.com DevOps-Entscheider und Softwareentwickler sollten nicht der Illusion erliegen, mit einem Cybersecurity- oder Risk-Framework gegen sämtliche Taktiken krimineller Hacker gewappnet zu sein. Denn diese Frameworks beweisen „Mut zur Lücke“, wie Forscher von Yahoo und der North Carolina State University in einer aktuellen Untersuchung (PDF) herausgefunden haben. „Das Ziel dieser Studie ist es, die Anwender von Frameworks für die Softwarelieferkette dabei zu unterstützen, die Risiken von Angriffen zu minimieren“, konstatieren die Autoren. Dazu haben sie die Angriffstechniken, dreier berüchtigter Supply-Chain-Attacken mit den empfohlenen Tasks zehn verschiedener Frameworks gemappt – und herausgefunden, dass drei wesentliche Bereiche von keinem der Rahmenwerke abgedeckt werden. Deshalb haben die Studienautoren einen Maßnahmenkatalog für Softwareentwickler und -entscheider zusammengestellt. “Kein Framework ist perfekt” Für ihre Studie analysierten die Forscher insgesamt mehr als 100 Threat-Intelligence-Reports der schlagzeilenträchtigen Lieferketten-Angriffe auf, respektive über: SolarWinds, Log4j, und XZ Utils.   Die daraus extrahierten Angriffstechniken stellten sie schließlich insgesamt 73 empfohlenen Tasks zehn verschiedener Frameworks gegenüber. Darunter unter anderem auch: NIST 800-161 OpenSSF Scorecard, CNCF SSC und OWASP SCVS. Die folgenden Prozesse der Datenanalyse und -korrelation beschreibt die oben verlinkte Studie eingehend – wir konzentrieren uns in diesem Artikel aus Längengründen darauf, was unter dem Strich herausgekommen ist. Nämlich die Erkenntnis, dass alle zehn Frameworks Lücken aufweisen. Demnach lassen sie drei wichtige Faktoren außen vor: zu gewährleisten, dass Open-Source-Software nachhaltig ist, Tools einzusetzen, die die IT-Umgebung scannen, sowie sicherzustellen, dass Softwarepartner ihre Schwachstellen reporten. Damit ist laut den Forschern keines der Rahmenwerke dazu in der Lage, sämtliche potenziellen Sicherheitslücken einer Softwareanwendung zu schließen: „Selbst wenn Unternehmen sämtliche empfohlenen Tasks verinnerlichen, wären ihre Softwareprodukte immer noch anfällig für Supply-Chain-Angriffe.“ Für Johannes Ullrich, Dean of Research beim SANS Institute, ist das nicht unbedingt eine Überraschung: „Kein Framework ist perfekt – die Softwarelieferkette lässt sich nicht isoliert absichern. Frameworks können einen Ausgangspunkt für eine Diskussion darüber liefern, wo Lücken bestehen und wie diese sich schließen lassen.“ Führen müssten diese Diskussion jedoch die DevOps-Entscheider im Unternehmen, so Ullrich. Das “Starterkit” für sichere Software Basierend auf ihren Erkenntnissen und Analysen haben die Studienautoren ein „Starterkit“ erstellt. Dabei handelt es sich um einen Katalog, der zehn essenzielle Maßnahmen umfasst, um Softwareprodukte allgemein abzusichern. Denn, „um Angriffe auf die Softwarelieferkette erfolgreich zu verhindern, müssen gängige Software-Security-Aufgaben adressiert werden“, wie die Forscher festhalten. Ihr Maßnahmenkatalog umfasst: rollenbasierte Zugriffskontrollen, System-Monitoring, Boundary Protection, Konfigurations-Monitoring, Environmental Scanning Tools, Security Design Reviews, Dependency Updates, Information Flow Enforcement, Schutz für Daten im Ruhezustand, sowie risikobasierte Schwachstellenbehebung. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Präventivmaßnahmen gegen Supply-Chain-Angriffe​ Softwarelieferketten abzusichern, ist angesichts der drohenden Folgen für alle Beteiligten unverzichtbar.OB KCP | shutterstock.com

DevOps-Entscheider und Softwareentwickler sollten nicht der Illusion erliegen, mit einem Cybersecurity- oder Risk-Framework gegen sämtliche Taktiken krimineller Hacker gewappnet zu sein. Denn diese Frameworks beweisen „Mut zur Lücke“, wie Forscher von Yahoo und der North Carolina State University in einer aktuellen Untersuchung (PDF) herausgefunden haben.

„Das Ziel dieser Studie ist es, die Anwender von Frameworks für die Softwarelieferkette dabei zu unterstützen, die Risiken von Angriffen zu minimieren“, konstatieren die Autoren. Dazu haben sie die Angriffstechniken, dreier berüchtigter Supply-Chain-Attacken mit den empfohlenen Tasks zehn verschiedener Frameworks gemappt – und herausgefunden, dass drei wesentliche Bereiche von keinem der Rahmenwerke abgedeckt werden. Deshalb haben die Studienautoren einen Maßnahmenkatalog für Softwareentwickler und -entscheider zusammengestellt.

“Kein Framework ist perfekt”

Für ihre Studie analysierten die Forscher insgesamt mehr als 100 Threat-Intelligence-Reports der schlagzeilenträchtigen Lieferketten-Angriffe auf, respektive über:

SolarWinds,

Log4j, und

XZ Utils.  

Die daraus extrahierten Angriffstechniken stellten sie schließlich insgesamt 73 empfohlenen Tasks zehn verschiedener Frameworks gegenüber. Darunter unter anderem auch:

NIST 800-161

OpenSSF Scorecard,

CNCF SSC und

OWASP SCVS.

Die folgenden Prozesse der Datenanalyse und -korrelation beschreibt die oben verlinkte Studie eingehend – wir konzentrieren uns in diesem Artikel aus Längengründen darauf, was unter dem Strich herausgekommen ist. Nämlich die Erkenntnis, dass alle zehn Frameworks Lücken aufweisen. Demnach lassen sie drei wichtige Faktoren außen vor:

zu gewährleisten, dass Open-Source-Software nachhaltig ist,

Tools einzusetzen, die die IT-Umgebung scannen, sowie

sicherzustellen, dass Softwarepartner ihre Schwachstellen reporten.

Damit ist laut den Forschern keines der Rahmenwerke dazu in der Lage, sämtliche potenziellen Sicherheitslücken einer Softwareanwendung zu schließen: „Selbst wenn Unternehmen sämtliche empfohlenen Tasks verinnerlichen, wären ihre Softwareprodukte immer noch anfällig für Supply-Chain-Angriffe.“

Für Johannes Ullrich, Dean of Research beim SANS Institute, ist das nicht unbedingt eine Überraschung: „Kein Framework ist perfekt – die Softwarelieferkette lässt sich nicht isoliert absichern. Frameworks können einen Ausgangspunkt für eine Diskussion darüber liefern, wo Lücken bestehen und wie diese sich schließen lassen.“ Führen müssten diese Diskussion jedoch die DevOps-Entscheider im Unternehmen, so Ullrich.

Das “Starterkit” für sichere Software

Basierend auf ihren Erkenntnissen und Analysen haben die Studienautoren ein „Starterkit“ erstellt. Dabei handelt es sich um einen Katalog, der zehn essenzielle Maßnahmen umfasst, um Softwareprodukte allgemein abzusichern. Denn, „um Angriffe auf die Softwarelieferkette erfolgreich zu verhindern, müssen gängige Software-Security-Aufgaben adressiert werden“, wie die Forscher festhalten.

Ihr Maßnahmenkatalog umfasst:

rollenbasierte Zugriffskontrollen,

System-Monitoring,

Boundary Protection,

Konfigurations-Monitoring,

Environmental Scanning Tools,

Security Design Reviews,

Dependency Updates,

Information Flow Enforcement,

Schutz für Daten im Ruhezustand, sowie

risikobasierte Schwachstellenbehebung.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Präventivmaßnahmen gegen Supply-Chain-Angriffe​ Weiterlesen »

Nach oben scrollen
×