Computerhaus Quickborn

Allgemein

Arbeitsrecht unterwegs und zu Hause: Das Homeoffice ist kein rechtsfreier Raum​

Allgemein

Der Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz. Das Arbeitszeitgesetz gilt auch außerhalb des Büros. Neben der Pflicht zum Datenschutz hat der Mitarbeiter beim mobilen Arbeiten selbst auch ein Recht auf Datenschutz. Die moderne Technik macht es möglich: Theoretisch ist dank Laptop, Breitband, Cloud etc. fast niemand mehr an einen festen Arbeitsplatz gebunden. Tatsächlich überlassen es immer mehr Arbeitgeber ihren Mitarbeitern, von wo aus sie arbeiten wollen. Das macht den Job attraktiver und steigert die Zufriedenheit. Mobilarbeit und Home-Office-Tätigkeit bieten Vorteile wie Flexibilität, höhere Selbstbestimmung und Vereinbarkeit von Beruf und Familie. Wenn der Arbeitgeber Mobilarbeit gewährt, muss er auch die erforderlichen Kosten übernehmen. Foto: GaudiLab – shutterstock.comWer mobile Arbeit anbieten oder selbst vom mobilen Arbeitsplatz profitieren möchte, sei es daheim, in der Bahn, beim Kunden, im Freibad oder Cafe, sollte sich aber auch über rechtliche und organisatorische Rahmenbedingungen Gedanken machen. Folgende Checkliste (Bilderstrecke) kann dabei helfen: 1. Wer entscheidet, ob mobil gearbeitet wird?Der Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz. Letztlich entscheidet also der Arbeitgeber, dem die Gestaltungsfreiheit der betrieblichen Organisation zusteht. Wenn Mobilarbeit allerdings bereits in einem nennenswerten Umfang ohne Regelungsgrundlage gewährt oder geduldet wird, können Ansprüche aus einer betrieblichen Übung entstehen.2. Wie ist die Rechtslage, wenn ein Mitarbeiter Arbeit mit nach Hause nimmt?Wer Ausdrucke, Dateien oder weitergeleitete E-Mails mit nach Hause nimmt, riskiert arbeitsrechtliche Sanktionen, je nach Sensibilität der Informationen sogar bis hin zur Kündigung. Mitarbeiter sollten sich daher vorher mit dem Arbeitgeber genau abstimmen, ob und welche Firmenunterlagen sie mit nach Hause nehmen dürfen. Arbeitgeber hingegen sollten beachten, dass auch stillschweigendes Dulden von Mobilarbeit einen Anspruch des Mitarbeiters begründen kann. Ohne Regelungen sollte daher die Arbeit außerhalb des Büros eine Ausnahme darstellen.3. Welche Voraussetzungen müssen für Mobilarbeit gegeben sein?Grundsätzlich muss die Tätigkeit des Mitarbeiters dafür überhaupt geeignet sein. Betriebliche Termine, Kundentermine und Besprechungen sollten Vorrang haben. Wenn die Mobilarbeit ohne Störung in die betrieblichen Abläufe eingefügt werden kann, sollte außerdem die gleiche Effizienz der Arbeitsleistung wie bei Präsenzarbeit sichergestellt werden. Auch die adäquate Hardware muss gegeben sein: Ein eingerichtetes mobiles Endgerät muss zur Verfügung stehen und die Internet-Verbindung muss eine ausreichende Geschwindigkeit haben. Hard- und Software müssen eine sichere Verbindung zum unternehmensinternen Datennetz und Kommunikationsnetz sowie ausreichende Datensicherung gewährleisten.4. Wie wird die Arbeitszeit außerhalb des Betriebs erfasst?Nach dem Urteil des EuGH muss auch die Arbeitszeit im Home Office genau erfasst werden. Auch das Urteil des Bundesarbeitsgerichts schreibt eine genaue Erfassung vor.Die Höchstarbeitszeit pro Tag (maximal zehn Stunden), die Ruhezeiten (mindestens elf Stunden) sowie das Sonn- und Feiertagsverbot müssen eingehalten werden. Übrigens: Vergleicht man die durchschnittlichen Wochenstunden von Mitarbeitern in Mobilarbeit und im Büro, so arbeiten Mitarbeiter in Mobilarbeit im Durchschnitt rund vier Stunden pro Woche mehr.Neben dem Arbeitszeitgesetz muss der Arbeitgeber – insbesondere beim Home Office – auch andere Arbeitsschutzvorkehrungen treffen (Gefährdungsbeurteilung, Schutzmaßnahmen, Unterweisung und Vorschriften für Bildschirmarbeitsplätze) und der Mitarbeiter selbst ist verpflichtet, während des mobilen Arbeitens die Anforderungen an einen sicheren Arbeitsplatz zu gewährleisten. 5. Wie sieht es in Zeiten der DSGVO mit dem Datenschutz aus?Der Arbeitgeber muss die nötigen Schutzvorkehrungen treffen. Zum Beispiel kann über die Nutzung von VPN-Verbindungen ein sicherer Datentransfer garantiert werden. Wichtig ist, dass nur vom Arbeitgeber freigegebene Software und Dateien verwendet werden. Der Mitarbeiter muss sicherstellen, dass außer ihm niemand, auch keine Familienangehörigen, Zugang zu den verwendeten mobilen Endgeräten erhält. Außerdem dürfen Passwörter nicht an Dritte weitergegeben werden oder fahrlässig leicht zugänglich aufbewahrt werden. Dienste wie WhatsApp sollte man besser nicht auf dem Diensthandy installieren – sie greifen oft auch unbemerkt auf alle Kontakte zu. Neben der Pflicht zum Datenschutz hat beim mobilen Arbeiten der Mitarbeiter selbst aber auch ein Recht auf Datenschutz. Der Arbeitgeber darf Betriebsmittel und Arbeitsleistung nur unter Berücksichtigung der datenschutzrechtlichen Vorschriften kontrollieren. 6. Hat der Betriebsrat ein Wörtchen mitzureden?Nicht bei der Entscheidung für oder gegen mobiles Arbeiten an sich. Bei manchen Änderungen hat der Betriebsrat allerdings ein Mitspracherecht, zum Beispiel bei Änderung der Arbeitszeiten, der Nutzung von noch nicht mitbestimmten technischen Einrichtungen, der Verhütung von Arbeitsunfällen oder bei Versetzungen. Auch in den Planungsprozess muss der Betriebsrat einbezogen werden. Der Arbeitgeber ist zur Unterrichtung verpflichtet und der Betriebsrat hat ein Initiativrecht bei konkreten Verstößen gegen die menschengerechte Gestaltung des Arbeitsplatzes.7. Wer trägt die Kosten für Ausstattung und Telekommunikation?Wenn der Arbeitnehmer Mobilarbeit gewährt, muss er auch die erforderlichen Kosten übernehmen. Das schließt die Büroausstattung, die technische Ausstattung und die Telekommunikationskosten mit ein. Entweder wird der Arbeitnehmer mit allem Notwendigen ausgestattet oder er nutzt seine eigenen Endgeräte (“Bring your own Devices“). Für welche Variante oder Mischkonstellation man sich auch entscheidet, eine vertragliche Grundlage ist unverzichtbar.Arbeitsrecht im Home-OfficeRechte und Pflichten im Home-Office Foto: Zerbor – shutterstock.comAuch im Home-Office gilt das Arbeitsrecht. Welche Rechte und Pflichten Arbeitnehmer und Arbeitgeber haben, erklärt Claudia Knuth, Fachanwältin für Arbeitsrecht im Hamburger Büro der Kanzlei Lutz Abel. Der Arbeitgeber entscheidet Foto: Jirsak – shutterstock.comDer Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz. Letztlich entscheidet der Arbeitgeber, dem die Gestaltungsfreiheit der betrieblichen Organisation zusteht. Rechtslage beachten Foto: Ralf Geithe – shutterstock.comWer Ausdrucke, Dateien oder weitergeleitete E-Mails mit nach Hause nimmt, riskiert arbeitsrechtliche Sanktionen, je nach Sensibilität der Informationen sogar bis hin zur Kündigung. Mitarbeiter sollten sich daher vorher mit dem Arbeitgeber genau abstimmen, ob und welche Firmenunterlagen sie mit nach Hause nehmen dürfen. Voraussetzungen prüfen Foto: Yeexin Richelle – shutterstock.comGrundsätzlich muss die Tätigkeit des Mitarbeiters dafür überhaupt geeignet sein. Betriebliche Termine, Kundentermine und Besprechungen sollten Vorrang haben. Wenn die Mobilarbeit ohne Störung in die betrieblichen Abläufe eingefügt werden kann, sollte außerdem die gleiche Effizienz der Arbeitsleistung wie bei Präsenzarbeit sichergestellt werden.Arbeitszeiterfassung klären Foto: Liderina – shutterstock.comAnstatt zum Arbeitsbeginn und -ende ein- und auszustempeln, sollte im Home-Office notiert werden, wie lange der Arbeitnehmer am Tag in der Woche gearbeitet hat. Voraussetzung dafür ist eine vertrauens- und ergebnisorientierte Arbeitskultur, da die Zeiterfassung schwerer kontrolliert werden kann. Das Arbeitszeitgesetz gilt auch außerhalb des Büros: Die Höchstarbeitszeit pro Tag (maximal zehn Stunden), die Ruhezeiten (mindestens elf Stunden) sowie das Sonn- und Feiertagsverbot müssen eingehalten werden.Datenschutz sicherstellen Foto: Wetzkaz Graphics – shutterstock.comDer Arbeitgeber muss die nötigen Schutzvorkehrungen treffen. Zum Beispiel kann über die Nutzung von VPN-Verbindungen ein sicherer Datentransfer garantiert werden. Wichtig ist, dass nur vom Arbeitgeber freigegebene Software und Dateien verwendet werden. Der Mitarbeiter muss sicherstellen, dass außer ihm niemand, auch keine Familienangehörigen, Zugang zu den verwendeten mobilen Endgeräten erhält. Außerdem dürfen Passwörter nicht an Dritte weitergegeben werden oder fahrlässig leicht zugänglich aufbewahrt werden.Mitspracherechte des Betriebsrats Foto: keport – shutterstock.comDer Betriebsrat hat bei der Entscheidung für oder gegen mobiles Arbeiten kein Mitspracherecht. Bei manchen Änderungen allerdings schon, zum Beispiel bei Änderung der Arbeitszeiten, der Nutzung von noch nicht mitbestimmten technischen Einrichtungen, der Verhütung von Arbeitsunfällen oder bei Versetzungen. Durch den neu eingeführten Paragrafen 87, Absatz 1, Nummer 14 des Betriebsverfassungsgesetzes (BetrVG) wurden die Mitbestimmungsrechte ergänzt, sodass der Betriebsrart auch in den Planungsprozess einbezogen werden sollte.Kostenübernahme Foto: Zerbor – shutterstock.comWenn der Arbeitgeber Home-Office gewährt, muss er auch die erforderlichen Kosten übernehmen. Das schließt die Büroausstattung, die technische Ausstattung und die Telekommunikationskosten mit ein. Entweder wird der Arbeitnehmer mit allem Notwendigen ausgestattet oder er nutzt seine eigenen Endgeräte (“Bring your own Devices”). Für welche Variante oder Mischkonstellation man sich auch entscheidet, eine vertragliche Grundlage ist unverzichtbar. 

Arbeitsrecht unterwegs und zu Hause: Das Homeoffice ist kein rechtsfreier Raum​ Der Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz.

Das Arbeitszeitgesetz gilt auch außerhalb des Büros.

Neben der Pflicht zum Datenschutz hat der Mitarbeiter beim mobilen Arbeiten selbst auch ein Recht auf Datenschutz.

Die moderne Technik macht es möglich: Theoretisch ist dank Laptop, Breitband, Cloud etc. fast niemand mehr an einen festen Arbeitsplatz gebunden. Tatsächlich überlassen es immer mehr Arbeitgeber ihren Mitarbeitern, von wo aus sie arbeiten wollen. Das macht den Job attraktiver und steigert die Zufriedenheit. Mobilarbeit und Home-Office-Tätigkeit bieten Vorteile wie Flexibilität, höhere Selbstbestimmung und Vereinbarkeit von Beruf und Familie. Wenn der Arbeitgeber Mobilarbeit gewährt, muss er auch die erforderlichen Kosten übernehmen.
Foto: GaudiLab – shutterstock.comWer mobile Arbeit anbieten oder selbst vom mobilen Arbeitsplatz profitieren möchte, sei es daheim, in der Bahn, beim Kunden, im Freibad oder Cafe, sollte sich aber auch über rechtliche und organisatorische Rahmenbedingungen Gedanken machen. Folgende Checkliste (Bilderstrecke) kann dabei helfen: 1. Wer entscheidet, ob mobil gearbeitet wird?Der Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz. Letztlich entscheidet also der Arbeitgeber, dem die Gestaltungsfreiheit der betrieblichen Organisation zusteht. Wenn Mobilarbeit allerdings bereits in einem nennenswerten Umfang ohne Regelungsgrundlage gewährt oder geduldet wird, können Ansprüche aus einer betrieblichen Übung entstehen.2. Wie ist die Rechtslage, wenn ein Mitarbeiter Arbeit mit nach Hause nimmt?Wer Ausdrucke, Dateien oder weitergeleitete E-Mails mit nach Hause nimmt, riskiert arbeitsrechtliche Sanktionen, je nach Sensibilität der Informationen sogar bis hin zur Kündigung. Mitarbeiter sollten sich daher vorher mit dem Arbeitgeber genau abstimmen, ob und welche Firmenunterlagen sie mit nach Hause nehmen dürfen. Arbeitgeber hingegen sollten beachten, dass auch stillschweigendes Dulden von Mobilarbeit einen Anspruch des Mitarbeiters begründen kann. Ohne Regelungen sollte daher die Arbeit außerhalb des Büros eine Ausnahme darstellen.3. Welche Voraussetzungen müssen für Mobilarbeit gegeben sein?Grundsätzlich muss die Tätigkeit des Mitarbeiters dafür überhaupt geeignet sein. Betriebliche Termine, Kundentermine und Besprechungen sollten Vorrang haben. Wenn die Mobilarbeit ohne Störung in die betrieblichen Abläufe eingefügt werden kann, sollte außerdem die gleiche Effizienz der Arbeitsleistung wie bei Präsenzarbeit sichergestellt werden. Auch die adäquate Hardware muss gegeben sein: Ein eingerichtetes mobiles Endgerät muss zur Verfügung stehen und die Internet-Verbindung muss eine ausreichende Geschwindigkeit haben. Hard- und Software müssen eine sichere Verbindung zum unternehmensinternen Datennetz und Kommunikationsnetz sowie ausreichende Datensicherung gewährleisten.4. Wie wird die Arbeitszeit außerhalb des Betriebs erfasst?Nach dem Urteil des EuGH muss auch die Arbeitszeit im Home Office genau erfasst werden. Auch das Urteil des Bundesarbeitsgerichts schreibt eine genaue Erfassung vor.Die Höchstarbeitszeit pro Tag (maximal zehn Stunden), die Ruhezeiten (mindestens elf Stunden) sowie das Sonn- und Feiertagsverbot müssen eingehalten werden. Übrigens: Vergleicht man die durchschnittlichen Wochenstunden von Mitarbeitern in Mobilarbeit und im Büro, so arbeiten Mitarbeiter in Mobilarbeit im Durchschnitt rund vier Stunden pro Woche mehr.Neben dem Arbeitszeitgesetz muss der Arbeitgeber – insbesondere beim Home Office – auch andere Arbeitsschutzvorkehrungen treffen (Gefährdungsbeurteilung, Schutzmaßnahmen, Unterweisung und Vorschriften für Bildschirmarbeitsplätze) und der Mitarbeiter selbst ist verpflichtet, während des mobilen Arbeitens die Anforderungen an einen sicheren Arbeitsplatz zu gewährleisten.

5. Wie sieht es in Zeiten der DSGVO mit dem Datenschutz aus?Der Arbeitgeber muss die nötigen Schutzvorkehrungen treffen. Zum Beispiel kann über die Nutzung von VPN-Verbindungen ein sicherer Datentransfer garantiert werden. Wichtig ist, dass nur vom Arbeitgeber freigegebene Software und Dateien verwendet werden. Der Mitarbeiter muss sicherstellen, dass außer ihm niemand, auch keine Familienangehörigen, Zugang zu den verwendeten mobilen Endgeräten erhält. Außerdem dürfen Passwörter nicht an Dritte weitergegeben werden oder fahrlässig leicht zugänglich aufbewahrt werden. Dienste wie WhatsApp sollte man besser nicht auf dem Diensthandy installieren – sie greifen oft auch unbemerkt auf alle Kontakte zu. Neben der Pflicht zum Datenschutz hat beim mobilen Arbeiten der Mitarbeiter selbst aber auch ein Recht auf Datenschutz. Der Arbeitgeber darf Betriebsmittel und Arbeitsleistung nur unter Berücksichtigung der datenschutzrechtlichen Vorschriften kontrollieren. 6. Hat der Betriebsrat ein Wörtchen mitzureden?Nicht bei der Entscheidung für oder gegen mobiles Arbeiten an sich. Bei manchen Änderungen hat der Betriebsrat allerdings ein Mitspracherecht, zum Beispiel bei Änderung der Arbeitszeiten, der Nutzung von noch nicht mitbestimmten technischen Einrichtungen, der Verhütung von Arbeitsunfällen oder bei Versetzungen. Auch in den Planungsprozess muss der Betriebsrat einbezogen werden. Der Arbeitgeber ist zur Unterrichtung verpflichtet und der Betriebsrat hat ein Initiativrecht bei konkreten Verstößen gegen die menschengerechte Gestaltung des Arbeitsplatzes.7. Wer trägt die Kosten für Ausstattung und Telekommunikation?Wenn der Arbeitnehmer Mobilarbeit gewährt, muss er auch die erforderlichen Kosten übernehmen. Das schließt die Büroausstattung, die technische Ausstattung und die Telekommunikationskosten mit ein. Entweder wird der Arbeitnehmer mit allem Notwendigen ausgestattet oder er nutzt seine eigenen Endgeräte (“Bring your own Devices“). Für welche Variante oder Mischkonstellation man sich auch entscheidet, eine vertragliche Grundlage ist unverzichtbar.Arbeitsrecht im Home-OfficeRechte und Pflichten im Home-Office
Foto: Zerbor – shutterstock.comAuch im Home-Office gilt das Arbeitsrecht. Welche Rechte und Pflichten Arbeitnehmer und Arbeitgeber haben, erklärt Claudia Knuth, Fachanwältin für Arbeitsrecht im Hamburger Büro der Kanzlei Lutz Abel. Der Arbeitgeber entscheidet
Foto: Jirsak – shutterstock.comDer Arbeitnehmer hat keinen Anspruch auf einen mobilen oder häuslichen Arbeitsplatz. Letztlich entscheidet der Arbeitgeber, dem die Gestaltungsfreiheit der betrieblichen Organisation zusteht. Rechtslage beachten
Foto: Ralf Geithe – shutterstock.comWer Ausdrucke, Dateien oder weitergeleitete E-Mails mit nach Hause nimmt, riskiert arbeitsrechtliche Sanktionen, je nach Sensibilität der Informationen sogar bis hin zur Kündigung. Mitarbeiter sollten sich daher vorher mit dem Arbeitgeber genau abstimmen, ob und welche Firmenunterlagen sie mit nach Hause nehmen dürfen. Voraussetzungen prüfen
Foto: Yeexin Richelle – shutterstock.comGrundsätzlich muss die Tätigkeit des Mitarbeiters dafür überhaupt geeignet sein. Betriebliche Termine, Kundentermine und Besprechungen sollten Vorrang haben. Wenn die Mobilarbeit ohne Störung in die betrieblichen Abläufe eingefügt werden kann, sollte außerdem die gleiche Effizienz der Arbeitsleistung wie bei Präsenzarbeit sichergestellt werden.Arbeitszeiterfassung klären
Foto: Liderina – shutterstock.comAnstatt zum Arbeitsbeginn und -ende ein- und auszustempeln, sollte im Home-Office notiert werden, wie lange der Arbeitnehmer am Tag in der Woche gearbeitet hat. Voraussetzung dafür ist eine vertrauens- und ergebnisorientierte Arbeitskultur, da die Zeiterfassung schwerer kontrolliert werden kann. Das Arbeitszeitgesetz gilt auch außerhalb des Büros: Die Höchstarbeitszeit pro Tag (maximal zehn Stunden), die Ruhezeiten (mindestens elf Stunden) sowie das Sonn- und Feiertagsverbot müssen eingehalten werden.Datenschutz sicherstellen
Foto: Wetzkaz Graphics – shutterstock.comDer Arbeitgeber muss die nötigen Schutzvorkehrungen treffen. Zum Beispiel kann über die Nutzung von VPN-Verbindungen ein sicherer Datentransfer garantiert werden. Wichtig ist, dass nur vom Arbeitgeber freigegebene Software und Dateien verwendet werden. Der Mitarbeiter muss sicherstellen, dass außer ihm niemand, auch keine Familienangehörigen, Zugang zu den verwendeten mobilen Endgeräten erhält. Außerdem dürfen Passwörter nicht an Dritte weitergegeben werden oder fahrlässig leicht zugänglich aufbewahrt werden.Mitspracherechte des Betriebsrats
Foto: keport – shutterstock.comDer Betriebsrat hat bei der Entscheidung für oder gegen mobiles Arbeiten kein Mitspracherecht. Bei manchen Änderungen allerdings schon, zum Beispiel bei Änderung der Arbeitszeiten, der Nutzung von noch nicht mitbestimmten technischen Einrichtungen, der Verhütung von Arbeitsunfällen oder bei Versetzungen. Durch den neu eingeführten Paragrafen 87, Absatz 1, Nummer 14 des Betriebsverfassungsgesetzes (BetrVG) wurden die Mitbestimmungsrechte ergänzt, sodass der Betriebsrart auch in den Planungsprozess einbezogen werden sollte.Kostenübernahme
Foto: Zerbor – shutterstock.comWenn der Arbeitgeber Home-Office gewährt, muss er auch die erforderlichen Kosten übernehmen. Das schließt die Büroausstattung, die technische Ausstattung und die Telekommunikationskosten mit ein. Entweder wird der Arbeitnehmer mit allem Notwendigen ausgestattet oder er nutzt seine eigenen Endgeräte (“Bring your own Devices”). Für welche Variante oder Mischkonstellation man sich auch entscheidet, eine vertragliche Grundlage ist unverzichtbar.

Arbeitsrecht unterwegs und zu Hause: Das Homeoffice ist kein rechtsfreier Raum​ Weiterlesen »

S/4HANA-Migration stockt: Viele Kunden bleiben ECC auch nach 2027 treu​

Allgemein

Nicht nur für ECC-Nutzer, auch für SAP wird die Zeit angesichts des zögerlichen Umstiegs der Kunden auf S4/HANA langsam knapp. Kittyfly – Shutterstock Auf der SAP-Sapphire-Konferenz Mitte Mai wurde zwar viel über die Business Suite und SAPs Joule-KI-Agenten gesprochen, jedoch kaum über den Stand der Migration von ECC zu S/4HANA – dem aktuellen Flaggschiff-ERP.  Die SAP-Führungskräfte machten keine Angabe zu den Fortschritten, Kunden vom Wechsel von ihrem alten ECC-ERP auf S/4HANA zu überzeugen. Dabei läuft der Support für ECC bereits Ende 2027 für viele Kunden aus.  „Wenn Anbieter keine Zahlen nennen, sind sie meist nicht gut“, erklärt Fabio Di Capua, Vice President von Gartners Technology & Service Providers Team. „Wären sie positiv, würden sie es laut verkünden.“  Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Bei gleichbleibendem Tempo würden den Analysten entsprechend bis 2027 noch rund 17.000 Kunden, also fast die Hälfte bei ECC bleiben. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten.  Mickey North Rizza, Vice President der Enterprise Software Group bei IDC, ist hinsichtlich der Migrationszahlen etwas optimistischer, wenn auch nur knapp. Sie erwartet, dass 40 bis 45 Prozent der ECC-Anwender bis 2027 bei dem älteren ERP-System bleiben werden.  SAP hatte die erste Version von S/4HANA bereits Ende 2015 auf den Markt gebracht, aber selbst mit dem im Januar 2021 gestarteten RISE-Paket sei die Migration zwar stetig, aber langsam verlaufen, stellt Di Capua fest. Im März 2023 hätten die Walldorfer außerdem mit GROW with SAP ein Migrationspaket für mittelständische Unternehmen aufgelegt.  „Als SAP versuchte, die Leute zum Umstieg auf RISE zu bewegen, sagten wir ihnen: ‚Sie haben in 15 Jahren weniger als die Hälfte Ihrer Kunden überzeugt, zu migrieren‘“, erklärt der Gartner-Analyst. „Wie können Sie glauben, dass Sie die nächsten 50 Prozent in fünf Jahren migrieren werden?‘  Laut di Capua sind die Komplexität der ECC-Installationen, von denen viele stark angepasst sind, und die Kosten der Migration die beiden großen Hürden. Während eine Migration bereits mit zwei Millionen Dollar möglich sei, könnten die Kosten bei großen Unternehmen mit komplexen Installationen bis zu eine Milliarde Dollar erreichen.  Gartner hat mit Kunden zusammengearbeitet, die mit Migrationsprojekten von drei bis sieben Jahren rechnen. In vielen Fällen müssten SAP-Kunden ihre Prozesse komplett umgestalten, Änderungen vornehmen und in einigen Fällen eine zusätzliche Lösung für das Humankapital oder die Beschaffung einführen, so Di Capua.  Externe Helfer  Viele SAP-Kunden ziehen inzwischen Drittanbieter-Support für ECC in Betracht oder hoffen darauf, dass SAP seine eigenen Fristen erneut verlängert – zumal der Zeitplan in der Vergangenheit bereits mehrfach verschoben wurde. Im Februar kündigte SAP außerdem mit „SAP ERP, private edition, transition option“ eine neue Migrationsoption an. Sie erlaubt es bestimmten Großkunden, ECC noch bis 2033 weiter zu nutzen.  Einige SAP-Kunden wenden sich laut Di Capua außerdem Drittanbietern zu, um bestimmte ERP-Funktionalitäten wie Human Capital Management, Beschaffung oder Lieferkettenprozesse abzudecken.  IDC-Analystin North Rizza lobt SAP dafür, dass das Unternehmen die Supportfristen verlängert und neue Migrations-Tools eingeführt hat – als Reaktion auf die Schwierigkeiten, mit denen viele Kunden beim Umstieg zu kämpfen haben. „SAP hat begonnen zu erkennen, wo die Unternehmen auf Probleme stoßen – etwa, dass sie ihre gesamte Organisation nicht auf einmal vom alten auf das neue Produkt umstellen können“, erklärt sie. „Was SAP nun versucht, ist, den Kunden aufzuzeigen, dass es einen gangbaren Weg gibt, um sie dabei zu unterstützen.“  SAP wiegelt ab: Alles ist gut  SAP selbst sieht nach eigenen Angaben eine hohe Nachfrage nach seinen Produkten und Cloud-Diensten – darunter auch die Cloud-Version von S/4HANA. Im ersten Quartal 2025 stieg der Cloud-Umsatz laut Jan Gilg, Chief Revenue Officer und Präsident von SAP Americas sowie der Global Business Suite, im Vergleich zum Vorjahr um etwa 26 Prozent.  Die gute Nachricht für SAP ist dabei, dass zwei Drittel der neuen Cloud-Kunden Neuzugänge seien, wie Mark Moerdler, Managing Director und Senior Analyst bei Bernstein Research, anmerkt.  Gilg widerspricht außerdem der Einschätzung von Di Capua, wonach SAP-Kunden vermehrt auf zusätzliche ERP-Dienste von Drittanbietern zurückgreifen. „Im Gegenteil: Einzelne Fachbereichsanwendungen verlieren im Zeitalter von generativer KI zunehmend an Relevanz“, erklärt Gilg in einer von der SAP-PR weitergeleiteten E-Mail. „Wir beobachten eine steigende Kundennachfrage nach einer integrierten Cloud-Suite – denn durch die Cloud hat sich der Umgang mit Daten grundlegend verändert.“  Mehrere Unternehmen, darunter IBM, berichten von deutlichen Vorteilen durch die Migration zu S/4HANA – etwa IBM: Der Tech-Konzern konnte seit Abschluss der Migration im Juli 2024 seine betrieblichen Infrastrukturkosten um 30 Prozent senken.  Dennoch, so Analysten, steht SAP vor einer großen Herausforderung: Viele ECC-Nutzer zögern weiterhin mit dem Umstieg. Während SAP versucht, Kunden zu seinen Cloud-Services zu bewegen, haben sich einige ECC-Anwender aufgrund bereits bestehender Verträge mit Hyperscalern zurückgehalten, erklärt Akshara Naik Lopez, Senior Analyst in der Enterprise Apps and Services Group bei Forrester. Zahlreiche Unternehmen nutzen viele Anwendungen und migrieren diese Lasten zu AWS oder Azure, um schneller zu sein“, sagt sie. “Sie haben große Cloud-Verträge und möchten S/4HANA im Rahmen dieser Vereinbarungen auf den Hyperscalern hosten.“  Die Zurückhaltung der Kunden hat SAP dazu veranlasst, ab dem zweiten Quartal 2024 erhebliche Rabatte anzubieten, so Naik Lopez. Sie geht davon aus, dass über 40 Prozent der ECC-Kunden auch nach 2027 noch das alte System nutzen werden. Vor allem jene ECC-Anwender, die ihre Systeme regelmäßig aktualisiert haben, sähen aktuell keinen Handlungsdruck, ergänzt sie.  „Wenn man diese Unternehmen fragt, sagen sie, ihr ECC-System sei sehr stabil und leistungsfähig“, so Naik Lopez. „Nur weil SAP den Support einstellt, heißt das nicht, dass das System plötzlich nicht mehr funktioniert oder neue Probleme auftreten. Es wird weiterhin genauso zuverlässig laufen wie zuvor.“ (mb) 

S/4HANA-Migration stockt: Viele Kunden bleiben ECC auch nach 2027 treu​ Nicht nur für ECC-Nutzer, auch für SAP wird die Zeit angesichts des zögerlichen Umstiegs der Kunden auf S4/HANA langsam knapp. Kittyfly – Shutterstock

Auf der SAP-Sapphire-Konferenz Mitte Mai wurde zwar viel über die Business Suite und SAPs Joule-KI-Agenten gesprochen, jedoch kaum über den Stand der Migration von ECC zu S/4HANA – dem aktuellen Flaggschiff-ERP. 

Die SAP-Führungskräfte machten keine Angabe zu den Fortschritten, Kunden vom Wechsel von ihrem alten ECC-ERP auf S/4HANA zu überzeugen. Dabei läuft der Support für ECC bereits Ende 2027 für viele Kunden aus. 

„Wenn Anbieter keine Zahlen nennen, sind sie meist nicht gut“, erklärt Fabio Di Capua, Vice President von Gartners Technology & Service Providers Team. „Wären sie positiv, würden sie es laut verkünden.“ 

Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Bei gleichbleibendem Tempo würden den Analysten entsprechend bis 2027 noch rund 17.000 Kunden, also fast die Hälfte bei ECC bleiben. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten. 

Mickey North Rizza, Vice President der Enterprise Software Group bei IDC, ist hinsichtlich der Migrationszahlen etwas optimistischer, wenn auch nur knapp. Sie erwartet, dass 40 bis 45 Prozent der ECC-Anwender bis 2027 bei dem älteren ERP-System bleiben werden. 

SAP hatte die erste Version von S/4HANA bereits Ende 2015 auf den Markt gebracht, aber selbst mit dem im Januar 2021 gestarteten RISE-Paket sei die Migration zwar stetig, aber langsam verlaufen, stellt Di Capua fest. Im März 2023 hätten die Walldorfer außerdem mit GROW with SAP ein Migrationspaket für mittelständische Unternehmen aufgelegt. 

„Als SAP versuchte, die Leute zum Umstieg auf RISE zu bewegen, sagten wir ihnen: ‚Sie haben in 15 Jahren weniger als die Hälfte Ihrer Kunden überzeugt, zu migrieren‘“, erklärt der Gartner-Analyst. „Wie können Sie glauben, dass Sie die nächsten 50 Prozent in fünf Jahren migrieren werden?‘ 

Laut di Capua sind die Komplexität der ECC-Installationen, von denen viele stark angepasst sind, und die Kosten der Migration die beiden großen Hürden. Während eine Migration bereits mit zwei Millionen Dollar möglich sei, könnten die Kosten bei großen Unternehmen mit komplexen Installationen bis zu eine Milliarde Dollar erreichen. 

Gartner hat mit Kunden zusammengearbeitet, die mit Migrationsprojekten von drei bis sieben Jahren rechnen. In vielen Fällen müssten SAP-Kunden ihre Prozesse komplett umgestalten, Änderungen vornehmen und in einigen Fällen eine zusätzliche Lösung für das Humankapital oder die Beschaffung einführen, so Di Capua. 

Externe Helfer 

Viele SAP-Kunden ziehen inzwischen Drittanbieter-Support für ECC in Betracht oder hoffen darauf, dass SAP seine eigenen Fristen erneut verlängert – zumal der Zeitplan in der Vergangenheit bereits mehrfach verschoben wurde. Im Februar kündigte SAP außerdem mit „SAP ERP, private edition, transition option“ eine neue Migrationsoption an. Sie erlaubt es bestimmten Großkunden, ECC noch bis 2033 weiter zu nutzen. 

Einige SAP-Kunden wenden sich laut Di Capua außerdem Drittanbietern zu, um bestimmte ERP-Funktionalitäten wie Human Capital Management, Beschaffung oder Lieferkettenprozesse abzudecken. 

IDC-Analystin North Rizza lobt SAP dafür, dass das Unternehmen die Supportfristen verlängert und neue Migrations-Tools eingeführt hat – als Reaktion auf die Schwierigkeiten, mit denen viele Kunden beim Umstieg zu kämpfen haben. „SAP hat begonnen zu erkennen, wo die Unternehmen auf Probleme stoßen – etwa, dass sie ihre gesamte Organisation nicht auf einmal vom alten auf das neue Produkt umstellen können“, erklärt sie. „Was SAP nun versucht, ist, den Kunden aufzuzeigen, dass es einen gangbaren Weg gibt, um sie dabei zu unterstützen.“ 

SAP wiegelt ab: Alles ist gut 

SAP selbst sieht nach eigenen Angaben eine hohe Nachfrage nach seinen Produkten und Cloud-Diensten – darunter auch die Cloud-Version von S/4HANA. Im ersten Quartal 2025 stieg der Cloud-Umsatz laut Jan Gilg, Chief Revenue Officer und Präsident von SAP Americas sowie der Global Business Suite, im Vergleich zum Vorjahr um etwa 26 Prozent. 

Die gute Nachricht für SAP ist dabei, dass zwei Drittel der neuen Cloud-Kunden Neuzugänge seien, wie Mark Moerdler, Managing Director und Senior Analyst bei Bernstein Research, anmerkt. 

Gilg widerspricht außerdem der Einschätzung von Di Capua, wonach SAP-Kunden vermehrt auf zusätzliche ERP-Dienste von Drittanbietern zurückgreifen. „Im Gegenteil: Einzelne Fachbereichsanwendungen verlieren im Zeitalter von generativer KI zunehmend an Relevanz“, erklärt Gilg in einer von der SAP-PR weitergeleiteten E-Mail. „Wir beobachten eine steigende Kundennachfrage nach einer integrierten Cloud-Suite – denn durch die Cloud hat sich der Umgang mit Daten grundlegend verändert.“ 

Mehrere Unternehmen, darunter IBM, berichten von deutlichen Vorteilen durch die Migration zu S/4HANA – etwa IBM: Der Tech-Konzern konnte seit Abschluss der Migration im Juli 2024 seine betrieblichen Infrastrukturkosten um 30 Prozent senken. 

Dennoch, so Analysten, steht SAP vor einer großen Herausforderung: Viele ECC-Nutzer zögern weiterhin mit dem Umstieg. Während SAP versucht, Kunden zu seinen Cloud-Services zu bewegen, haben sich einige ECC-Anwender aufgrund bereits bestehender Verträge mit Hyperscalern zurückgehalten, erklärt Akshara Naik Lopez, Senior Analyst in der Enterprise Apps and Services Group bei Forrester. Zahlreiche Unternehmen nutzen viele Anwendungen und migrieren diese Lasten zu AWS oder Azure, um schneller zu sein“, sagt sie. “Sie haben große Cloud-Verträge und möchten S/4HANA im Rahmen dieser Vereinbarungen auf den Hyperscalern hosten.“ 

Die Zurückhaltung der Kunden hat SAP dazu veranlasst, ab dem zweiten Quartal 2024 erhebliche Rabatte anzubieten, so Naik Lopez. Sie geht davon aus, dass über 40 Prozent der ECC-Kunden auch nach 2027 noch das alte System nutzen werden. Vor allem jene ECC-Anwender, die ihre Systeme regelmäßig aktualisiert haben, sähen aktuell keinen Handlungsdruck, ergänzt sie. 

„Wenn man diese Unternehmen fragt, sagen sie, ihr ECC-System sei sehr stabil und leistungsfähig“, so Naik Lopez. „Nur weil SAP den Support einstellt, heißt das nicht, dass das System plötzlich nicht mehr funktioniert oder neue Probleme auftreten. Es wird weiterhin genauso zuverlässig laufen wie zuvor.“ (mb)

S/4HANA-Migration stockt: Viele Kunden bleiben ECC auch nach 2027 treu​ Weiterlesen »

DAU trifft Admin: Die dümmsten IT-Support-Anfragen​

Allgemein

Admins und Mitarbeiter im User-Support könnten eigentlich ein herrliches Leben führen – wäre da nicht der DAU. Diese unscheinbare Abkürzung steht im Fachjargon für “dümmster anzunehmender User”. Wenn ein Benutzer der dieser Gattung entspringt, mal wieder die Nummer des IT-Supports wählt, kann das in bester IT-Crowd-Tradition für skurrile, lustige und mitunter extrem nervenaufreibende Situationen sorgen. Kein Wunder also, dass sowohl Service-Techniker, als auch Systemadministrator zu den stressigsten IT-Jobs überhaupt gehören. IT-Support-Hölle: Wenn der Admin rot siehtEinen Computer, ein Notebook oder ein Smartphone richtig zu bedienen stellt die Ottonormal-User – insbesondere im Unternehmensumfeld – vor immer tiefgreifendere Herausforderungen. Zumindest einige. Es verwundert also nicht, dass vor allem die IT-Support-Abteilungen von Unternehmen in schöner Regelmäßigkeit mit abertausenden von Support-Anfragen bombardiert werden. In Kooperation mit dem IT-Management-Provider Solarwinds zeigen wir Ihnen, wieviel Schmerz und Pein ein DAU bei IT-Support-Mitarbeitern und -Admins heraufbeschwören kann.DAU-Support-Anfragen: Kein Ende in SichtSie haben immer noch nicht genug von grenzdebilen Anfragen beim IT-Support? Das haben wir uns schon gedacht! Deshalb dürfen Sie sich an dieser Stelle an weiteren DAU-Stories ergötzen, die uns von unseren Lesern zugetragen wurden. Wer Bildergalerien im digitalen Zeitalter aus Glaubensgründen ablehnt, darf sich alle Geschichten in der Folge auch noch einmal in Textform zu Gemüte führen. 1. Vorsicht Kabel!Dass zu viel Bewegung im Büro manchmal auch schaden kann, zeigt folgende Geschichte:Anruf bei der Hotline: “Ich habe keine Netzwerkverbindung.”Techniker: “Können Sie um Ihren Schreibtisch herumgehen?”(Der Techniker kennt die Örtlichkeit und weiß, dass der Router unter dem Schreibtisch steht, und das Stromkabel etwa in Kniehöhe zur Wand gespannt ist…)Antwort: “Ja. Ich laufe jeden Tag eine Runde zur Erholung.”2. Bitte nicht aufräumenPerfektionisten können mit ihrem Hang zur Ordnung auch mal das Chaos provozieren, das hat ein angehender Systemelektroniker erlebt:“Vor zwei Tagen hatte ich der Anwenderin ihren neuen Rechner geliefert, neuste Hardware, schön schnell, alles Top. Jetzt rief sie mich an und klagte, dass der PC nicht mehr starte, nachdem sie ihn aufgeräumt hatte. Ich also hin, mit der Windows XP-CD gerüstet, um in der Wiederherstellungskonsole den Master Boot Record (MBR) neu zuschreiben und die Bootdateien erneut anzulegen beziehungsweise die Boot.ini zu prüfen.Doch die Reparatur klappte nicht, also nahm ich den Rechner wieder in unser Büro mit und baute die Festplatte aus, um die Daten zu sichern und anschließend neu zu installieren.Und siehe da auf der Festplatte, Systempartition, befand sich folgende Ordnerstruktur:C: – AA* BB* CC*, etc.Da der Anwenderin das “Dateienwirrwarr” unter anderem im Ordner Windows zu groß war, legte sie schön säuberlich Ordner von A-Z angelegt und verschob alle Dateien, die mit “A” beginnen, in den Ordner “A”, alle Dateien mit “B” in den Ordner “B” und so fort.3. Eine Maus im neunten Stock?Mitunter müssen sich Hotline-Mitarbeiter mit skurrilen Anfragen herumschlagen: Ein User meldete, dass in der Steckdosenleiste etwas in regelmäßigen Abständen knarrt oder schnarcht. Ob sich dort vielleicht eine Maus versteckt?Der Support-Mitarbeiter wurde neugierig: “Das wollte ich sehen oder besser hören. Eine Maus im neunten Stock?” Dort angekommen hörte auch er die Schnarchgeräusche und schaute auf den Bildschirm des Users: “Da sah ich als Hilfe-Animation von Windows “Merlin”, der eingeschlafen war. Also kamen die Geräusche vom PC. Der User hatte sich “Merlin” selbst ausgewählt.”4. Im Clinch mit dem IT-ProfiNicht nur allzu unbedarfte PC-Anwendern können Systemadministratoren das Leben schwer machen. Richtigen Ärger gibt es, wenn sich der Admin mit einem uneinsichtigen IT-Profi auseinandersetzen muss:Wenn ein IT-Profi weniger weiß als er vorgibt, kann das den Administrator zur Verzweiflung bringen. Foto: Robert Kneschke – Fotolia.comDer IT-Profi konnte sich mit einem der Computer nicht mehr ins Firmennetzwerk einloggen. Der Admin fragt ihn, was für ein Gerät routet.IT-Profi: Was hat denn das damit zu tun?Admin: Es kann an Einstellungen auf dem Computer oder an dem routenden Gerät liegen, weil auf dem Computer ein völlig anderes Betriebssystem drauf ist als auf allen anderen Rechnern.IT-Profi: Das geht bei uns alles automatisch.Admin: Welches Gerät steuern die Computer denn an? IT-Profi: Gar keins, es geht alles automatisch.Nach einigem Hin und Her und patzigen Antworten wurde der Admin ungeduldig und drängte auf die korrekte Antwort. Dann warf ihm der IT-Profi vor, dass er unfähig sei. Da ist dem Admin der Kragen geplatzt.Admin: Kennen Sie das OSI-Referenzmodell?IT-Profi sehr laut: Hören Sie, ich komme aus der IT!Admin, noch lauter: Dann wissen Sie, dass man ein großes Netzwerk ohne ein routendes Gerät so nicht herstellen kann. Welches Gerät routet bei Ihnen?IT-Profi noch lauter: Ich habe Ihnen gesagt, das geht automatisch. Dafür haben wir einen Server, der das macht…Admin: Aha, dann routet also der Server.IT-Profi: Ja.Admin: Und wie ist der Computer mit dem Server verbunden? Per Kabel oder kabellos?IT-Profi: Das geht alles automatisch…Admin: Sie haben doch, nehme ich an, in Ihrem Computer eine Netzwerkkarte.IT-Profi: Ja.Admin: Aha. Dann schauen Sie doch mal an den Steckplatz dieser Netzwerkkarte, den werden Sie ja finden.IT-Profi: Ja, ist da.Admin: Aha. Steckt dort was drin?IT-Profi: Ja.Admin: Aha. Was steckt denn dort drin?IT-Profi: Ein Kabel.Admin: Aha. Wo führt denn das Kabel hin?IT-Profi: Zum Server.Admin: Aha. Und warum haben Sie zehn Minuten gebraucht, bis Sie mir diese Antwort gegeben haben?IT-Profi: …Admin: Was ist auf dem Server für ein Betriebssystem drauf?IT-Profi: Weiß ich nicht…Admin: Haben Sie den Server da hingestellt?IT-Profi: Nein.Admin: Kontaktieren Sie den, der den Server da hin gestellt hat. Der soll uns dann anrufen. Tschüss!5. Sprachprobleme, Teil 1: Der SchwanzDer User Help Desk in einer großen Versicherung. Eine Anwenderin ruft an und bittet verzweifelt um Unterstützung. Die Rechner seien vor kurzem von der rechten auf die linke Tischseite verschoben worden – nun würden neue Mäuse benötigt, denn: “Die Schwänze unserer Mäuse sind zu kurz”.Eine Maus mit einem Schwanz? Nicht ganz richtig. Foto: Heino Pattschull – Fotolia.comIn diesem Moment musste der Support-Mitarbeiter kurz das Mikrophon stumm schalten, um der Anwenderin nicht ins Ohr zu lachen: “Nach der Erklärung, dass wir die Schwänze im Fachjargon allgemein Kabel nennen, war ihr das dann wohl auch peinlich.”6. Von Schiffsschrauben und GießkannenEine etwas eingeschüchterte Anwenderin ruft den Support-Mitarbeiter an und stammelt, dass Sie wohl großen Mist gebaut hat – ihr Rechner ginge nicht mehr. Auf die Nachfrage, was denn genau passiert sei, antwortet sie:“Nun, mein Rechner war immer so laut – da habe ich mir den einfach mal angesehen. Dabei habe ich festgestellt, dass es da hinten, wo es aussieht wie eine Schiffsschraube, (Anmerkung: sie meinte das Netzteil respektive den Netzteillüfter) ganz staubig ist. Dann habe ich gedacht, dass es so aussieht wie ein Propeller. Ich habe ich die Gießkanne genommen und etwas Wasser drauf gegossen. Dann hat es geknallt. Seitdem geht der Rechner nicht mehr.”In diesem Moment war dem Support-Mitarbeiter nicht klar, ob die Anwenderin ihn veräppeln will. Aber der vorausgeschickte Vor-Ort-Service bestätigte den Zustand des Rechners: Nass und sehr kaputt.7. Die Folgen des StromsparensIn einem Unternehmen gilt die Vorgabe, dass alle Mitarbeiter am Ende eines Arbeitstages Drucker und Bildschirme ausschalten, um Energie und damit Geld zu sparen. An einem Freitag macht der einzige Mitarbeiter der IT-Abteilung nochmal die Runde, um zu überprüfen, ob auch alle Geräte ausgeschaltet sind. Waren sie aber nicht. Also erledigte das der IT-Profi.Sein Eifer wurde am Montagmorgen gleich bestraft: Von 40 Mitarbeitern riefen 25 bei ihm an – alle mit der Bitte, er solle sich den PC oder den Drucker anschauen, weil entweder der Bildschirm beim Einschalten schwarz blieb oder der Drucker eben nicht druckte.8. Ist Englisch eine Frage der Tastatur?Der DAU sitzt oft in der Fachabteilung, kann sich aber auch im User Support selbst verbergen, wie folgendes Erlebnis eines Lesers zeigt: ” Ich habe damals in einem amerikanischen Unternehmen neu angefangen und versuche der Dame im Tech Support zu erklären, dass ich einen Rechner mit deutscher Tastatur brauche. Ein komisches Gefühl beschlich mich, als sie mich fragte, ob ich ihr erklären könne, wie das mit der anderssprachigen Tastatur funktionieren würde. Ich erzähle ihr etwas von Tastaturlayout und deutschem Tastaturtreiber.Sprachlos war ich in dem Augenblick, als sie fragte, ob man denn auch auf einer deutschen Tastatur englische Mails schreiben könne.9. Die Maus bewegt sich nicht!Mein Kollege schaltete sich remote auf den PC eines Users, um ihm zu helfen. Dabei entwickelte sich folgender Dialog:Admin: So ich bin jetzt bei ihnen aufgeschaltet. Sie sehen das an der Bewegung der Maus.User: Nein, die Maus bewegt sich nicht.Admin: Natürlich bewegt sich die Maus. Sehen sie doch hin.User: Nein, die Maus bewegt sich nicht.Admin(ungeduldig): Natürlich bewegt sich die Maus. Ich sehe es doch auch.User: Nein, die Maus bewegt sich nicht.Admin(ungehalten): Doch die Maus bewegt sich. Sehen sie denn nicht den kleinen Pfeil der über den Monitor hüpft ?User: Der Pfeil ja. Aber die Maus bewegt sich nicht.10. Die NetzwerkexpertinEs ist das Jahr 1999. Meine Firma, ein großes Systemhaus, sucht händeringend Netzwerk-Spezialisten. Eine studierte Chemikerin hat es bereits bis zum zweiten Bewerbungsgespräch geschafft. Sie ist eine TCP/IP Expertin, und ich soll mit ihr ein Fachgespräch führen.Ich frage, was die Abkürzung TCP/IP heißen soll?Sie antwortet, das wisse sie auch nicht!Ich frage, ob sie mir ein Beispiel für eine IP-Adresse geben kann.Sie sagt: 255.255.255.255Nun hat sie mein Interesse geweckt.Ich frage: Ist das die IP-Adresse von ihrem Rechner?Ihre Antwort: Ja !11. Die wundersame Welt des InternetsAnruf im First Level-Support eines Internet-Service-Providers.Dame: Hallo, ich hätte gerne ein neues Internet.Mitarbeiter: Meinen Sie vielleicht einen neuen Tarif?Dame: “Nein, der Tarif ist gut so, aber ich brauche ein neues Internet.Mitarbeiter: Wieso brauchen Sie denn ein neues Internet, geht Ihres nicht mehr?Dame: Doch, aber weil ich das Internet jetzt durchgelesen habe, hätte ich gerne ein neues bitte.Mitarbeiter, inzwischen absolut verwirrt: Wie, Sie haben das Internet durchgelesen?!Dame: Ja, genau, und jetzt brauche ich ein neues.Mitarbeiter: Ja, wie haben Sie denn das gemacht, oder was haben Sie denn da gelesen?Dame: Ja, das ist ja auch alles ganz interessant gewesen, aber so ein bisschen Bild-Zeitung mäßig und auch nicht viel Neues.Beim Wort Bild-Zeitung ging dem Mitarbeiter ein Licht auf: Die Dame spricht sicher von der Startseite des ISP: Aja, alles klar, oben im Internet sehen Sie eine Zeile Adresse.Dame: “Ja, genau, da steht: http://www.*ISP-Name*.de.Mitarbeiter: Okay, tippen Sie dort bitte einmal www.google.de ein und bestätigen Sie die Eingabe mit der Enter-Taste.Dame nach einigen Minuten: Ja, jetzt steht da Google suchen.Mitarbeiter: Super, so, Sie möchten ein neues Internet, sagten Sie. Was haben Sie denn so für Interessen?Dame: Hmm… z.B. Häkeln.Mitarbeiter: Ja, dann tippen Sie doch einmal das Wort Häkeln in die Zeile suchen ein und bestätigen Sie Ihre Eingabe erneut mit Enter.Dame nach einigen Minuten: Da steht jetzt 50984 Einträge gefunden und lauter Sachen mit Häkeln.Mitarbeiter: Genau, jeder Eintrag ist ein Internet zu Häkeln. Dame, voll außer sich: Das sind alles Internets über Häkeln?!Mitarbeiter: Genau und wenn Sie ein anderes möchten, einfach den entsprechenden Suchbegriff bei Google eingeben.Dame, plötzlich etwas ernster: Ja, aber ich will doch nicht alle Internets, das ist doch dann viel zu teuer, oder was soll das kosten?Mitarbeiter, muss sich beherrschen, um nicht vor Lachen vom Stuhl zu kippen: Nein, bei uns bekommen Sie das kostenlos!Dame, absolut euphorisch: Das ist ja super! Das nenne ich Service! Wenn ich die gelesen habe, kann ich mich dann wieder bei Ihnen melden?Mitarbeiter: Ja, sicher, dann können Sie sich wieder bei uns melden.12. Von der rechten Maustaste und LinkshändernSupportmitarbeiter: …markieren und dann einfach kopieren und in das neue Feld einfügen …Anwenderin mit jahrelanger Windows-Erfahrung: Äh, sie haben jetzt aber oben gar nicht das Menü aufgeklappt?Supportmitarbeiter: Nein, ich habe das mit Hilfe der rechten Maustaste gemacht. Sehen Sie so…Anwenderin: “Ach, und ich dachte die wäre für Linkshänder.”13. Sprachprobleme, Teil 2Die Aufforderung “Gehen Sie mal raus” nahm eine Anwederin wörtlich und verließ ihren Schreibtisch. Foto: terex – Fotolia.com20 Minuten Telefonsupport bei der Anwendung, und dann kam es …Support-Mitarbeiter: Gehen Sie mal kurz raus, wir aktivieren den Auftrag, und dann erfassen Sie Daten weiter.Die Frau geht tatsächlich aus dem Raum, wir hören die Tür zufallen.14. Die Tastatur im GeschirrspülerMein Mann hat einen Apple Mac im bekannten schicken Design. Die Tastatur war über die Jahre dreckig geworden. Er putze zuerst lustlos ein paar Tasten ab und zwischen Ritzen herum und verkündete dann den großartigen Einfall, die Tastatur in die Spülmaschine zu stecken.“Oh nein”, schrie ich, “das ist doch bloß so’ne blöde DAU-Geschichte, das macht man doch nicht wirklich!”Er: “Wieso? Warum soll das nicht gehen? Ich löse die paar Schrauben, lege Platine und Rahmen einzeln rein… ich sehe da kein Problem.”Ich (verzweifelt): “Schatz, das KANN nicht gehen, glaub’s mir!” und weiter, während er sein Werk beginnt, “Hast Du wenigstens eine Ersatztastatur?” Hat er.Aber ich wette zwei Flaschen Whiskey dagegen, dass seine Tastatur diese Aktion übersteht. Dann sitze ich eine Stunde lang kopfschüttelnd da, während die Spülmaschine die Platine wäscht. Er zieht die Platine zu meiner Verwunderung schön sauber aus dem Korb und legt sie zum Nachtrocknen auf die Fensterbank.Tage später. Die Tastatur ist zusammengebaut und funktioniert. Ich gehe zwei Flaschen Whiskey kaufen.Die dümmsten IT-Support-Anfragen: DAU-StoriesEinbahnstraße Foto: SolarWindsZeit ist Geld Foto: SolarWindsFarbenspiele Foto: SolarWindsAus die Maus! Foto: SolarWindsVerbundsystem Foto: SolarWindsPETA is watching you Foto: SolarWindsLAN-Power Foto: SolarWinds Knopfsache Foto: SolarWinds Da wäre noch was… Foto: SolarWinds X-treme Audio Foto: SolarWindsDatencrash Foto: SolarWinds 

DAU trifft Admin: Die dümmsten IT-Support-Anfragen​ Admins und Mitarbeiter im User-Support könnten eigentlich ein herrliches Leben führen – wäre da nicht der DAU. Diese unscheinbare Abkürzung steht im Fachjargon für “dümmster anzunehmender User”. Wenn ein Benutzer der dieser Gattung entspringt, mal wieder die Nummer des IT-Supports wählt, kann das in bester IT-Crowd-Tradition für skurrile, lustige und mitunter extrem nervenaufreibende Situationen sorgen. Kein Wunder also, dass sowohl Service-Techniker, als auch Systemadministrator zu den stressigsten IT-Jobs überhaupt gehören.

IT-Support-Hölle: Wenn der Admin rot siehtEinen Computer, ein Notebook oder ein Smartphone richtig zu bedienen stellt die Ottonormal-User – insbesondere im Unternehmensumfeld – vor immer tiefgreifendere Herausforderungen. Zumindest einige. Es verwundert also nicht, dass vor allem die IT-Support-Abteilungen von Unternehmen in schöner Regelmäßigkeit mit abertausenden von Support-Anfragen bombardiert werden. In Kooperation mit dem IT-Management-Provider Solarwinds zeigen wir Ihnen, wieviel Schmerz und Pein ein DAU bei IT-Support-Mitarbeitern und -Admins heraufbeschwören kann.DAU-Support-Anfragen: Kein Ende in SichtSie haben immer noch nicht genug von grenzdebilen Anfragen beim IT-Support? Das haben wir uns schon gedacht! Deshalb dürfen Sie sich an dieser Stelle an weiteren DAU-Stories ergötzen, die uns von unseren Lesern zugetragen wurden. Wer Bildergalerien im digitalen Zeitalter aus Glaubensgründen ablehnt, darf sich alle Geschichten in der Folge auch noch einmal in Textform zu Gemüte führen. 1. Vorsicht Kabel!Dass zu viel Bewegung im Büro manchmal auch schaden kann, zeigt folgende Geschichte:Anruf bei der Hotline: “Ich habe keine Netzwerkverbindung.”Techniker: “Können Sie um Ihren Schreibtisch herumgehen?”(Der Techniker kennt die Örtlichkeit und weiß, dass der Router unter dem Schreibtisch steht, und das Stromkabel etwa in Kniehöhe zur Wand gespannt ist…)Antwort: “Ja. Ich laufe jeden Tag eine Runde zur Erholung.”2. Bitte nicht aufräumenPerfektionisten können mit ihrem Hang zur Ordnung auch mal das Chaos provozieren, das hat ein angehender Systemelektroniker erlebt:“Vor zwei Tagen hatte ich der Anwenderin ihren neuen Rechner geliefert, neuste Hardware, schön schnell, alles Top. Jetzt rief sie mich an und klagte, dass der PC nicht mehr starte, nachdem sie ihn aufgeräumt hatte. Ich also hin, mit der Windows XP-CD gerüstet, um in der Wiederherstellungskonsole den Master Boot Record (MBR) neu zuschreiben und die Bootdateien erneut anzulegen beziehungsweise die Boot.ini zu prüfen.Doch die Reparatur klappte nicht, also nahm ich den Rechner wieder in unser Büro mit und baute die Festplatte aus, um die Daten zu sichern und anschließend neu zu installieren.Und siehe da auf der Festplatte, Systempartition, befand sich folgende Ordnerstruktur:C: – AA* BB* CC*, etc.Da der Anwenderin das “Dateienwirrwarr” unter anderem im Ordner Windows zu groß war, legte sie schön säuberlich Ordner von A-Z angelegt und verschob alle Dateien, die mit “A” beginnen, in den Ordner “A”, alle Dateien mit “B” in den Ordner “B” und so fort.3. Eine Maus im neunten Stock?Mitunter müssen sich Hotline-Mitarbeiter mit skurrilen Anfragen herumschlagen: Ein User meldete, dass in der Steckdosenleiste etwas in regelmäßigen Abständen knarrt oder schnarcht. Ob sich dort vielleicht eine Maus versteckt?Der Support-Mitarbeiter wurde neugierig: “Das wollte ich sehen oder besser hören. Eine Maus im neunten Stock?” Dort angekommen hörte auch er die Schnarchgeräusche und schaute auf den Bildschirm des Users: “Da sah ich als Hilfe-Animation von Windows “Merlin”, der eingeschlafen war. Also kamen die Geräusche vom PC. Der User hatte sich “Merlin” selbst ausgewählt.”4. Im Clinch mit dem IT-ProfiNicht nur allzu unbedarfte PC-Anwendern können Systemadministratoren das Leben schwer machen. Richtigen Ärger gibt es, wenn sich der Admin mit einem uneinsichtigen IT-Profi auseinandersetzen muss:Wenn ein IT-Profi weniger weiß als er vorgibt, kann das den Administrator zur Verzweiflung bringen.
Foto: Robert Kneschke – Fotolia.comDer IT-Profi konnte sich mit einem der Computer nicht mehr ins Firmennetzwerk einloggen. Der Admin fragt ihn, was für ein Gerät routet.IT-Profi: Was hat denn das damit zu tun?Admin: Es kann an Einstellungen auf dem Computer oder an dem routenden Gerät liegen, weil auf dem Computer ein völlig anderes Betriebssystem drauf ist als auf allen anderen Rechnern.IT-Profi: Das geht bei uns alles automatisch.Admin: Welches Gerät steuern die Computer denn an? IT-Profi: Gar keins, es geht alles automatisch.Nach einigem Hin und Her und patzigen Antworten wurde der Admin ungeduldig und drängte auf die korrekte Antwort. Dann warf ihm der IT-Profi vor, dass er unfähig sei. Da ist dem Admin der Kragen geplatzt.Admin: Kennen Sie das OSI-Referenzmodell?IT-Profi sehr laut: Hören Sie, ich komme aus der IT!Admin, noch lauter: Dann wissen Sie, dass man ein großes Netzwerk ohne ein routendes Gerät so nicht herstellen kann. Welches Gerät routet bei Ihnen?IT-Profi noch lauter: Ich habe Ihnen gesagt, das geht automatisch. Dafür haben wir einen Server, der das macht…Admin: Aha, dann routet also der Server.IT-Profi: Ja.Admin: Und wie ist der Computer mit dem Server verbunden? Per Kabel oder kabellos?IT-Profi: Das geht alles automatisch…Admin: Sie haben doch, nehme ich an, in Ihrem Computer eine Netzwerkkarte.IT-Profi: Ja.Admin: Aha. Dann schauen Sie doch mal an den Steckplatz dieser Netzwerkkarte, den werden Sie ja finden.IT-Profi: Ja, ist da.Admin: Aha. Steckt dort was drin?IT-Profi: Ja.Admin: Aha. Was steckt denn dort drin?IT-Profi: Ein Kabel.Admin: Aha. Wo führt denn das Kabel hin?IT-Profi: Zum Server.Admin: Aha. Und warum haben Sie zehn Minuten gebraucht, bis Sie mir diese Antwort gegeben haben?IT-Profi: …Admin: Was ist auf dem Server für ein Betriebssystem drauf?IT-Profi: Weiß ich nicht…Admin: Haben Sie den Server da hingestellt?IT-Profi: Nein.Admin: Kontaktieren Sie den, der den Server da hin gestellt hat. Der soll uns dann anrufen. Tschüss!5. Sprachprobleme, Teil 1: Der SchwanzDer User Help Desk in einer großen Versicherung. Eine Anwenderin ruft an und bittet verzweifelt um Unterstützung. Die Rechner seien vor kurzem von der rechten auf die linke Tischseite verschoben worden – nun würden neue Mäuse benötigt, denn: “Die Schwänze unserer Mäuse sind zu kurz”.Eine Maus mit einem Schwanz? Nicht ganz richtig.
Foto: Heino Pattschull – Fotolia.comIn diesem Moment musste der Support-Mitarbeiter kurz das Mikrophon stumm schalten, um der Anwenderin nicht ins Ohr zu lachen: “Nach der Erklärung, dass wir die Schwänze im Fachjargon allgemein Kabel nennen, war ihr das dann wohl auch peinlich.”6. Von Schiffsschrauben und GießkannenEine etwas eingeschüchterte Anwenderin ruft den Support-Mitarbeiter an und stammelt, dass Sie wohl großen Mist gebaut hat – ihr Rechner ginge nicht mehr. Auf die Nachfrage, was denn genau passiert sei, antwortet sie:“Nun, mein Rechner war immer so laut – da habe ich mir den einfach mal angesehen. Dabei habe ich festgestellt, dass es da hinten, wo es aussieht wie eine Schiffsschraube, (Anmerkung: sie meinte das Netzteil respektive den Netzteillüfter) ganz staubig ist. Dann habe ich gedacht, dass es so aussieht wie ein Propeller. Ich habe ich die Gießkanne genommen und etwas Wasser drauf gegossen. Dann hat es geknallt. Seitdem geht der Rechner nicht mehr.”In diesem Moment war dem Support-Mitarbeiter nicht klar, ob die Anwenderin ihn veräppeln will. Aber der vorausgeschickte Vor-Ort-Service bestätigte den Zustand des Rechners: Nass und sehr kaputt.7. Die Folgen des StromsparensIn einem Unternehmen gilt die Vorgabe, dass alle Mitarbeiter am Ende eines Arbeitstages Drucker und Bildschirme ausschalten, um Energie und damit Geld zu sparen. An einem Freitag macht der einzige Mitarbeiter der IT-Abteilung nochmal die Runde, um zu überprüfen, ob auch alle Geräte ausgeschaltet sind. Waren sie aber nicht. Also erledigte das der IT-Profi.Sein Eifer wurde am Montagmorgen gleich bestraft: Von 40 Mitarbeitern riefen 25 bei ihm an – alle mit der Bitte, er solle sich den PC oder den Drucker anschauen, weil entweder der Bildschirm beim Einschalten schwarz blieb oder der Drucker eben nicht druckte.8. Ist Englisch eine Frage der Tastatur?Der DAU sitzt oft in der Fachabteilung, kann sich aber auch im User Support selbst verbergen, wie folgendes Erlebnis eines Lesers zeigt: ” Ich habe damals in einem amerikanischen Unternehmen neu angefangen und versuche der Dame im Tech Support zu erklären, dass ich einen Rechner mit deutscher Tastatur brauche. Ein komisches Gefühl beschlich mich, als sie mich fragte, ob ich ihr erklären könne, wie das mit der anderssprachigen Tastatur funktionieren würde. Ich erzähle ihr etwas von Tastaturlayout und deutschem Tastaturtreiber.Sprachlos war ich in dem Augenblick, als sie fragte, ob man denn auch auf einer deutschen Tastatur englische Mails schreiben könne.9. Die Maus bewegt sich nicht!Mein Kollege schaltete sich remote auf den PC eines Users, um ihm zu helfen. Dabei entwickelte sich folgender Dialog:Admin: So ich bin jetzt bei ihnen aufgeschaltet. Sie sehen das an der Bewegung der Maus.User: Nein, die Maus bewegt sich nicht.Admin: Natürlich bewegt sich die Maus. Sehen sie doch hin.User: Nein, die Maus bewegt sich nicht.Admin(ungeduldig): Natürlich bewegt sich die Maus. Ich sehe es doch auch.User: Nein, die Maus bewegt sich nicht.Admin(ungehalten): Doch die Maus bewegt sich. Sehen sie denn nicht den kleinen Pfeil der über den Monitor hüpft ?User: Der Pfeil ja. Aber die Maus bewegt sich nicht.10. Die NetzwerkexpertinEs ist das Jahr 1999. Meine Firma, ein großes Systemhaus, sucht händeringend Netzwerk-Spezialisten. Eine studierte Chemikerin hat es bereits bis zum zweiten Bewerbungsgespräch geschafft. Sie ist eine TCP/IP Expertin, und ich soll mit ihr ein Fachgespräch führen.Ich frage, was die Abkürzung TCP/IP heißen soll?Sie antwortet, das wisse sie auch nicht!Ich frage, ob sie mir ein Beispiel für eine IP-Adresse geben kann.Sie sagt: 255.255.255.255Nun hat sie mein Interesse geweckt.Ich frage: Ist das die IP-Adresse von ihrem Rechner?Ihre Antwort: Ja !11. Die wundersame Welt des InternetsAnruf im First Level-Support eines Internet-Service-Providers.Dame: Hallo, ich hätte gerne ein neues Internet.Mitarbeiter: Meinen Sie vielleicht einen neuen Tarif?Dame: “Nein, der Tarif ist gut so, aber ich brauche ein neues Internet.Mitarbeiter: Wieso brauchen Sie denn ein neues Internet, geht Ihres nicht mehr?Dame: Doch, aber weil ich das Internet jetzt durchgelesen habe, hätte ich gerne ein neues bitte.Mitarbeiter, inzwischen absolut verwirrt: Wie, Sie haben das Internet durchgelesen?!Dame: Ja, genau, und jetzt brauche ich ein neues.Mitarbeiter: Ja, wie haben Sie denn das gemacht, oder was haben Sie denn da gelesen?Dame: Ja, das ist ja auch alles ganz interessant gewesen, aber so ein bisschen Bild-Zeitung mäßig und auch nicht viel Neues.Beim Wort Bild-Zeitung ging dem Mitarbeiter ein Licht auf: Die Dame spricht sicher von der Startseite des ISP: Aja, alles klar, oben im Internet sehen Sie eine Zeile Adresse.Dame: “Ja, genau, da steht: http://www.*ISP-Name*.de.Mitarbeiter: Okay, tippen Sie dort bitte einmal www.google.de ein und bestätigen Sie die Eingabe mit der Enter-Taste.Dame nach einigen Minuten: Ja, jetzt steht da Google suchen.Mitarbeiter: Super, so, Sie möchten ein neues Internet, sagten Sie. Was haben Sie denn so für Interessen?Dame: Hmm… z.B. Häkeln.Mitarbeiter: Ja, dann tippen Sie doch einmal das Wort Häkeln in die Zeile suchen ein und bestätigen Sie Ihre Eingabe erneut mit Enter.Dame nach einigen Minuten: Da steht jetzt 50984 Einträge gefunden und lauter Sachen mit Häkeln.Mitarbeiter: Genau, jeder Eintrag ist ein Internet zu Häkeln. Dame, voll außer sich: Das sind alles Internets über Häkeln?!Mitarbeiter: Genau und wenn Sie ein anderes möchten, einfach den entsprechenden Suchbegriff bei Google eingeben.Dame, plötzlich etwas ernster: Ja, aber ich will doch nicht alle Internets, das ist doch dann viel zu teuer, oder was soll das kosten?Mitarbeiter, muss sich beherrschen, um nicht vor Lachen vom Stuhl zu kippen: Nein, bei uns bekommen Sie das kostenlos!Dame, absolut euphorisch: Das ist ja super! Das nenne ich Service! Wenn ich die gelesen habe, kann ich mich dann wieder bei Ihnen melden?Mitarbeiter: Ja, sicher, dann können Sie sich wieder bei uns melden.12. Von der rechten Maustaste und LinkshändernSupportmitarbeiter: …markieren und dann einfach kopieren und in das neue Feld einfügen …Anwenderin mit jahrelanger Windows-Erfahrung: Äh, sie haben jetzt aber oben gar nicht das Menü aufgeklappt?Supportmitarbeiter: Nein, ich habe das mit Hilfe der rechten Maustaste gemacht. Sehen Sie so…Anwenderin: “Ach, und ich dachte die wäre für Linkshänder.”13. Sprachprobleme, Teil 2Die Aufforderung “Gehen Sie mal raus” nahm eine Anwederin wörtlich und verließ ihren Schreibtisch.
Foto: terex – Fotolia.com20 Minuten Telefonsupport bei der Anwendung, und dann kam es …Support-Mitarbeiter: Gehen Sie mal kurz raus, wir aktivieren den Auftrag, und dann erfassen Sie Daten weiter.Die Frau geht tatsächlich aus dem Raum, wir hören die Tür zufallen.14. Die Tastatur im GeschirrspülerMein Mann hat einen Apple Mac im bekannten schicken Design. Die Tastatur war über die Jahre dreckig geworden. Er putze zuerst lustlos ein paar Tasten ab und zwischen Ritzen herum und verkündete dann den großartigen Einfall, die Tastatur in die Spülmaschine zu stecken.“Oh nein”, schrie ich, “das ist doch bloß so’ne blöde DAU-Geschichte, das macht man doch nicht wirklich!”Er: “Wieso? Warum soll das nicht gehen? Ich löse die paar Schrauben, lege Platine und Rahmen einzeln rein… ich sehe da kein Problem.”Ich (verzweifelt): “Schatz, das KANN nicht gehen, glaub’s mir!” und weiter, während er sein Werk beginnt, “Hast Du wenigstens eine Ersatztastatur?” Hat er.Aber ich wette zwei Flaschen Whiskey dagegen, dass seine Tastatur diese Aktion übersteht. Dann sitze ich eine Stunde lang kopfschüttelnd da, während die Spülmaschine die Platine wäscht. Er zieht die Platine zu meiner Verwunderung schön sauber aus dem Korb und legt sie zum Nachtrocknen auf die Fensterbank.Tage später. Die Tastatur ist zusammengebaut und funktioniert. Ich gehe zwei Flaschen Whiskey kaufen.Die dümmsten IT-Support-Anfragen: DAU-StoriesEinbahnstraße
Foto: SolarWindsZeit ist Geld
Foto: SolarWindsFarbenspiele
Foto: SolarWindsAus die Maus!
Foto: SolarWindsVerbundsystem
Foto: SolarWindsPETA is watching you
Foto: SolarWindsLAN-Power
Foto: SolarWinds Knopfsache
Foto: SolarWinds Da wäre noch was…
Foto: SolarWinds X-treme Audio
Foto: SolarWindsDatencrash
Foto: SolarWinds

DAU trifft Admin: Die dümmsten IT-Support-Anfragen​ Weiterlesen »

Warum Cybersecurity jetzt neu gedacht werden muss​

Allgemein

Neue Bedrohungen erfordern neue Schutzstrategien, und KI-Sicherheit beginnt jetzt.Reply Neue Chancen, neue Angriffsfläche KI durchdringt zunehmend Unternehmensprozesse. Laut Gartner zählt der sichere Umgang mit generativer KI zu den wichtigsten Cybersicherheitstrends 2025. Doch mit dem Nutzen steigen auch die Risiken. Im Folgenden lernen Sie zwei der Top-Ten-Sicherheitsrisiken von KI-basierten Applikationen kennen. Ein zentrales Angriffsmuster ist die Prompt Injection. Dabei schleusen Angreifer manipulierte Eingaben in Prompts ein, um das Verhalten eines Sprachmodells zu beeinflussen. Ziel ist es, Sicherheitsmechanismen zu umgehen oder die Preisgabe vertraulicher Informationen zu erzwingen. Prompt Injections nutzen die Art und Weise aus, wie Sprachmodelle Eingaben interpretieren. Selbst unscheinbare oder nicht sichtbare Inhalte können dazu führen, dass sicherheitskritische Anweisungen ignoriert oder fehlerhafte Ausgaben erzeugt werden. Data und Model Poisoning können in verschiedenen Phasen des Lebenszyklus KI-basierter Systeme auftreten, wie etwa beim Training oder Fine-Tuning von Modellen sowie bei der Einbettung externer Daten. Dazu gehören die häufig genutzten RAG-Systeme (Retrieval Augmented Generation), die als Wissensdatenbanken für KI-Anwendungen fungieren. Erhält ein Angreifer Zugriff auf diese Datenbanken oder schleust manipulierte Inhalte ein, besteht das Risiko, dass das Modell falsche oder schädliche Ausgaben erzeugt. Solche Angriffe gefährden die Systemintegrität. Modelle können sich wie Schläfer-Agenten verhalten: im Normalbetrieb unauffällig, bei einer bestimmten Eingabe jedoch mit gezieltem Fehlverhalten. Mit zunehmender Integration von KI-basierten Systemen vergrößert sich die Angriffsfläche drastisch. Traditionelle Sicherheitsmaßnahmen allein reichen für eine wirksame Verteidigung nicht mehr aus. Der Schutz solcher Anwendungen erfordert ein spezialisiertes Monitoring, um sicherzustellen, dass KI-Systeme wie erwartet funktionieren, nicht manipuliert wurden oder gar als Einfallstor in die gesamte Infrastruktur dienen. Zur frühzeitigen Erkennung von Sicherheitsrisiken, unerwartetem Verhalten oder Anomalien benötigt es ein gezieltes Logging-and-Monitoring-Konzept. Klassische Metriken genügen nicht. Stattdessen müssen auch Modellentscheidungen, Eingabemuster und Ausgaben überwacht und ausgewertet werden. Diese Konzepte sollten nach Möglichkeit in bestehende Prozesse oder CNAPP-Lösungen (Cloud Native Application Protection Platform) integriert werden. Bedrohungslage: Angriffsmethoden entwickeln sich mit der Technologie Deepfakes, KI-generierte Phishing-Mails oder adaptive Malware lassen sich mit herkömmlichen Schutzmechanismen nur schwer abwehren. Die Systeme lernen kontinuierlich dazu und umgehen bekannte Abwehrstrategien zunehmend effizienter. Hier sind regelmäßige Schulungen der Mitarbeitenden essenziell, nicht nur um technische Abwehrmaßnahmen zu vermitteln, sondern auch, um das Bewusstsein für durch KI verstärkte soziale Ingenieurstechniken zu schärfen. Auch Security Operation Center (SOC) mit KI-Expertise gewinnen an Bedeutung. Sie setzen KI-gestützte Tools ein, um Bedrohungen frühzeitig zu erkennen und einzuordnen. So ermöglichen sie eine schnelle, zielgerichtete Reaktion auf Sicherheitsvorfälle. Handlungsempfehlungen: So sichern Unternehmen ihre KI-Anwendungen Mit dem AI Act setzt die Europäische Union erstmals rechtsverbindliche Standards für den KI-Einsatz. Unternehmen, die KI in sensiblen Bereichen nutzen, müssen umfassende Risikoanalysen durchführen, technische und organisatorische Schutzmaßnahmen nachweisen und ein systematisches Verzeichnis aller KI-Anwendungen führen. Besonders risikoreiche Systeme unterliegen strengen Anforderungen. Für viele Unternehmen bedeutet das nicht nur eine rechtliche, sondern auch eine strategische Herausforderung, insbesondere, wenn bestehende Prozesse angepasst werden müssen. Die Integration von KI in Unternehmensprozesse sollte von Anfang an durch ein strategisches Sicherheitsverständnis begleitet werden. Dazu gehört die klare Verankerung von Zuständigkeiten und eine Integration in bestehende Prozesse. Wer ein KI-System einführt, trägt auch die Verantwortung für dessen Sicherheit. Das gilt von der Auswahl geeigneter Modelle bis zur kontinuierlichen Überwachung im Betrieb. Bereits in dieser frühen Phase müssen auch Legal- und Compliance-Themen berücksichtigt werden. Neben dem AI Act geht es auch um Anforderungen der DSGVO/GDPR sowie Normen wie die neue ISO/IEC 42001 für KI-Managementsysteme. Branchenspezifische Regulierungen kommen ebenfalls hinzu. High-Level Überblick einer AWS-GenAI-RAG-Architektur mit Mitigationsstrategien für Data Poisoning und Prompt InjectionsSpike Reply Sind die Spielregeln geklärt, rückt das Spielfeld in den Fokus Ein Großteil der Angriffsvektoren lässt sich bereits auf Infrastrukturebene entschärfen oder vollständig blockieren. Voraussetzung dafür ist ein tiefes Verständnis der spezifischen Assets von KI-Applikationen wie RAG-Systeme und Agenten oder klassische APIs und Pipelines. Nur wer die sensiblen Bestandteile kennt und ihre jeweiligen Schwachstellen versteht, kann wirksame Härtungsmaßnahmen ergreifen. Durch gezielte Absicherung von Speicherorten, Netzwerken und Zugriffspunkten sowie die konsequente Umsetzung von Prinzipien wie Least Privilege und Zero Trust lassen sich potenzielle Einfallstore schließen, bevor sie ausgenutzt werden können. Auch im Betrieb sind Kontrollmechanismen nötig. So wie die Input-Validierung muss auch der Output der KI-Anwendung überwacht werden, um nicht nur einen qualitativ gleichbleibenden, sondern auch einen sicheren Betrieb zu gewährleisten. Ein kontinuierliches Monitoring hilft, unerwünschte Reaktionen frühzeitig zu erkennen. Auffälligkeiten können durch gezieltes Logging nachvollziehbar gemacht und mit Hilfe von Guardrails eingedämmt werden. Regelmäßige Penetrationstests, die speziell auf KI-Angriffsvektoren eingehen, helfen ebenso Schwachstellen aufzudecken. KI verantwortungsvoll integrieren KI entfaltet ihr volles Potenzial nur, wenn Vertrauen und Sicherheit mitwachsen. Letztlich ist es die Kombination aus technischer Exzellenz, organisatorischer Klarheit und strategischer Voraussicht, die für eine langfristig sichere und gesellschaftlich akzeptierte KI-Nutzung sorgen. Zusammenfassung für EntscheiderSchützen Sie Ihre KI-Anwendungen von Anfang an strategisch und ganzheitlich:Definieren Sie klare Zuständigkeiten, integrieren Sie Legal- und Compliance-Anforderungen wie den AI Act und DSGVO frühzeitig und härten Sie gezielt Ihre Infrastruktur. Setzen Sie auf spezialisiertes Monitoring, Logging und Guardrails, um Anomalien sofort zu erkennen und Risiken effektiv abzuwehren. Regelmäßige Penetrationstests, Awareness-Programme und ein KI-geschultes Security Operation Center runden Ihren Schutz ab. Wir unterstützen Sie dabei, Ihre KI sicher, regelkonform und widerstandsfähig in den Geschäftsbetrieb zu integrieren – damit Innovation nicht zum Risiko wird.Jetzt die KI-Sicherheit stärken: sprechen Sie mit unseren Experten.https://www.reply.com/spike-reply/de 

Warum Cybersecurity jetzt neu gedacht werden muss​ Neue Bedrohungen erfordern neue Schutzstrategien, und KI-Sicherheit beginnt jetzt.Reply

Neue Chancen, neue Angriffsfläche

KI durchdringt zunehmend Unternehmensprozesse. Laut Gartner zählt der sichere Umgang mit generativer KI zu den wichtigsten Cybersicherheitstrends 2025. Doch mit dem Nutzen steigen auch die Risiken. Im Folgenden lernen Sie zwei der Top-Ten-Sicherheitsrisiken von KI-basierten Applikationen kennen.

Ein zentrales Angriffsmuster ist die Prompt Injection. Dabei schleusen Angreifer manipulierte Eingaben in Prompts ein, um das Verhalten eines Sprachmodells zu beeinflussen. Ziel ist es, Sicherheitsmechanismen zu umgehen oder die Preisgabe vertraulicher Informationen zu erzwingen.

Prompt Injections nutzen die Art und Weise aus, wie Sprachmodelle Eingaben interpretieren. Selbst unscheinbare oder nicht sichtbare Inhalte können dazu führen, dass sicherheitskritische Anweisungen ignoriert oder fehlerhafte Ausgaben erzeugt werden.

Data und Model Poisoning können in verschiedenen Phasen des Lebenszyklus KI-basierter Systeme auftreten, wie etwa beim Training oder Fine-Tuning von Modellen sowie bei der Einbettung externer Daten.

Dazu gehören die häufig genutzten RAG-Systeme (Retrieval Augmented Generation), die als Wissensdatenbanken für KI-Anwendungen fungieren. Erhält ein Angreifer Zugriff auf diese Datenbanken oder schleust manipulierte Inhalte ein, besteht das Risiko, dass das Modell falsche oder schädliche Ausgaben erzeugt.

Solche Angriffe gefährden die Systemintegrität. Modelle können sich wie Schläfer-Agenten verhalten: im Normalbetrieb unauffällig, bei einer bestimmten Eingabe jedoch mit gezieltem Fehlverhalten.

Mit zunehmender Integration von KI-basierten Systemen vergrößert sich die Angriffsfläche drastisch. Traditionelle Sicherheitsmaßnahmen allein reichen für eine wirksame Verteidigung nicht mehr aus.

Der Schutz solcher Anwendungen erfordert ein spezialisiertes Monitoring, um sicherzustellen, dass KI-Systeme wie erwartet funktionieren, nicht manipuliert wurden oder gar als Einfallstor in die gesamte Infrastruktur dienen. Zur frühzeitigen Erkennung von Sicherheitsrisiken, unerwartetem Verhalten oder Anomalien benötigt es ein gezieltes Logging-and-Monitoring-Konzept. Klassische Metriken genügen nicht. Stattdessen müssen auch Modellentscheidungen, Eingabemuster und Ausgaben überwacht und ausgewertet werden. Diese Konzepte sollten nach Möglichkeit in bestehende Prozesse oder CNAPP-Lösungen (Cloud Native Application Protection Platform) integriert werden.

Bedrohungslage: Angriffsmethoden entwickeln sich mit der Technologie

Deepfakes, KI-generierte Phishing-Mails oder adaptive Malware lassen sich mit herkömmlichen Schutzmechanismen nur schwer abwehren. Die Systeme lernen kontinuierlich dazu und umgehen bekannte Abwehrstrategien zunehmend effizienter.

Hier sind regelmäßige Schulungen der Mitarbeitenden essenziell, nicht nur um technische Abwehrmaßnahmen zu vermitteln, sondern auch, um das Bewusstsein für durch KI verstärkte soziale Ingenieurstechniken zu schärfen. Auch Security Operation Center (SOC) mit KI-Expertise gewinnen an Bedeutung. Sie setzen KI-gestützte Tools ein, um Bedrohungen frühzeitig zu erkennen und einzuordnen. So ermöglichen sie eine schnelle, zielgerichtete Reaktion auf Sicherheitsvorfälle.

Handlungsempfehlungen: So sichern Unternehmen ihre KI-Anwendungen

Mit dem AI Act setzt die Europäische Union erstmals rechtsverbindliche Standards für den KI-Einsatz. Unternehmen, die KI in sensiblen Bereichen nutzen, müssen umfassende Risikoanalysen durchführen, technische und organisatorische Schutzmaßnahmen nachweisen und ein systematisches Verzeichnis aller KI-Anwendungen führen. Besonders risikoreiche Systeme unterliegen strengen Anforderungen.

Für viele Unternehmen bedeutet das nicht nur eine rechtliche, sondern auch eine strategische Herausforderung, insbesondere, wenn bestehende Prozesse angepasst werden müssen.

Die Integration von KI in Unternehmensprozesse sollte von Anfang an durch ein strategisches Sicherheitsverständnis begleitet werden. Dazu gehört die klare Verankerung von Zuständigkeiten und eine Integration in bestehende Prozesse. Wer ein KI-System einführt, trägt auch die Verantwortung für dessen Sicherheit. Das gilt von der Auswahl geeigneter Modelle bis zur kontinuierlichen Überwachung im Betrieb.

Bereits in dieser frühen Phase müssen auch Legal- und Compliance-Themen berücksichtigt werden. Neben dem AI Act geht es auch um Anforderungen der DSGVO/GDPR sowie Normen wie die neue ISO/IEC 42001 für KI-Managementsysteme. Branchenspezifische Regulierungen kommen ebenfalls hinzu.

High-Level Überblick einer AWS-GenAI-RAG-Architektur mit Mitigationsstrategien für Data Poisoning und Prompt InjectionsSpike Reply

Sind die Spielregeln geklärt, rückt das Spielfeld in den Fokus

Ein Großteil der Angriffsvektoren lässt sich bereits auf Infrastrukturebene entschärfen oder vollständig blockieren. Voraussetzung dafür ist ein tiefes Verständnis der spezifischen Assets von KI-Applikationen wie RAG-Systeme und Agenten oder klassische APIs und Pipelines. Nur wer die sensiblen Bestandteile kennt und ihre jeweiligen Schwachstellen versteht, kann wirksame Härtungsmaßnahmen ergreifen.

Durch gezielte Absicherung von Speicherorten, Netzwerken und Zugriffspunkten sowie die konsequente Umsetzung von Prinzipien wie Least Privilege und Zero Trust lassen sich potenzielle Einfallstore schließen, bevor sie ausgenutzt werden können.

Auch im Betrieb sind Kontrollmechanismen nötig. So wie die Input-Validierung muss auch der Output der KI-Anwendung überwacht werden, um nicht nur einen qualitativ gleichbleibenden, sondern auch einen sicheren Betrieb zu gewährleisten.

Ein kontinuierliches Monitoring hilft, unerwünschte Reaktionen frühzeitig zu erkennen. Auffälligkeiten können durch gezieltes Logging nachvollziehbar gemacht und mit Hilfe von Guardrails eingedämmt werden. Regelmäßige Penetrationstests, die speziell auf KI-Angriffsvektoren eingehen, helfen ebenso Schwachstellen aufzudecken.

KI verantwortungsvoll integrieren

KI entfaltet ihr volles Potenzial nur, wenn Vertrauen und Sicherheit mitwachsen. Letztlich ist es die Kombination aus technischer Exzellenz, organisatorischer Klarheit und strategischer Voraussicht, die für eine langfristig sichere und gesellschaftlich akzeptierte KI-Nutzung sorgen.

Zusammenfassung für EntscheiderSchützen Sie Ihre KI-Anwendungen von Anfang an strategisch und ganzheitlich:Definieren Sie klare Zuständigkeiten, integrieren Sie Legal- und Compliance-Anforderungen wie den AI Act und DSGVO frühzeitig und härten Sie gezielt Ihre Infrastruktur. Setzen Sie auf spezialisiertes Monitoring, Logging und Guardrails, um Anomalien sofort zu erkennen und Risiken effektiv abzuwehren. Regelmäßige Penetrationstests, Awareness-Programme und ein KI-geschultes Security Operation Center runden Ihren Schutz ab.

Wir unterstützen Sie dabei, Ihre KI sicher, regelkonform und widerstandsfähig in den Geschäftsbetrieb zu integrieren – damit Innovation nicht zum Risiko wird.Jetzt die KI-Sicherheit stärken: sprechen Sie mit unseren Experten.https://www.reply.com/spike-reply/de

Warum Cybersecurity jetzt neu gedacht werden muss​ Weiterlesen »

Datensouveränität als strategischer Erfolgsfaktor​

Allgemein

BARC empfiehlt eine klare Datenstrategie und souveräne Infrastruktur, wobei hybride Cloud-Modelle und Sicherheitsinvestitionen im Fokus stehen sollten. Ayhan Turan – shutterstock.com In einer zunehmend komplexen Datenlandschaft gewinnt das Thema Datensouveränität rasant an Bedeutung. Gleichzeitig wachsen die Herausforderungen rund um Datenschutz, Sicherheit und regulatorische Compliance. Die aktuelle BARC-Studie „Wie Unternehmen ihre Datensouveränität sichern“ besagt, dass technologische Entwicklungen, geopolitische Unsicherheiten und neue gesetzliche Vorgaben den Handlungsdruck auf Betriebe erhöhen. Gleichzeitig erfordert der Wunsch nach Souveränität neue Strategien, um digitale Selbstbestimmung zu sichern und Wettbewerbsvorteile zu erhalten. Datensouveränität branchenübergreifend relevant Um ein umfassendes Bild zu gewinnen, analysierte die Studie, wie Unternehmen unterschiedlicher Herkunft und Branchen mit dem Thema Datensouveränität umgehen. Insgesamt nahmen 291 Unternehmen teil, von denen 43 Prozent aus Deutschland stammten, was etwa 125 Unternehmen entspricht. Die Teilnehmenden gehörten einer Vielzahl datenintensiver Branchen an, in denen Datensouveränität besonders relevant ist, etwa durch den Umgang mit personenbezogenen Daten, Finanzdaten oder KI-Anwendungen. Darunter fallen IT und Software, Finanzdienstleistungen, produzierendes Gewerbe, Handel, Telekommunikation sowie öffentliche Verwaltung und Gesundheitswesen. Technologie, Politik und Regulierung als Treiber 84 Prozent der befragten Unternehmen sehen Datensouveränität als wichtig für ihre Unternehmensstrategie, davon die Hälfte sogar als sehr wichtig. Zudem berichteten sieben von zehn Befragten von einem deutlichen Bedeutungszuwachs in den letzten zwei Jahren. Fast ein Drittel schätzt sie sogar als „sehr viel höher“ ein. Laut den Studienmachern ist das kein Zufall, sondern das Ergebnis tiefgreifender technologischer, regulatorischer und geopolitischer Veränderungen. Für die wachsende Bedeutung macht BARC vier Faktoren verantwortlich: Neue gesetzliche Vorgaben wie der EU Data Act, die NIS2-Richtlinie sowie Anpassungen an Datenschutzgesetzen, die strengere Anforderungen an Datenhoheit, Nachvollziehbarkeit und Zugriffskontrolle stellen. Geopolitische Entwicklungen, insbesondere in den USA, die Unsicherheiten im internationalen Datenaustausch erhöhen. Die zunehmenden Cybersecurity-Vorfälle, die Unternehmen zu verstärkten Schutzmaßnahmen zwingen. Die wachsende Abhängigkeit von Public-Cloud-Anbietern, die das Risiko von Datenverlust oder -missbrauch steigert. Maßnahmen zur Sicherung der Datensouveränität Um diesen Herausforderungen zu begegnen, setzen Unternehmen verstärkt auf hybride Cloud-Strategien, die eine flexible Datenhaltung je nach Sensibilität ermöglichen. 51 Prozent der Befragten verfolgen diesen Ansatz bereits, wie die Studienmacher herausfanden. Die Teilnehmenden kombinieren diesen Ansatz gezielt mit Public- und Private-Cloud-Umgebungen, um regulatorische Anforderungen besser erfüllen zu können. Zudem planen 36 Prozent, mit regionalen oder lokalen Cloud-Anbietern zusammenzuarbeiten, um durch Nähe und Rechtsraum-Vertrauen mehr Kontrolle zu gewinnen. Fast jeder Fünfte fokussiert sich verstärkt auf On-Premises-Lösungen, um kritische Daten intern zu halten. Parallel investiert die Hälfte der Unternehmen verstärkt in Cybersecurity, um den wachsenden Bedrohungen durch Cyberangriffe und den Anforderungen an Compliance gerecht zu werden. Diese Investitionen sind besonders in der DACH-Region ausgeprägt, wo 55 Prozent der Unternehmen ihre Sicherheitsbudgets erhöhen. Fokus auf Mitarbeiter- und Kundendaten Die Überlegungen zur Datensouveränität konzentrieren sich vor allem auf personenbezogene Daten von Mitarbeitern (59 Prozent) und Kunden (53 Prozent). Dies liegt lut den Analysten daran, dass hier die Anforderungen an Datenschutz und Compliance besonders hoch sind. Finanzdaten für Buchhaltung (48 Prozent) sowie Planung und Reporting (42 Prozent) sind ebenfalls wichtige Bereiche. Hier können Fehler oder unkontrollierte Datenflüsse gravierende Folgen für Unternehmensentscheidungen haben. Ein weiteres wachsendes Feld sind Daten für KI-Anwendungen (40 Prozent), bei denen hochwertige und unternehmensspezifische Informationen entscheidend für Innovation und Wettbewerbsvorteile sind. Handlungsempfehlungen für Unternehmen Die Experten von BARC empfehlen, Datensouveränität als festen Bestandteil der Unternehmens- und Datenstrategie zu verankern. Dazu gehöre eine umfassende Bestandsaufnahme aller geschäftskritischen Daten und deren Speicherorte. Das Ziel ist es, eine fundierte Grundlage für strategische Entscheidungen zu schaffen. Zusätzlich sollte die strategische Bedeutung der Daten bewertet und priorisiert werden, um Schutzmaßnahmen gezielt zu steuern. Zudem sind laut den Auguren granulare Zugriffskontrollen und transparente Überwachungsmechanismen notwendig, um Zugriffe nachvollziehbar zu dokumentieren. Aus der technischen Perspektive sollten Unternehmen hybride Cloud-Architekturen aufbauen, die Daten je nach Sensibilität differenziert verwalten und so regulatorische Anforderungen flexibel erfüllen. Die Kombination aus Public- und Private-Cloud sowie der Einsatz lokaler Cloud-Anbieter schaffe eine souveräne Infrastruktur, die Innovation und Sicherheit verbindet, so die Studienmacher. 

Datensouveränität als strategischer Erfolgsfaktor​ BARC empfiehlt eine klare Datenstrategie und souveräne Infrastruktur, wobei hybride Cloud-Modelle und Sicherheitsinvestitionen im Fokus stehen sollten.
Ayhan Turan – shutterstock.com

In einer zunehmend komplexen Datenlandschaft gewinnt das Thema Datensouveränität rasant an Bedeutung. Gleichzeitig wachsen die Herausforderungen rund um Datenschutz, Sicherheit und regulatorische Compliance.

Die aktuelle BARC-Studie „Wie Unternehmen ihre Datensouveränität sichern“ besagt, dass technologische Entwicklungen, geopolitische Unsicherheiten und neue gesetzliche Vorgaben den Handlungsdruck auf Betriebe erhöhen. Gleichzeitig erfordert der Wunsch nach Souveränität neue Strategien, um digitale Selbstbestimmung zu sichern und Wettbewerbsvorteile zu erhalten.

Datensouveränität branchenübergreifend relevant

Um ein umfassendes Bild zu gewinnen, analysierte die Studie, wie Unternehmen unterschiedlicher Herkunft und Branchen mit dem Thema Datensouveränität umgehen. Insgesamt nahmen 291 Unternehmen teil, von denen 43 Prozent aus Deutschland stammten, was etwa 125 Unternehmen entspricht. Die Teilnehmenden gehörten einer Vielzahl datenintensiver Branchen an, in denen Datensouveränität besonders relevant ist, etwa durch den Umgang mit personenbezogenen Daten, Finanzdaten oder KI-Anwendungen. Darunter fallen

IT und Software,

Finanzdienstleistungen,

produzierendes Gewerbe,

Handel,

Telekommunikation sowie öffentliche Verwaltung und

Gesundheitswesen.

Technologie, Politik und Regulierung als Treiber

84 Prozent der befragten Unternehmen sehen Datensouveränität als wichtig für ihre Unternehmensstrategie, davon die Hälfte sogar als sehr wichtig. Zudem berichteten sieben von zehn Befragten von einem deutlichen Bedeutungszuwachs in den letzten zwei Jahren. Fast ein Drittel schätzt sie sogar als „sehr viel höher“ ein.

Laut den Studienmachern ist das kein Zufall, sondern das Ergebnis tiefgreifender technologischer, regulatorischer und geopolitischer Veränderungen.

Für die wachsende Bedeutung macht BARC vier Faktoren verantwortlich:

Neue gesetzliche Vorgaben wie der EU Data Act, die NIS2-Richtlinie sowie Anpassungen an Datenschutzgesetzen, die strengere Anforderungen an Datenhoheit, Nachvollziehbarkeit und Zugriffskontrolle stellen.

Geopolitische Entwicklungen, insbesondere in den USA, die Unsicherheiten im internationalen Datenaustausch erhöhen.

Die zunehmenden Cybersecurity-Vorfälle, die Unternehmen zu verstärkten Schutzmaßnahmen zwingen.

Die wachsende Abhängigkeit von Public-Cloud-Anbietern, die das Risiko von Datenverlust oder -missbrauch steigert.

Maßnahmen zur Sicherung der Datensouveränität

Um diesen Herausforderungen zu begegnen, setzen Unternehmen verstärkt auf hybride Cloud-Strategien, die eine flexible Datenhaltung je nach Sensibilität ermöglichen. 51 Prozent der Befragten verfolgen diesen Ansatz bereits, wie die Studienmacher herausfanden. Die Teilnehmenden kombinieren diesen Ansatz gezielt mit Public- und Private-Cloud-Umgebungen, um regulatorische Anforderungen besser erfüllen zu können.

Zudem planen 36 Prozent, mit regionalen oder lokalen Cloud-Anbietern zusammenzuarbeiten, um durch Nähe und Rechtsraum-Vertrauen mehr Kontrolle zu gewinnen. Fast jeder Fünfte fokussiert sich verstärkt auf On-Premises-Lösungen, um kritische Daten intern zu halten.

Parallel investiert die Hälfte der Unternehmen verstärkt in Cybersecurity, um den wachsenden Bedrohungen durch Cyberangriffe und den Anforderungen an Compliance gerecht zu werden. Diese Investitionen sind besonders in der DACH-Region ausgeprägt, wo 55 Prozent der Unternehmen ihre Sicherheitsbudgets erhöhen.

Fokus auf Mitarbeiter- und Kundendaten

Die Überlegungen zur Datensouveränität konzentrieren sich vor allem auf personenbezogene Daten von Mitarbeitern (59 Prozent) und Kunden (53 Prozent). Dies liegt lut den Analysten daran, dass hier die Anforderungen an Datenschutz und Compliance besonders hoch sind.

Finanzdaten für Buchhaltung (48 Prozent) sowie Planung und Reporting (42 Prozent) sind ebenfalls wichtige Bereiche. Hier können Fehler oder unkontrollierte Datenflüsse gravierende Folgen für Unternehmensentscheidungen haben.

Ein weiteres wachsendes Feld sind Daten für KI-Anwendungen (40 Prozent), bei denen hochwertige und unternehmensspezifische Informationen entscheidend für Innovation und Wettbewerbsvorteile sind.

Handlungsempfehlungen für Unternehmen

Die Experten von BARC empfehlen, Datensouveränität als festen Bestandteil der Unternehmens- und Datenstrategie zu verankern. Dazu gehöre eine umfassende Bestandsaufnahme aller geschäftskritischen Daten und deren Speicherorte. Das Ziel ist es, eine fundierte Grundlage für strategische Entscheidungen zu schaffen.

Zusätzlich sollte die strategische Bedeutung der Daten bewertet und priorisiert werden, um Schutzmaßnahmen gezielt zu steuern. Zudem sind laut den Auguren granulare Zugriffskontrollen und transparente Überwachungsmechanismen notwendig, um Zugriffe nachvollziehbar zu dokumentieren.

Aus der technischen Perspektive sollten Unternehmen hybride Cloud-Architekturen aufbauen, die Daten je nach Sensibilität differenziert verwalten und so regulatorische Anforderungen flexibel erfüllen. Die Kombination aus Public- und Private-Cloud sowie der Einsatz lokaler Cloud-Anbieter schaffe eine souveräne Infrastruktur, die Innovation und Sicherheit verbindet, so die Studienmacher.

Datensouveränität als strategischer Erfolgsfaktor​ Weiterlesen »

3 Pflicht-Refactorings für Entwickler​

Allgemein

Refactoring ist der Schlüssel zu gutem Code. Exclusive icon | shutterstock.com Ich erinnere mich gerne an die Tech- und Entwicklerkonferenzen der 1990er und 2000er Jahre. In dieser magischen Zeit arbeitete ich als Object-Pascal-Entwickler und ließ mich regelmäßig von großartigen Präsentationen und transformativen Features begeistern. Insbesondere die Keynote zur damals neuen, ersten echten Java-IDE JBuilder ist mir dabei im Gedächtnis geblieben. Damals wählte JBuilder-Architektin Kate Stone auf der großen Bühne einen in ihrer Anwendung gängigen Variablennamen aus – und änderte ihn mit ein paar Klicks in der gesamten Codebasis. Für Entwickler von heute ist es ein quasi selbstverständliches Feature, Code innerhalb einer IDE zu refaktorieren – damals war es eine revolutionäre Neuerung, die fast schon an schwarze Magie grenzte. Gleichermaßen ist auch Martin Fowlers bahnbrechendes Werk “Refactoring” längst zum Mainstream geworden, die vorgestellten Konzepte werden von den allermeisten Devs verstanden. Das ist auch gut so, denn Refactoring ist essenziell und generell nützlich. Die folgenden drei Refaktorierungskonzepte allerdings ganz besonders. 1. Extract Method Dürfte ich nur ein einziges Refactoring mit auf eine einsame Insel nehmen, wäre es wohl Extract Method – die beste Waffe gegen undurchdringlichen Spaghetti-Code. Das Chaos, das entsteht, wenn verschachtelte if -Statements mit großen Code-Blöcken zwischen geschweiften Klammern zusammenkommen, rechtfertigt so gut wie immer, Methoden zu extrahieren. Man könnte auch argumentieren, dass eine if-Anweisung jeweils nur einen einzigen Methodenaufruf enthalten sollte. Ich persönlich würde sogar so weit gehen zu sagen, dass das Code Refactoring erst abgeschlossen ist, wenn es keinen Sinn mehr macht, Extract Method anzuwenden. Oder anders ausgedrückt: Wenn Sie eine Methode extrahieren können, tun Sie es. Wenn das in Ihrem Kopf ein Szenario mit einer Unmenge kleiner Methoden erzeugt: Diese sind sinnvoll benannt (siehe weiter unten) und nur für eine Sache zuständig. 2. Rename Variable/Method/Class Es mag vielleicht dumm klingen, aber Dinge richtig, respektive sinnvoll zu benennen, ist kein Kinderspiel. Das ist leicht zu belegen mit einem beliebigen Stück Legacy-Code, das sich durch ungünstig benannte Variablen, Methoden und Klassen auszeichnet. Das liegt unter Umständen auch daran, dass die genutzten Feinheiten nur dem Entwickler bekannt sind, der ursprünglich mit dem Code gearbeitet hat. In den meisten Fällen ist es aber ehrlicherweise einfach so, dass aus Zeitmangel schlechte Benennungen gewählt werden. An dieser Stelle kommt das Rename-Refactoring ins Spiel: Diese Möglichkeit, eine Variable einfach umzubenennen, sollten Sie nicht ungenutzt lassen. Wenn Sie feststellen, dass eine Benennung aus bestimmten Gründen ungünstig ist, bringen Sie sie in eine bessere, präzisere Form. Weil Sie das für die gesamte Codebasis nur ein einziges Mal tun müssen, brauchen Sie auch nicht davor zurückzuschrecken, längere und dafür eindeutigere Bezeichnungen zu nutzen. Ein paar Beispiele: RecordNumber ist besser als RecNo, CustomerRecordNumber sticht RecordNumber und für einen booleschen Wert empfiehlt sich CustomerNumberCannotBeZero statt CustNo > 0 . 3. Extract Variable Zeitmangel ist ein Problem, das Developer quasi kontinuierlich verfolgt. Das kann zu Ergebnissen führen wie: If CalculateInterestRate(GatherAllInputs()) > 0.6 { .. } Oder in Nicht-Code ausgedrückt: Wir übergeben ein Funktionsergebnis direkt in eine andere Funktion als Teil eines booleschen Ausdrucks – was problematisch ist. Denn erstens ist der Code schwer lesbar und damit auch entsprechend diffizil zu durchdringen, was Zeit kostet. Und zweitens ist er auch schwierig zu debuggen, was noch schwerer wiegt. Zum Vergleich derselbe Code – extrahiert in lesbare und Debugging-fähige Form: const AllTheInputs = GatherAllInputs(); const CustomerInterestRate = CalculateInterestRate(AllTheInputs); const CustomerInterestRateIsHighEnough = CustomerInterestRate > 0.6; If KundenZinsRateIstHochGenug { .. } Wenn Ihnen das zu viel Tipperei ist, kann ich Ihnen nur entgegnen, dass Faulheit (in den allermeisten Fällen) nicht karrierefördernd ist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 Pflicht-Refactorings für Entwickler​ Refactoring ist der Schlüssel zu gutem Code. Exclusive icon | shutterstock.com

Ich erinnere mich gerne an die Tech- und Entwicklerkonferenzen der 1990er und 2000er Jahre. In dieser magischen Zeit arbeitete ich als Object-Pascal-Entwickler und ließ mich regelmäßig von großartigen Präsentationen und transformativen Features begeistern. Insbesondere die Keynote zur damals neuen, ersten echten Java-IDE JBuilder ist mir dabei im Gedächtnis geblieben. Damals wählte JBuilder-Architektin Kate Stone auf der großen Bühne einen in ihrer Anwendung gängigen Variablennamen aus – und änderte ihn mit ein paar Klicks in der gesamten Codebasis. Für Entwickler von heute ist es ein quasi selbstverständliches Feature, Code innerhalb einer IDE zu refaktorieren – damals war es eine revolutionäre Neuerung, die fast schon an schwarze Magie grenzte.

Gleichermaßen ist auch Martin Fowlers bahnbrechendes Werk “Refactoring” längst zum Mainstream geworden, die vorgestellten Konzepte werden von den allermeisten Devs verstanden. Das ist auch gut so, denn Refactoring ist essenziell und generell nützlich. Die folgenden drei Refaktorierungskonzepte allerdings ganz besonders.

1. Extract Method

Dürfte ich nur ein einziges Refactoring mit auf eine einsame Insel nehmen, wäre es wohl Extract Method – die beste Waffe gegen undurchdringlichen Spaghetti-Code. Das Chaos, das entsteht, wenn verschachtelte if -Statements mit großen Code-Blöcken zwischen geschweiften Klammern zusammenkommen, rechtfertigt so gut wie immer, Methoden zu extrahieren. Man könnte auch argumentieren, dass eine if-Anweisung jeweils nur einen einzigen Methodenaufruf enthalten sollte.

Ich persönlich würde sogar so weit gehen zu sagen, dass das Code Refactoring erst abgeschlossen ist, wenn es keinen Sinn mehr macht, Extract Method anzuwenden. Oder anders ausgedrückt: Wenn Sie eine Methode extrahieren können, tun Sie es. Wenn das in Ihrem Kopf ein Szenario mit einer Unmenge kleiner Methoden erzeugt: Diese sind sinnvoll benannt (siehe weiter unten) und nur für eine Sache zuständig.

2. Rename Variable/Method/Class

Es mag vielleicht dumm klingen, aber Dinge richtig, respektive sinnvoll zu benennen, ist kein Kinderspiel. Das ist leicht zu belegen mit einem beliebigen Stück Legacy-Code, das sich durch ungünstig benannte Variablen, Methoden und Klassen auszeichnet. Das liegt unter Umständen auch daran, dass die genutzten Feinheiten nur dem Entwickler bekannt sind, der ursprünglich mit dem Code gearbeitet hat. In den meisten Fällen ist es aber ehrlicherweise einfach so, dass aus Zeitmangel schlechte Benennungen gewählt werden.

An dieser Stelle kommt das Rename-Refactoring ins Spiel: Diese Möglichkeit, eine Variable einfach umzubenennen, sollten Sie nicht ungenutzt lassen. Wenn Sie feststellen, dass eine Benennung aus bestimmten Gründen ungünstig ist, bringen Sie sie in eine bessere, präzisere Form. Weil Sie das für die gesamte Codebasis nur ein einziges Mal tun müssen, brauchen Sie auch nicht davor zurückzuschrecken, längere und dafür eindeutigere Bezeichnungen zu nutzen.

Ein paar Beispiele:

RecordNumber ist besser als RecNo,

CustomerRecordNumber sticht RecordNumber und

für einen booleschen Wert empfiehlt sich CustomerNumberCannotBeZero statt CustNo > 0 .

3. Extract Variable

Zeitmangel ist ein Problem, das Developer quasi kontinuierlich verfolgt. Das kann zu Ergebnissen führen wie:

If CalculateInterestRate(GatherAllInputs()) > 0.6 {
..
}

Oder in Nicht-Code ausgedrückt: Wir übergeben ein Funktionsergebnis direkt in eine andere Funktion als Teil eines booleschen Ausdrucks – was problematisch ist. Denn erstens ist der Code schwer lesbar und damit auch entsprechend diffizil zu durchdringen, was Zeit kostet. Und zweitens ist er auch schwierig zu debuggen, was noch schwerer wiegt.

Zum Vergleich derselbe Code – extrahiert in lesbare und Debugging-fähige Form:

const AllTheInputs = GatherAllInputs();
const CustomerInterestRate = CalculateInterestRate(AllTheInputs);
const CustomerInterestRateIsHighEnough = CustomerInterestRate > 0.6;
If KundenZinsRateIstHochGenug {
..
}

Wenn Ihnen das zu viel Tipperei ist, kann ich Ihnen nur entgegnen, dass Faulheit (in den allermeisten Fällen) nicht karrierefördernd ist. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 Pflicht-Refactorings für Entwickler​ Weiterlesen »

4 LLM-Testing-Strategien: So testen Sie große Sprachmodelle​

Allgemein

Wenn GenAI-Initiativen strategisches Testing außen vor lassen, sind die Probleme vorprogrammiert. Foto: Roman Samborskyi | shutterstock.com Generative KI (GenAI; Generative AI) ist weiterhin in aller Munde. Die neuen Geschäftsmöglichkeiten bewegen diverse Unternehmen – beziehungsweise deren Entwicklungsteams – dazu, Vektordatenbanken aufzubauen und Large Language Models (LLMs; auch große Sprachmodelle) in ihre Applikationen einzubetten. Firmen, die in GenAI und LLMs investieren, müssen bereits im Vorfeld einige Hürden nehmen, wenn sie erfolgreich sein wollen. Größere Bedenken könnte allerdings ein Blick darauf hervorrufen, wie große Sprachmodelle und GenAI-Anwendungen getestet werden. Unzureichende Qualitätssicherung und nicht existente Testing-Prozesse für LLMs können diverse negative Folgen nach sich ziehen – beispielsweise Reputationsschäden oder Urheberrechtsklagen. Um es kurz zu machen: Entwicklungs-Teams brauchen eine Testing-Strategie für LLMs. LLMs testen in 4 Schritten Die folgenden Best Practices können als Basis dienen, um große Sprachmodelle, die in benutzerdefinierte Anwendungen eingebettet sind, zu testen und sicherzustellen, dass sie die qualitativen Anforderungen des Unternehmens und der Endbenutzer erfüllen. 1. Software-Qualitätssicherung mit Testdaten erweitern Die allermeisten Entwicklungsteams werden keine generalistischen Large Language Models erstellen, sondern Applikationen für bestimmte Endbenutzer und Anwendungsfälle. Das erfordert ein grundlegendes Verständnis in mehreren Bereichen. Jakob Praher, CTO beim Enterprise-Search-Anbieter Mindbreeze, erklärt: “Die erste Voraussetzung dafür, große Sprachmodelle zu testen, ist zu wissen, welches Problem das LLM lösen soll. Um Metriken für die Performance des KI-Modells zu definieren, sollten Testdatensätze angelegt werden. Das ermöglicht, entweder die Prompts zu optimieren oder das Modell systematisch feinabzustimmen.” Ein LLM für den Kundenservice könnte zum Beispiel einen Testdatensatz mit häufigen Benutzerproblemen und den besten Lösungsansätzen enthalten. Bei anderen Use Cases gestaltet es sich möglicherweise schwieriger, die Ergebnisse zu evaluieren – dennoch können die Entwickler Testdaten zu Validierungszwecken nutzen. Auch Kishore Gadiraju, VP of Engineering beim Data-Management-Spezialisten Solix Technologies, ist davon überzeugt, dass Testdatensätze den zuverlässigsten Testing-Weg darstellen, wenn es um LLMs geht. Er betont jedoch: “Die Challenge liegt in den Kosten und dem Zeitaufwand um solche Datensätze zu erstellen. Denn wie bei jeder anderen Software auch, umfasst auch Testing im Bereich LLMs Unit-, Funktions-, Regressions- und Performance-Tests. Dazu kommen noch Bias-, Fairness-, Datenschutz-, Inhaltskontroll- und Explanability-Testing.” 2. Modellqualitäts- und Performance-Tests automatisieren Sobald ein Testdatensatz vorliegt, können Entwicklungsteams – je nach Qualitätszielen, Risiken und Kostenabwägungen – verschiedene Testing-Ansätze in Betracht ziehen. Olga Megorskaya, CEO des KI-Unternehmens Toloka AI, erklärt, wohin der Trend dabei ihrer Meinung nach geht: “Aus Zeit- und Kosteneffizienzgründen setzen Unternehmen zunehmend auf automatisierte statt auf manuelle Evaluierungsmethoden”. Die Managerin schränkt dabei jedoch ein: “In Situationen, in denen es darauf ankommt, Nuancen zu erkennen, sollten Unternehmen trotzdem Experten hinzuziehen – diese könnten von automatisierten Systemen möglicherweise übersehen werden.” Die richtige Balance zwischen manuellen und automatisierten Tasks zu finden, ist dabei für Developer und Data Scientists oft eine diffizile Aufgabe. Steven Hillion, SVP of Data and AI beim Datenspezialisten Astronomer, empfiehlt deshalb: “Setzen Sie auf eine Kombination aus automatisiertem Benchmarking für jeden Schritt des Modellierungsprozesses und einen Mix aus Automatisierung und manueller Verifizierung für das End-to-End-System. Im Fall von umfassenderen Releases sollte in jedem Fall eine finale manuelle Validierung anhand des Testdatensatzes erfolgen. Das gilt vor allem dann, wenn neue Embeddings, KI-Modelle oder Prompts eingeführt wurden, die das allgemeine Qualitätsniveau anheben sollen. Schließlich sind die erzielten Verbesserungen oft subtil oder subjektiv.” Dabei spielt auch eine große Rolle, dass zuverlässige LLM-Testing-Plattformen bislang Mangelware sind, wie Nikolaos Vasiloglou, VP of Research ML beim KI-Anbieter RelationalAI, unterstreicht: “Es gibt keine modernen Plattformen für systematisches Testing. Deswegen ist ein Bot, der auf Knowledge-Graphen basiert derzeit die beste Lösung.” Bis besagte Lösungen kommen, müssen Unternehmen ihr “Testing-Glück” also selbst in die Hand nehmen. Zum Beispiel mit folgenden Testing-Bibliotheken und Tools, die Solix-Softwareexperte Gadiraju empfiehlt: AI Fairness 360 ist ein Open-Source-Toolkit von IBM, mit dem sich Verzerrungen in Machine-Learning-Modellen analysieren, reporten und abschwächen lassen. DeepEval ist ein quelloffenes Framework um LLMs zu evaluieren. Das Tool ähnelt Pytest, ist jedoch auf Unit-Testing für LLM-Outputs ausgerichtet. Baserun ist ein Prompt-Engineering-Tool, um KI-Modelle zu debuggen, zu testen und iterativ zu optimieren. NeMo-Guardrails ist ein quelloffenes Toolkit von Nvidia, um die Outputs von LLMs mit programmierbaren Einschränkungen zu versehen. Laut Monica Romila, Director of Data Science Tools and Runtimes bei IBM, sollten zwei wesentliche Testing-Bereiche im Fokus stehen, wenn es um LLMs in Enterprise-Anwendungsfällen geht: “Model Quality Evaluation” bewertet die Modellqualität unter Berücksichtigung akademischer und interner Datensätze für Anwendungsfälle wie Klassifizierung, Extraktion, Zusammenfassung, Generierung und Retrieval Augmented Generation (RAG). “Model Performance Testing” validiert die Latenz und den Durchsatz des Modells. Performance-Testing hängt nach Meinung der IBM-Managerin wesentlich von zwei verschiedenen Parametern ab: der Anzahl der parallelen Requests sowie der Anzahl der generierten Token. “Es ist wichtig, mit verschiedenen Lastgrößen und -typen zu testen und die Performance mit existierenden Modellen zu vergleichen, um festzustellen, ob Aktualisierungen erforderlich sind”, konstatiert Romila. Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Serviceanbieter SADA, empfiehlt DevOps– und Cloud-Architekten zudem, auch die Infrastrukturanforderungen im Blick zu haben, die Performance- und Load-Testing mit sich bringen: “Eine Testing-Infrastruktur für große Sprachmodelle bereitzustellen, erfordert zuverlässige Rechenressourcen, Speicherlösungen und entsprechende Frameworks. Automatisierte Provisioning-Tools wie Terraform und Versionskontrollsysteme wie Git spielen eine zentrale Rolle, wenn es darum geht, reproduzierbare Deployments und effektive Kollaboration zu realisieren. Das unterstreicht, wie wichtig ein ausgewogenes Verhältnis von Ressourcen, Storage, Deployment-Strategien und Collaboration Tools mit Blick auf LLM-Testing ist.” 3. RAG-Qualität auf Use-Case-Basis bewerten Um die Genauigkeit großer Sprachmodelle zu optimieren, gibt es mehrere Techniken – etwa Inhalte zu zentralisieren, die KI-Modelle mit zeitaktuellen Daten zu aktualisieren oder Retrieval Augmented Generation in der Query Pipeline anzuwenden. Speziell RAG spielt eine entscheidende Rolle, wenn es darum geht, leistungsfähige LLMs mit proprietären Unternehmensdaten zu verbinden. Igor Jablokov, CEO und Gründer des Plattformanbieters Pryon, erklärt: “RAG macht vor allem bei Enterprise Deployments Sinn, in denen eine überprüfbare Zuordnung der Quellinhalte notwendig ist – insbesondere in kritischen Infrastrukturen.” RAG zu nutzen, reduziert nachweislich KI-Halluzinationen und verbessert die Genauigkeit von Modellen. Allerdings stellt die Technik auch eine weitere Komponente dar, die auf Relevanz und Performace getestet werden muss. Die Art dieser Testing-Ansätze hängt schließlich davon ab, wie einfach es ist, die RAG- und LLM-Antworten zu evaluieren – und zu welchem Grad die Entwicklungs-Teams das Feedback der Endbenutzer nutzen können. Deon Nicholas, CEO bei Forethought, gibt Einblicke, welche RAG-Evaluierungsoptionen bei seinem Unternehmen zum Einsatz kommen. Demnach setzen die Generative-AI-Spezialisten diesbezüglich auf drei verschiedene Ansätze: Goldstandard-Datensätze oder manuell gelabelte Datensätze mit korrekten Antworten auf Queries dienen als Benchmark für die Modell-Performance. Reinforcement Learning testet Modelle in realen Szenarien – fragt etwa den Zufriedenheitsgrad eines Benutzers nach einer Chatbot-Interaktion ab. Adversarial Networks ermöglichen, die Modell-Performance automatisiert zu bewerten, weil sie nicht auf menschliches Feedback angewiesen sind. “Jede Methode bringt Kompromisse mit sich, wobei der manuelle Aufwand gegen das Risiko, Fehler zu übersehen, abgewogen werden muss”, erklärt Nicholas und fügt hinzu: “Die besten Systeme nutzen diese Methoden für alle Systemkomponenten, um Fehler zu minimieren und einen robusten KI-Einsatz zu fördern.” 4. Qualitätsmetriken und Benchmarks entwickeln Sobald Sie über Testdaten, ein aktualisiertes, großes Sprachmodell und eine Testing-Strategie verfügen, besteht der nächste Schritt darin, die Qualität anhand der festgelegten Ziele zu überprüfen. Atena Reyhani, Chief Product Officer beim KI-Serviceanbieter ContractPodAi, weiß, worauf es dabei ankommt: “Um eine sichere und vertrauenswürdige KI gewährleisten zu können, sind spezifische und messbare KPIs sowie eng definierte Leitplanken essenziell.” Laut der CPO gebe es in diesem Bereich diverse Kriterien zu berücksichtigen: “Die Entwickler müssen das gesamte LLM-Ökosystem und das Betriebsmodell im Zielbereich bewerten, um sicherzustellen, dass es genaue, relevante und umfassende Ergebnisse liefert.” Ein Tool, das in diesem Bereich weiterhelfen kann, ist Chatbot Arena – eine offene Umgebung, um LLM-Ergebnisse zu vergleichen. Das Tool nutzt dazu das “Elo Rating System” – einen Algorithmus, der bislang vor allem dazu genutzt wird, Spieler in Wettbewerben zu ranken. Joe Regensburger, VP of Research beim Datensicherheitsspezialisten Immuta, erklärt: “Die menschliche Bewertung ist ein zentraler Bestandteil des Testing-Prozesses – vor allem, wenn es darum geht, ein großes Sprachmodell für die Requests zu härten, die in freier Wildbahn auf es zukommen. ‘Chatbot Arena’ ist dabei ein Beispiel für Crowdsourcing Testing. Ein Verfahren, das eine wichtige Feedback-Schleife bieten kann.” Geht es um konkrete Metriken, empfiehlt IBM-Managerin Romila, folgende KPIs – je nach LLM-Anwendungsfall – zu berücksichtigen: Der F1 Score setzt sich aus “Precision” und “Recall” zusammen und ist relevant, wenn große Sprachmodelle für Klassifizierungs- oder Prognoseaufgaben eingesetzt werden. Ein LLM im Bereich Customer Support kann beispielsweise danach bewertet werden, wie gut es Handlungsempfehlungen liefert. Mit RougeL können RAG und LLMs für Summarization-Zwecke getestet werden. Allerdings setzt das eine manuell erstellte Zusammenfassung voraus, um die Ergebnisse benchmarken zu können. Ursprünglich wird sacreBLEU verwendet, um Übersetzungen zu testen. Inzwischen wird es – neben anderen Methoden wie TER, ChrF und BERTScore – eingesetzt, um die Antworten großer Sprachmodelle quantitativ zu bewerten. Testing endet nicht damit, ein Modell bereitzustellen. Vielmehr gilt es, das User Feedback, die Performance-Metriken und andere Rückmeldungen dazu zu nutzen, die KI-Modelle weiter zu optimieren. Dustin Pearce, VP of Engineering und CISO beim CDP-Anbieter Amplitude, erklärt: “Nach dem Deployment ist es von entscheidender Bedeutung, die Ergebnisse mit Hilfe von Behavioral Analytics zu integrieren. Das sorgt für schnelleres Feedback und ermöglicht, die Modellleistung eindeutiger zu messen.” Ein wichtiger Schritt zur Vorbereitung auf die Produktion sind dabei Feature Flags. KI-Unternehmen wie Anthropic, Character.ai, Notion und Brex bauen ihre Produkte gezielt mit Feature Flags auf, um Applikationen kollaborativ testen zu können, Funktionen schrittweise einzuführen und Experimente auf verschiedene Nutzersegmente auszurichten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

4 LLM-Testing-Strategien: So testen Sie große Sprachmodelle​ Wenn GenAI-Initiativen strategisches Testing außen vor lassen, sind die Probleme vorprogrammiert.
Foto: Roman Samborskyi | shutterstock.com

Generative KI (GenAI; Generative AI) ist weiterhin in aller Munde. Die neuen Geschäftsmöglichkeiten bewegen diverse Unternehmen – beziehungsweise deren Entwicklungsteams – dazu, Vektordatenbanken aufzubauen und Large Language Models (LLMs; auch große Sprachmodelle) in ihre Applikationen einzubetten. Firmen, die in GenAI und LLMs investieren, müssen bereits im Vorfeld einige Hürden nehmen, wenn sie erfolgreich sein wollen.

Größere Bedenken könnte allerdings ein Blick darauf hervorrufen, wie große Sprachmodelle und GenAI-Anwendungen getestet werden. Unzureichende Qualitätssicherung und nicht existente Testing-Prozesse für LLMs können diverse negative Folgen nach sich ziehen – beispielsweise Reputationsschäden oder Urheberrechtsklagen. Um es kurz zu machen: Entwicklungs-Teams brauchen eine Testing-Strategie für LLMs.

LLMs testen in 4 Schritten

Die folgenden Best Practices können als Basis dienen, um große Sprachmodelle, die in benutzerdefinierte Anwendungen eingebettet sind, zu testen und sicherzustellen, dass sie die qualitativen Anforderungen des Unternehmens und der Endbenutzer erfüllen.

1. Software-Qualitätssicherung mit Testdaten erweitern

Die allermeisten Entwicklungsteams werden keine generalistischen Large Language Models erstellen, sondern Applikationen für bestimmte Endbenutzer und Anwendungsfälle. Das erfordert ein grundlegendes Verständnis in mehreren Bereichen. Jakob Praher, CTO beim Enterprise-Search-Anbieter Mindbreeze, erklärt: “Die erste Voraussetzung dafür, große Sprachmodelle zu testen, ist zu wissen, welches Problem das LLM lösen soll. Um Metriken für die Performance des KI-Modells zu definieren, sollten Testdatensätze angelegt werden. Das ermöglicht, entweder die Prompts zu optimieren oder das Modell systematisch feinabzustimmen.”

Ein LLM für den Kundenservice könnte zum Beispiel einen Testdatensatz mit häufigen Benutzerproblemen und den besten Lösungsansätzen enthalten. Bei anderen Use Cases gestaltet es sich möglicherweise schwieriger, die Ergebnisse zu evaluieren – dennoch können die Entwickler Testdaten zu Validierungszwecken nutzen.

Auch Kishore Gadiraju, VP of Engineering beim Data-Management-Spezialisten Solix Technologies, ist davon überzeugt, dass Testdatensätze den zuverlässigsten Testing-Weg darstellen, wenn es um LLMs geht. Er betont jedoch: “Die Challenge liegt in den Kosten und dem Zeitaufwand um solche Datensätze zu erstellen. Denn wie bei jeder anderen Software auch, umfasst auch Testing im Bereich LLMs Unit-, Funktions-, Regressions- und Performance-Tests. Dazu kommen noch Bias-, Fairness-, Datenschutz-, Inhaltskontroll- und Explanability-Testing.”

2. Modellqualitäts- und Performance-Tests automatisieren

Sobald ein Testdatensatz vorliegt, können Entwicklungsteams – je nach Qualitätszielen, Risiken und Kostenabwägungen – verschiedene Testing-Ansätze in Betracht ziehen. Olga Megorskaya, CEO des KI-Unternehmens Toloka AI, erklärt, wohin der Trend dabei ihrer Meinung nach geht: “Aus Zeit- und Kosteneffizienzgründen setzen Unternehmen zunehmend auf automatisierte statt auf manuelle Evaluierungsmethoden”. Die Managerin schränkt dabei jedoch ein: “In Situationen, in denen es darauf ankommt, Nuancen zu erkennen, sollten Unternehmen trotzdem Experten hinzuziehen – diese könnten von automatisierten Systemen möglicherweise übersehen werden.”

Die richtige Balance zwischen manuellen und automatisierten Tasks zu finden, ist dabei für Developer und Data Scientists oft eine diffizile Aufgabe. Steven Hillion, SVP of Data and AI beim Datenspezialisten Astronomer, empfiehlt deshalb: “Setzen Sie auf eine Kombination aus automatisiertem Benchmarking für jeden Schritt des Modellierungsprozesses und einen Mix aus Automatisierung und manueller Verifizierung für das End-to-End-System. Im Fall von umfassenderen Releases sollte in jedem Fall eine finale manuelle Validierung anhand des Testdatensatzes erfolgen. Das gilt vor allem dann, wenn neue Embeddings, KI-Modelle oder Prompts eingeführt wurden, die das allgemeine Qualitätsniveau anheben sollen. Schließlich sind die erzielten Verbesserungen oft subtil oder subjektiv.”

Dabei spielt auch eine große Rolle, dass zuverlässige LLM-Testing-Plattformen bislang Mangelware sind, wie Nikolaos Vasiloglou, VP of Research ML beim KI-Anbieter RelationalAI, unterstreicht: “Es gibt keine modernen Plattformen für systematisches Testing. Deswegen ist ein Bot, der auf Knowledge-Graphen basiert derzeit die beste Lösung.” Bis besagte Lösungen kommen, müssen Unternehmen ihr “Testing-Glück” also selbst in die Hand nehmen. Zum Beispiel mit folgenden Testing-Bibliotheken und Tools, die Solix-Softwareexperte Gadiraju empfiehlt:

AI Fairness 360 ist ein Open-Source-Toolkit von IBM, mit dem sich Verzerrungen in Machine-Learning-Modellen analysieren, reporten und abschwächen lassen.

DeepEval ist ein quelloffenes Framework um LLMs zu evaluieren. Das Tool ähnelt Pytest, ist jedoch auf Unit-Testing für LLM-Outputs ausgerichtet.

Baserun ist ein Prompt-Engineering-Tool, um KI-Modelle zu debuggen, zu testen und iterativ zu optimieren.

NeMo-Guardrails ist ein quelloffenes Toolkit von Nvidia, um die Outputs von LLMs mit programmierbaren Einschränkungen zu versehen.

Laut Monica Romila, Director of Data Science Tools and Runtimes bei IBM, sollten zwei wesentliche Testing-Bereiche im Fokus stehen, wenn es um LLMs in Enterprise-Anwendungsfällen geht:

“Model Quality Evaluation” bewertet die Modellqualität unter Berücksichtigung akademischer und interner Datensätze für Anwendungsfälle wie Klassifizierung, Extraktion, Zusammenfassung, Generierung und Retrieval Augmented Generation (RAG).

“Model Performance Testing” validiert die Latenz und den Durchsatz des Modells.

Performance-Testing hängt nach Meinung der IBM-Managerin wesentlich von zwei verschiedenen Parametern ab: der Anzahl der parallelen Requests sowie der Anzahl der generierten Token. “Es ist wichtig, mit verschiedenen Lastgrößen und -typen zu testen und die Performance mit existierenden Modellen zu vergleichen, um festzustellen, ob Aktualisierungen erforderlich sind”, konstatiert Romila.

Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Serviceanbieter SADA, empfiehlt DevOps– und Cloud-Architekten zudem, auch die Infrastrukturanforderungen im Blick zu haben, die Performance- und Load-Testing mit sich bringen: “Eine Testing-Infrastruktur für große Sprachmodelle bereitzustellen, erfordert zuverlässige Rechenressourcen, Speicherlösungen und entsprechende Frameworks. Automatisierte Provisioning-Tools wie Terraform und Versionskontrollsysteme wie Git spielen eine zentrale Rolle, wenn es darum geht, reproduzierbare Deployments und effektive Kollaboration zu realisieren. Das unterstreicht, wie wichtig ein ausgewogenes Verhältnis von Ressourcen, Storage, Deployment-Strategien und Collaboration Tools mit Blick auf LLM-Testing ist.”

3. RAG-Qualität auf Use-Case-Basis bewerten

Um die Genauigkeit großer Sprachmodelle zu optimieren, gibt es mehrere Techniken – etwa Inhalte zu zentralisieren, die KI-Modelle mit zeitaktuellen Daten zu aktualisieren oder Retrieval Augmented Generation in der Query Pipeline anzuwenden. Speziell RAG spielt eine entscheidende Rolle, wenn es darum geht, leistungsfähige LLMs mit proprietären Unternehmensdaten zu verbinden. Igor Jablokov, CEO und Gründer des Plattformanbieters Pryon, erklärt: “RAG macht vor allem bei Enterprise Deployments Sinn, in denen eine überprüfbare Zuordnung der Quellinhalte notwendig ist – insbesondere in kritischen Infrastrukturen.”

RAG zu nutzen, reduziert nachweislich KI-Halluzinationen und verbessert die Genauigkeit von Modellen. Allerdings stellt die Technik auch eine weitere Komponente dar, die auf Relevanz und Performace getestet werden muss. Die Art dieser Testing-Ansätze hängt schließlich davon ab, wie einfach es ist, die RAG- und LLM-Antworten zu evaluieren – und zu welchem Grad die Entwicklungs-Teams das Feedback der Endbenutzer nutzen können.

Deon Nicholas, CEO bei Forethought, gibt Einblicke, welche RAG-Evaluierungsoptionen bei seinem Unternehmen zum Einsatz kommen. Demnach setzen die Generative-AI-Spezialisten diesbezüglich auf drei verschiedene Ansätze:

Goldstandard-Datensätze oder manuell gelabelte Datensätze mit korrekten Antworten auf Queries dienen als Benchmark für die Modell-Performance.

Reinforcement Learning testet Modelle in realen Szenarien – fragt etwa den Zufriedenheitsgrad eines Benutzers nach einer Chatbot-Interaktion ab.

Adversarial Networks ermöglichen, die Modell-Performance automatisiert zu bewerten, weil sie nicht auf menschliches Feedback angewiesen sind.

“Jede Methode bringt Kompromisse mit sich, wobei der manuelle Aufwand gegen das Risiko, Fehler zu übersehen, abgewogen werden muss”, erklärt Nicholas und fügt hinzu: “Die besten Systeme nutzen diese Methoden für alle Systemkomponenten, um Fehler zu minimieren und einen robusten KI-Einsatz zu fördern.”

4. Qualitätsmetriken und Benchmarks entwickeln

Sobald Sie über Testdaten, ein aktualisiertes, großes Sprachmodell und eine Testing-Strategie verfügen, besteht der nächste Schritt darin, die Qualität anhand der festgelegten Ziele zu überprüfen. Atena Reyhani, Chief Product Officer beim KI-Serviceanbieter ContractPodAi, weiß, worauf es dabei ankommt: “Um eine sichere und vertrauenswürdige KI gewährleisten zu können, sind spezifische und messbare KPIs sowie eng definierte Leitplanken essenziell.” Laut der CPO gebe es in diesem Bereich diverse Kriterien zu berücksichtigen: “Die Entwickler müssen das gesamte LLM-Ökosystem und das Betriebsmodell im Zielbereich bewerten, um sicherzustellen, dass es genaue, relevante und umfassende Ergebnisse liefert.”

Ein Tool, das in diesem Bereich weiterhelfen kann, ist Chatbot Arena – eine offene Umgebung, um LLM-Ergebnisse zu vergleichen. Das Tool nutzt dazu das “Elo Rating System” – einen Algorithmus, der bislang vor allem dazu genutzt wird, Spieler in Wettbewerben zu ranken. Joe Regensburger, VP of Research beim Datensicherheitsspezialisten Immuta, erklärt: “Die menschliche Bewertung ist ein zentraler Bestandteil des Testing-Prozesses – vor allem, wenn es darum geht, ein großes Sprachmodell für die Requests zu härten, die in freier Wildbahn auf es zukommen. ‘Chatbot Arena’ ist dabei ein Beispiel für Crowdsourcing Testing. Ein Verfahren, das eine wichtige Feedback-Schleife bieten kann.”

Geht es um konkrete Metriken, empfiehlt IBM-Managerin Romila, folgende KPIs – je nach LLM-Anwendungsfall – zu berücksichtigen:

Der F1 Score setzt sich aus “Precision” und “Recall” zusammen und ist relevant, wenn große Sprachmodelle für Klassifizierungs- oder Prognoseaufgaben eingesetzt werden. Ein LLM im Bereich Customer Support kann beispielsweise danach bewertet werden, wie gut es Handlungsempfehlungen liefert.

Mit RougeL können RAG und LLMs für Summarization-Zwecke getestet werden. Allerdings setzt das eine manuell erstellte Zusammenfassung voraus, um die Ergebnisse benchmarken zu können.

Ursprünglich wird sacreBLEU verwendet, um Übersetzungen zu testen. Inzwischen wird es – neben anderen Methoden wie TER, ChrF und BERTScore – eingesetzt, um die Antworten großer Sprachmodelle quantitativ zu bewerten.

Testing endet nicht damit, ein Modell bereitzustellen. Vielmehr gilt es, das User Feedback, die Performance-Metriken und andere Rückmeldungen dazu zu nutzen, die KI-Modelle weiter zu optimieren. Dustin Pearce, VP of Engineering und CISO beim CDP-Anbieter Amplitude, erklärt: “Nach dem Deployment ist es von entscheidender Bedeutung, die Ergebnisse mit Hilfe von Behavioral Analytics zu integrieren. Das sorgt für schnelleres Feedback und ermöglicht, die Modellleistung eindeutiger zu messen.”

Ein wichtiger Schritt zur Vorbereitung auf die Produktion sind dabei Feature Flags. KI-Unternehmen wie Anthropic, Character.ai, Notion und Brex bauen ihre Produkte gezielt mit Feature Flags auf, um Applikationen kollaborativ testen zu können, Funktionen schrittweise einzuführen und Experimente auf verschiedene Nutzersegmente auszurichten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

4 LLM-Testing-Strategien: So testen Sie große Sprachmodelle​ Weiterlesen »

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​

Allgemein

Wegen des drohenden Lizenz-Endes der S/4HANA Compatibility Packs müssen viele SAP-Kunden jetzt aktiv werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden.Andrey_Popov – Shutterstock SAP S/4HANA-Kunden, die noch auf Funktionen in den sogenannten Compatibility Packs angewiesen sind, haben nur noch wenige Monate Zeit, um auf die nativen Funktionen umzusteigen. Der Grund: Das Ende der Lizenzen für die vor rund zehn Jahren eingeführten Packs rückt näher. SAP hatte die Compatibility Packs im Jahr 2015 als Übergangslösung eingeführt, um Kunden die Migration von SAP ECC (ERP Central Component) auf S/4 HANA zu erleichtern. Die Packs ermöglichten es den Kunden, bestimmte ECC-Funktionen vorübergehend weiter zu nutzen, wenn die Migration der Module nach S/4HANA einige Zeit in Anspruch genommen hätte oder wenn ihre Funktionalität nicht in den ersten S/4HANA-Releases enthalten war. Doch jede Übergangszeit hat einmal ein Ende. Bis zum 31. Dezember 2025 müssen die meisten Kunden die Nutzung dieser Packs einstellen, Die weitere Verwendung nach diesem Datum will SAP als „kommerzielle Nichteinhaltung – also Vertragsbruch“ behandeln. Die meisten dieser Pakete seien heute ohnehin überflüssig, erklärt Maura Hameroff, SVP of ERP Product Marketing bei SAP. “Mit unserem S/4 HANA-Release 2023 haben wir alle Szenarien abgedeckt. Wir haben alle technischen Hindernisse beseitigt, die die Kunden bislang ausgebremst haben.” SAP hatte bereits in einem im Februar 2025 aktualisierten Blogbeitrag klargestellt, dass sowohl das Recht zur Nutzung von Compatibility Packs als auch der gesamte Support dafür zum gleichen Zeitpunkt auslaufen, unabhängig vom Wartungsstatus des S/4HANA-Systems. Drohende Maßnahmen „Die Nutzungsrechte für Compatibility Scopes erlöschen automatisch am 31. Dezember 2025 für alle SAP S/4HANA-Versionen, unabhängig von ihrem Veröffentlichungsdatum“, heißt es dort. “Unabhängig von der SAP S/4HANA-Version haben Kunden also nach diesem Zeitpunkt kein vertragliches Recht mehr, die Compatibility Scope-Funktionalität zu nutzen, selbst wenn sich das betroffene SAP S/4HANA-Systemrelease noch in der Mainstream-Wartung befindet. Außerdem endet der Support für Compatibility Scope-Elemente mit dem Auslaufen der Nutzungsrechte.” Wenn rechtliche Drohungen die Kunden nicht dazu bringen, die Modernisierung ihrer Systeme abzuschließen, könnte SAP zu härteren Mitteln greifen: SAP behält sich das Recht vor, die Compatibility Pack-Funktionalität in zukünftigen S/4HANA-Versionen technisch unzugänglich zu machen. „Bis dahin“, so heißt es, „müssen die Kunden durch organisatorische oder andere Maßnahmen sicherstellen, dass die Funktionalität des Compatibility Packs nach Ablauf der Nutzungsrechte nicht mehr verwendet wird.“ Ausnahmen bestätigen die Regel Einige Packs sind von der Frist ausgenommen: Customer Service (CS), Transportation (LE-TRA) und Production Planning for Process Industries (PP-PI) dürfen bis 2030 weiter genutzt werden. Laut Scott Bickley, Research Fellow bei der Info-Tech Research Group, liegt dies an der Komplexität und Vielfalt sowohl der Produkte selbst als auch der zugrundeliegenden komplexen Geschäftsprozesse der Kunden. „Auch RISE-with-SAP -Kunden können aufatmen, denn ihre Nutzungsrechte für SAP Compatibility Packs wurden ebenfalls bis 2030 gewährt“, so Bickley weiter. Für alle anderen tickt die Uhr: „Schätzungen zufolge nutzen bis zu 70 Prozent der S/4 HANA-Kunden mindestens ein Compatibility Pack“, erklärt der Analyst. SAPs Hameroff will diese Schätzungen nicht kommentieren: “Wir geben keine Zahlen bekannt. Aber wir sind zuversichtlich, dass wir keinen Kunden zurücklassen.“ Sie räumt ein, dass SAPs Cloud-Lösungen, die bevorzugte Strategie des Unternehmens, nicht für alle Kunden geeignet sind. Dennoch gebe es mehrere Optionen, inklusive einer Mischung aus On-Premises- und Cloud-Angeboten und verschiedenen Arten von Cloud-Angeboten, um unterschiedlichen Anforderungen und Regulierungen gerecht zu werden. Mike Tucciarone, VP Analyst bei Gartner, rät Unternehmen dringend, jetzt aktiv zu werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden. „Anstatt sich ausschließlich auf die SAP-Account-Teams zu verlassen, sollten Unternehmen Ressourcen wie die 2269324 – Compatibility Scope Matrix for SAP S/4HANA von SAP nutzen, um ihre Optionen zu prüfen.“ Selbst beim Rettungsangebot von RISE with SAP/Cloud ERP Private gebe es Einschränkungen, so Tucciarone. “Das ist keine einfache Verlängerung gegen eine Gebühr“, warnt er. „SAP hat klar gesagt, dass Kunden einen RISE with SAP-Vertrag abschließen und ‚ im Übergang zur Cloud ‘ sein müssen, um die Compatibility Packs über 2025 hinaus nutzen zu können.” Nicht nur eine technische Frage Allerdings bedeutet die erfolgte Migration auf S/4HANA nicht automatisch, dass Unternehmen die Compatibility Packs nicht mehr benötigen, warnt Robert Kramer, VP und Principal Analyst, Enterprise Data, ERP & SCM, bei Moor Insights & Strategy. “Viele Migrationen haben diese Komponenten unbemerkt mitgenommen – oft, ohne dass es jemandem auffällt. Um sich ein klares Bild zu machen, sollten Sie die SAP-Tools Readiness Check, Simplification Item Check und Custom Code Analyzer verwenden, um genau zu sehen, wo in Ihrer Umgebung noch Compatibility Packs im Einsatz sind.” Unternehmen haben jedoch nicht nur technische Herausforderungen zu bewältigen. Sowohl Kramer als auch Bickley betonen, dass zur vollständigen Ablösung der Packs häufig auch Geschäftsprozesse neugestaltet werden müssen. Wer damit zu lange wartet, riskiert, keine erfahrenen Berater mehr zu finden, warnt Kramer. “Die Beseitigung von Compatibility Packs ist keine rein technische Aufgabe. Oft bedeutet das, Geschäftsprozesse zu überarbeiten, neue Konfigurationen zu testen, Anwender zu schulen und manchmal auch neue S/4HANA-Module einzuführen.“ Bickley sieht eine der größten Herausforderungen darin, all dies rechtzeitig vor dem drohenden Stichtag im Dezember 2025 umzusetzen: „Egal welchen Weg man wählt, die Herausforderungen sind vielfältig und keineswegs trivial“, erklärt er. „Es ist davon auszugehen, dass die meisten Unternehmen, die Packs noch nutzen, dies aufgrund ihrer komplexen Legacy-Prozesse tun, die zudem stark angepasst sein können.“ Auch SAP-Managerin Hameroff stimmt zu. „[Die Modernisierung von Geschäftsprozessen] ist etwas, das viele Kunden angehen mussten, als sich die Technologie weiterentwickelte“, erklärt sie. “Und es geht nicht nur um Kompatibilität. Es geht darum, die Vorteile von modern gestalteten Geschäftsprozessen zu nutzen.“ Ein Großprojekt Moor-Analyst Kramer rät Unternehmen, die Lizenzproblematik als Großproblematik zu betrachten und keine Gnade von SAP zu erwarten. „SAP hat nicht vor, die Frist für die meisten Kunden zu verlängern. Machen Sie einen Plan, engagieren Sie die richtigen Leute, stellen Sie das nötige Budget bereit und fangen Sie jetzt an, daran zu arbeiten.“ Auch sein Kollege Bickley von der Info-Tech Research Group warnt vor den Gefahren der Nichteinhaltung. „Wer bei diesem Thema auf dem falschen Fuß erwischt wird, muss wissen: Die Versäumnis, die SAP Compatibility Packs bis zum Ablaufdatum außer Kraft zu setzen, führt wahrscheinlich zu einem Lizenzverstoß gegenüber SAP. Unternehmen sollten nicht erwarten, dass SAP Fristen verlängert oder Kulanz zeigt.“ „Stattdessen ist mit einem massiven Druck durch den Vertrieb zu rechnen, um die Kunden zu einem Upgrade auf die S/4HANA Business Suite zu bewegen – oder sie müssen mit einer formellen, intensivierten Lizenzprüfung rechnen.“ (mb) 

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​ Wegen des drohenden Lizenz-Endes der S/4HANA Compatibility Packs müssen viele SAP-Kunden jetzt aktiv werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden.Andrey_Popov – Shutterstock

SAP S/4HANA-Kunden, die noch auf Funktionen in den sogenannten Compatibility Packs angewiesen sind, haben nur noch wenige Monate Zeit, um auf die nativen Funktionen umzusteigen. Der Grund: Das Ende der Lizenzen für die vor rund zehn Jahren eingeführten Packs rückt näher.

SAP hatte die Compatibility Packs im Jahr 2015 als Übergangslösung eingeführt, um Kunden die Migration von SAP ECC (ERP Central Component) auf S/4 HANA zu erleichtern. Die Packs ermöglichten es den Kunden, bestimmte ECC-Funktionen vorübergehend weiter zu nutzen, wenn die Migration der Module nach S/4HANA einige Zeit in Anspruch genommen hätte oder wenn ihre Funktionalität nicht in den ersten S/4HANA-Releases enthalten war.

Doch jede Übergangszeit hat einmal ein Ende. Bis zum 31. Dezember 2025 müssen die meisten Kunden die Nutzung dieser Packs einstellen, Die weitere Verwendung nach diesem Datum will SAP als „kommerzielle Nichteinhaltung – also Vertragsbruch“ behandeln.

Die meisten dieser Pakete seien heute ohnehin überflüssig, erklärt Maura Hameroff, SVP of ERP Product Marketing bei SAP. “Mit unserem S/4 HANA-Release 2023 haben wir alle Szenarien abgedeckt. Wir haben alle technischen Hindernisse beseitigt, die die Kunden bislang ausgebremst haben.”

SAP hatte bereits in einem im Februar 2025 aktualisierten Blogbeitrag klargestellt, dass sowohl das Recht zur Nutzung von Compatibility Packs als auch der gesamte Support dafür zum gleichen Zeitpunkt auslaufen, unabhängig vom Wartungsstatus des S/4HANA-Systems.

Drohende Maßnahmen

„Die Nutzungsrechte für Compatibility Scopes erlöschen automatisch am 31. Dezember 2025 für alle SAP S/4HANA-Versionen, unabhängig von ihrem Veröffentlichungsdatum“, heißt es dort. “Unabhängig von der SAP S/4HANA-Version haben Kunden also nach diesem Zeitpunkt kein vertragliches Recht mehr, die Compatibility Scope-Funktionalität zu nutzen, selbst wenn sich das betroffene SAP S/4HANA-Systemrelease noch in der Mainstream-Wartung befindet. Außerdem endet der Support für Compatibility Scope-Elemente mit dem Auslaufen der Nutzungsrechte.”

Wenn rechtliche Drohungen die Kunden nicht dazu bringen, die Modernisierung ihrer Systeme abzuschließen, könnte SAP zu härteren Mitteln greifen: SAP behält sich das Recht vor, die Compatibility Pack-Funktionalität in zukünftigen S/4HANA-Versionen technisch unzugänglich zu machen. „Bis dahin“, so heißt es, „müssen die Kunden durch organisatorische oder andere Maßnahmen sicherstellen, dass die Funktionalität des Compatibility Packs nach Ablauf der Nutzungsrechte nicht mehr verwendet wird.“

Ausnahmen bestätigen die Regel

Einige Packs sind von der Frist ausgenommen: Customer Service (CS), Transportation (LE-TRA) und Production Planning for Process Industries (PP-PI) dürfen bis 2030 weiter genutzt werden. Laut Scott Bickley, Research Fellow bei der Info-Tech Research Group, liegt dies an der Komplexität und Vielfalt sowohl der Produkte selbst als auch der zugrundeliegenden komplexen Geschäftsprozesse der Kunden.

„Auch RISE-with-SAP -Kunden können aufatmen, denn ihre Nutzungsrechte für SAP Compatibility Packs wurden ebenfalls bis 2030 gewährt“, so Bickley weiter. Für alle anderen tickt die Uhr: „Schätzungen zufolge nutzen bis zu 70 Prozent der S/4 HANA-Kunden mindestens ein Compatibility Pack“, erklärt der Analyst.

SAPs Hameroff will diese Schätzungen nicht kommentieren: “Wir geben keine Zahlen bekannt. Aber wir sind zuversichtlich, dass wir keinen Kunden zurücklassen.“ Sie räumt ein, dass SAPs Cloud-Lösungen, die bevorzugte Strategie des Unternehmens, nicht für alle Kunden geeignet sind. Dennoch gebe es mehrere Optionen, inklusive einer Mischung aus On-Premises- und Cloud-Angeboten und verschiedenen Arten von Cloud-Angeboten, um unterschiedlichen Anforderungen und Regulierungen gerecht zu werden.

Mike Tucciarone, VP Analyst bei Gartner, rät Unternehmen dringend, jetzt aktiv zu werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden. „Anstatt sich ausschließlich auf die SAP-Account-Teams zu verlassen, sollten Unternehmen Ressourcen wie die 2269324 – Compatibility Scope Matrix for SAP S/4HANA von SAP nutzen, um ihre Optionen zu prüfen.“

Selbst beim Rettungsangebot von RISE with SAP/Cloud ERP Private gebe es Einschränkungen, so Tucciarone. “Das ist keine einfache Verlängerung gegen eine Gebühr“, warnt er. „SAP hat klar gesagt, dass Kunden einen RISE with SAP-Vertrag abschließen und ‚ im Übergang zur Cloud ‘ sein müssen, um die Compatibility Packs über 2025 hinaus nutzen zu können.”

Nicht nur eine technische Frage

Allerdings bedeutet die erfolgte Migration auf S/4HANA nicht automatisch, dass Unternehmen die Compatibility Packs nicht mehr benötigen, warnt Robert Kramer, VP und Principal Analyst, Enterprise Data, ERP & SCM, bei Moor Insights & Strategy.

“Viele Migrationen haben diese Komponenten unbemerkt mitgenommen – oft, ohne dass es jemandem auffällt. Um sich ein klares Bild zu machen, sollten Sie die SAP-Tools Readiness Check, Simplification Item Check und Custom Code Analyzer verwenden, um genau zu sehen, wo in Ihrer Umgebung noch Compatibility Packs im Einsatz sind.”

Unternehmen haben jedoch nicht nur technische Herausforderungen zu bewältigen. Sowohl Kramer als auch Bickley betonen, dass zur vollständigen Ablösung der Packs häufig auch Geschäftsprozesse neugestaltet werden müssen.

Wer damit zu lange wartet, riskiert, keine erfahrenen Berater mehr zu finden, warnt Kramer. “Die Beseitigung von Compatibility Packs ist keine rein technische Aufgabe. Oft bedeutet das, Geschäftsprozesse zu überarbeiten, neue Konfigurationen zu testen, Anwender zu schulen und manchmal auch neue S/4HANA-Module einzuführen.“

Bickley sieht eine der größten Herausforderungen darin, all dies rechtzeitig vor dem drohenden Stichtag im Dezember 2025 umzusetzen: „Egal welchen Weg man wählt, die Herausforderungen sind vielfältig und keineswegs trivial“, erklärt er. „Es ist davon auszugehen, dass die meisten Unternehmen, die Packs noch nutzen, dies aufgrund ihrer komplexen Legacy-Prozesse tun, die zudem stark angepasst sein können.“

Auch SAP-Managerin Hameroff stimmt zu. „[Die Modernisierung von Geschäftsprozessen] ist etwas, das viele Kunden angehen mussten, als sich die Technologie weiterentwickelte“, erklärt sie. “Und es geht nicht nur um Kompatibilität. Es geht darum, die Vorteile von modern gestalteten Geschäftsprozessen zu nutzen.“

Ein Großprojekt

Moor-Analyst Kramer rät Unternehmen, die Lizenzproblematik als Großproblematik zu betrachten und keine Gnade von SAP zu erwarten. „SAP hat nicht vor, die Frist für die meisten Kunden zu verlängern. Machen Sie einen Plan, engagieren Sie die richtigen Leute, stellen Sie das nötige Budget bereit und fangen Sie jetzt an, daran zu arbeiten.“

Auch sein Kollege Bickley von der Info-Tech Research Group warnt vor den Gefahren der Nichteinhaltung. „Wer bei diesem Thema auf dem falschen Fuß erwischt wird, muss wissen: Die Versäumnis, die SAP Compatibility Packs bis zum Ablaufdatum außer Kraft zu setzen, führt wahrscheinlich zu einem Lizenzverstoß gegenüber SAP. Unternehmen sollten nicht erwarten, dass SAP Fristen verlängert oder Kulanz zeigt.“

„Stattdessen ist mit einem massiven Druck durch den Vertrieb zu rechnen, um die Kunden zu einem Upgrade auf die S/4HANA Business Suite zu bewegen – oder sie müssen mit einer formellen, intensivierten Lizenzprüfung rechnen.“ (mb)

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​ Weiterlesen »

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​

Allgemein

Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft. Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz). Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht. Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen. Weitere Ergebnisse der Studie: Regulierung 70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend. 76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden. 88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen. Arbeitswelt 58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI). Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance. Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben. Bildungswesen 83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung. Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness. Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten. Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten. Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren. Halluzinationen werden schlimmer Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern. „Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“ KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück. Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren. Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen. „Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an. Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell. “Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“ Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind. SLMs als Retter in der Not Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen. Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind. „Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“ Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb) 

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​ Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft.

Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz).

Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht.

Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen.

Weitere Ergebnisse der Studie:

Regulierung

70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend.

76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden.

88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen.

Arbeitswelt

58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI).

Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance.

Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben.

Bildungswesen

83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung.

Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness.

Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten.

Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten.

Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren.

Halluzinationen werden schlimmer

Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern.

„Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“

KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück.

Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren.

Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen.

„Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an.

Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell.

“Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“

Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind.

SLMs als Retter in der Not

Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen.

Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind.

„Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“

Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb)

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​ Weiterlesen »

Customer Service Experience: Die besten Helpdesk-Tools​

Allgemein

Helpdesk-Tools können einen wesentlichen Beitrag zu einer positiven Customer Service Experience leisten. Foto: Andrey Popov – shutterstock.com Software für den Helpdesk soll den Kundenservice vereinheitlichen und einen zentralen Kontaktpunkt schaffen, um Ticketing-Prozesse und Kundenprobleme abzuarbeiten und die Qualität des Customer-Service messen zu können. Dabei fokussieren Helpdesk-Tools darauf, bestimmte Aufgaben zu automatisieren, etwa: Tickets zuzuweisen, die gängigsten Fragen zu beantworten oder Probleme zu kategorisieren. Die beste Helpdesk-Software für Ihre Zwecke ist die, die optimal zu Ihren geschäftlichen Bedürfnissen und Ihrem Budget passt. Zwar bieten viele Kundenservice-Tools ähnliche Basisfunktionen, doch sie unterscheiden sich mit Blick auf die Preisstruktur und geschäftskritische Features. In diesem Artikel haben wir die besten Softwarepakete für den Service Desk zusammengetragen. Freshdesk Freshdesk von Freshworks ist eine Omnichannel-Helpdesk-Lösung, die den Kundenservice für die IT-Abteilung möglichst einfach gestalten will. Dazu nutzt sie beispielsweise automatisierte Workflows, Bots und Self-Services sowie ein Ticketing-System, das die Fachbereichs-übergreifende Bearbeitung von Problemen im Kundenservice ermöglicht. Tickets lassen sich darüber hinaus auch mehreren “Besitzern” zuweisen, zusammenfassen, um tiefergehende Problemzusammenhänge aufzulösen oder über Social-Tools mit den Kollegen zu diskutieren. Gorgias Die Helpdesk Software Gorgias richtet sich speziell an E-Commerce-Unternehmen und verspricht, den Kundenservice zum “Profit Center” zu machen – unter anderem mit Conversational AI. Damit das klappt, bietet Gorgias die Möglichkeit, alle Support-Tickets zu zentralisieren. So soll ein ganzheitliches Bild der Kunden gewährleistet werden, wenn diese den Support kontaktieren und im Ergebnis eine deutlich schnellere Supportleistung stehen. Gorgias integriert dabei mit diversen Plattformen, von Shopify über BigCommerce, Facebook und Instagram bis hin zu Gmail, Netsuite und Slack. Darüber hinaus bietet das Tool auch die Möglichkeit, Tasks zu automatisieren. HaloITSM Workflow-Automatisierung und Kommunikationszentralisierung stehen bei HaloITSM im Mittelpunkt. Das Enterprise Tool bietet ITIL-konforme Prozesse, Incident Management, ein Self-Service-Portal für die Benutzer sowie diverse Management-Funktionalitäten, um die Helpdesk-Prozesse jederzeit tracken, planen und skalieren zu können. Darüber hinaus hat HaloITSM auch eine CMDB zu bieten, um das Asset Management in Unternehmen zu zentralisieren. Der Hersteller bewirbt die Software mit dem Satz “Everything you need for IT – all in one place”. Zu den Referenzkunden gehören zum Beispiel Siemens und Atos. Hiver Für Unternehmen die auf Google, beziehungsweise Workspace setzen, könnte das Helpdesk Tool Hiver besonders interessant sein. Laut Hersteller handelt es sich um den weltweit ersten Helpdesk auf Gmail-Basis. Durch die Verknüpfung mit Workspace bietet die Software zum Beispiel die Möglichkeit, auf geteilte Inboxen direkt in Gmail zuzugreifen. Darüber hinaus stehen zahlreiche Metriken und Tracking-Möglichkeiten zur Verfügung sowie Features wie das Delegieren von Tasks oder das Hinzufügen von Notizen, was CC-Orgien den Garaus bereiten soll. Hiver bietet ausserdem auch die Möglichkeit, repetitive Tasks zu automatisieren. Hubspot Hubspot bietet eine Helpdesk- beziehungsweise Ticketing-Software, die mit der CRM-Plattform des Anbieters integriert ist. So verspricht der Hersteller einen besseren, benutzerfreundlicheren Kundenservice. Zu den Features der Helpdesk-Software zählen unter anderem automatisiertes Ticket-Routing, Live-Chatbots sowie Analytics- und Reporting-Funktionen. Jira Service Desk Mit Jira Service Desk bietet Atlassian eine kollaborative ITSM-Plattform, die Unternehmen dabei unterstützt, IT-Services schneller bereitzustellen und dabei ITIL Best Practices einzusetzen. Zu den Alleinstellungsmerkmalen der Software zählen der einfache Setup- und Konfigurationsprozess und die Möglichkeit, die Service-Management-Prozesse auf die Arbeitsweise der Teams auszurichten. Natürlich lassen sich mit Jira auch Standard Helpdesk Features wie HR-Management, IT-Support, automatisiertes Ticketing oder Collaboration-Tools zum Einsatz bringen. Daneben zeichnet sich Atlassians Software durch ihre umfassende Kompatibilität aus: Mehr als 1.000 Applikationen sind mit Jira integrierbar, so dass Anwender ihren Helpdesk zielgenau auf die Unternehmensziele ausrichten können. ManageEngine ServiceDesk Plus Incident-, Problem-, Change-, Asset- und IT-Projektmanagement vereint die Servicedesk-Software ManageEngine ServiceDesk Plus in sich. Dazu gesellen sich Reporting- und Analytics-Funktionen sowie die Möglichkeit, einen personalisierten Servicekatalog mit maßgeschneiderten SLAs und mehrstufigen Freigabeprozessen in die Tat umzusetzen. Zur Wahl stehen sowohl eine Cloud-, als auch eine On-Premises-Version. Salesforce Service Cloud Salesforce bietet mit seiner Service Cloud zahlreiche gängige Helpdesk Features – beispielsweise Omnichannel-Ticket-Routing, Kundenzufriedenheits-Tracking, Produktivitäts-Tools oder auch Knowledge-Management-Services. Die Plattform beinhaltet darüber hinaus auch Service Process Automation (SPA). Dieses Feature bezeichnet die Orchestrierung von Workflows über ein simples Point-and-Click-Interface. SPA hilft Unternehmen darüber hinaus auch mit Handlungsempfehlungen und einer unterstützten Kundenbetreuung im Serviceprozess. ServiceNow ServiceNow stellt Unternehmen eine KI-basierende Cloud-Plattform zur Verfügung, die dabei hilft, den IT-Helpdesk zu automatisieren und zu managen. Die Plattform beinhaltet Digital Workflow Apps, integriert eine intuitive Mobile Experience, unterstützt die unternehmensweite Zusammenarbeit und nutzt KI und Analytics, um bessere IT-Entscheidungen zu treffen. Ein weiteres Alleinstellungsmerkmal ist die Möglichkeit, maßgeschneiderte Apps auf Low-Code-Basis zu entwickeln. Solarwinds Die ITSM-Helpdesk-Lösung von Solarwinds richtet sich vor allem an Unternehmen, die ihre Service-Desk- Software in eine ITIL-Umgebung integrieren wollen. Die Solarwinds-Lösung beinhaltet Features wie Incident-Management-Konsolidierung, standardisierte Servicekataloge, integriertes IT-Asset-Management und ein Service-Portal für Tickets und sonstige Anfragen. Solarwinds Service Desk integriert mit mehr als 200 Cloud-Applikationen, darunter Google Cloud Platform, Amazon Web Services, Dropbox, Microsoft Azure, Slack, Jira und TeamViewer. Zendesk Unternehmen, deren Ziel ein ganzheitliches Kunden-Support-System ist, sollten sich Zendesks Omnichannel-Ticketing-System näher ansehen. Die Software befähigt Unternehmen dazu, personalisierten Support über sämtliche digitale Kanäle zu leisten. Automatsiertes Ticketing, Self-Service-Tools, ein benutzerfreundliches Interface und Collaboration-Tools gehören ebenfalls zum Paket. Zoho Desk Bei Zoho Desk handelt es sich laut Hersteller um die erste “kontextsensitive” Helpdesk-Software. Dazu nutzt das Programm die Kundendaten aus vorangegangenen Interaktionen, um Probleme im Support zielgerichtet und schnell lösen zu können. Darüber hinaus bietet auch Zoho Desk die üblichen Service-Desk-Funktionalitäten und ist kompatibel mit einer Vielzahl von Apps und Add-Ons. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Customer Service Experience: Die besten Helpdesk-Tools​ Helpdesk-Tools können einen wesentlichen Beitrag zu einer positiven Customer Service Experience leisten.
Foto: Andrey Popov – shutterstock.com

Software für den Helpdesk soll den Kundenservice vereinheitlichen und einen zentralen Kontaktpunkt schaffen, um Ticketing-Prozesse und Kundenprobleme abzuarbeiten und die Qualität des Customer-Service messen zu können. Dabei fokussieren Helpdesk-Tools darauf, bestimmte Aufgaben zu automatisieren, etwa:

Tickets zuzuweisen,

die gängigsten Fragen zu beantworten oder

Probleme zu kategorisieren.

Die beste Helpdesk-Software für Ihre Zwecke ist die, die optimal zu Ihren geschäftlichen Bedürfnissen und Ihrem Budget passt. Zwar bieten viele Kundenservice-Tools ähnliche Basisfunktionen, doch sie unterscheiden sich mit Blick auf die Preisstruktur und geschäftskritische Features. In diesem Artikel haben wir die besten Softwarepakete für den Service Desk zusammengetragen.

Freshdesk

Freshdesk von Freshworks ist eine Omnichannel-Helpdesk-Lösung, die den Kundenservice für die IT-Abteilung möglichst einfach gestalten will. Dazu nutzt sie beispielsweise automatisierte Workflows, Bots und Self-Services sowie ein Ticketing-System, das die Fachbereichs-übergreifende Bearbeitung von Problemen im Kundenservice ermöglicht. Tickets lassen sich darüber hinaus auch mehreren “Besitzern” zuweisen, zusammenfassen, um tiefergehende Problemzusammenhänge aufzulösen oder über Social-Tools mit den Kollegen zu diskutieren.

Gorgias

Die Helpdesk Software Gorgias richtet sich speziell an E-Commerce-Unternehmen und verspricht, den Kundenservice zum “Profit Center” zu machen – unter anderem mit Conversational AI. Damit das klappt, bietet Gorgias die Möglichkeit, alle Support-Tickets zu zentralisieren. So soll ein ganzheitliches Bild der Kunden gewährleistet werden, wenn diese den Support kontaktieren und im Ergebnis eine deutlich schnellere Supportleistung stehen. Gorgias integriert dabei mit diversen Plattformen, von Shopify über BigCommerce, Facebook und Instagram bis hin zu Gmail, Netsuite und Slack. Darüber hinaus bietet das Tool auch die Möglichkeit, Tasks zu automatisieren.

HaloITSM

Workflow-Automatisierung und Kommunikationszentralisierung stehen bei HaloITSM im Mittelpunkt. Das Enterprise Tool bietet ITIL-konforme Prozesse, Incident Management, ein Self-Service-Portal für die Benutzer sowie diverse Management-Funktionalitäten, um die Helpdesk-Prozesse jederzeit tracken, planen und skalieren zu können. Darüber hinaus hat HaloITSM auch eine CMDB zu bieten, um das Asset Management in Unternehmen zu zentralisieren. Der Hersteller bewirbt die Software mit dem Satz “Everything you need for IT – all in one place”. Zu den Referenzkunden gehören zum Beispiel Siemens und Atos.

Hiver

Für Unternehmen die auf Google, beziehungsweise Workspace setzen, könnte das Helpdesk Tool Hiver besonders interessant sein. Laut Hersteller handelt es sich um den weltweit ersten Helpdesk auf Gmail-Basis. Durch die Verknüpfung mit Workspace bietet die Software zum Beispiel die Möglichkeit, auf geteilte Inboxen direkt in Gmail zuzugreifen. Darüber hinaus stehen zahlreiche Metriken und Tracking-Möglichkeiten zur Verfügung sowie Features wie das Delegieren von Tasks oder das Hinzufügen von Notizen, was CC-Orgien den Garaus bereiten soll. Hiver bietet ausserdem auch die Möglichkeit, repetitive Tasks zu automatisieren.

Hubspot

Hubspot bietet eine Helpdesk- beziehungsweise Ticketing-Software, die mit der CRM-Plattform des Anbieters integriert ist. So verspricht der Hersteller einen besseren, benutzerfreundlicheren Kundenservice. Zu den Features der Helpdesk-Software zählen unter anderem automatisiertes Ticket-Routing, Live-Chatbots sowie Analytics- und Reporting-Funktionen.

Jira Service Desk

Mit Jira Service Desk bietet Atlassian eine kollaborative ITSM-Plattform, die Unternehmen dabei unterstützt, IT-Services schneller bereitzustellen und dabei ITIL Best Practices einzusetzen. Zu den Alleinstellungsmerkmalen der Software zählen der einfache Setup- und Konfigurationsprozess und die Möglichkeit, die Service-Management-Prozesse auf die Arbeitsweise der Teams auszurichten. Natürlich lassen sich mit Jira auch Standard Helpdesk Features wie HR-Management, IT-Support, automatisiertes Ticketing oder Collaboration-Tools zum Einsatz bringen. Daneben zeichnet sich Atlassians Software durch ihre umfassende Kompatibilität aus: Mehr als 1.000 Applikationen sind mit Jira integrierbar, so dass Anwender ihren Helpdesk zielgenau auf die Unternehmensziele ausrichten können.

ManageEngine ServiceDesk Plus

Incident-, Problem-, Change-, Asset- und IT-Projektmanagement vereint die Servicedesk-Software ManageEngine ServiceDesk Plus in sich. Dazu gesellen sich Reporting- und Analytics-Funktionen sowie die Möglichkeit, einen personalisierten Servicekatalog mit maßgeschneiderten SLAs und mehrstufigen Freigabeprozessen in die Tat umzusetzen. Zur Wahl stehen sowohl eine Cloud-, als auch eine On-Premises-Version.

Salesforce Service Cloud

Salesforce bietet mit seiner Service Cloud zahlreiche gängige Helpdesk Features – beispielsweise Omnichannel-Ticket-Routing, Kundenzufriedenheits-Tracking, Produktivitäts-Tools oder auch Knowledge-Management-Services. Die Plattform beinhaltet darüber hinaus auch Service Process Automation (SPA). Dieses Feature bezeichnet die Orchestrierung von Workflows über ein simples Point-and-Click-Interface. SPA hilft Unternehmen darüber hinaus auch mit Handlungsempfehlungen und einer unterstützten Kundenbetreuung im Serviceprozess.

ServiceNow

ServiceNow stellt Unternehmen eine KI-basierende Cloud-Plattform zur Verfügung, die dabei hilft, den IT-Helpdesk zu automatisieren und zu managen. Die Plattform beinhaltet Digital Workflow Apps, integriert eine intuitive Mobile Experience, unterstützt die unternehmensweite Zusammenarbeit und nutzt KI und Analytics, um bessere IT-Entscheidungen zu treffen. Ein weiteres Alleinstellungsmerkmal ist die Möglichkeit, maßgeschneiderte Apps auf Low-Code-Basis zu entwickeln.

Solarwinds

Die ITSM-Helpdesk-Lösung von Solarwinds richtet sich vor allem an Unternehmen, die ihre Service-Desk- Software in eine ITIL-Umgebung integrieren wollen. Die Solarwinds-Lösung beinhaltet Features wie Incident-Management-Konsolidierung, standardisierte Servicekataloge, integriertes IT-Asset-Management und ein Service-Portal für Tickets und sonstige Anfragen. Solarwinds Service Desk integriert mit mehr als 200 Cloud-Applikationen, darunter Google Cloud Platform, Amazon Web Services, Dropbox, Microsoft Azure, Slack, Jira und TeamViewer.

Zendesk

Unternehmen, deren Ziel ein ganzheitliches Kunden-Support-System ist, sollten sich Zendesks Omnichannel-Ticketing-System näher ansehen. Die Software befähigt Unternehmen dazu, personalisierten Support über sämtliche digitale Kanäle zu leisten. Automatsiertes Ticketing, Self-Service-Tools, ein benutzerfreundliches Interface und Collaboration-Tools gehören ebenfalls zum Paket.

Zoho Desk

Bei Zoho Desk handelt es sich laut Hersteller um die erste “kontextsensitive” Helpdesk-Software. Dazu nutzt das Programm die Kundendaten aus vorangegangenen Interaktionen, um Probleme im Support zielgerichtet und schnell lösen zu können. Darüber hinaus bietet auch Zoho Desk die üblichen Service-Desk-Funktionalitäten und ist kompatibel mit einer Vielzahl von Apps und Add-Ons. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Customer Service Experience: Die besten Helpdesk-Tools​ Weiterlesen »

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​

Allgemein

Erinnerungen an Traumjobs in der Kindheit können nützlich sein, um bei Unzufriedenheit im Job ein neues Berufsbild zu entwickeln. Foto: Supamotion – shutterstock.comAstronaut, Model, Polizist, Koch, Schuhverkäufer, Jet-Pilot, manchmal sogar Bundeskanzler – Jeder Mensch hat Berufe, von denen er in jungen Jahren geträumt hat. Auch wenn nur die Allerwenigsten ihre Kindheitsträume verwirklicht haben und sie heute rückblickend manchmal sogar belächeln, sind sie doch wertvolle Schätze, die helfen können, mehr Erfüllung im Job zu finden. “Die Geschichte jedes Menschen beginnt naturgemäß in der Kindheit”, erläutert die Münchner Karriereberaterin und Diplom-Psychologin Madeleine Leitner. “Darum bieten gerade die Kindheitsträume eine wertvolle Hilfe, wenn es darum geht herauszufinden, warum Menschen heute beruflich unzufrieden sind. So helfen sie sogar bei der Karriereplanung.” Wilde Kerle, traurige RealitätTraumjobs aus der Kindheit verdeutlichen oft verblüffend das Problem in der heutigen Realität: Ein braver Familienvater, der auch im Job folgsam seinem dominanten Vorgesetzten assistiert, wollte als Kind eigentlich immer Raubritter werden und war im Gegensatz zu heute tatsächlich ein “wilder Kerl”. Oder: Eine in heftige Machtkämpfe im Management verstrickte Führungskraft war schon als Kind der Überzeugung, dass ihr Name später einmal auf einem Hochhaus stehen würde. Ein beruflich aufs Abstellgleis geratener Mitarbeiter im mittleren Management wollte als Kind zwar Matrose werden, hatte damals aber schon festgestellt, dass nur Kapitäne wirklich etwas zu sagen haben. Schon Kinder haben eine Persönlichkeit mit Vorlieben und Abneigungen. Viele Menschen verlören aber im Laufe ihres Lebens aus den unterschiedlichsten Gründen ihren eigentlichen Wesenskern, weiß die Psychologin aus ihrer Erfahrung in der Beratung von Menschen in beruflichen Umbruchsituationen. “Die Erinnerungen an frühere Traumjobs in der Kindheit geben in der Zusammenarbeit oft wertvolle Hinweise auf des Pudels sprichwörtlichen Kern: Wer bin ich eigentlich? Was macht mir wirklich Spaß, was bringt mir Erfüllung?” Madeleine Leitner, Diplom-Psychologin: “Jeder sollte einmal ganz bewusst die Vorstellung von früheren Traumjobs mit der Realität abglichen.” Foto: Madeleine Leitner Ursachen kennen, Veränderungen anstoßen Dabei warnt Leitner jedoch davor, bei der Interpretation der Ideen allzu schnelle und oberflächliche Schlussfolgerungen zu ziehen. Traumjobs können ganz unterschiedliche Vorstellungen und Motivationen zu Grunde liegen. Ein Pilot kann Touristen an ihr Urlaubsziel bringen und ihnen damit eine Freude machen, er kann als Kampfpilot das Böse bekämpfen oder als Kunstflieger kreative Showflüge entwickeln. Ein Förster kann etwas Gutes für Pflanzen und die Natur tun, Beute machen oder den Wald zu einem wirtschaftlichen Erfolgsmodell gestalten. Ein Arzt kann vor allem Menschen helfen wollen, aber auch Prestige und Wohlstand als Motivation sehen oder einfach nur ein perfekter Handwerker in seinem Spezialgebiet sein. Der amerikanische Autor John Holland unterschied sechs unterschiedliche Motive, mit denen man die Vorstellung der Menschen von ihren Traumjobs kategorisieren kann: R(ealistic): körperlich arbeitenI(nvestigative): analysieren A(rtistic): kreativ sein S(ocial): helfen, unterstützen E(nterprising): etwas managen C(onventional): verwalten Diese Kategorien erweisen sich selbst bei auf den ersten Blick sehr unterschiedlichen früheren Traumjobs eines Menschen als erstaunlich homogen. “Wenn man die daraus resultierenden Muster dann mit der aktuellen Tätigkeit und den dabei geforderten Elementen vergleicht, erkennt man zumeist sehr schnell, wo die Ursachen für Unzufriedenheit liegen”, so Leitner. Typische und besonders problematische Kombinationen sind zum Beispiel: ein “A”- lastiger, kreativer Mensch, der einen “C”-Verwaltungsjob ausübt. Auch eine “S”-Person, die primär helfen will, in ihrem Job aber vor allem Geschäfte und Umsatz generieren soll, wird in ihrem Wesenskern verletzt. Hier liegt ein wichtiger Schlüssel zum Verständnis des Veränderungsbedarfs. Feintuning statt radikalem Wechsel Dabei warnt die Psychologin jedoch ausdrücklich vor radikalen Berufswechseln. Oft reiche ein Feintuning. Mehr oder auch weniger Verantwortung, mehr oder weniger Kreativität, verwaltende oder gestaltende Tätigkeiten könne man oftmals auch im bestehenden Job übernehmen. Es komme auf die Details an, um wieder mehr Zufriedenheit im Beruf zu finden oder mehr Erfolg zu haben. Auch wenn manche Menschen ihren Kindheitsträumen bis heute nachtrauern, seien diese selten noch wirklich relevant. Wenn sie nämlich die Vorstellung von ihren früheren Traumjobs bewusst mit der Realität abglichen, führe das nicht selten schnell zur Ernüchterung. “Das sollte man aber wirklich einmal ganz bewusst tun”, rät Leitner. “Am schlimmsten ist es nämlich, ein Leben lang einem Traum nachzutrauern, der sich in Wirklichkeit als Albtraum erwiesen hätte.” 

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​ Erinnerungen an Traumjobs in der Kindheit können nützlich sein, um bei Unzufriedenheit im Job ein neues Berufsbild zu entwickeln.
Foto: Supamotion – shutterstock.comAstronaut, Model, Polizist, Koch, Schuhverkäufer, Jet-Pilot, manchmal sogar Bundeskanzler – Jeder Mensch hat Berufe, von denen er in jungen Jahren geträumt hat. Auch wenn nur die Allerwenigsten ihre Kindheitsträume verwirklicht haben und sie heute rückblickend manchmal sogar belächeln, sind sie doch wertvolle Schätze, die helfen können, mehr Erfüllung im Job zu finden. “Die Geschichte jedes Menschen beginnt naturgemäß in der Kindheit”, erläutert die Münchner Karriereberaterin und Diplom-Psychologin Madeleine Leitner. “Darum bieten gerade die Kindheitsträume eine wertvolle Hilfe, wenn es darum geht herauszufinden, warum Menschen heute beruflich unzufrieden sind. So helfen sie sogar bei der Karriereplanung.” Wilde Kerle, traurige RealitätTraumjobs aus der Kindheit verdeutlichen oft verblüffend das Problem in der heutigen Realität: Ein braver Familienvater, der auch im Job folgsam seinem dominanten Vorgesetzten assistiert, wollte als Kind eigentlich immer Raubritter werden und war im Gegensatz zu heute tatsächlich ein “wilder Kerl”. Oder: Eine in heftige Machtkämpfe im Management verstrickte Führungskraft war schon als Kind der Überzeugung, dass ihr Name später einmal auf einem Hochhaus stehen würde. Ein beruflich aufs Abstellgleis geratener Mitarbeiter im mittleren Management wollte als Kind zwar Matrose werden, hatte damals aber schon festgestellt, dass nur Kapitäne wirklich etwas zu sagen haben. Schon Kinder haben eine Persönlichkeit mit Vorlieben und Abneigungen. Viele Menschen verlören aber im Laufe ihres Lebens aus den unterschiedlichsten Gründen ihren eigentlichen Wesenskern, weiß die Psychologin aus ihrer Erfahrung in der Beratung von Menschen in beruflichen Umbruchsituationen. “Die Erinnerungen an frühere Traumjobs in der Kindheit geben in der Zusammenarbeit oft wertvolle Hinweise auf des Pudels sprichwörtlichen Kern: Wer bin ich eigentlich? Was macht mir wirklich Spaß, was bringt mir Erfüllung?” Madeleine Leitner, Diplom-Psychologin: “Jeder sollte einmal ganz bewusst die Vorstellung von früheren Traumjobs mit der Realität abglichen.”
Foto: Madeleine Leitner Ursachen kennen, Veränderungen anstoßen Dabei warnt Leitner jedoch davor, bei der Interpretation der Ideen allzu schnelle und oberflächliche Schlussfolgerungen zu ziehen. Traumjobs können ganz unterschiedliche Vorstellungen und Motivationen zu Grunde liegen. Ein Pilot kann Touristen an ihr Urlaubsziel bringen und ihnen damit eine Freude machen, er kann als Kampfpilot das Böse bekämpfen oder als Kunstflieger kreative Showflüge entwickeln. Ein Förster kann etwas Gutes für Pflanzen und die Natur tun, Beute machen oder den Wald zu einem wirtschaftlichen Erfolgsmodell gestalten. Ein Arzt kann vor allem Menschen helfen wollen, aber auch Prestige und Wohlstand als Motivation sehen oder einfach nur ein perfekter Handwerker in seinem Spezialgebiet sein. Der amerikanische Autor John Holland unterschied sechs unterschiedliche Motive, mit denen man die Vorstellung der Menschen von ihren Traumjobs kategorisieren kann: R(ealistic): körperlich arbeitenI(nvestigative): analysieren A(rtistic): kreativ sein S(ocial): helfen, unterstützen E(nterprising): etwas managen C(onventional): verwalten Diese Kategorien erweisen sich selbst bei auf den ersten Blick sehr unterschiedlichen früheren Traumjobs eines Menschen als erstaunlich homogen. “Wenn man die daraus resultierenden Muster dann mit der aktuellen Tätigkeit und den dabei geforderten Elementen vergleicht, erkennt man zumeist sehr schnell, wo die Ursachen für Unzufriedenheit liegen”, so Leitner. Typische und besonders problematische Kombinationen sind zum Beispiel: ein “A”- lastiger, kreativer Mensch, der einen “C”-Verwaltungsjob ausübt. Auch eine “S”-Person, die primär helfen will, in ihrem Job aber vor allem Geschäfte und Umsatz generieren soll, wird in ihrem Wesenskern verletzt. Hier liegt ein wichtiger Schlüssel zum Verständnis des Veränderungsbedarfs.

Feintuning statt radikalem Wechsel Dabei warnt die Psychologin jedoch ausdrücklich vor radikalen Berufswechseln. Oft reiche ein Feintuning. Mehr oder auch weniger Verantwortung, mehr oder weniger Kreativität, verwaltende oder gestaltende Tätigkeiten könne man oftmals auch im bestehenden Job übernehmen. Es komme auf die Details an, um wieder mehr Zufriedenheit im Beruf zu finden oder mehr Erfolg zu haben. Auch wenn manche Menschen ihren Kindheitsträumen bis heute nachtrauern, seien diese selten noch wirklich relevant. Wenn sie nämlich die Vorstellung von ihren früheren Traumjobs bewusst mit der Realität abglichen, führe das nicht selten schnell zur Ernüchterung. “Das sollte man aber wirklich einmal ganz bewusst tun”, rät Leitner. “Am schlimmsten ist es nämlich, ein Leben lang einem Traum nachzutrauern, der sich in Wirklichkeit als Albtraum erwiesen hätte.”

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​ Weiterlesen »

Ein NFL-Stadion wird Fussball-WM-ready​

Allgemein

Das Gillette Stadium nahe Boston erhält ein umfassendes Netzwerk-Upgrade. Joseph Sohm | shutterstock.com Das NFL-Team der New England Patriots hofft darauf, mit neuem Cheftrainer und umgestaltetem Kader nach einigen schlechten Jahren wieder in die Erfolgsspur zu kommen. Abseits des Spielfelds hat sich der Teambesitzer, die Kraft Group, mit dem KI-Serviceanbieter NWN zusammengetan, um auch aus technologischer Perspektive künftig wieder ganz vorne mitzuspielen. Das umfangreichste und prestigeträchtigste Unterfangen ist dabei ein umfassendes Netzwerk-Upgrade für das (2002 eingeweihte) Gillette Stadium in Foxboro im US-Bundesstaat Massachusetts. Das 65.000 Zuschauer fassende Stadion ist nicht nur die Heimspielstätte der Patriots, sondern auch (noch) der Major-League-Soccer-Mannschaft New England Revolution – und kommt darüber hinaus als Veranstaltungsort für diverse, publikumswirksame Anlässe zum Einsatz. Etwa Monster-Truck-Spektakel oder Konzerte von Stars wie Taylor Swift und Beyoncé. Davon abgesehen, ist das Gillette Stadium zu sieben Gelegenheiten auch als Spielstätte bei der kommenden Fußballweltmeisterschaft 2026 in den USA vorgesehen – unter anderem findet dort auch ein Viertelfinale statt. “Das Gillette Stadium wird ganzjährig für eine Vielzahl von Veranstaltungen genutzt und sollte unseren Gästen so viel Komfort wie möglich bieten”, postuliert Jim Nolan, COO von Kraft Sports and Entertainment, den Anspruch. Er ergänzt: “Unsere Partnerschaft mit NWN gewährleistet, dass wir über die neuesten technischen Möglichkeiten verfügen, um die Erwartungen der Fans zu übertreffen. Diese neuen Möglichkeiten sind in Kombination mit den bereits vorhandenen und der Branchenerfahrung von NWN der Schlüssel dazu, unsere Einrichtungen zu einem Ort zu machen, an dem man immer in Verbindung bleiben kann.” Meisterschaftliche Bandbreitenherausforderungen Für Michael Israel, den CIO der Kraft Group, bedeutet das in erster Linie eine ganze Menge Arbeit. Unter anderem ist der IT-Entscheider gerade damit beschäftigt, sein altgedientes VoIP-Netzwerk auf eine neue, Cloud-basierte VoIP-Plattform von Cisco zu migrieren. Der Technologiepartner NWN kümmert sich dabei darum, das Projekt zu implementieren und zu managen. Zudem wird neben dem Gillette-Stadion derzeit auch eine neue, hochmoderne Trainingseinrichtung für das NFL-Team der Patriots hochgezogen. Sie soll im April 2026 eröffnet werden. Entsprechend müssen das Netzwerk in und um das Stadion sowie sämtliche Applikationen, die darauf laufen sollen, bis zu diesem Zeitpunkt entworfen, getestet und einsatzbereit sein. Ungeachtet dessen beobachten die Verantwortlichen schon längere Zeit eine beständig steigende Nachfrage nach Netzwerkkapazität – auch getrieben durch die zunehmende Social-Media-Nutzung (vor allem) jüngerer Stadionbesucher. So fanden sich bei einem Taylor-Swift-Konzert rund 10.000 Menschen auf dem Parkplatz des Gillette Stadium ein. Allerdings ohne Tickets, denn sie waren wegen einer TikTok-Challenge vor Ort. Laut Kraft-CIO Israel sei das eine zusätzliche, unerwartete Belastung für das Netzwerk gewesen, mit der er in ähnlicher Weise auch für die Fußballweltmeisterschaft rechne. “Deshalb arbeiten wir daran, auch die drahtlose Konnektivität in den Fan-Zonen außerhalb des Stadions zu optimieren”, so der Manager. Speziell um den für die WM 2026 erwarteten Fan-Massen aus aller Welt ein optimales Erlebnis bieten zu können, steht der CIO auch direkt mit dem Weltfussballverband FIFA im Austausch. Mit Blick auf den Andrang und die Aufmerksamkeit, so Israel, sei jedes einzelne Spiel der Fussballweltmeisterschaft als Äquivalent zum Super Bowl zu betrachten. Aus Business-Perspektive müsse das zugrundeliegende Cisco-Netzwerk deshalb in der Lage sein, sämtliche neuen, bandbreitenintensiven Anwendungen mühelos zu stemmen – von der Gesichtserkennung an den Eingängen über digitale Bezahlvorgänge an den Verkaufsständen bis hin zur Wireless-Anbindung der Point-of-Sale-Systeme. Die längerfristige Technologie-Roadmap für das Gillette Stadium sieht außerdem vor: die 1.800 Wi-Fi-6-Zugangspunkte auf Wi-Fi 6E oder 7 zu upgraden, 80 physische und virtuelle Cisco Firewalls im Netzwerk zu aktualisieren, sowie ein umfassendes Netzwerkkonsolidierungsprojekt. Aus Besucher-, beziehungsweise Kundensicht sind insbesondere folgende, geplante Features erwähnenswert: In Kooperation mit Wicket Software plant die Kraft Group, Gesichtserkennung einzusetzen, um Besucher biometrisch zu erfassen und ihnen so schnellen und reibungslosen Zutritt zum Stadion zu gewähren – ganz ohne Schlange stehen. Dabei sollen die Fans dazu eingeladen werden, das System auf ihren eigenen Geräten zu nutzen. Sind sie damit einverstanden, genügt es die App zu installieren und einen Selfie zu schießen. Laut Kraft-CIO Israel ist die Technologie in der Lage, Gesichter in weniger als einer Sekunde zu identifizieren – selbst wenn die betreffende Person einen Hut, eine Maske oder eine Brille trägt. Neben den Vorteilen für die Besucher senkt die Technologie außerdem die Verwaltungs- und Personalkosten der Kraft-Gruppe. Probleme, den Sitzplatz zu finden oder sich in den Katakomben hoffnungslos verlaufen sind bei Stadionbesuchen nichts Ungewöhnliches. Deshalb plant die Kraft Group auch eine Wegweiser-Applikation, die auf Technologie des Mapping-Spezialisten Concept 3D sowie der Kartierungssoftware von Esri basiert. Die resultierende App soll die Besucher schnurstracks zu ihrem Ziel, beziehungsweise den sie umgebenden Services geleiten. Mit dem Ausbau des IPTV-Netzwerks sollen sowohl das digitale Fernseherlebnis für die Fans zuhause mit interaktiven Funktionen als auch das Engagement der Besucher vor Ort optimiert werden. Laut dem CIO ergründet die Kraft Group außerdem die Möglichkeit, künftig digitale Wallets im Stadion einzusetzen. Das soll den Fans ermöglichen, Produkte und Dienstleistungen innerhalb des Stadions schnell und einfach mit ihrem Smartphone zu bezahlen – statt erst nach Bargeld oder einer Bezahlkarte kramen zu müssen. Und damit nicht genug: Die Kraft Group bemüht sich zur Zeit außerdem um eine Baugenehmigung für ein neues Stadion, das nördlich von Boston in Everett, Massachusetts, entstehen soll und dem MLS-Team von New England als neue Heimat dienen soll. Falls dieses Projekt realisiert wird, muss sich CIO Israel um die IT einer weiteren Sportstätte kümmern. Immerhin wären beide Stadien nur lediglich 40 Kilometer voneinander entfernt. KI-Vorteile auch für die Teams Ein weiterer interessanter Aspekt der technischen Umgestaltung betrifft das bereits angesprochene, hochmoderne Trainingsareal für das NFL-Team der New England Patriots. Das soll künftig auch die Büroräume für das Management des Fussball-Teams von New England sowie Meeting-Räume und ein Pressebüro beherbergen. Die zentrale Netzwerkinfrastruktur besteht dabei laut Israel aus einer Kombination von Cisco- und Extreme-Networks-Geräten – in Kombination mit HPE Aruba ClearPass für die Authentifizierung und Zugangskontrolle sowie Cisco WebEx für die Zusammenarbeit. “Mit den KI-gestützten Diensten von NWN können die Trainer ihren Teams aktualisierte Besprechungszeiten, Trainingspläne und strategische Informationen direkt auf ihre iPads schicken”, stellt der Kraft-Manager in Aussicht und ergänzt, dass künftig auch Virtual Reality zum Einsatz kommen soll, um den Spielern eine intensivere Möglichkeit zur Verfügung zu stellen, ihre eigene Performance zu analysieren und sich auf anstehende Partien vorzubereiten. Darüber hinaus soll auch die Trainingsanlage selbst künftig technologiegesteuert zum “Leben erwachen”: Ein KI-basiertes Umgebungssystem passt die Temperatur an, schaltet Beleuchtung und Geräte ein, wenn eine Person den Raum betritt – und optimiert so ganz allgemein den Arbeitsbereich für Trainer und Spieler. Für die Kraft Group endet die Kooperation mit NWN jedoch nicht im Stadion, wie Israel festhält: “Über den Fußballkomplex hinaus wird die Zusammenarbeit mit NWN uns in die Lage versetzen, unsere Netzwerke in anderen Geschäftsbereichen – etwa der Rand Whitney Group – zu optimieren und so Zusammenarbeit, Netzwerkzuverlässigkeit und geschäftliche Agilität auf ein neues Level zu bringen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ein NFL-Stadion wird Fussball-WM-ready​ Das Gillette Stadium nahe Boston erhält ein umfassendes Netzwerk-Upgrade. Joseph Sohm | shutterstock.com

Das NFL-Team der New England Patriots hofft darauf, mit neuem Cheftrainer und umgestaltetem Kader nach einigen schlechten Jahren wieder in die Erfolgsspur zu kommen. Abseits des Spielfelds hat sich der Teambesitzer, die Kraft Group, mit dem KI-Serviceanbieter NWN zusammengetan, um auch aus technologischer Perspektive künftig wieder ganz vorne mitzuspielen. Das umfangreichste und prestigeträchtigste Unterfangen ist dabei ein umfassendes Netzwerk-Upgrade für das (2002 eingeweihte) Gillette Stadium in Foxboro im US-Bundesstaat Massachusetts.

Das 65.000 Zuschauer fassende Stadion ist nicht nur die Heimspielstätte der Patriots, sondern auch (noch) der Major-League-Soccer-Mannschaft New England Revolution – und kommt darüber hinaus als Veranstaltungsort für diverse, publikumswirksame Anlässe zum Einsatz. Etwa Monster-Truck-Spektakel oder Konzerte von Stars wie Taylor Swift und Beyoncé. Davon abgesehen, ist das Gillette Stadium zu sieben Gelegenheiten auch als Spielstätte bei der kommenden Fußballweltmeisterschaft 2026 in den USA vorgesehen – unter anderem findet dort auch ein Viertelfinale statt.

“Das Gillette Stadium wird ganzjährig für eine Vielzahl von Veranstaltungen genutzt und sollte unseren Gästen so viel Komfort wie möglich bieten”, postuliert Jim Nolan, COO von Kraft Sports and Entertainment, den Anspruch. Er ergänzt: “Unsere Partnerschaft mit NWN gewährleistet, dass wir über die neuesten technischen Möglichkeiten verfügen, um die Erwartungen der Fans zu übertreffen. Diese neuen Möglichkeiten sind in Kombination mit den bereits vorhandenen und der Branchenerfahrung von NWN der Schlüssel dazu, unsere Einrichtungen zu einem Ort zu machen, an dem man immer in Verbindung bleiben kann.”

Meisterschaftliche Bandbreitenherausforderungen

Für Michael Israel, den CIO der Kraft Group, bedeutet das in erster Linie eine ganze Menge Arbeit. Unter anderem ist der IT-Entscheider gerade damit beschäftigt, sein altgedientes VoIP-Netzwerk auf eine neue, Cloud-basierte VoIP-Plattform von Cisco zu migrieren. Der Technologiepartner NWN kümmert sich dabei darum, das Projekt zu implementieren und zu managen. Zudem wird neben dem Gillette-Stadion derzeit auch eine neue, hochmoderne Trainingseinrichtung für das NFL-Team der Patriots hochgezogen. Sie soll im April 2026 eröffnet werden. Entsprechend müssen das Netzwerk in und um das Stadion sowie sämtliche Applikationen, die darauf laufen sollen, bis zu diesem Zeitpunkt entworfen, getestet und einsatzbereit sein.

Ungeachtet dessen beobachten die Verantwortlichen schon längere Zeit eine beständig steigende Nachfrage nach Netzwerkkapazität – auch getrieben durch die zunehmende Social-Media-Nutzung (vor allem) jüngerer Stadionbesucher. So fanden sich bei einem Taylor-Swift-Konzert rund 10.000 Menschen auf dem Parkplatz des Gillette Stadium ein. Allerdings ohne Tickets, denn sie waren wegen einer TikTok-Challenge vor Ort. Laut Kraft-CIO Israel sei das eine zusätzliche, unerwartete Belastung für das Netzwerk gewesen, mit der er in ähnlicher Weise auch für die Fußballweltmeisterschaft rechne. “Deshalb arbeiten wir daran, auch die drahtlose Konnektivität in den Fan-Zonen außerhalb des Stadions zu optimieren”, so der Manager.

Speziell um den für die WM 2026 erwarteten Fan-Massen aus aller Welt ein optimales Erlebnis bieten zu können, steht der CIO auch direkt mit dem Weltfussballverband FIFA im Austausch. Mit Blick auf den Andrang und die Aufmerksamkeit, so Israel, sei jedes einzelne Spiel der Fussballweltmeisterschaft als Äquivalent zum Super Bowl zu betrachten. Aus Business-Perspektive müsse das zugrundeliegende Cisco-Netzwerk deshalb in der Lage sein, sämtliche neuen, bandbreitenintensiven Anwendungen mühelos zu stemmen – von der Gesichtserkennung an den Eingängen über digitale Bezahlvorgänge an den Verkaufsständen bis hin zur Wireless-Anbindung der Point-of-Sale-Systeme. Die längerfristige Technologie-Roadmap für das Gillette Stadium sieht außerdem vor:

die 1.800 Wi-Fi-6-Zugangspunkte auf Wi-Fi 6E oder 7 zu upgraden,

80 physische und virtuelle Cisco Firewalls im Netzwerk zu aktualisieren, sowie

ein umfassendes Netzwerkkonsolidierungsprojekt.

Aus Besucher-, beziehungsweise Kundensicht sind insbesondere folgende, geplante Features erwähnenswert:

In Kooperation mit Wicket Software plant die Kraft Group, Gesichtserkennung einzusetzen, um Besucher biometrisch zu erfassen und ihnen so schnellen und reibungslosen Zutritt zum Stadion zu gewähren – ganz ohne Schlange stehen. Dabei sollen die Fans dazu eingeladen werden, das System auf ihren eigenen Geräten zu nutzen. Sind sie damit einverstanden, genügt es die App zu installieren und einen Selfie zu schießen. Laut Kraft-CIO Israel ist die Technologie in der Lage, Gesichter in weniger als einer Sekunde zu identifizieren – selbst wenn die betreffende Person einen Hut, eine Maske oder eine Brille trägt. Neben den Vorteilen für die Besucher senkt die Technologie außerdem die Verwaltungs- und Personalkosten der Kraft-Gruppe.

Probleme, den Sitzplatz zu finden oder sich in den Katakomben hoffnungslos verlaufen sind bei Stadionbesuchen nichts Ungewöhnliches. Deshalb plant die Kraft Group auch eine Wegweiser-Applikation, die auf Technologie des Mapping-Spezialisten Concept 3D sowie der Kartierungssoftware von Esri basiert. Die resultierende App soll die Besucher schnurstracks zu ihrem Ziel, beziehungsweise den sie umgebenden Services geleiten.

Mit dem Ausbau des IPTV-Netzwerks sollen sowohl das digitale Fernseherlebnis für die Fans zuhause mit interaktiven Funktionen als auch das Engagement der Besucher vor Ort optimiert werden.

Laut dem CIO ergründet die Kraft Group außerdem die Möglichkeit, künftig digitale Wallets im Stadion einzusetzen. Das soll den Fans ermöglichen, Produkte und Dienstleistungen innerhalb des Stadions schnell und einfach mit ihrem Smartphone zu bezahlen – statt erst nach Bargeld oder einer Bezahlkarte kramen zu müssen.

Und damit nicht genug: Die Kraft Group bemüht sich zur Zeit außerdem um eine Baugenehmigung für ein neues Stadion, das nördlich von Boston in Everett, Massachusetts, entstehen soll und dem MLS-Team von New England als neue Heimat dienen soll. Falls dieses Projekt realisiert wird, muss sich CIO Israel um die IT einer weiteren Sportstätte kümmern. Immerhin wären beide Stadien nur lediglich 40 Kilometer voneinander entfernt.

KI-Vorteile auch für die Teams

Ein weiterer interessanter Aspekt der technischen Umgestaltung betrifft das bereits angesprochene, hochmoderne Trainingsareal für das NFL-Team der New England Patriots. Das soll künftig auch die Büroräume für das Management des Fussball-Teams von New England sowie Meeting-Räume und ein Pressebüro beherbergen. Die zentrale Netzwerkinfrastruktur besteht dabei laut Israel aus einer Kombination von Cisco- und Extreme-Networks-Geräten – in Kombination mit HPE Aruba ClearPass für die Authentifizierung und Zugangskontrolle sowie Cisco WebEx für die Zusammenarbeit.

“Mit den KI-gestützten Diensten von NWN können die Trainer ihren Teams aktualisierte Besprechungszeiten, Trainingspläne und strategische Informationen direkt auf ihre iPads schicken”, stellt der Kraft-Manager in Aussicht und ergänzt, dass künftig auch Virtual Reality zum Einsatz kommen soll, um den Spielern eine intensivere Möglichkeit zur Verfügung zu stellen, ihre eigene Performance zu analysieren und sich auf anstehende Partien vorzubereiten. Darüber hinaus soll auch die Trainingsanlage selbst künftig technologiegesteuert zum “Leben erwachen”: Ein KI-basiertes Umgebungssystem passt die Temperatur an, schaltet Beleuchtung und Geräte ein, wenn eine Person den Raum betritt – und optimiert so ganz allgemein den Arbeitsbereich für Trainer und Spieler.

Für die Kraft Group endet die Kooperation mit NWN jedoch nicht im Stadion, wie Israel festhält: “Über den Fußballkomplex hinaus wird die Zusammenarbeit mit NWN uns in die Lage versetzen, unsere Netzwerke in anderen Geschäftsbereichen – etwa der Rand Whitney Group – zu optimieren und so Zusammenarbeit, Netzwerkzuverlässigkeit und geschäftliche Agilität auf ein neues Level zu bringen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ein NFL-Stadion wird Fussball-WM-ready​ Weiterlesen »

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​

Allgemein

Ann Funai, CIO and VP of Business Platform Transformation, IBM Ann Funai / IBM IBM präsentierte sich auf der SAP Sapphire-Konferenz in Orlando als Consulting-Anbieter mit fundierter Erfahrung aus der eigenen, mehrjährigen Migration zu SAP S/4HANA auf IBM Power Virtual Server. Wie Ann Funai, CIO und Vice President Business Platform Transformation, berichtete, konnte das Unternehmen seit Abschluss der Migration auf SAPs Cloud-ERP-Plattform im Juli vergangenen Jahres die Kosten für den Infrastrukturbetrieb um 30 Prozent senken. Die Migration zu S/4HANA – laut Funai betreibt IBM eine der größten SAP-Installationen überhaupt – verbesserte außerdem die Bearbeitungszeiten bei der Vertragsregistrierung und steigerte die Effizienz im Rechnungswesen, indem beispielsweise die Zeit für die Rechnungserstellung verkürzt wurde. Zudem, so die IBM-CIO, habe der Wechsel vom On-Premises-ERP zur Cloud-Variante die Zahlungsabstimmung beschleunigt und Fehler in den Forderungskonten reduziert. IBM hatte 2012 sein vorher zersplittertes System aus vielen eigenen „Mini-ERP“-Lösungen auf ein einheitliches, lokales SAP-ECC-System umgestellt. Der Wechsel zur Cloud-Plattform von SAP begann so richtig dann im Jahr 2022. Geschäft auf gelernten Lektionen aufbauen Die Migration ist Teil eines umfassenden Fahrplans von IBM, seine Geschäftsprozesse zu straffen und seine IT-Systeme an das Cloud- und KI-Zeitalter anzupassen – ein zentrales Thema mehrerer IBM-Führungskräfte auf der Sapphire-Konferenz. „Wenn wir diesen sehr sauberen SAP-Kern betreiben und unsere hausgemachten Tools herausnehmen, wird unser Geschäft effizienter“, erklärte Funai, die ihre Karriere bei IBM begann und nach einigen leitenden Tech-Stationen und einer Zeit bei Under Armour als SVP of Engineering 2023 zu Big Blue zurückkehrte. Während SAP seinen großen Kundenstamm weiterhin zur Migration auf S/4HANA drängt, versucht IBM, ein wichtiger Partner und Kunde seit 52 Jahren, zögernde CIOs davon zu überzeugen, die Vorteile einer Migration jetzt zu nutzen und nicht bis zur Deadline 2027 zu warten. Aber das ist keine einfache Aufgabe. Selbst mit Unterstützung durch die umfangreiche Expertise von IBM Consulting, so räumt Funai ein, sei ein solch massives Migrationsprojekt komplex und schwierig. Immerhin bilde das ERPdas Herzstück eines jeden Unternehmens und dürfe nicht ins Stocken geraten. „Das ist das wirklich Angsteinflößende, oder?“, wandte sich die IBM-CIO ans Publikum. „Es geht um das Hauptbuch, um Ihre finanziell bedeutendste, staatlich regulierte Software. Um das, was Ihre Lieferkette und Ihre Vertriebskanäle am Laufen hält. Unternehmen sind davon abhängig, dass die Technologie einwandfrei funktioniert.” “Ich glaube, es ist nur menschlich, ein wenig Angst davor zu haben, das anzufassen. Ich denke, das ist einer der Gründe für die Schwierigkeiten“, fügte Funai hinzu. Zweifellos sind ERP-Transformationen für viele IT-Leiter eine existenzielle Herausforderung. Dennoch betonte die IBM-CIO, dass sich die Unternehmen dem unvermeidlichen Wechsel zu einem SaaS-Modell nicht widersetzen könnten, selbst wenn sie die Füße stillhalten. „Wir sehen, dass sich SAP klar in Richtung SaaS bewegt, um uns schneller mit Updates, Änderungen und Modifikationen versorgen zu können“, erklärte Funai. “Für uns ist das der richtige Weg. Es ist eine SaaS-Welt und wer noch nicht dabei ist, wird früher oder später dort landen. So sieht moderne IT aus.” Mit den bisherigen Ergebnissen der Migration zu S/4HANA, an der rund 400 IBM-Mitarbeiter beteiligt waren, ist Funai zufrieden. Die ERP-Betriebsabläufe seien heute deutlich schlanker und besser zu verwalten, berichtete sie. “Durch die Abschaltung der Altsysteme und die Senkung unserer Infrastruktur- und Betriebskosten konnten wir insgesamt etwa 30 Prozent einsparen. Und das ist nur die Systemkonsolidierung. Hinzu kommt die Automatisierung, die wir einführen konnten”, so Funai. „Und aus CIO-Sicht besonders wichtig: Ich brauche nur noch ein einziges Team für das System. Das hat uns enorm geholfen.“ Weil IBMs internes IT-Team die typischen Hürden und Herausforderungen selbst gemeistert hat, sieht Funai darin einen entscheidenden Vorteil in der Beratung von Kunden: „Jeder CIO, mit dem ich spreche – egal ob aus dem Einzelhandel, der Finanzwelt oder der Logistik – hat dieselben Sorgen wie ich damals“, erklärte sie. „Und wir können zeigen, wie wir Planung, Testphasen und Business-Alignment gemeistert haben. Das zeigt, was möglich ist.“ Eine herausfordernde Reise Zweifellos ist es hilfreich, IBM Consulting Services im Haus zu haben, gibt Funai selbst zu. Forrester-Analystin Akshara Naik Lopez stimmt dem zu. „IBM konnte sich in der Leader–Kategorie für SAP-Services platzieren – das ist die höchste Kategorie in einer Forrester Wave-Bewertung“, erklärte sie. „Das ist eine ziemlich große Sache, was die Bewertung ihrer SAP-Servicekompetenz im Vergleich zu anderen weltweit aktiven Systemintegratoren angeht. Neben IBMs SAP-Einheit sind Accenture, Deloitte und CapGemini die einzigen IT-Dienstleister in der Leader-Kategorie.“ Natürlich bietet SAP seinen Unternehmenskunden verschiedene Wege zur Migration auf SAP S4/HANA an und 2027 ist für große Kunden keine harte Deadline, betonen Analysten. Laut Gartner setzen SAP-Kunden ihre Verlagerung in die Cloud fort – Workloads eingeschlossen, die auf der SAP ABAP Platform und SAP NetWeaver basieren. Und während IBM seine Plattform teilweise auf der IBM-Cloud betreibt, ziehen es die meisten Kunden vor, ihre SAP-Workloads auf ihren bevorzugten Hyperscaler-Clouds zu betreiben. Die IBM-Cloud ist dort eher unüblich und macht laut aktuellen Gartner-Zahlen nur 1,5 Prozent des weltweiten Cloud-Marktanteils aus. Das Hauptaugenmerk von Funai liegt jedoch darauf, die Effizienz im eigenen Haus zu steigern. Die Standardisierung auf SAP nach einer Vergangenheit mit verschiedenen ERP-Systemen hat auch den Integrationsprozess großer zugekaufter Unternehmen erleichtert, darunter Red Hat, Apptio, DataStax, Hakkoda und HashiCorp. „Ein einziges ERP-System zu haben, wenn man ein anderes globales Unternehmen übernimmt, ist eine Erleichterung für den Fusions- und Übernahmeprozess“, erklärte Funai. Auch SAP macht weiterhin Fortschritte dabei, Kunden für die Cloud-Transformation zu gewinnen. Laut Gartner hatten bis Ende 2024 etwa 39 Prozent der weltweiten ECC-Kunden, rund 35.000 Unternehmen Lizenzen gekauft oder abonniert, um den Übergang zu SAP S/4HANA zu starten. Zu diesem Zeitpunkt hatte S/4HANA rund 26.900 Kunden, wobei etwa 62 Prozent der im späten letzten Jahr hinzugekommenen Kunden komplett neu waren. Rise with SAP hebt nicht ab Dennoch betont Gartner, dass sich die Walldorfer mit dem Vertrieb von Rise with SAP schwertun. Vier Jahre nach dem Start des Angebots, das S/4HANA mit SAP-Dienstleistungen bündelt, um bestehende ERP-Systeme in die Cloud zu migrieren, würden viele Organisationen weiterhin „Zweifel am Mehrwert des Angebots äußern“, so die Analysten. Im April 2025 schätzte Gartner, dass rund 5.800 Kunden RISE-Verträge unterzeichnet haben, was 22 Prozent des bisherigen Gesamtumsatzes mit S/4HANA entspricht. Für IBM-CIO Funai hat sich die frühzeitige Migration jedoch bereits ausgezahlt, unter anderem in Form eines „höheren freien Cashflows und echten Produktivitätseinsparungen“, wie sie betont – ganz zu schweigen davon, dass sich Mitarbeitende um höherwertige Aufgaben kümmern könnten. „Aus CIO-Perspektive lassen sich jetzt einige der heikelsten Backoffice-Bereiche von IBM deutlich einfacher verwalten und warten“, so Funai. „Wir können kluge Köpfe für strategisch wichtigere Aufgaben bei IBM einsetzen.” (mb)   

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​ Ann Funai, CIO and VP of Business Platform Transformation, IBM
Ann Funai / IBM

IBM präsentierte sich auf der SAP Sapphire-Konferenz in Orlando als Consulting-Anbieter mit fundierter Erfahrung aus der eigenen, mehrjährigen Migration zu SAP S/4HANA auf IBM Power Virtual Server. Wie Ann Funai, CIO und Vice President Business Platform Transformation, berichtete, konnte das Unternehmen seit Abschluss der Migration auf SAPs Cloud-ERP-Plattform im Juli vergangenen Jahres die Kosten für den Infrastrukturbetrieb um 30 Prozent senken.

Die Migration zu S/4HANA – laut Funai betreibt IBM eine der größten SAP-Installationen überhaupt – verbesserte außerdem die Bearbeitungszeiten bei der Vertragsregistrierung und steigerte die Effizienz im Rechnungswesen, indem beispielsweise die Zeit für die Rechnungserstellung verkürzt wurde. Zudem, so die IBM-CIO, habe der Wechsel vom On-Premises-ERP zur Cloud-Variante die Zahlungsabstimmung beschleunigt und Fehler in den Forderungskonten reduziert.

IBM hatte 2012 sein vorher zersplittertes System aus vielen eigenen „Mini-ERP“-Lösungen auf ein einheitliches, lokales SAP-ECC-System umgestellt. Der Wechsel zur Cloud-Plattform von SAP begann so richtig dann im Jahr 2022.

Geschäft auf gelernten Lektionen aufbauen

Die Migration ist Teil eines umfassenden Fahrplans von IBM, seine Geschäftsprozesse zu straffen und seine IT-Systeme an das Cloud- und KI-Zeitalter anzupassen – ein zentrales Thema mehrerer IBM-Führungskräfte auf der Sapphire-Konferenz.

„Wenn wir diesen sehr sauberen SAP-Kern betreiben und unsere hausgemachten Tools herausnehmen, wird unser Geschäft effizienter“, erklärte Funai, die ihre Karriere bei IBM begann und nach einigen leitenden Tech-Stationen und einer Zeit bei Under Armour als SVP of Engineering 2023 zu Big Blue zurückkehrte.

Während SAP seinen großen Kundenstamm weiterhin zur Migration auf S/4HANA drängt, versucht IBM, ein wichtiger Partner und Kunde seit 52 Jahren, zögernde CIOs davon zu überzeugen, die Vorteile einer Migration jetzt zu nutzen und nicht bis zur Deadline 2027 zu warten.

Aber das ist keine einfache Aufgabe. Selbst mit Unterstützung durch die umfangreiche Expertise von IBM Consulting, so räumt Funai ein, sei ein solch massives Migrationsprojekt komplex und schwierig. Immerhin bilde das ERPdas Herzstück eines jeden Unternehmens und dürfe nicht ins Stocken geraten.

„Das ist das wirklich Angsteinflößende, oder?“, wandte sich die IBM-CIO ans Publikum. „Es geht um das Hauptbuch, um Ihre finanziell bedeutendste, staatlich regulierte Software. Um das, was Ihre Lieferkette und Ihre Vertriebskanäle am Laufen hält. Unternehmen sind davon abhängig, dass die Technologie einwandfrei funktioniert.”

“Ich glaube, es ist nur menschlich, ein wenig Angst davor zu haben, das anzufassen. Ich denke, das ist einer der Gründe für die Schwierigkeiten“, fügte Funai hinzu.

Zweifellos sind ERP-Transformationen für viele IT-Leiter eine existenzielle Herausforderung. Dennoch betonte die IBM-CIO, dass sich die Unternehmen dem unvermeidlichen Wechsel zu einem SaaS-Modell nicht widersetzen könnten, selbst wenn sie die Füße stillhalten.

„Wir sehen, dass sich SAP klar in Richtung SaaS bewegt, um uns schneller mit Updates, Änderungen und Modifikationen versorgen zu können“, erklärte Funai. “Für uns ist das der richtige Weg. Es ist eine SaaS-Welt und wer noch nicht dabei ist, wird früher oder später dort landen. So sieht moderne IT aus.”

Mit den bisherigen Ergebnissen der Migration zu S/4HANA, an der rund 400 IBM-Mitarbeiter beteiligt waren, ist Funai zufrieden. Die ERP-Betriebsabläufe seien heute deutlich schlanker und besser zu verwalten, berichtete sie.

“Durch die Abschaltung der Altsysteme und die Senkung unserer Infrastruktur- und Betriebskosten konnten wir insgesamt etwa 30 Prozent einsparen. Und das ist nur die Systemkonsolidierung. Hinzu kommt die Automatisierung, die wir einführen konnten”, so Funai. „Und aus CIO-Sicht besonders wichtig: Ich brauche nur noch ein einziges Team für das System. Das hat uns enorm geholfen.“

Weil IBMs internes IT-Team die typischen Hürden und Herausforderungen selbst gemeistert hat, sieht Funai darin einen entscheidenden Vorteil in der Beratung von Kunden: „Jeder CIO, mit dem ich spreche – egal ob aus dem Einzelhandel, der Finanzwelt oder der Logistik – hat dieselben Sorgen wie ich damals“, erklärte sie. „Und wir können zeigen, wie wir Planung, Testphasen und Business-Alignment gemeistert haben. Das zeigt, was möglich ist.“

Eine herausfordernde Reise

Zweifellos ist es hilfreich, IBM Consulting Services im Haus zu haben, gibt Funai selbst zu. Forrester-Analystin Akshara Naik Lopez stimmt dem zu. „IBM konnte sich in der Leader–Kategorie für SAP-Services platzieren – das ist die höchste Kategorie in einer Forrester Wave-Bewertung“, erklärte sie. „Das ist eine ziemlich große Sache, was die Bewertung ihrer SAP-Servicekompetenz im Vergleich zu anderen weltweit aktiven Systemintegratoren angeht. Neben IBMs SAP-Einheit sind Accenture, Deloitte und CapGemini die einzigen IT-Dienstleister in der Leader-Kategorie.“

Natürlich bietet SAP seinen Unternehmenskunden verschiedene Wege zur Migration auf SAP S4/HANA an und 2027 ist für große Kunden keine harte Deadline, betonen Analysten.

Laut Gartner setzen SAP-Kunden ihre Verlagerung in die Cloud fort – Workloads eingeschlossen, die auf der SAP ABAP Platform und SAP NetWeaver basieren. Und während IBM seine Plattform teilweise auf der IBM-Cloud betreibt, ziehen es die meisten Kunden vor, ihre SAP-Workloads auf ihren bevorzugten Hyperscaler-Clouds zu betreiben. Die IBM-Cloud ist dort eher unüblich und macht laut aktuellen Gartner-Zahlen nur 1,5 Prozent des weltweiten Cloud-Marktanteils aus.

Das Hauptaugenmerk von Funai liegt jedoch darauf, die Effizienz im eigenen Haus zu steigern. Die Standardisierung auf SAP nach einer Vergangenheit mit verschiedenen ERP-Systemen hat auch den Integrationsprozess großer zugekaufter Unternehmen erleichtert, darunter Red Hat, Apptio, DataStax, Hakkoda und HashiCorp.

„Ein einziges ERP-System zu haben, wenn man ein anderes globales Unternehmen übernimmt, ist eine Erleichterung für den Fusions- und Übernahmeprozess“, erklärte Funai.

Auch SAP macht weiterhin Fortschritte dabei, Kunden für die Cloud-Transformation zu gewinnen. Laut Gartner hatten bis Ende 2024 etwa 39 Prozent der weltweiten ECC-Kunden, rund 35.000 Unternehmen Lizenzen gekauft oder abonniert, um den Übergang zu SAP S/4HANA zu starten. Zu diesem Zeitpunkt hatte S/4HANA rund 26.900 Kunden, wobei etwa 62 Prozent der im späten letzten Jahr hinzugekommenen Kunden komplett neu waren.

Rise with SAP hebt nicht ab

Dennoch betont Gartner, dass sich die Walldorfer mit dem Vertrieb von Rise with SAP schwertun. Vier Jahre nach dem Start des Angebots, das S/4HANA mit SAP-Dienstleistungen bündelt, um bestehende ERP-Systeme in die Cloud zu migrieren, würden viele Organisationen weiterhin „Zweifel am Mehrwert des Angebots äußern“, so die Analysten. Im April 2025 schätzte Gartner, dass rund 5.800 Kunden RISE-Verträge unterzeichnet haben, was 22 Prozent des bisherigen Gesamtumsatzes mit S/4HANA entspricht.

Für IBM-CIO Funai hat sich die frühzeitige Migration jedoch bereits ausgezahlt, unter anderem in Form eines „höheren freien Cashflows und echten Produktivitätseinsparungen“, wie sie betont – ganz zu schweigen davon, dass sich Mitarbeitende um höherwertige Aufgaben kümmern könnten.

„Aus CIO-Perspektive lassen sich jetzt einige der heikelsten Backoffice-Bereiche von IBM deutlich einfacher verwalten und warten“, so Funai. „Wir können kluge Köpfe für strategisch wichtigere Aufgaben bei IBM einsetzen.” (mb)  

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​ Weiterlesen »

Agil(er) entwickeln mit generativer KI​

Allgemein

Auch agile Dev-Teams können von KI profitieren. Pixel-Shot | shutterstock.com Generative AI (GenAI; generative KI) führt zu einem bedeutenden Paradigmenwechsel in der Art und Weise, wie Entwickler Code schreiben, Softwareanwendungen entwickeln, deren Qualität optimieren und technische Schulden reduzieren. Darüber hinaus kann die Technologie jedoch auch agile Entwicklungsteams unterstützen, um den gesamten Software Development Lifecycle zu optimieren. Insbesondere mit Blick auf Anforderungskataloge und agile User Stories bietet sich eine bedeutende Chance für Large Language Models (LLMs), KI-Agenten und andere GenAI-Ausformungen. Denn wenn Entwickler mit KI schneller und effizienter Code schreiben, testen und dokumentieren, braucht es auch tiefgehendere agile Backlogs, mehr User Stories, die schneller entstehen, sowie striktere Akzeptanzkriterien. “In einer Welt, in der die Copiloten coden, werden Planungsprozesse eine deutlich wichtigere Rolle einnehmen”, prophezeit David Brooks, SVP of Evangelism beim KI-Spezialisten Copado. Insbesondere Anforderungsdokumente müssten detaillierter ausgestaltet werden als zu Zeiten, in denen die Teams noch in einem Büro gesessen haben, und fügt er hinzu. In der Vision des KI-Experten nutzen Business-Analysten künftig generative KI, um Feature Requests und Meeting-Protokolle zusammenzufassen, sämtliche Inputs zu erfassen und bedarfsgerecht Prioritäten zu setzen. “GenAI kann dann einen ersten Entwurf erstellen oder einen manuell erarbeiteten auf Vollständigkeit prüfen”, meint Brooks. Um das in der Praxis umzusetzen, ist es allerdings erforderlich, sowohl Endbenutzer als auch Stakeholder einzubinden – wobei das Engagement über die üblichen Aufgaben agiler Product Owner hinausgehen muss. Agile Softwareentwicklung trifft generative KI Laut Chris Mahl, CEO beim GenAI-Unternehmen Pryon, ist es mit generativer KI möglich, die Dokumentationsaufgabe Anforderungen zu erfassen zu einem kollaborativen Entdeckungsprozess umzugestalten: “Produktverantwortliche nutzen KI inzwischen, um aus Interviews mit Stakeholdern erste Anforderungsentwürfe zu erstellen und diese dann im Rahmen von Feedback-Zyklen zu verfeinern.” Die Rolle des Business-Analysten entwickle sich in Richtung KI-Orchestrator, fügt Mahl hinzu: “Um diese Aufgabe erfolgreich zu bewältigen und optimale KI-Outputs zu erzeugen, sind sowohl Kompetenzen in Prompt Engineering erforderlich, als auch darin, Geschäftsprobleme zu formulieren.” Um den gesamten Anforderungsprozess zu überwachen, arbeiten die Business-Analysten eng mit dem Agile Product Owner sowie dem Teamleiter zusammen. Das ist besonders wertvoll für technisch versierte agile Teams, die mit Microservices-Architekturen, Integration oder Daten-Pipelines arbeiten. Denn die User Stories in diesen technischen Deliverables weisen erhebliche nicht-funktionale Akzeptanzkriterien auf. Entsprechend müssen oft synthetische Testdaten erstellt werden, um viele Anwendungsfälle zu validieren. Mahl erklärt: “Die Technologie eignet sich hervorragend, um Geschäftsanforderungen in technische Spezifikationen zu übersetzen und umgekehrt, wodurch Kommunikationslücken überbrückt werden. Dabei ist die Fähigkeit, kritisch zu denken essenziell, weil Analysten die von KI generierten Inhalte auf Genauigkeit und Business-Alignment prüfen müssen.” Eine weitere GenAI-Chance für agile Entwicklungsteams besteht darin, Zykluszeiten zu verkürzen, insbesondere, wenn es um Proofs of Concept geht oder darum, Endbenutzererfahrungen zu iterieren. Simon Margolis, Associate CTO beim Cloud-Serviceanbieter SADA, erklärt: “GenAI-Tools verändern die Rolle von Produktverantwortlichen und Business-Analysten grundlegend, weil sie ihnen ermöglichen, Prototypen zu erstellen und Anforderungen direkt in ihren IDEs schnell zu iterieren. Das ermöglicht es, dynamischer mit den Stakeholdern zusammenzuarbeiten, weil diese User Stories und Akzeptanzkriterien in Echtzeit visualisieren und feinjustieren können. Anstatt sich in der Dokumentation zu verlieren, können sie sich auf die strategische Ausrichtung und ein schnelleres Deployment konzentrieren – die KI übernimmt die technische Umsetzung.” GenAI für menschliche Innovation nutzen Product Owner und Business-Analysten haben wichtigere Aufgaben als Backlogs zu pflegen und Anforderungen zu dokumentieren. Ihre strategische Bedeutung liegt darin, Innovationen voranzutreiben, die für die Endbenutzer relevant sind, geschäftlichen Mehrwert und Wettbewerbsvorteile zu generieren. Außerdem müssen sie sich an DevOps-Standards halten, agile Entwicklungsteams steuern, die Plattformfunktionen entwickeln und Möglichkeiten eruieren, um technische Schulden abzubauen. “GenAI ist zwar hervorragend dazu geeignet, User Stories und Akzeptanzkriterien mit vordefinierten Spezifikationen und Designrichtlinien abzustimmen, aber Kreativleistung ist noch immer eine Sache für Menschen”, meint Ramprakash Ramamoorthy, Director of AI Research beim Sicherheitsanbieter ManageEngine. Seiner Meinung nach sollten Analysten und Product Owner die Technologie als Basiswerkzeug verstehen – statt sich vollständig darauf zu verlassen: “Der wahre Wert liegt darin, die Konsistenz der KI für eine Arbeitsgrundlage zu nutzen. Auf dieser Basis gilt es, Innovationen zu entwickeln und Feinheiten anzupassen, die Maschinen nicht erfassen können”, konstatiert der KI-Spezialist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Agil(er) entwickeln mit generativer KI​ Auch agile Dev-Teams können von KI profitieren. Pixel-Shot | shutterstock.com

Generative AI (GenAI; generative KI) führt zu einem bedeutenden Paradigmenwechsel in der Art und Weise, wie Entwickler Code schreiben, Softwareanwendungen entwickeln, deren Qualität optimieren und technische Schulden reduzieren.

Darüber hinaus kann die Technologie jedoch auch agile Entwicklungsteams unterstützen, um den gesamten Software Development Lifecycle zu optimieren. Insbesondere mit Blick auf Anforderungskataloge und agile User Stories bietet sich eine bedeutende Chance für Large Language Models (LLMs), KI-Agenten und andere GenAI-Ausformungen. Denn wenn Entwickler mit KI schneller und effizienter Code schreiben, testen und dokumentieren, braucht es auch tiefgehendere agile Backlogs, mehr User Stories, die schneller entstehen, sowie striktere Akzeptanzkriterien.

“In einer Welt, in der die Copiloten coden, werden Planungsprozesse eine deutlich wichtigere Rolle einnehmen”, prophezeit David Brooks, SVP of Evangelism beim KI-Spezialisten Copado. Insbesondere Anforderungsdokumente müssten detaillierter ausgestaltet werden als zu Zeiten, in denen die Teams noch in einem Büro gesessen haben, und fügt er hinzu. In der Vision des KI-Experten nutzen Business-Analysten künftig generative KI, um Feature Requests und Meeting-Protokolle zusammenzufassen, sämtliche Inputs zu erfassen und bedarfsgerecht Prioritäten zu setzen. “GenAI kann dann einen ersten Entwurf erstellen oder einen manuell erarbeiteten auf Vollständigkeit prüfen”, meint Brooks.

Um das in der Praxis umzusetzen, ist es allerdings erforderlich, sowohl Endbenutzer als auch Stakeholder einzubinden – wobei das Engagement über die üblichen Aufgaben agiler Product Owner hinausgehen muss.

Agile Softwareentwicklung trifft generative KI

Laut Chris Mahl, CEO beim GenAI-Unternehmen Pryon, ist es mit generativer KI möglich, die Dokumentationsaufgabe Anforderungen zu erfassen zu einem kollaborativen Entdeckungsprozess umzugestalten: “Produktverantwortliche nutzen KI inzwischen, um aus Interviews mit Stakeholdern erste Anforderungsentwürfe zu erstellen und diese dann im Rahmen von Feedback-Zyklen zu verfeinern.”

Die Rolle des Business-Analysten entwickle sich in Richtung KI-Orchestrator, fügt Mahl hinzu: “Um diese Aufgabe erfolgreich zu bewältigen und optimale KI-Outputs zu erzeugen, sind sowohl Kompetenzen in Prompt Engineering erforderlich, als auch darin, Geschäftsprobleme zu formulieren.”

Um den gesamten Anforderungsprozess zu überwachen, arbeiten die Business-Analysten eng mit dem Agile Product Owner sowie dem Teamleiter zusammen. Das ist besonders wertvoll für technisch versierte agile Teams, die mit Microservices-Architekturen, Integration oder Daten-Pipelines arbeiten. Denn die User Stories in diesen technischen Deliverables weisen erhebliche nicht-funktionale Akzeptanzkriterien auf. Entsprechend müssen oft synthetische Testdaten erstellt werden, um viele Anwendungsfälle zu validieren. Mahl erklärt: “Die Technologie eignet sich hervorragend, um Geschäftsanforderungen in technische Spezifikationen zu übersetzen und umgekehrt, wodurch Kommunikationslücken überbrückt werden. Dabei ist die Fähigkeit, kritisch zu denken essenziell, weil Analysten die von KI generierten Inhalte auf Genauigkeit und Business-Alignment prüfen müssen.”

Eine weitere GenAI-Chance für agile Entwicklungsteams besteht darin, Zykluszeiten zu verkürzen, insbesondere, wenn es um Proofs of Concept geht oder darum, Endbenutzererfahrungen zu iterieren. Simon Margolis, Associate CTO beim Cloud-Serviceanbieter SADA, erklärt: “GenAI-Tools verändern die Rolle von Produktverantwortlichen und Business-Analysten grundlegend, weil sie ihnen ermöglichen, Prototypen zu erstellen und Anforderungen direkt in ihren IDEs schnell zu iterieren. Das ermöglicht es, dynamischer mit den Stakeholdern zusammenzuarbeiten, weil diese User Stories und Akzeptanzkriterien in Echtzeit visualisieren und feinjustieren können. Anstatt sich in der Dokumentation zu verlieren, können sie sich auf die strategische Ausrichtung und ein schnelleres Deployment konzentrieren – die KI übernimmt die technische Umsetzung.”

GenAI für menschliche Innovation nutzen

Product Owner und Business-Analysten haben wichtigere Aufgaben als Backlogs zu pflegen und Anforderungen zu dokumentieren. Ihre strategische Bedeutung liegt darin, Innovationen voranzutreiben, die für die Endbenutzer relevant sind, geschäftlichen Mehrwert und Wettbewerbsvorteile zu generieren. Außerdem müssen sie sich an DevOps-Standards halten, agile Entwicklungsteams steuern, die Plattformfunktionen entwickeln und Möglichkeiten eruieren, um technische Schulden abzubauen.

“GenAI ist zwar hervorragend dazu geeignet, User Stories und Akzeptanzkriterien mit vordefinierten Spezifikationen und Designrichtlinien abzustimmen, aber Kreativleistung ist noch immer eine Sache für Menschen”, meint Ramprakash Ramamoorthy, Director of AI Research beim Sicherheitsanbieter ManageEngine. Seiner Meinung nach sollten Analysten und Product Owner die Technologie als Basiswerkzeug verstehen – statt sich vollständig darauf zu verlassen: “Der wahre Wert liegt darin, die Konsistenz der KI für eine Arbeitsgrundlage zu nutzen. Auf dieser Basis gilt es, Innovationen zu entwickeln und Feinheiten anzupassen, die Maschinen nicht erfassen können”, konstatiert der KI-Spezialist. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Agil(er) entwickeln mit generativer KI​ Weiterlesen »

Microsoft vs. Google: Kampf der KI-Konzepte​

Allgemein

Microsoft und Google verfolgen unterschiedliche Strategien bei KI-Agenten für die Arbeitswelt.  kovop – shutterstock.com KI-Agenten werden immer ausgefeilter, doch darüber, wie sie richtig eingesetzt werden, lässt sich streiten. Mit Microsoft und Google zeigen zwei Schwergewichte der Tech-Branche, dass sich dabei ganz unterschiedliche Ansätze verfolgen lassen. Beide Unternehmen kündigten unlängst eine Anzahl neuer Agenten an, unter anderem mit dem Ziel, einen Mehrwert aus Unternehmensdokumenten zu ziehen. Die Tech-Giganten deuteten dabei an, welche Richtung ihre KI-Agenten in Microsoft 365 und Google Workspace einschlagen sollen. Hunderte spezialisierte KI-Funktionen bei Microsoft Microsofts Ansatz ist es demnach, seinen KI-Assistenten Copilot in eine Reihe von Tools umzugestalten. Hiermit sollen sich dann Erkenntnisse auf individueller und organisatorischer Ebene erstellen, erschließen und umsetzen lassen. Die Roadmap von Microsoft 365 listet Hunderte von spezialisierten KI-Tools auf, die derzeit entwickelt werden. Ihr Ziel soll es sein, die Arbeit im Personalwesen und in der Buchhaltung zu automatisieren. Das Unternehmen entwickelt zusätzlich kleinere KI-Modelle um bestimmte Spezialfunktionen auszuführen. Ein großer, vielseitiger Agent bei Google Google wiederum geht den umgekehrten Weg, indem es sein Large Language Model (LLM) Gemini in den Mittelpunkt der Workspace-Plattform stellt . Das Unternehmen bietet Tools wie Gems für Mitarbeitende, um einfache benutzerdefinierte Agenten zu erstellen. Sie sollen damit in der Lage sein, Aufgaben wie den Kundendienst zu automatisieren. Um komplexere benutzerdefinierte Agenten für die Zusammenarbeit und das Workflow-Management zu erstellen, gibt es Agentspace in der Google-Cloud. Zusätzlich hat Google auf der Entwicklerkonferenz Google I/O angekündigt, eine Echtzeit-Sprachübersetzung zu Google Meet hinzuzufügen. Verschiedene Unternehmensphilosophien Experten sehen in den unterschiedlichen Ausrichtungen der KI-Agenten ein Spiegelbild dessen, wie die beiden Unternehmen Produktivität interpretieren: Microsoft bleibt stärker bei traditionellen Desktop-Anwendungen, während Google von Anfang an Cloud-basiert war. Gleichzeitig sind Microsoft–Nutzer typischerweise an klassische Unternehmensstrukturen gebunden, während Google sich eher an kleinere, kollaborativ arbeitende Firmen orientiert, so Liz Miller, Vizepräsidentin und Hauptanalystin bei Constellation Research. KI-Systeme noch am Anfang In Hinblick auf die integrierten GenAI-Modelle sind Googles Gemini-Modelle laut Miller, Hauptanalystin bei Constellation Research, aktuell leistungsfähiger als die von Microsoft. Das könnte sich allerdings ändern, wenn Microsoft sein Modellangebot in Microsoft 365 erweitert, so die Expertin. Microsoft hat laut Miller derzeit aber den Vorteil, dass es ein tiefes Verständnis für Arbeitsprozesse besitzt und KI nahtlos in verschiedene Anwendungen wie Office und Dynamics integrieren kann. Ihr Kollege J.P. Gownder, Hauptanalyst im Forrester-Team für die Zukunft der Arbeit, merkt an, dass sich sowohl Microsofts Copilot als auch Googles Gems und Agentspace noch in einem frühen Stadium befänden. Sie würden aber bereits Fortschritte zeigen. . Ein wichtiger Schritt sei Microsofts Übernahme von Googles A2A-Protokoll gewesen, so der Experte. Dies habe Zusammenarbeit zwischen beiden Plattformen erleichtert und die Nutzung bislang ungenutzter Daten verbessert. MS führt noch, aber Google holt auf Gownder weist darauf hin, dass die meisten Microsoft-Shops nicht zu Google wechseln wollen, weil sie auf jahrzehntealten digitalen Beständen wie Excel-Makros sitzen, die sich nicht leicht zu Google migrieren lassen. Dennoch lasse sich aktuell noch kein klarer Marktführer zwischen Microsoft und Google ausmachen, da beide neue KI-Ökosysteme entwickeln, um das Wachstum der agentenbasierten KI zu unterstützen, so der Analyst. Während Microsoft mit M365 stark vertreten ist, gewinnt Google durch KI an Boden bei größeren, weniger Microsoft-geprägten Unternehmen, erklärt Jack Gold, Principal Analyst bei J.Gold Associates. Technologien wie A2A würden zudem die Zusammenarbeit fördern und damit Googles Position stärken. Zudem punkte Google bei kostenbewussten Unternehmen mit einer transparenteren Preisstruktur als Microsoft, so der Experte. Auch unterschiedliche Business-Pläne Microsoft bezieht Copilot nicht in seine M365-Abonnements ein, die je nach Kundentyp unterschiedlich teuer sind. Die Copilot-Abonnements für Unternehmen reichen von rund 30 Euro pro Nutzer und Monat für M365 Copilot bis zu rund 190 Euro pro Monat für 25.000 Nachrichten für Copilot Studio. Google bietet pauschale Abonnementpreise für Workspace an, die bei rund 14 Euro pro Nutzer und Monat für Business-Pläne mit Gemini beginnen. 

Microsoft vs. Google: Kampf der KI-Konzepte​ Microsoft und Google verfolgen unterschiedliche Strategien bei KI-Agenten für die Arbeitswelt. 
kovop – shutterstock.com

KI-Agenten werden immer ausgefeilter, doch darüber, wie sie richtig eingesetzt werden, lässt sich streiten. Mit Microsoft und Google zeigen zwei Schwergewichte der Tech-Branche, dass sich dabei ganz unterschiedliche Ansätze verfolgen lassen.

Beide Unternehmen kündigten unlängst eine Anzahl neuer Agenten an, unter anderem mit dem Ziel, einen Mehrwert aus Unternehmensdokumenten zu ziehen. Die Tech-Giganten deuteten dabei an, welche Richtung ihre KI-Agenten in Microsoft 365 und Google Workspace einschlagen sollen.

Hunderte spezialisierte KI-Funktionen bei Microsoft

Microsofts Ansatz ist es demnach, seinen KI-Assistenten Copilot in eine Reihe von Tools umzugestalten. Hiermit sollen sich dann Erkenntnisse auf individueller und organisatorischer Ebene erstellen, erschließen und umsetzen lassen.

Die Roadmap von Microsoft 365 listet Hunderte von spezialisierten KI-Tools auf, die derzeit entwickelt werden. Ihr Ziel soll es sein, die Arbeit im Personalwesen und in der Buchhaltung zu automatisieren. Das Unternehmen entwickelt zusätzlich kleinere KI-Modelle um bestimmte Spezialfunktionen auszuführen.

Ein großer, vielseitiger Agent bei Google

Google wiederum geht den umgekehrten Weg, indem es sein Large Language Model (LLM) Gemini in den Mittelpunkt der Workspace-Plattform stellt . Das Unternehmen bietet Tools wie Gems für Mitarbeitende, um einfache benutzerdefinierte Agenten zu erstellen. Sie sollen damit in der Lage sein, Aufgaben wie den Kundendienst zu automatisieren. Um komplexere benutzerdefinierte Agenten für die Zusammenarbeit und das Workflow-Management zu erstellen, gibt es Agentspace in der Google-Cloud.

Zusätzlich hat Google auf der Entwicklerkonferenz Google I/O angekündigt, eine Echtzeit-Sprachübersetzung zu Google Meet hinzuzufügen.

Verschiedene Unternehmensphilosophien

Experten sehen in den unterschiedlichen Ausrichtungen der KI-Agenten ein Spiegelbild dessen, wie die beiden Unternehmen Produktivität interpretieren:

Microsoft bleibt stärker bei traditionellen Desktop-Anwendungen, während Google von Anfang an Cloud-basiert war. Gleichzeitig sind Microsoft–Nutzer typischerweise an klassische Unternehmensstrukturen gebunden, während Google sich eher an kleinere, kollaborativ arbeitende Firmen orientiert, so Liz Miller, Vizepräsidentin und Hauptanalystin bei Constellation Research.

KI-Systeme noch am Anfang

In Hinblick auf die integrierten GenAI-Modelle sind Googles Gemini-Modelle laut Miller, Hauptanalystin bei Constellation Research, aktuell leistungsfähiger als die von Microsoft. Das könnte sich allerdings ändern, wenn Microsoft sein Modellangebot in Microsoft 365 erweitert, so die Expertin.

Microsoft hat laut Miller derzeit aber den Vorteil, dass es ein tiefes Verständnis für Arbeitsprozesse besitzt und KI nahtlos in verschiedene Anwendungen wie Office und Dynamics integrieren kann.

Ihr Kollege J.P. Gownder, Hauptanalyst im Forrester-Team für die Zukunft der Arbeit, merkt an, dass sich sowohl Microsofts Copilot als auch Googles Gems und Agentspace noch in einem frühen Stadium befänden. Sie würden aber bereits Fortschritte zeigen. .

Ein wichtiger Schritt sei Microsofts Übernahme von Googles A2A-Protokoll gewesen, so der Experte. Dies habe Zusammenarbeit zwischen beiden Plattformen erleichtert und die Nutzung bislang ungenutzter Daten verbessert.

MS führt noch, aber Google holt auf

Gownder weist darauf hin, dass die meisten Microsoft-Shops nicht zu Google wechseln wollen, weil sie auf jahrzehntealten digitalen Beständen wie Excel-Makros sitzen, die sich nicht leicht zu Google migrieren lassen. Dennoch lasse sich aktuell noch kein klarer Marktführer zwischen Microsoft und Google ausmachen, da beide neue KI-Ökosysteme entwickeln, um das Wachstum der agentenbasierten KI zu unterstützen, so der Analyst.

Während Microsoft mit M365 stark vertreten ist, gewinnt Google durch KI an Boden bei größeren, weniger Microsoft-geprägten Unternehmen, erklärt Jack Gold, Principal Analyst bei J.Gold Associates. Technologien wie A2A würden zudem die Zusammenarbeit fördern und damit Googles Position stärken. Zudem punkte Google bei kostenbewussten Unternehmen mit einer transparenteren Preisstruktur als Microsoft, so der Experte.

Auch unterschiedliche Business-Pläne

Microsoft bezieht Copilot nicht in seine M365-Abonnements ein, die je nach Kundentyp unterschiedlich teuer sind. Die Copilot-Abonnements für Unternehmen reichen von rund 30 Euro pro Nutzer und Monat für M365 Copilot bis zu rund 190 Euro pro Monat für 25.000 Nachrichten für Copilot Studio.

Google bietet pauschale Abonnementpreise für Workspace an, die bei rund 14 Euro pro Nutzer und Monat für Business-Pläne mit Gemini beginnen.

Microsoft vs. Google: Kampf der KI-Konzepte​ Weiterlesen »

Was ist Data Analytics?​

Allgemein

Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen. Foto: Oleksii Lishchyshyn – shutterstock.com Geht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei. Data Analytics – Definition Bei Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen. Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere. Data Analytics – Methoden Es gibt vier unterschiedliche Data-Analytics-Methoden: “Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen. Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte. “Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet. Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen. Data Analytics – Techniken Um Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten: Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken. Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung. Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt. Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren. Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen. Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz. Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln. Data Analytics – Begriffsabgrenzung Data Analytics vs. Data Analysis Die beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen. Data Analytics vs. Data Science Data Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen. Data Analytics vs. Business Analytics Auch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”. Data Analytics – Beispiele Unternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele. Zalando: ING: Adidas: Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Data Analytics?​ Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen.
Foto: Oleksii Lishchyshyn – shutterstock.com

Geht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei.

Data Analytics – Definition

Bei Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen.

Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere.

Data Analytics – Methoden

Es gibt vier unterschiedliche Data-Analytics-Methoden:

“Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen.

Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte.

“Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet.

Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen.

Data Analytics – Techniken

Um Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten:

Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken.

Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung.

Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt.

Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren.

Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen.

Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz.

Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln.

Data Analytics – Begriffsabgrenzung

Data Analytics vs. Data Analysis

Die beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen.

Data Analytics vs. Data Science

Data Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen.

Data Analytics vs. Business Analytics

Auch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”.

Data Analytics – Beispiele

Unternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele.

Zalando:

ING:

Adidas:

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Data Analytics?​ Weiterlesen »

Anaconda Python erklärt​

Allgemein

Anaconda stattet Python mit jeder Menge Data-Science-“Fleisch” aus. Foto: Vadim Petrakov | shutterstock.com Python ist zweifelsohne ein essenzieller Bestandteil der modernen Datenwissenschaft. Die Programmiersprache gibt Data Scientists und Softwareentwicklern eine ganze Reihe praktischer und performanter Tools an die Hand. Die Tools erfordern in vielen Fällen aber auch ein gewisses Maß an Assembler-Knowhow. Zudem ist die Art und Weise, wie Python verpackt und bereitgestellt wird, nicht spezifisch auf Datenwissenschaftler zugeschnitten. Um diese Lücke zu füllen und Assembler dennoch außenvorzulassen, existieren verschiedene Projekte. Zum Beispiel Anaconda. Was ist Anaconda Python? Anaconda ist eine Python-Distribution – also quasi eine Neupaketierung von Python – die sich speziell an Entwickler richtet, die die Programmiersprache für Data-Science-Zwecke verwenden möchten. Dazu bietet Anaconda eine ganze Reihe datenwissenschaftlich ausgerichteter Tools und Features, die speziell die Datenverarbeitung mit Python vereinfachen. Anaconda-Editionen im Überblick Anaconda besteht aus zwei Hauptkomponenten – der Anaconda-Distribution und den dazugehörigen Services. Die Anaconda-Distribution lässt sich auch ohne die Dienste downloaden und nutzen – und steht in zwei unterschiedlichen Editionen zur Verfügung, nämlich: der regulären Version und einer abgespeckten Variante namens Miniconda. Letztere ist eine gute Wahl für Einsteiger, denn sie ist auf die grundlegenden Funktionen beschränkt. Auf die Einzelheiten zu Miniconda kommen wir im Verlauf des Artikels noch einmal zu sprechen. Die Anaconda-Distribution ist in beiden Fällen kostenlos nutzbar. Die Anaconda Services stehen mit unterschiedlichen Preisplänen für Einzelnutzer sowie Unternehmen (ab 75 Dollar pro Monat) zur Verfügung. Für erstgenannte ist auch eine kostenlose Version verfügbar. Zu den verfügbaren Enterprise-Features zählen beispielsweise: Repository-Kontrollmaßnahmen, Versionskontrolle, Job Scheduling und SLAs für die Uptime. Anaconda-Python-Komponenten Die Referenzversion von Python – Cpython – enthält einige hilfreiche Komponenten, etwa die Standardbibliothek und eine IDE. Data-Science-Tools gibt es dabei aber lediglich als Add-on. Nicht so bei Anaconda – hier ist eine hochwertige Auswahl entsprechender Tools standardmäßig mit an Bord. Anaconda enthält: Python Interpreter, Anaconda Navigator und Conda Package Manager. Python Interpreter Hierbei handelt es sich nicht um den Standard-CPython-Build der Python Software Foundation, sondern um eine eigenständige Variante von Anaconda Inc., die speziell für die Python-Distribution erstellt wurde. Er soll im Vergleich (auf einigen Plattformen) sicherere Compiler Flags und bessere Performance-Optimierungen aufweisen. Anaconda Navigator Die auffälligste Neuerung, um die Anaconda die Arbeit mit Python ergänzt, ist eine grafische Benutzeroberfläche (GUI) – der Anaconda Navigator. Der ist keine IDE und versucht auch nicht, eine zu sein: Die meisten Python-fähigen IDEs sind in der Lage, die Anaconda Python Runtime zu registrieren und zu verwenden. Der Anaconda Navigator stellt vielmehr ein Organisationssystem für die größeren Parts der Distribution dar. Mit dem Navigator können Sie: High-Level-Anwendungen wie RStudio oder Jupyterlab hinzufügen und nutzen; virtuelle Umgebungen und Packages managen; “Projects” einrichten (dazu später mehr), um die Arbeit in Anaconda zu verwalten; auf diverse administrative Funktionen zugreifen. Obwohl der Navigator den Komfort einer grafischen Benutzeroberfläche bietet, ersetzt er nicht die Befehlszeilenfunktionalitäten in Anaconda oder Python im Allgemeinen. Sie können Packages beispielsweise über die grafische Benutzeroberfläche verwalten, das aber auch über die Kommandozeile erledigen. Ein Blick auf die (konfigurierbare) grafische Benutzeroberfläche von Anaconda. Foto: IDG CPython hingegen weist keine formale GUI auf. Die Distribution wird zwar mit IDLE geliefert – einer Mini-IDE, die sich für schnelle, einmalige Aufgaben eignet. Geht es darum, Python selbst zu managen, sind Sie allerdings auf Drittanbieter angewiesen. Deswegen bieten einige IDEs GUI-Schnittstellen für CPython-Komponenten. Microsoft Visual Studio hat zum Beispiel eine grafische Benutzeroberfläche für das Pip-Paketverwaltungssystem von Python an Bord, die der GUI ähnelt, die Anaconda für seinen eigenen Paketmanager bereitstellt. Conda Package Manager Um Drittanbieter-Bibliotheken zu managen und zu installieren, wird Python mit dem pip Package Manager ausgeliefert. Dieser ist allerdings – trotz jahrelanger Weiterentwicklungen – eher limitiert, denn er verwaltet nur Packages für Python selbst. Weist eine Bibliothek eine Abhängigkeit zu einem externen Package auf, muss dieses manuell vom Entwickler separat installiert und gemanagt werden. Weil damit auch die Entwickler von Anaconda zu kämpfen hatten, beschlossen sie, ihre eigene Lösung zu entwickeln: Conda. Dieser Package Manager verwaltet nicht nur Packages, sondern auch Abhängigkeiten außerhalb des Python-Ökosystems. Python Data Science Tools sind wegen unzähliger Abhängigkeiten oft schwer zu installieren und managen. Conda will hier Abhilfe schaffen. Foto: IDG Haben Sie es zum Beispiel mit mehreren Packages zu tun, die auf einen Compiler wie GCC oder LLVM angewiesen sind, stellt das für Conda kein Problem dar: Die Lösung ist in der Lage, eine einzige Instanz einer bestimmten GCC-Version für alle Conda-Pakete, die es benötigen, zu installieren. Mit pip müssten Sie hingegen eine Kopie von GCC mit jedem Paket, das es verwendet, bündeln. Im Klartext: eine ineffiziente und umständliche Lösung. Conda und pip verwenden davon abgesehen auch nicht das gleiche Paketformat, weswegen Pakete, die für pip erstellt wurden, für Conda neu erstellt werden müssen. Die gute Nachricht: Nahezu jede für das Python-Ökosystem wichtige Bibliothek ist über Conda verfügbar. Anacondas Data-Science-Optimierungen Die Verbesserungen, die Anaconda einführt, kommen ganz allgemein jedem Python-Nutzer zugute. Die wichtigsten Benefits hält die Distribution aber für Data-Science-Anwender bereit – die des Öfteren mit ihren Python-Umgebungen in Konflikt geraten. Conda Environments Python Packages kommen – selbst wenn sie mit Conda verwaltet werden – nicht immer gut miteinander “klar”. Bestimmte Projekte benötigen manchmal unterschiedliche Package-Versionen. Um das Problem zu lösen, wurde zwar das Python-Feature für virtuelle Umgebungen – auch bekannt als venv – entwickelt, aber Conda geht noch einen Schritt weiter. Conda Environments sind funktional ähnlich aufgebaut wie virtuelle Umgebungen im venv-Stil. Wenn Sie bestimmte Versionen von Bibliotheken oder auch des Python-Interpreters verwenden wollen, können Sie die in einer Conda-Umgebung unterbringen – und isoliert nutzen. venv-Umgebungen können zwar verschoben werden, enthalten aber nicht unbedingt detaillierte Informationen darüber, wie sie erstellt wurden. Wenn Sie für Ihre Arbeit eine reproduzierbare Umgebung benötigen, kann das ein Problem darstellen. Conda Environments sind hingegen auf Reproduzierbarkeit konzipiert. Wollen Sie Kollegen ermöglichen, Ihre Conda-Umgebung zu benutzen, stellen Sie ihnen eine Kopie des entsprechenden Definitions-Files zur Verfügung. Diese beschreibt, wie man die Umgebung auf einem anderen System neu erstellt. Das funktioniert nicht uneingeschränkt plattformübergreifend: Alle Unterschiede hinsichtlich der Funktionsweise von Paketen auf verschiedenen Plattformen (etwa macOS versus Linux) müssen manuell ausgebügelt werden. Drei Conda-Ugebungen mit jeweils eigenem Package- und Runtime-Set. Jedes Conda Environment muss separat aktualisiert werden. Foto: IDG Anaconda Project Ein Environment exakt zu reproduzieren, ist allgemein ein gängiges Problem – sowohl für Datenwissenschaftler als auch für Softwareentwickler. Selbst Conda-Umgebungen bieten nur eine Teillösung für dieses Problem, weil venv-Umgebungen Dinge wie Umgebungsvariablen nicht reproduzieren können. An dieser Stelle kommt Anaconda Project ins Spiel: Das Tool verwandelt ganze Ordner mit Web-Apps, Skripten, Jupyter Notebooks und Files in eine reproduzierbare Ressource um. Sobald dieses Verzeichnis über Anaconda Project gemanagt wird, läuft es überall konsistent – insofern eine Kopie von Anaconda vorhanden ist. Die größte Einschränkung: Anaconda Project befindet sich derzeit in der Betaphase und läuft noch nicht stabil. Solange das nicht der Fall ist, sollte es nicht für die gemeinsame Arbeit in Umgebungen verwendet werden. Bis es soweit ist, können Conda Environments zumindest eine verlässliche Teilmenge der gleichen Funktionalität bieten. Apps in Anaconda Python Anaconda Python macht Datenwissenschaftlern auch das Leben leichter, indem es verschiedene gängige Projekte für die interaktive Arbeit mit Daten bündelt. Zwei der gängigsten sind Jupyter Notebook und JupyterLab, die Live-Umgebungen bereitstellen, um Python Code zu schreiben, Daten zu importieren und Ergebnisse zu visualisieren. Anaconda richtet die entsprechenden Instanzen für Sie ein und managt diese – die Arbeit wird so auf einen Mausklick reduziert. Anaconda bündelt diverse hilfreiche Applikationen und übernimmt auch die Verwaltungsaufgaben. Foto: IDG Weitere, enthaltene Anwendungen sind: Qtconsole – eine grafische Benutzeroberfläche für Jupyter, die die Qt Interface Library verwendet. Sie ist nützlich, wenn Sie mit Jupyter Notebooks lieber über eine plattformeigene Oberfläche als über einen Webbrowser arbeiten wollen. Spyder – eine in Python geschriebene Mini-IDE, die sich hauptsächlich an Entwickler richtet, die mit IPython/Jupyter Notebooks arbeiten. Es kann auch als Bibliothek für Python-Anwendungen verwendet werden, die eine IDE-ähnliche Schnittstelle benötigen. RStudio – ein Toolset, um mit der Programmiersprache R zu arbeiten, die in diversen Bereichen für Datenanalysezwecke verwendet wird. RStudio bietet Möglichkeiten, sowohl mit Python als auch mit R zu arbeiten. Visual Studio Code – Microsofts Editor ist dank seiner enormen Auswahl an Erweiterungen extrem wandelbar. Für die Arbeit mit Python stellt es eine der besten Entwicklungsumgebungen dar. Da kommt es gelegen, dass Anaconda-Nutzer direkt in Visual Studio Code einsteigen können, ohne es separat installieren zu müssen. Wann Miniconda die bessere Option ist Wenn Sie sich lieber schrittweise mit Anaconda Python vertraut machen wollen, empfiehlt sich der Einstieg mit der abgespeckten Version Miniconda. Die installiert nur das absolute Minimum, um mit Anaconda loszulegen: Interpreter, Package Manager und ein paar andere grundlegende Dinge. Sie können zwar weitere Komponenten hinzufügen oder mit Conda über die Kommandozeile Umgebungen erstellen. Allerdings sollten Sie drei wesentliche Dinge im Hinterkopf behalten, wenn Sie mit Miniconda arbeiten wollen: Die Anaconda Navigator GUI ist nicht standardmäßig installiert. Wenn Sie diese benötigen, können Sie diese mit dem Befehl conda install anaconda-navigator hinzufügen. Miniconda wird standardmäßig in ein Verzeichnis namens Miniconda3 und nicht Anaconda installiert. Ein Umstand der potenziell Verwirrung stiften kann. Das Installationsverzeichnis kann jedoch nach Bedarf angepasst werden. Conda kann nur verwendet werden, um Pakete aus Condas eigenem Repository in Miniconda zu installieren. Sie können pip verwenden, um PyPI-Bibliotheken in Miniconda zu installieren. Diese können jedoch nicht mit Conda gemanagt werden, sondern nur mit pip. Zudem sind weitere Schritte nötig, damit pip und Conda koexistieren können. Wenn Sie wollen, dass Conda alles managt, besteht die Möglichkeit, PyPI- in Conda-Packages “umzupacken”. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Anaconda Python erklärt​ Anaconda stattet Python mit jeder Menge Data-Science-“Fleisch” aus.
Foto: Vadim Petrakov | shutterstock.com

Python ist zweifelsohne ein essenzieller Bestandteil der modernen Datenwissenschaft. Die Programmiersprache gibt Data Scientists und Softwareentwicklern eine ganze Reihe praktischer und performanter Tools an die Hand.

Die Tools erfordern in vielen Fällen aber auch ein gewisses Maß an Assembler-Knowhow. Zudem ist die Art und Weise, wie Python verpackt und bereitgestellt wird, nicht spezifisch auf Datenwissenschaftler zugeschnitten. Um diese Lücke zu füllen und Assembler dennoch außenvorzulassen, existieren verschiedene Projekte. Zum Beispiel Anaconda.

Was ist Anaconda Python?

Anaconda ist eine Python-Distribution – also quasi eine Neupaketierung von Python – die sich speziell an Entwickler richtet, die die Programmiersprache für Data-Science-Zwecke verwenden möchten. Dazu bietet Anaconda eine ganze Reihe datenwissenschaftlich ausgerichteter Tools und Features, die speziell die Datenverarbeitung mit Python vereinfachen.

Anaconda-Editionen im Überblick

Anaconda besteht aus zwei Hauptkomponenten – der Anaconda-Distribution und den dazugehörigen Services. Die Anaconda-Distribution lässt sich auch ohne die Dienste downloaden und nutzen – und steht in zwei unterschiedlichen Editionen zur Verfügung, nämlich:

der regulären Version und

einer abgespeckten Variante namens Miniconda.

Letztere ist eine gute Wahl für Einsteiger, denn sie ist auf die grundlegenden Funktionen beschränkt. Auf die Einzelheiten zu Miniconda kommen wir im Verlauf des Artikels noch einmal zu sprechen. Die Anaconda-Distribution ist in beiden Fällen kostenlos nutzbar.

Die Anaconda Services stehen mit unterschiedlichen Preisplänen für Einzelnutzer sowie Unternehmen (ab 75 Dollar pro Monat) zur Verfügung. Für erstgenannte ist auch eine kostenlose Version verfügbar. Zu den verfügbaren Enterprise-Features zählen beispielsweise:

Repository-Kontrollmaßnahmen,

Versionskontrolle,

Job Scheduling und

SLAs für die Uptime.

Anaconda-Python-Komponenten

Die Referenzversion von Python – Cpython – enthält einige hilfreiche Komponenten, etwa die Standardbibliothek und eine IDE. Data-Science-Tools gibt es dabei aber lediglich als Add-on. Nicht so bei Anaconda – hier ist eine hochwertige Auswahl entsprechender Tools standardmäßig mit an Bord. Anaconda enthält:

Python Interpreter,

Anaconda Navigator und

Conda Package Manager.

Python Interpreter

Hierbei handelt es sich nicht um den Standard-CPython-Build der Python Software Foundation, sondern um eine eigenständige Variante von Anaconda Inc., die speziell für die Python-Distribution erstellt wurde. Er soll im Vergleich (auf einigen Plattformen) sicherere Compiler Flags und bessere Performance-Optimierungen aufweisen.

Anaconda Navigator

Die auffälligste Neuerung, um die Anaconda die Arbeit mit Python ergänzt, ist eine grafische Benutzeroberfläche (GUI) – der Anaconda Navigator. Der ist keine IDE und versucht auch nicht, eine zu sein: Die meisten Python-fähigen IDEs sind in der Lage, die Anaconda Python Runtime zu registrieren und zu verwenden. Der Anaconda Navigator stellt vielmehr ein Organisationssystem für die größeren Parts der Distribution dar. Mit dem Navigator können Sie:

High-Level-Anwendungen wie RStudio oder Jupyterlab hinzufügen und nutzen;

virtuelle Umgebungen und Packages managen;

“Projects” einrichten (dazu später mehr), um die Arbeit in Anaconda zu verwalten;

auf diverse administrative Funktionen zugreifen.

Obwohl der Navigator den Komfort einer grafischen Benutzeroberfläche bietet, ersetzt er nicht die Befehlszeilenfunktionalitäten in Anaconda oder Python im Allgemeinen. Sie können Packages beispielsweise über die grafische Benutzeroberfläche verwalten, das aber auch über die Kommandozeile erledigen.

Ein Blick auf die (konfigurierbare) grafische Benutzeroberfläche von Anaconda.
Foto: IDG

CPython hingegen weist keine formale GUI auf. Die Distribution wird zwar mit IDLE geliefert – einer Mini-IDE, die sich für schnelle, einmalige Aufgaben eignet. Geht es darum, Python selbst zu managen, sind Sie allerdings auf Drittanbieter angewiesen. Deswegen bieten einige IDEs GUI-Schnittstellen für CPython-Komponenten. Microsoft Visual Studio hat zum Beispiel eine grafische Benutzeroberfläche für das Pip-Paketverwaltungssystem von Python an Bord, die der GUI ähnelt, die Anaconda für seinen eigenen Paketmanager bereitstellt.

Conda Package Manager

Um Drittanbieter-Bibliotheken zu managen und zu installieren, wird Python mit dem pip Package Manager ausgeliefert. Dieser ist allerdings – trotz jahrelanger Weiterentwicklungen – eher limitiert, denn er verwaltet nur Packages für Python selbst. Weist eine Bibliothek eine Abhängigkeit zu einem externen Package auf, muss dieses manuell vom Entwickler separat installiert und gemanagt werden.

Weil damit auch die Entwickler von Anaconda zu kämpfen hatten, beschlossen sie, ihre eigene Lösung zu entwickeln: Conda. Dieser Package Manager verwaltet nicht nur Packages, sondern auch Abhängigkeiten außerhalb des Python-Ökosystems.

Python Data Science Tools sind wegen unzähliger Abhängigkeiten oft schwer zu installieren und managen. Conda will hier Abhilfe schaffen.
Foto: IDG

Haben Sie es zum Beispiel mit mehreren Packages zu tun, die auf einen Compiler wie GCC oder LLVM angewiesen sind, stellt das für Conda kein Problem dar: Die Lösung ist in der Lage, eine einzige Instanz einer bestimmten GCC-Version für alle Conda-Pakete, die es benötigen, zu installieren. Mit pip müssten Sie hingegen eine Kopie von GCC mit jedem Paket, das es verwendet, bündeln. Im Klartext: eine ineffiziente und umständliche Lösung.

Conda und pip verwenden davon abgesehen auch nicht das gleiche Paketformat, weswegen Pakete, die für pip erstellt wurden, für Conda neu erstellt werden müssen. Die gute Nachricht: Nahezu jede für das Python-Ökosystem wichtige Bibliothek ist über Conda verfügbar.

Anacondas Data-Science-Optimierungen

Die Verbesserungen, die Anaconda einführt, kommen ganz allgemein jedem Python-Nutzer zugute. Die wichtigsten Benefits hält die Distribution aber für Data-Science-Anwender bereit – die des Öfteren mit ihren Python-Umgebungen in Konflikt geraten.

Conda Environments

Python Packages kommen – selbst wenn sie mit Conda verwaltet werden – nicht immer gut miteinander “klar”. Bestimmte Projekte benötigen manchmal unterschiedliche Package-Versionen. Um das Problem zu lösen, wurde zwar das Python-Feature für virtuelle Umgebungen – auch bekannt als venv – entwickelt, aber Conda geht noch einen Schritt weiter.

Conda Environments sind funktional ähnlich aufgebaut wie virtuelle Umgebungen im venv-Stil. Wenn Sie bestimmte Versionen von Bibliotheken oder auch des Python-Interpreters verwenden wollen, können Sie die in einer Conda-Umgebung unterbringen – und isoliert nutzen. venv-Umgebungen können zwar verschoben werden, enthalten aber nicht unbedingt detaillierte Informationen darüber, wie sie erstellt wurden. Wenn Sie für Ihre Arbeit eine reproduzierbare Umgebung benötigen, kann das ein Problem darstellen. Conda Environments sind hingegen auf Reproduzierbarkeit konzipiert.

Wollen Sie Kollegen ermöglichen, Ihre Conda-Umgebung zu benutzen, stellen Sie ihnen eine Kopie des entsprechenden Definitions-Files zur Verfügung. Diese beschreibt, wie man die Umgebung auf einem anderen System neu erstellt. Das funktioniert nicht uneingeschränkt plattformübergreifend: Alle Unterschiede hinsichtlich der Funktionsweise von Paketen auf verschiedenen Plattformen (etwa macOS versus Linux) müssen manuell ausgebügelt werden.

Drei Conda-Ugebungen mit jeweils eigenem Package- und Runtime-Set. Jedes Conda Environment muss separat aktualisiert werden.
Foto: IDG

Anaconda Project

Ein Environment exakt zu reproduzieren, ist allgemein ein gängiges Problem – sowohl für Datenwissenschaftler als auch für Softwareentwickler. Selbst Conda-Umgebungen bieten nur eine Teillösung für dieses Problem, weil venv-Umgebungen Dinge wie Umgebungsvariablen nicht reproduzieren können.

An dieser Stelle kommt Anaconda Project ins Spiel: Das Tool verwandelt ganze Ordner mit Web-Apps, Skripten, Jupyter Notebooks und Files in eine reproduzierbare Ressource um. Sobald dieses Verzeichnis über Anaconda Project gemanagt wird, läuft es überall konsistent – insofern eine Kopie von Anaconda vorhanden ist.

Die größte Einschränkung: Anaconda Project befindet sich derzeit in der Betaphase und läuft noch nicht stabil. Solange das nicht der Fall ist, sollte es nicht für die gemeinsame Arbeit in Umgebungen verwendet werden. Bis es soweit ist, können Conda Environments zumindest eine verlässliche Teilmenge der gleichen Funktionalität bieten.

Apps in Anaconda Python

Anaconda Python macht Datenwissenschaftlern auch das Leben leichter, indem es verschiedene gängige Projekte für die interaktive Arbeit mit Daten bündelt. Zwei der gängigsten sind Jupyter Notebook und JupyterLab, die Live-Umgebungen bereitstellen, um Python Code zu schreiben, Daten zu importieren und Ergebnisse zu visualisieren. Anaconda richtet die entsprechenden Instanzen für Sie ein und managt diese – die Arbeit wird so auf einen Mausklick reduziert.

Anaconda bündelt diverse hilfreiche Applikationen und übernimmt auch die Verwaltungsaufgaben.
Foto: IDG

Weitere, enthaltene Anwendungen sind:

Qtconsole – eine grafische Benutzeroberfläche für Jupyter, die die Qt Interface Library verwendet. Sie ist nützlich, wenn Sie mit Jupyter Notebooks lieber über eine plattformeigene Oberfläche als über einen Webbrowser arbeiten wollen.

Spyder – eine in Python geschriebene Mini-IDE, die sich hauptsächlich an Entwickler richtet, die mit IPython/Jupyter Notebooks arbeiten. Es kann auch als Bibliothek für Python-Anwendungen verwendet werden, die eine IDE-ähnliche Schnittstelle benötigen.

RStudio – ein Toolset, um mit der Programmiersprache R zu arbeiten, die in diversen Bereichen für Datenanalysezwecke verwendet wird. RStudio bietet Möglichkeiten, sowohl mit Python als auch mit R zu arbeiten.

Visual Studio Code – Microsofts Editor ist dank seiner enormen Auswahl an Erweiterungen extrem wandelbar. Für die Arbeit mit Python stellt es eine der besten Entwicklungsumgebungen dar. Da kommt es gelegen, dass Anaconda-Nutzer direkt in Visual Studio Code einsteigen können, ohne es separat installieren zu müssen.

Wann Miniconda die bessere Option ist

Wenn Sie sich lieber schrittweise mit Anaconda Python vertraut machen wollen, empfiehlt sich der Einstieg mit der abgespeckten Version Miniconda. Die installiert nur das absolute Minimum, um mit Anaconda loszulegen: Interpreter, Package Manager und ein paar andere grundlegende Dinge. Sie können zwar weitere Komponenten hinzufügen oder mit Conda über die Kommandozeile Umgebungen erstellen.

Allerdings sollten Sie drei wesentliche Dinge im Hinterkopf behalten, wenn Sie mit Miniconda arbeiten wollen:

Die Anaconda Navigator GUI ist nicht standardmäßig installiert. Wenn Sie diese benötigen, können Sie diese mit dem Befehl conda install anaconda-navigator hinzufügen.

Miniconda wird standardmäßig in ein Verzeichnis namens Miniconda3 und nicht Anaconda installiert. Ein Umstand der potenziell Verwirrung stiften kann. Das Installationsverzeichnis kann jedoch nach Bedarf angepasst werden.

Conda kann nur verwendet werden, um Pakete aus Condas eigenem Repository in Miniconda zu installieren. Sie können pip verwenden, um PyPI-Bibliotheken in Miniconda zu installieren. Diese können jedoch nicht mit Conda gemanagt werden, sondern nur mit pip. Zudem sind weitere Schritte nötig, damit pip und Conda koexistieren können. Wenn Sie wollen, dass Conda alles managt, besteht die Möglichkeit, PyPI- in Conda-Packages “umzupacken”.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Anaconda Python erklärt​ Weiterlesen »

Der Siegeszug von GenAI Business Apps geht weiter​

Allgemein

GenAI soll laut Gartner unter anderem durch RAG-Technologie präziser und geschäftsrelevanter werden. Andrii Yalanskyi – shuttertsock.com Die Analysten von Gartner prognostizieren, dass bis zum Jahr 2028 Unternehmen vier von fünf ihrer Generative KI (GenAI)-Geschäftsanwendungen auf ihren bereits bestehenden Datenmanagement-Plattformen entwickeln werden. Laut den Experten sollen Betriebe über diesen Ansatz GenAI-Applikationen um 50 Prozent schneller und weniger komplex bereitstellen können. Prasad Pore, Senior Director Analyst bei Gartner, weist darauf hin, dass der Aufbau von GenAI-Geschäftsanwendungen es erfordere, Large Language Modelle (LLM) mit Unternehmensdaten zu integrieren. Zusätzlich müssten neue Technologien wie Vektorsuche und Prompt Design eingesetzt werden. Ohne einheitliches Management könne dies aber zu Verzögerungen und hohen Kosten führen, so der Experte. Daher müssten Datenmanagementplattformen weiterentwickelt werden, um GenAI-Funktionen effektiv zu unterstützen und eine erfolgreiche Umsetzung zu gewährleisten. Bessere GenAI mit RAG Retrieval-Augmented Generation (RAG) ist ein zentrales Konzept für GenAI-Anwendungen, da es LLMs durch kontextbezogene Daten aus verschiedenen Quellen ergänzt, so der Analysten. Dadurch würden die Modelle genauer und erklärbarer, insbesondere bei geschäftsspezifischen Aufgaben. Unternehmenseigene Daten in Kombination mit RAG einzusetzen, verbessere zudem die Leistung. Metadaten und Semantik sind dabei laut Pore entscheidend. Datenkataloge helfen, diese Informationen zu strukturieren und die Nachvollziehbarkeit sicherzustellen, so der Experte. RAG als neue Wissensquelle Um sich beim Einsatz von GenAI-Anwendungen nicht zu verzetteln, empfiehlt der Analyst Unternehmen Folgendes: : Eigene Datenmanagementplattformen weiterentwickeln und prüfen, ob sie in eine RAG-as-a-Service-Plattform umgewandelt werden können, um separate Dokumenten-/Datenspeicher als Wissensquelle für GenAI-Anwendungen abzulösen. RAG-Technologien wie Vektorsuche, Graphen und Chunking priorisieren, da sie sich gut in bestehende Datenmanagementlösungen integrieren lassen, mit Unternehmensdaten kompatibel sind und eine höhere Toleranz gegenüber technologischen Veränderungen bieten. Sowohl technische als auch betriebliche Metadaten nutzen, um GenAI-Anwendungen vor Missbrauch, Datenschutzrisiken und dem Verlust geistigen Eigentums zu schützen. 

Der Siegeszug von GenAI Business Apps geht weiter​ GenAI soll laut Gartner unter anderem durch RAG-Technologie präziser und geschäftsrelevanter werden.
Andrii Yalanskyi – shuttertsock.com

Die Analysten von Gartner prognostizieren, dass bis zum Jahr 2028 Unternehmen vier von fünf ihrer Generative KI (GenAI)-Geschäftsanwendungen auf ihren bereits bestehenden Datenmanagement-Plattformen entwickeln werden. Laut den Experten sollen Betriebe über diesen Ansatz GenAI-Applikationen um 50 Prozent schneller und weniger komplex bereitstellen können.

Prasad Pore, Senior Director Analyst bei Gartner, weist darauf hin, dass der Aufbau von GenAI-Geschäftsanwendungen es erfordere, Large Language Modelle (LLM) mit Unternehmensdaten zu integrieren. Zusätzlich müssten neue Technologien wie Vektorsuche und Prompt Design eingesetzt werden.

Ohne einheitliches Management könne dies aber zu Verzögerungen und hohen Kosten führen, so der Experte. Daher müssten Datenmanagementplattformen weiterentwickelt werden, um GenAI-Funktionen effektiv zu unterstützen und eine erfolgreiche Umsetzung zu gewährleisten.

Bessere GenAI mit RAG

Retrieval-Augmented Generation (RAG) ist ein zentrales Konzept für GenAI-Anwendungen, da es LLMs durch kontextbezogene Daten aus verschiedenen Quellen ergänzt, so der Analysten. Dadurch würden die Modelle genauer und erklärbarer, insbesondere bei geschäftsspezifischen Aufgaben.

Unternehmenseigene Daten in Kombination mit RAG einzusetzen, verbessere zudem die Leistung. Metadaten und Semantik sind dabei laut Pore entscheidend. Datenkataloge helfen, diese Informationen zu strukturieren und die Nachvollziehbarkeit sicherzustellen, so der Experte.

RAG als neue Wissensquelle

Um sich beim Einsatz von GenAI-Anwendungen nicht zu verzetteln, empfiehlt der Analyst Unternehmen Folgendes: :

Eigene Datenmanagementplattformen weiterentwickeln und prüfen, ob sie in eine RAG-as-a-Service-Plattform umgewandelt werden können, um separate Dokumenten-/Datenspeicher als Wissensquelle für GenAI-Anwendungen abzulösen.

RAG-Technologien wie Vektorsuche, Graphen und Chunking priorisieren, da sie sich gut in bestehende Datenmanagementlösungen integrieren lassen, mit Unternehmensdaten kompatibel sind und eine höhere Toleranz gegenüber technologischen Veränderungen bieten.

Sowohl technische als auch betriebliche Metadaten nutzen, um GenAI-Anwendungen vor Missbrauch, Datenschutzrisiken und dem Verlust geistigen Eigentums zu schützen.

Der Siegeszug von GenAI Business Apps geht weiter​ Weiterlesen »

Kommt die Digitalsteuer für Google, Meta und Co.?​

Allgemein

width=”2494″ height=”1402″ sizes=”(max-width: 2494px) 100vw, 2494px”>Kommt die Digitalsteuer, braucht es erst einmal Transparenz darüber, wie viel Geld die Internet-Giganten mit Werbung in Deutschland verdienen.Doucefleur – shutterstock.com Die großen Internet-Plattformen sollen eine Digitalsteuer in Deutschland entrichten. Das ist der Plan von Wolfram Weimer, Ex-Verleger und seit kurzem Staatsminister für Kultur und Medien im Bundeskanzleramt. Demzufolge sollen Google, Meta und Co. eine Abgabe auf ihre hierzulande erzielten Einnahmen mit Online-Werbung leisten.  Big Tech stöhnt unter Trump-Zöllen „Wir halten einen Abgabesatz von zehn Prozent für moderat und legitim“, sagte Weimer dem „Stern“ und verwies die aus seiner Sicht überzeugenden Erfahrungen bei den Nachbarn in Österreich. Die Abgabe habe dazu geführt, „dass die Konzerne endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, also ihre gewaltige Marge etwas sinkt“. Schließlich profitierten die Web-Konzerne nach Ansicht des Staatsministers „enorm von der medialen und kulturellen Leistung sowie der Infrastruktur unseres Landes – sie zahlen aber kaum Steuern, investieren zu wenig und geben der Gesellschaft viel zu wenig zurück”. Weimer sprach von unsolidarischem Verhalten und Steuervermeidung, was es zu ändern gelte. Die Internet-Konzerne sollen endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, fordert Staatsminister Wolfram Weimer.Jesco Denzel / Bundesregierung Auf Verlegerseite begrüßte man die Pläne der neuen Bundesregierung, die Plattformmonopole im Interesse digitaler Medienvielfalt in die Pflicht nehmen zu wollen. Matthias Ditzen-Blanke und Philipp Welte, die Sprecher des Bündnisses Zukunft Presse von Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) und des Medienverbands der freien Presse (MVFP), mahnten gegenüber dem Branchendienst MEEDIA jedoch an, dass die entsprechenden Einnahmen nicht im Bundeshaushalt verschwinden dürfe. „Eine Steuer auf Onlinewerbeleistungen muss unmittelbar für die Gegenfinanzierung der Unterstützung redaktioneller Medien verwendet werden, deren Wirtschaftlichkeit durch eben jene internationalen Technologieplattformen massiv angegriffen ist.“  “Die Digitalwirtschaft unterstützt man so nicht” Aus den Reihen der IT-Branche stieß Weimers Vorstoß indes auf massive Kritik. „Eine solche Steuer stellt Unternehmen vor erhebliche Anforderungen in Bezug auf Dokumentation und Nutzerverfolgung zur korrekten Erfassung des Werbeaufkommens in Deutschland“, monierte Oliver Süme, Vorstandsvorsitzender des eco. Zudem könnten solche Regelungen auch auf deutsche Unternehmen und Angebote Anwendung finden, warnte Süme. „Eine aufstrebende Digitalwirtschaft unterstützt man so nicht.“  Der eco-Mann befürchtet zudem, dass die ohnehin schon angespannten transatlantischen Verhältnisse weiter beschädigt werden könnten. „Weimer provoziert hier die US-Regierung ohne Not zu einer Reaktion. Es bleibt zu hoffen, dass Deutschland und die USA nicht noch weiter politisch auseinanderdriften”, so Süme. Der Vorstoß von Weimer werfe auch die Frage auf, wie die Digitalpolitik in Deutschland zukünftig gestaltet werde. „Wir haben jetzt seit wenigen Wochen ein Digitalministerium, das hier augenscheinlich gar nicht weiter berücksichtigt wird. Digitalpolitik aus einem Guss sieht anders aus“, sagte der eco-Vorstandsvorsitzende und plädierte dafür, die Fragen einer internationalen Digitalsteuer auf internationaler Ebene im Rahmen der OECD zu klären.  Oliver Süme vom eco-Verband befürchtet, dass Deutschland und die USA politisch noch weiter auseinanderdriften könnten. eco Auch Bitkom-Präsident Ralf Wintergerst kritisierte die geplante Digitalsteuer scharf. „Ganz gleich ob neue Steuern, Abgaben, Gebühren oder Zölle auf Digitales: Jeder Aufschlag wird unmittelbar oder mittelbar zu einer Preiserhöhung führen und dies werden Unternehmen, Verwaltungen, Verbraucherinnen und Verbraucher in Deutschland spüren.“ Behauptungen, man werde davon nichts merken, seien unbelegt und widersprächen der wirtschaftlichen Logik. „Preisaufschläge werden die dringend notwendige Beschleunigung der Digitalisierung der Verwaltungen und die digitale Transformation der Unternehmen belasten und verlangsamen.“  “Nicht mehr, sondern weniger finanzielle Belastungen auf digitale Güter” Wintergerst verwies darauf, dass in den USA fast zehnmal so viel in Digitalisierung investiert werde wie in Deutschland und sich diese Schere von Jahr zu Jahr weiter öffne. „Wir brauchen nicht mehr, wir brauchen weniger finanzielle Belastungen für digitale Güter und Dienste, zum Beispiel durch eine Absenkung der Stromkosten für Rechenzentrumsbetreiber oder eine Reduzierung der Mehrwertsteuer auf Reparaturen von Endgeräten“, fordert der IT-Lobbyist.   Bitkom-Präsident Ralf Wintergerst warnt vor Preiserhöhungen in Folge einer Digitalsteuer.Giesecke + Devrient Aber auch Wintergerst schielt bereits mit einem Auge auf die Mittel aus einer Digitalsteuer. Sollte sich die Bundesregierung für die Einführung neuer finanzpolitischer Maßnahmen entscheiden, müsse sie dafür sorgen, dass jegliche Mehreinnahmen der digitalen Transformation der deutschen Wirtschaft und ihren digitalen Infrastrukturen auch wieder zugutekommen. „Tun sie dies nicht, schadet die Bundesregierung dem Digitalstandort Deutschland mehr, als sie ihm nutzt.“  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”> 

Kommt die Digitalsteuer für Google, Meta und Co.?​ width=”2494″ height=”1402″ sizes=”(max-width: 2494px) 100vw, 2494px”>Kommt die Digitalsteuer, braucht es erst einmal Transparenz darüber, wie viel Geld die Internet-Giganten mit Werbung in Deutschland verdienen.Doucefleur – shutterstock.com

Die großen Internet-Plattformen sollen eine Digitalsteuer in Deutschland entrichten. Das ist der Plan von Wolfram Weimer, Ex-Verleger und seit kurzem Staatsminister für Kultur und Medien im Bundeskanzleramt. Demzufolge sollen Google, Meta und Co. eine Abgabe auf ihre hierzulande erzielten Einnahmen mit Online-Werbung leisten. 

Big Tech stöhnt unter Trump-Zöllen

„Wir halten einen Abgabesatz von zehn Prozent für moderat und legitim“, sagte Weimer dem „Stern“ und verwies die aus seiner Sicht überzeugenden Erfahrungen bei den Nachbarn in Österreich. Die Abgabe habe dazu geführt, „dass die Konzerne endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, also ihre gewaltige Marge etwas sinkt“. Schließlich profitierten die Web-Konzerne nach Ansicht des Staatsministers „enorm von der medialen und kulturellen Leistung sowie der Infrastruktur unseres Landes – sie zahlen aber kaum Steuern, investieren zu wenig und geben der Gesellschaft viel zu wenig zurück”. Weimer sprach von unsolidarischem Verhalten und Steuervermeidung, was es zu ändern gelte.

Die Internet-Konzerne sollen endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, fordert Staatsminister Wolfram Weimer.Jesco Denzel / Bundesregierung

Auf Verlegerseite begrüßte man die Pläne der neuen Bundesregierung, die Plattformmonopole im Interesse digitaler Medienvielfalt in die Pflicht nehmen zu wollen. Matthias Ditzen-Blanke und Philipp Welte, die Sprecher des Bündnisses Zukunft Presse von Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) und des Medienverbands der freien Presse (MVFP), mahnten gegenüber dem Branchendienst MEEDIA jedoch an, dass die entsprechenden Einnahmen nicht im Bundeshaushalt verschwinden dürfe. „Eine Steuer auf Onlinewerbeleistungen muss unmittelbar für die Gegenfinanzierung der Unterstützung redaktioneller Medien verwendet werden, deren Wirtschaftlichkeit durch eben jene internationalen Technologieplattformen massiv angegriffen ist.“ 

“Die Digitalwirtschaft unterstützt man so nicht”

Aus den Reihen der IT-Branche stieß Weimers Vorstoß indes auf massive Kritik. „Eine solche Steuer stellt Unternehmen vor erhebliche Anforderungen in Bezug auf Dokumentation und Nutzerverfolgung zur korrekten Erfassung des Werbeaufkommens in Deutschland“, monierte Oliver Süme, Vorstandsvorsitzender des eco. Zudem könnten solche Regelungen auch auf deutsche Unternehmen und Angebote Anwendung finden, warnte Süme. „Eine aufstrebende Digitalwirtschaft unterstützt man so nicht.“ 

Der eco-Mann befürchtet zudem, dass die ohnehin schon angespannten transatlantischen Verhältnisse weiter beschädigt werden könnten. „Weimer provoziert hier die US-Regierung ohne Not zu einer Reaktion. Es bleibt zu hoffen, dass Deutschland und die USA nicht noch weiter politisch auseinanderdriften”, so Süme. Der Vorstoß von Weimer werfe auch die Frage auf, wie die Digitalpolitik in Deutschland zukünftig gestaltet werde. „Wir haben jetzt seit wenigen Wochen ein Digitalministerium, das hier augenscheinlich gar nicht weiter berücksichtigt wird. Digitalpolitik aus einem Guss sieht anders aus“, sagte der eco-Vorstandsvorsitzende und plädierte dafür, die Fragen einer internationalen Digitalsteuer auf internationaler Ebene im Rahmen der OECD zu klären. 

Oliver Süme vom eco-Verband befürchtet, dass Deutschland und die USA politisch noch weiter auseinanderdriften könnten. eco

Auch Bitkom-Präsident Ralf Wintergerst kritisierte die geplante Digitalsteuer scharf. „Ganz gleich ob neue Steuern, Abgaben, Gebühren oder Zölle auf Digitales: Jeder Aufschlag wird unmittelbar oder mittelbar zu einer Preiserhöhung führen und dies werden Unternehmen, Verwaltungen, Verbraucherinnen und Verbraucher in Deutschland spüren.“ Behauptungen, man werde davon nichts merken, seien unbelegt und widersprächen der wirtschaftlichen Logik. „Preisaufschläge werden die dringend notwendige Beschleunigung der Digitalisierung der Verwaltungen und die digitale Transformation der Unternehmen belasten und verlangsamen.“ 

“Nicht mehr, sondern weniger finanzielle Belastungen auf digitale Güter”

Wintergerst verwies darauf, dass in den USA fast zehnmal so viel in Digitalisierung investiert werde wie in Deutschland und sich diese Schere von Jahr zu Jahr weiter öffne. „Wir brauchen nicht mehr, wir brauchen weniger finanzielle Belastungen für digitale Güter und Dienste, zum Beispiel durch eine Absenkung der Stromkosten für Rechenzentrumsbetreiber oder eine Reduzierung der Mehrwertsteuer auf Reparaturen von Endgeräten“, fordert der IT-Lobbyist.  

Bitkom-Präsident Ralf Wintergerst warnt vor Preiserhöhungen in Folge einer Digitalsteuer.Giesecke + Devrient

Aber auch Wintergerst schielt bereits mit einem Auge auf die Mittel aus einer Digitalsteuer. Sollte sich die Bundesregierung für die Einführung neuer finanzpolitischer Maßnahmen entscheiden, müsse sie dafür sorgen, dass jegliche Mehreinnahmen der digitalen Transformation der deutschen Wirtschaft und ihren digitalen Infrastrukturen auch wieder zugutekommen. „Tun sie dies nicht, schadet die Bundesregierung dem Digitalstandort Deutschland mehr, als sie ihm nutzt.“ 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”>

Kommt die Digitalsteuer für Google, Meta und Co.?​ Weiterlesen »

Die besten IT-Gadgets​

Allgemein

Wo die Liebe hinfällt. Foto: Roman Samborskyi – shutterstock.com In diesem Artikel sammeln wir in unregelmäßigen Abständen die besten Gadgets aus den verschiedensten Bereichen des täglichen Lebens. Wenn Sie nun jedoch zig Varianten der neuesten Smartphone-Ladekabel und -Speichererweiterungen erwarten, müssen wir Sie leider enttäuschen. Wir konzentrieren uns stattdessen lieber auf aktuelle Tech- und IT-Gadgets, die weniger austauschbar sind. Fürs Büro ist unsere Tech-Spielzeugselektion in weiten Teilen nur bedingt geeignet. Die besten Tech- und IT-Gadgets LG Artcool Air AI Mit seinem Klimagerät Artcool Air AI will LG künstliche Intelligenz, gefälliges Produktdesign und Energieeffizienz zusammenbringen. Die KI-fähige Klimaanlage im schwarzen Hochglanzgewand kann Stärke und Richtung des Luftstroms in Echtzeit intelligent anpassen – auf Grundlage der individuellen Raumaufteilung und der aktuellen Positionen der Bewohner. Diese können das Gerät auch per App steuern, remote überwachen und auf ihre jeweiligen Bedürfnisse anpassen. LG Electronics Für mehr Energieeffizienz soll hingegen ein “AI kW Manager” sorgen, der ebenfalls per App aufgerufen werden kann und Stromverbrauchsdaten in Echtzeit bereitstellt. Ein weiteres Feature: Das Klimagerät erkennt, wenn sich durch offene Fenster die Temperatur verändert – und schaltet dann automatisch in den Energiesparmodus. Ab Mitte Juni 2025 soll die Artcool-Air-AI_Familie in Deutschland erhältlich sein. Zum Preis gibt’s bislang keine Infos. Nintendo Switch 2 Nicht nur weil 2025 sonst kein großer Konsolen-Launch ansteht, sehnen Videospiel-Fans den Release der Switch 2 Anfang Juni 2025 herbei. Die Konsole verspricht im Vergleich zu ihrem Vorgänger unter anderem mehr Speicher, bessere Grafikleistung sowie diverse neue In-Game-Funktionen, etwa Sprach- und Videochats. Vor allem erscheint mit der Switch 2 aber auch ein neuer Teil der Mario-Kart-Reihe – die (gemessen an den Verkaufszahlen) erfolgreichste Rennspiel-Serie aller Zeiten. Der UVP für die Konsole liegt bei 470 Euro, das Bundle mit “Mario Kart World” gibt’s ab circa 510 Euro.   Die ganze Welt ist eure Rennstrecke! Fahrt, wohin ihr nur möchtet, in #MarioKartWorld – exklusiv für #NintendoSwitch2 direkt zur Konsolenveröffentlichung erhältlich! pic.twitter.com/ZyYZKGet4v— Nintendo DE (@NintendoDE) April 2, 2025 CoolGeek M1 Betagtere Semester werden sich noch an das schöne Gefühl erinnern, das gerade frisch im Plattenladen in CD-Form erstandene neue Album der Lieblingsband voller Vorfreude in einen entsprechenden Player zu legen. Sollten Sie Ihre CD-Kollektion noch nicht entsorgt haben, können Sie diese jetzt mit dem M1 von CoolGeek völlig neu in Szene setzen. Denn der Player ist in einer Art Bilderrahmen untergebracht und lässt sich an die Wand hängen. Ansonsten bringt er sämtliche konventionelle Funktionen eines normalen CD-Players mit. Wenn Sie analogem Musikgenuss auf diese Art und Weise ein (Wand-)Denkmal setzen wollen, können Sie das direkt tun. Der UVP liegt bei 179 Dollar – auf Kickstarter gibt es noch einige wenige Exemplare zum Vorzugspreis.      Tidbyt Gen2 Das Retro-Display von Tidbyt wurde im Mai 2025 mit einem Update ausgestattet: Die zweite Version des Pixel-Screens verzichtet auf die Walnussholzoptik und kommt wahlweise in einem schwarzen oder weißen Gehäuse. Tidbyt Über Kalenderereignisse, das Wetter oder aktuelle Krypto-Kurse und die neuesten Tweets informiert das Display jedoch weiterhin. Allerdings ist es in Version 2 unter anderem mit einer neuen Touch-Bedienung ausgestattet und kann auch minimalistische Sound-Effekte wiedergeben. Die Einsatzzwecke sind weiterhin zahlreich: Mehr als 150 Apps stehen Benutzern zur Verfügung. Neben den genannten Infos können sich die Benutzer unter anderem auch frei anpassbare Textnachrichten und Animationen anzeigen lassen oder – dank eines offenen Ökosystems – mit wenig Aufwand auch eigene Apps coden. Der Preis liegt bei 179 Dollar. Angry Miao AFA R2 Alles andere als eine 08/15-Tastatur ist das mechanische und modulare AFA R2 Keyboard von Angry Miao. Der zweigeteilte Rahmen der Edel-Tastatur besteht aus gefrästem Aluminium – mittig befindet sich ein PCB, das mit einem Cover aus Glas ausgestattet ist. Dieses Keyboard lässt sich auf so gut wie allen Ebenen an die Bedürfnisse seines Benutzers anpassen – vom Tasten-Feedback bis hin zur individuellen Beleuchtung. Angry Miao Für Nerds besonders interessant: Das AFA R2 steht in diversen, von Animes und Videospielen inspirierten Designs zur Verfügung. Das hat allerdings seinen Preis: Circa 700 Euro müssen Sie einrechnen. Frauscher x Porsche 850 Fantom In Kooperation mit der österreichischen Frauscher Bootswerft hat Porsche bereits zwei Elektroboote aufs Wasser gestellt, die die  (elektrische) Antriebstechnik des SUV Macan Turbo beherbergen. Neben der offenen Variante (Fantom Air) gibt es seit Ende 2024 auch eine Runabout-Version mit geschlossenem Vordeck und Kajüte. Diese Fantom-850-Version bietet Platz für bis zu sieben Passagiere (die offene Version für maximal neun) und beschleunigt bis auf 90 km/h. Die Reichweite soll laut Porsche (bei langsamer Fahrt) bei circa 100 Kilometer liegen. Porsche Wie die “Air”-Version ist auch die Fantom 850 zunächst auf 25 Exemplare in der “First Edition” limitiert. Zum Preis gibt es keine Infos. Allerdings bietet der der 2022 vorgestellten Fantom Air einen Anhaltspunkt: Er startete bei 561.700 Euro. Philips VoiceTracer Ärgern Sie sich auch regelmäßig darüber, dass Ihnen die besten Ideen in den unmöglichsten Situationen kommen? Mit diesem Audio Recorder in Kugelschreiberform haben Sie jetzt eine Möglichkeit, Abhilfe zu schaffen. Der Stift verfügt über ein integriertes Mikrofon für Aufnahmen, die schnell und einfach per One-Click-Bedienung gestartet und beendet werden. Philips Um die Ideen anschließend zu verschriftlichen, lassen sich die Audiodateien in die KI-basierte Sembly-App übertragen. Der 32 GB große, integrierte Speicher reicht für mehrere Stunden Aufnahme. Der Akku hält laut Hersteller bis zu 129 Stunden. Ist er doch einmal leer, lässt sich der Stift einfach per USB aufladen. Wie Philips betont, eignet sich das Device auch sehr gut für “sensible Situationen, in denen ein normaler Audiorecorder zu auffällig wäre”. Der Stealth-Stift ist ab rund 80 Euro zu haben.  Prodrive Racing Simulator Wenn Sie bisher vor allem aus Stilgründen davon abgesehen haben, sich einen Rennsimulator in die Villa zu stellen, könnte dieses Designer-Schmuckstück genau das Richtige für Sie sein. Der Prodrive Racing Simulator vereint minimalistische Optik mit hochwertiger Technik und edlen Materialien. Prodrive Rennsitz, Pedale und Lenkrad im Formel-1-Style (sowie die zugehörige Technik) sind in ein Carbon-Monoquoque eingebettet. Dazu kommt ein Simulator-PC mit 16 GB RAM und 12 GB Nvidia-GPU, Kopfhörer von Bang & Olufsen sowie ein Curved 32:9-Monitor von AOC in 49 Zoll. Das hat allerdings auch seinen Preis, nämlich 49.000 britische Pfund (circa 57.500 Euro). The Charging Tray by Carl Friedrik Carl Friedrik ist ein relativ junges Unternehmen (gegründet 2013) aus London, dass sich auf Premium-Reise-Accessoires aus Leder spezialisiert hat. Das Portfolio deckt dabei auch das Homeoffice ab. The Charging Tray kombiniert kabellose Ladestation mit formschöner Ablagefläche für aufgeräumte Schreibtische. Carl Friedrik Weil das Ganze mit dem Qi-Standard funktioniert, dürfen nicht nur iPhones und AirPods, sondern auch Android-Smartphones und andere kompatible Devices abgelegt, respektive aufgeladen werden. Preislich müssen Sie 245 Euro veranschlagen – insofern das Accessoire gerade lieferbar sein sollte. Audio-Technica Sound Burger Im Jahr 1983 setzte Audio-Technica mit dem Sound Burger – einem portablen Plattenspieler – ein Ausrufezeichen. Zum 40. Geburtstag des Walkmans für Schallplatten hatte der Hersteller sein Kultprodukt in limitierter Auflage wieder aufleben lassen. Die 7.000 produzierten Exemplare waren so schnell weg, dass die Japaner sich entschieden, den Sound Burger wieder standardmäßig ins Portfolio aufzunehmen. Audio-Technica Der modernisierte Sound Burger verfügt über einen USB-C-Port für Ladevorgänge, wird per Bluetooth integriert und spielt Vinyl-LPs und -Singles mit 33 1/3 und 45 UpM ab. Wahlweise kann der Sound Burger auch über Kabel mit einer Anlage oder einem Lautsprechersystem verbunden werden. Der Preis liegt bei 229 Euro. Zero Labs Automotive Wenn Sie auf automobile Klassiker stehen, dabei aber keine Lust haben, diverse Umwelt-Todsünden zu begehen, sollten Sie einen Blick auf das Portfolio von Zero Labs werfen. Das kalifornische Unternehmen hat sich darauf spezialisiert, altes Eisen mit neuester Technologie zu verheiraten. Insbesondere Liebhaber klassischer Land-Rover-Modelle dürften hier zu ihrem Elektroglück finden. Neben einer Komplettumrüstung des Antriebsstrangs auf Elektro wird auch der Innenraum der Gelände-Legenden komplett überarbeitet. Das hat natürlich seinen Preis: Mindestens 185.000 Dollar sollten Sie für einen solchen, umweltfreundlichen SUV-Klassiker auf der hohen Kante haben. Das Unternehmen kümmert sich übrigens auch gerne um individuelle automobile Sonderwünsche. Kohler Numi 2.0 Mit Numi 2.0 hat der US-Hersteller Kohler nach eigenen Angaben die intelligenteste Toilette der Welt im Angebot. Sie verfügt über einen beheizten Sitz, integrierte Lautsprecher, ein Ambient-Lighting-System und kommt sogar mit Alexa-Support. Quasi nebenbei sorgt das smarte Klo auch noch für ein neues Level in Sachen Wassereffizienz. Business Wire Vorgestellt wurde Numi erstmals auf der CES 2019. Inzwischen ist das High-Tech-WC auch erhältlich – die Preise beginnen bei rund 10.000 Dollar. Ecocapsule Dieses Teil, das aussieht, als wäre es der Liebesnacht eines Space Shuttles und eines Airstream-Wohnwagens entsprungen, ist ein mobiles High-Tech-Heim für bis zu zwei Personen. Dank Solar-, Windenergie und der intelligenten Speicherung von Regenwasser muss man im Inneren der Ecocapsule auf so gut wie nichts verzichten: Eine Toilette mit Dusche ist ebenso an Bord wie eine voll ausgestattete Küchenzeile und ein Bett. We´ve made a short video 🎬 at #expo2020dubai about what you can expect in front of the Slovak pavilion and see inside the Ecocapsule. #SlovakiaExpo2020 #expo2020dubai #innovations #visitecocapsule pic.twitter.com/hfDFpzTOXZ— @Ecocapsule (@EcocapsuleSk) February 21, 2022 Ein völlig autarkes Leben in der wilden Natur ist hiermit also ebenso möglich, wie das Projekt “Einliegerwohnung auf Wolkenkratzer-Dach”. Das mobile Heim ist in verschiedenen Ausführungen erhältlich – die Preise beginnen bei 55.000 Euro. Eine XL-Version ist für das erste Quartal 2026 angekündigt. Framed Tech Sie wissen nicht mehr wohin mit ihren alten Smartphones und Spielkonsolen? Dann machen Sie kultige Altgeräte doch einfach zu Kunst. Das übernimmt bei Bedarf auch Framed Tech für Sie: Das Unternehmen hat sich darauf spezialisiert, obsolete Technik zu zerlegen und fein säuberlich in einen Bilderrahmen zu verfrachten. Framed Tech Das Ergebnis ist einzigartiger Tech-Wandschmuck, der auch noch mehr Platz in Kellern und auf Dachböden schafft. Preise auf Anfrage. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten IT-Gadgets​ Wo die Liebe hinfällt.
Foto: Roman Samborskyi – shutterstock.com

In diesem Artikel sammeln wir in unregelmäßigen Abständen die besten Gadgets aus den verschiedensten Bereichen des täglichen Lebens. Wenn Sie nun jedoch zig Varianten der neuesten Smartphone-Ladekabel und -Speichererweiterungen erwarten, müssen wir Sie leider enttäuschen.

Wir konzentrieren uns stattdessen lieber auf aktuelle Tech- und IT-Gadgets, die weniger austauschbar sind. Fürs Büro ist unsere Tech-Spielzeugselektion in weiten Teilen nur bedingt geeignet.

Die besten Tech- und IT-Gadgets

LG Artcool Air AI

Mit seinem Klimagerät Artcool Air AI will LG künstliche Intelligenz, gefälliges Produktdesign und Energieeffizienz zusammenbringen. Die KI-fähige Klimaanlage im schwarzen Hochglanzgewand kann Stärke und Richtung des Luftstroms in Echtzeit intelligent anpassen – auf Grundlage der individuellen Raumaufteilung und der aktuellen Positionen der Bewohner. Diese können das Gerät auch per App steuern, remote überwachen und auf ihre jeweiligen Bedürfnisse anpassen.

LG Electronics

Für mehr Energieeffizienz soll hingegen ein “AI kW Manager” sorgen, der ebenfalls per App aufgerufen werden kann und Stromverbrauchsdaten in Echtzeit bereitstellt. Ein weiteres Feature: Das Klimagerät erkennt, wenn sich durch offene Fenster die Temperatur verändert – und schaltet dann automatisch in den Energiesparmodus. Ab Mitte Juni 2025 soll die Artcool-Air-AI_Familie in Deutschland erhältlich sein. Zum Preis gibt’s bislang keine Infos.

Nintendo Switch 2

Nicht nur weil 2025 sonst kein großer Konsolen-Launch ansteht, sehnen Videospiel-Fans den Release der Switch 2 Anfang Juni 2025 herbei. Die Konsole verspricht im Vergleich zu ihrem Vorgänger unter anderem mehr Speicher, bessere Grafikleistung sowie diverse neue In-Game-Funktionen, etwa Sprach- und Videochats.

Vor allem erscheint mit der Switch 2 aber auch ein neuer Teil der Mario-Kart-Reihe – die (gemessen an den Verkaufszahlen) erfolgreichste Rennspiel-Serie aller Zeiten. Der UVP für die Konsole liegt bei 470 Euro, das Bundle mit “Mario Kart World” gibt’s ab circa 510 Euro.  

Die ganze Welt ist eure Rennstrecke! Fahrt, wohin ihr nur möchtet, in #MarioKartWorld – exklusiv für #NintendoSwitch2 direkt zur Konsolenveröffentlichung erhältlich! pic.twitter.com/ZyYZKGet4v— Nintendo DE (@NintendoDE) April 2, 2025

CoolGeek M1

Betagtere Semester werden sich noch an das schöne Gefühl erinnern, das gerade frisch im Plattenladen in CD-Form erstandene neue Album der Lieblingsband voller Vorfreude in einen entsprechenden Player zu legen. Sollten Sie Ihre CD-Kollektion noch nicht entsorgt haben, können Sie diese jetzt mit dem M1 von CoolGeek völlig neu in Szene setzen.

Denn der Player ist in einer Art Bilderrahmen untergebracht und lässt sich an die Wand hängen. Ansonsten bringt er sämtliche konventionelle Funktionen eines normalen CD-Players mit. Wenn Sie analogem Musikgenuss auf diese Art und Weise ein (Wand-)Denkmal setzen wollen, können Sie das direkt tun. Der UVP liegt bei 179 Dollar – auf Kickstarter gibt es noch einige wenige Exemplare zum Vorzugspreis.     

Tidbyt Gen2

Das Retro-Display von Tidbyt wurde im Mai 2025 mit einem Update ausgestattet: Die zweite Version des Pixel-Screens verzichtet auf die Walnussholzoptik und kommt wahlweise in einem schwarzen oder weißen Gehäuse.

Tidbyt

Über Kalenderereignisse, das Wetter oder aktuelle Krypto-Kurse und die neuesten Tweets informiert das Display jedoch weiterhin. Allerdings ist es in Version 2 unter anderem mit einer neuen Touch-Bedienung ausgestattet und kann auch minimalistische Sound-Effekte wiedergeben.

Die Einsatzzwecke sind weiterhin zahlreich: Mehr als 150 Apps stehen Benutzern zur Verfügung. Neben den genannten Infos können sich die Benutzer unter anderem auch frei anpassbare Textnachrichten und Animationen anzeigen lassen oder – dank eines offenen Ökosystems – mit wenig Aufwand auch eigene Apps coden. Der Preis liegt bei 179 Dollar.

Angry Miao AFA R2

Alles andere als eine 08/15-Tastatur ist das mechanische und modulare AFA R2 Keyboard von Angry Miao. Der zweigeteilte Rahmen der Edel-Tastatur besteht aus gefrästem Aluminium – mittig befindet sich ein PCB, das mit einem Cover aus Glas ausgestattet ist. Dieses Keyboard lässt sich auf so gut wie allen Ebenen an die Bedürfnisse seines Benutzers anpassen – vom Tasten-Feedback bis hin zur individuellen Beleuchtung.

Angry Miao

Für Nerds besonders interessant: Das AFA R2 steht in diversen, von Animes und Videospielen inspirierten Designs zur Verfügung. Das hat allerdings seinen Preis: Circa 700 Euro müssen Sie einrechnen.

Frauscher x Porsche 850 Fantom

In Kooperation mit der österreichischen Frauscher Bootswerft hat Porsche bereits zwei Elektroboote aufs Wasser gestellt, die die  (elektrische) Antriebstechnik des SUV Macan Turbo beherbergen. Neben der offenen Variante (Fantom Air) gibt es seit Ende 2024 auch eine Runabout-Version mit geschlossenem Vordeck und Kajüte. Diese Fantom-850-Version bietet Platz für bis zu sieben Passagiere (die offene Version für maximal neun) und beschleunigt bis auf 90 km/h. Die Reichweite soll laut Porsche (bei langsamer Fahrt) bei circa 100 Kilometer liegen.

Porsche

Wie die “Air”-Version ist auch die Fantom 850 zunächst auf 25 Exemplare in der “First Edition” limitiert. Zum Preis gibt es keine Infos. Allerdings bietet der der 2022 vorgestellten Fantom Air einen Anhaltspunkt: Er startete bei 561.700 Euro.

Philips VoiceTracer

Ärgern Sie sich auch regelmäßig darüber, dass Ihnen die besten Ideen in den unmöglichsten Situationen kommen? Mit diesem Audio Recorder in Kugelschreiberform haben Sie jetzt eine Möglichkeit, Abhilfe zu schaffen. Der Stift verfügt über ein integriertes Mikrofon für Aufnahmen, die schnell und einfach per One-Click-Bedienung gestartet und beendet werden.

Philips

Um die Ideen anschließend zu verschriftlichen, lassen sich die Audiodateien in die KI-basierte Sembly-App übertragen. Der 32 GB große, integrierte Speicher reicht für mehrere Stunden Aufnahme. Der Akku hält laut Hersteller bis zu 129 Stunden. Ist er doch einmal leer, lässt sich der Stift einfach per USB aufladen. Wie Philips betont, eignet sich das Device auch sehr gut für “sensible Situationen, in denen ein normaler Audiorecorder zu auffällig wäre”. Der Stealth-Stift ist ab rund 80 Euro zu haben. 

Prodrive Racing Simulator

Wenn Sie bisher vor allem aus Stilgründen davon abgesehen haben, sich einen Rennsimulator in die Villa zu stellen, könnte dieses Designer-Schmuckstück genau das Richtige für Sie sein. Der Prodrive Racing Simulator vereint minimalistische Optik mit hochwertiger Technik und edlen Materialien.

Prodrive

Rennsitz, Pedale und Lenkrad im Formel-1-Style (sowie die zugehörige Technik) sind in ein Carbon-Monoquoque eingebettet. Dazu kommt ein Simulator-PC mit 16 GB RAM und 12 GB Nvidia-GPU, Kopfhörer von Bang & Olufsen sowie ein Curved 32:9-Monitor von AOC in 49 Zoll. Das hat allerdings auch seinen Preis, nämlich 49.000 britische Pfund (circa 57.500 Euro).

The Charging Tray by Carl Friedrik

Carl Friedrik ist ein relativ junges Unternehmen (gegründet 2013) aus London, dass sich auf Premium-Reise-Accessoires aus Leder spezialisiert hat. Das Portfolio deckt dabei auch das Homeoffice ab. The Charging Tray kombiniert kabellose Ladestation mit formschöner Ablagefläche für aufgeräumte Schreibtische.

Carl Friedrik

Weil das Ganze mit dem Qi-Standard funktioniert, dürfen nicht nur iPhones und AirPods, sondern auch Android-Smartphones und andere kompatible Devices abgelegt, respektive aufgeladen werden. Preislich müssen Sie 245 Euro veranschlagen – insofern das Accessoire gerade lieferbar sein sollte.

Audio-Technica Sound Burger

Im Jahr 1983 setzte Audio-Technica mit dem Sound Burger – einem portablen Plattenspieler – ein Ausrufezeichen. Zum 40. Geburtstag des Walkmans für Schallplatten hatte der Hersteller sein Kultprodukt in limitierter Auflage wieder aufleben lassen. Die 7.000 produzierten Exemplare waren so schnell weg, dass die Japaner sich entschieden, den Sound Burger wieder standardmäßig ins Portfolio aufzunehmen.

Audio-Technica

Der modernisierte Sound Burger verfügt über einen USB-C-Port für Ladevorgänge, wird per Bluetooth integriert und spielt Vinyl-LPs und -Singles mit 33 1/3 und 45 UpM ab. Wahlweise kann der Sound Burger auch über Kabel mit einer Anlage oder einem Lautsprechersystem verbunden werden. Der Preis liegt bei 229 Euro.

Zero Labs Automotive

Wenn Sie auf automobile Klassiker stehen, dabei aber keine Lust haben, diverse Umwelt-Todsünden zu begehen, sollten Sie einen Blick auf das Portfolio von Zero Labs werfen. Das kalifornische Unternehmen hat sich darauf spezialisiert, altes Eisen mit neuester Technologie zu verheiraten. Insbesondere Liebhaber klassischer Land-Rover-Modelle dürften hier zu ihrem Elektroglück finden.

Neben einer Komplettumrüstung des Antriebsstrangs auf Elektro wird auch der Innenraum der Gelände-Legenden komplett überarbeitet. Das hat natürlich seinen Preis: Mindestens 185.000 Dollar sollten Sie für einen solchen, umweltfreundlichen SUV-Klassiker auf der hohen Kante haben. Das Unternehmen kümmert sich übrigens auch gerne um individuelle automobile Sonderwünsche.

Kohler Numi 2.0

Mit Numi 2.0 hat der US-Hersteller Kohler nach eigenen Angaben die intelligenteste Toilette der Welt im Angebot. Sie verfügt über einen beheizten Sitz, integrierte Lautsprecher, ein Ambient-Lighting-System und kommt sogar mit Alexa-Support. Quasi nebenbei sorgt das smarte Klo auch noch für ein neues Level in Sachen Wassereffizienz.

Business Wire

Vorgestellt wurde Numi erstmals auf der CES 2019. Inzwischen ist das High-Tech-WC auch erhältlich – die Preise beginnen bei rund 10.000 Dollar.

Ecocapsule

Dieses Teil, das aussieht, als wäre es der Liebesnacht eines Space Shuttles und eines Airstream-Wohnwagens entsprungen, ist ein mobiles High-Tech-Heim für bis zu zwei Personen. Dank Solar-, Windenergie und der intelligenten Speicherung von Regenwasser muss man im Inneren der Ecocapsule auf so gut wie nichts verzichten: Eine Toilette mit Dusche ist ebenso an Bord wie eine voll ausgestattete Küchenzeile und ein Bett.

We´ve made a short video 🎬 at #expo2020dubai about what you can expect in front of the Slovak pavilion and see inside the Ecocapsule. #SlovakiaExpo2020 #expo2020dubai #innovations #visitecocapsule pic.twitter.com/hfDFpzTOXZ— @Ecocapsule (@EcocapsuleSk) February 21, 2022

Ein völlig autarkes Leben in der wilden Natur ist hiermit also ebenso möglich, wie das Projekt “Einliegerwohnung auf Wolkenkratzer-Dach”. Das mobile Heim ist in verschiedenen Ausführungen erhältlich – die Preise beginnen bei 55.000 Euro. Eine XL-Version ist für das erste Quartal 2026 angekündigt.

Framed Tech

Sie wissen nicht mehr wohin mit ihren alten Smartphones und Spielkonsolen? Dann machen Sie kultige Altgeräte doch einfach zu Kunst. Das übernimmt bei Bedarf auch Framed Tech für Sie: Das Unternehmen hat sich darauf spezialisiert, obsolete Technik zu zerlegen und fein säuberlich in einen Bilderrahmen zu verfrachten.

Framed Tech

Das Ergebnis ist einzigartiger Tech-Wandschmuck, der auch noch mehr Platz in Kellern und auf Dachböden schafft. Preise auf Anfrage.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten IT-Gadgets​ Weiterlesen »

Nach oben scrollen
×