Computerhaus Quickborn

Juni 2025

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​

Allgemein

Wegen des drohenden Lizenz-Endes der S/4HANA Compatibility Packs müssen viele SAP-Kunden jetzt aktiv werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden.Andrey_Popov – Shutterstock SAP S/4HANA-Kunden, die noch auf Funktionen in den sogenannten Compatibility Packs angewiesen sind, haben nur noch wenige Monate Zeit, um auf die nativen Funktionen umzusteigen. Der Grund: Das Ende der Lizenzen für die vor rund zehn Jahren eingeführten Packs rückt näher. SAP hatte die Compatibility Packs im Jahr 2015 als Übergangslösung eingeführt, um Kunden die Migration von SAP ECC (ERP Central Component) auf S/4 HANA zu erleichtern. Die Packs ermöglichten es den Kunden, bestimmte ECC-Funktionen vorübergehend weiter zu nutzen, wenn die Migration der Module nach S/4HANA einige Zeit in Anspruch genommen hätte oder wenn ihre Funktionalität nicht in den ersten S/4HANA-Releases enthalten war. Doch jede Übergangszeit hat einmal ein Ende. Bis zum 31. Dezember 2025 müssen die meisten Kunden die Nutzung dieser Packs einstellen, Die weitere Verwendung nach diesem Datum will SAP als „kommerzielle Nichteinhaltung – also Vertragsbruch“ behandeln. Die meisten dieser Pakete seien heute ohnehin überflüssig, erklärt Maura Hameroff, SVP of ERP Product Marketing bei SAP. “Mit unserem S/4 HANA-Release 2023 haben wir alle Szenarien abgedeckt. Wir haben alle technischen Hindernisse beseitigt, die die Kunden bislang ausgebremst haben.” SAP hatte bereits in einem im Februar 2025 aktualisierten Blogbeitrag klargestellt, dass sowohl das Recht zur Nutzung von Compatibility Packs als auch der gesamte Support dafür zum gleichen Zeitpunkt auslaufen, unabhängig vom Wartungsstatus des S/4HANA-Systems. Drohende Maßnahmen „Die Nutzungsrechte für Compatibility Scopes erlöschen automatisch am 31. Dezember 2025 für alle SAP S/4HANA-Versionen, unabhängig von ihrem Veröffentlichungsdatum“, heißt es dort. “Unabhängig von der SAP S/4HANA-Version haben Kunden also nach diesem Zeitpunkt kein vertragliches Recht mehr, die Compatibility Scope-Funktionalität zu nutzen, selbst wenn sich das betroffene SAP S/4HANA-Systemrelease noch in der Mainstream-Wartung befindet. Außerdem endet der Support für Compatibility Scope-Elemente mit dem Auslaufen der Nutzungsrechte.” Wenn rechtliche Drohungen die Kunden nicht dazu bringen, die Modernisierung ihrer Systeme abzuschließen, könnte SAP zu härteren Mitteln greifen: SAP behält sich das Recht vor, die Compatibility Pack-Funktionalität in zukünftigen S/4HANA-Versionen technisch unzugänglich zu machen. „Bis dahin“, so heißt es, „müssen die Kunden durch organisatorische oder andere Maßnahmen sicherstellen, dass die Funktionalität des Compatibility Packs nach Ablauf der Nutzungsrechte nicht mehr verwendet wird.“ Ausnahmen bestätigen die Regel Einige Packs sind von der Frist ausgenommen: Customer Service (CS), Transportation (LE-TRA) und Production Planning for Process Industries (PP-PI) dürfen bis 2030 weiter genutzt werden. Laut Scott Bickley, Research Fellow bei der Info-Tech Research Group, liegt dies an der Komplexität und Vielfalt sowohl der Produkte selbst als auch der zugrundeliegenden komplexen Geschäftsprozesse der Kunden. „Auch RISE-with-SAP -Kunden können aufatmen, denn ihre Nutzungsrechte für SAP Compatibility Packs wurden ebenfalls bis 2030 gewährt“, so Bickley weiter. Für alle anderen tickt die Uhr: „Schätzungen zufolge nutzen bis zu 70 Prozent der S/4 HANA-Kunden mindestens ein Compatibility Pack“, erklärt der Analyst. SAPs Hameroff will diese Schätzungen nicht kommentieren: “Wir geben keine Zahlen bekannt. Aber wir sind zuversichtlich, dass wir keinen Kunden zurücklassen.“ Sie räumt ein, dass SAPs Cloud-Lösungen, die bevorzugte Strategie des Unternehmens, nicht für alle Kunden geeignet sind. Dennoch gebe es mehrere Optionen, inklusive einer Mischung aus On-Premises- und Cloud-Angeboten und verschiedenen Arten von Cloud-Angeboten, um unterschiedlichen Anforderungen und Regulierungen gerecht zu werden. Mike Tucciarone, VP Analyst bei Gartner, rät Unternehmen dringend, jetzt aktiv zu werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden. „Anstatt sich ausschließlich auf die SAP-Account-Teams zu verlassen, sollten Unternehmen Ressourcen wie die 2269324 – Compatibility Scope Matrix for SAP S/4HANA von SAP nutzen, um ihre Optionen zu prüfen.“ Selbst beim Rettungsangebot von RISE with SAP/Cloud ERP Private gebe es Einschränkungen, so Tucciarone. “Das ist keine einfache Verlängerung gegen eine Gebühr“, warnt er. „SAP hat klar gesagt, dass Kunden einen RISE with SAP-Vertrag abschließen und ‚ im Übergang zur Cloud ‘ sein müssen, um die Compatibility Packs über 2025 hinaus nutzen zu können.” Nicht nur eine technische Frage Allerdings bedeutet die erfolgte Migration auf S/4HANA nicht automatisch, dass Unternehmen die Compatibility Packs nicht mehr benötigen, warnt Robert Kramer, VP und Principal Analyst, Enterprise Data, ERP & SCM, bei Moor Insights & Strategy. “Viele Migrationen haben diese Komponenten unbemerkt mitgenommen – oft, ohne dass es jemandem auffällt. Um sich ein klares Bild zu machen, sollten Sie die SAP-Tools Readiness Check, Simplification Item Check und Custom Code Analyzer verwenden, um genau zu sehen, wo in Ihrer Umgebung noch Compatibility Packs im Einsatz sind.” Unternehmen haben jedoch nicht nur technische Herausforderungen zu bewältigen. Sowohl Kramer als auch Bickley betonen, dass zur vollständigen Ablösung der Packs häufig auch Geschäftsprozesse neugestaltet werden müssen. Wer damit zu lange wartet, riskiert, keine erfahrenen Berater mehr zu finden, warnt Kramer. “Die Beseitigung von Compatibility Packs ist keine rein technische Aufgabe. Oft bedeutet das, Geschäftsprozesse zu überarbeiten, neue Konfigurationen zu testen, Anwender zu schulen und manchmal auch neue S/4HANA-Module einzuführen.“ Bickley sieht eine der größten Herausforderungen darin, all dies rechtzeitig vor dem drohenden Stichtag im Dezember 2025 umzusetzen: „Egal welchen Weg man wählt, die Herausforderungen sind vielfältig und keineswegs trivial“, erklärt er. „Es ist davon auszugehen, dass die meisten Unternehmen, die Packs noch nutzen, dies aufgrund ihrer komplexen Legacy-Prozesse tun, die zudem stark angepasst sein können.“ Auch SAP-Managerin Hameroff stimmt zu. „[Die Modernisierung von Geschäftsprozessen] ist etwas, das viele Kunden angehen mussten, als sich die Technologie weiterentwickelte“, erklärt sie. “Und es geht nicht nur um Kompatibilität. Es geht darum, die Vorteile von modern gestalteten Geschäftsprozessen zu nutzen.“ Ein Großprojekt Moor-Analyst Kramer rät Unternehmen, die Lizenzproblematik als Großproblematik zu betrachten und keine Gnade von SAP zu erwarten. „SAP hat nicht vor, die Frist für die meisten Kunden zu verlängern. Machen Sie einen Plan, engagieren Sie die richtigen Leute, stellen Sie das nötige Budget bereit und fangen Sie jetzt an, daran zu arbeiten.“ Auch sein Kollege Bickley von der Info-Tech Research Group warnt vor den Gefahren der Nichteinhaltung. „Wer bei diesem Thema auf dem falschen Fuß erwischt wird, muss wissen: Die Versäumnis, die SAP Compatibility Packs bis zum Ablaufdatum außer Kraft zu setzen, führt wahrscheinlich zu einem Lizenzverstoß gegenüber SAP. Unternehmen sollten nicht erwarten, dass SAP Fristen verlängert oder Kulanz zeigt.“ „Stattdessen ist mit einem massiven Druck durch den Vertrieb zu rechnen, um die Kunden zu einem Upgrade auf die S/4HANA Business Suite zu bewegen – oder sie müssen mit einer formellen, intensivierten Lizenzprüfung rechnen.“ (mb) 

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​ Wegen des drohenden Lizenz-Endes der S/4HANA Compatibility Packs müssen viele SAP-Kunden jetzt aktiv werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden.Andrey_Popov – Shutterstock

SAP S/4HANA-Kunden, die noch auf Funktionen in den sogenannten Compatibility Packs angewiesen sind, haben nur noch wenige Monate Zeit, um auf die nativen Funktionen umzusteigen. Der Grund: Das Ende der Lizenzen für die vor rund zehn Jahren eingeführten Packs rückt näher.

SAP hatte die Compatibility Packs im Jahr 2015 als Übergangslösung eingeführt, um Kunden die Migration von SAP ECC (ERP Central Component) auf S/4 HANA zu erleichtern. Die Packs ermöglichten es den Kunden, bestimmte ECC-Funktionen vorübergehend weiter zu nutzen, wenn die Migration der Module nach S/4HANA einige Zeit in Anspruch genommen hätte oder wenn ihre Funktionalität nicht in den ersten S/4HANA-Releases enthalten war.

Doch jede Übergangszeit hat einmal ein Ende. Bis zum 31. Dezember 2025 müssen die meisten Kunden die Nutzung dieser Packs einstellen, Die weitere Verwendung nach diesem Datum will SAP als „kommerzielle Nichteinhaltung – also Vertragsbruch“ behandeln.

Die meisten dieser Pakete seien heute ohnehin überflüssig, erklärt Maura Hameroff, SVP of ERP Product Marketing bei SAP. “Mit unserem S/4 HANA-Release 2023 haben wir alle Szenarien abgedeckt. Wir haben alle technischen Hindernisse beseitigt, die die Kunden bislang ausgebremst haben.”

SAP hatte bereits in einem im Februar 2025 aktualisierten Blogbeitrag klargestellt, dass sowohl das Recht zur Nutzung von Compatibility Packs als auch der gesamte Support dafür zum gleichen Zeitpunkt auslaufen, unabhängig vom Wartungsstatus des S/4HANA-Systems.

Drohende Maßnahmen

„Die Nutzungsrechte für Compatibility Scopes erlöschen automatisch am 31. Dezember 2025 für alle SAP S/4HANA-Versionen, unabhängig von ihrem Veröffentlichungsdatum“, heißt es dort. “Unabhängig von der SAP S/4HANA-Version haben Kunden also nach diesem Zeitpunkt kein vertragliches Recht mehr, die Compatibility Scope-Funktionalität zu nutzen, selbst wenn sich das betroffene SAP S/4HANA-Systemrelease noch in der Mainstream-Wartung befindet. Außerdem endet der Support für Compatibility Scope-Elemente mit dem Auslaufen der Nutzungsrechte.”

Wenn rechtliche Drohungen die Kunden nicht dazu bringen, die Modernisierung ihrer Systeme abzuschließen, könnte SAP zu härteren Mitteln greifen: SAP behält sich das Recht vor, die Compatibility Pack-Funktionalität in zukünftigen S/4HANA-Versionen technisch unzugänglich zu machen. „Bis dahin“, so heißt es, „müssen die Kunden durch organisatorische oder andere Maßnahmen sicherstellen, dass die Funktionalität des Compatibility Packs nach Ablauf der Nutzungsrechte nicht mehr verwendet wird.“

Ausnahmen bestätigen die Regel

Einige Packs sind von der Frist ausgenommen: Customer Service (CS), Transportation (LE-TRA) und Production Planning for Process Industries (PP-PI) dürfen bis 2030 weiter genutzt werden. Laut Scott Bickley, Research Fellow bei der Info-Tech Research Group, liegt dies an der Komplexität und Vielfalt sowohl der Produkte selbst als auch der zugrundeliegenden komplexen Geschäftsprozesse der Kunden.

„Auch RISE-with-SAP -Kunden können aufatmen, denn ihre Nutzungsrechte für SAP Compatibility Packs wurden ebenfalls bis 2030 gewährt“, so Bickley weiter. Für alle anderen tickt die Uhr: „Schätzungen zufolge nutzen bis zu 70 Prozent der S/4 HANA-Kunden mindestens ein Compatibility Pack“, erklärt der Analyst.

SAPs Hameroff will diese Schätzungen nicht kommentieren: “Wir geben keine Zahlen bekannt. Aber wir sind zuversichtlich, dass wir keinen Kunden zurücklassen.“ Sie räumt ein, dass SAPs Cloud-Lösungen, die bevorzugte Strategie des Unternehmens, nicht für alle Kunden geeignet sind. Dennoch gebe es mehrere Optionen, inklusive einer Mischung aus On-Premises- und Cloud-Angeboten und verschiedenen Arten von Cloud-Angeboten, um unterschiedlichen Anforderungen und Regulierungen gerecht zu werden.

Mike Tucciarone, VP Analyst bei Gartner, rät Unternehmen dringend, jetzt aktiv zu werden, um Compliance-Risiken und rechtliche Probleme zu vermeiden. „Anstatt sich ausschließlich auf die SAP-Account-Teams zu verlassen, sollten Unternehmen Ressourcen wie die 2269324 – Compatibility Scope Matrix for SAP S/4HANA von SAP nutzen, um ihre Optionen zu prüfen.“

Selbst beim Rettungsangebot von RISE with SAP/Cloud ERP Private gebe es Einschränkungen, so Tucciarone. “Das ist keine einfache Verlängerung gegen eine Gebühr“, warnt er. „SAP hat klar gesagt, dass Kunden einen RISE with SAP-Vertrag abschließen und ‚ im Übergang zur Cloud ‘ sein müssen, um die Compatibility Packs über 2025 hinaus nutzen zu können.”

Nicht nur eine technische Frage

Allerdings bedeutet die erfolgte Migration auf S/4HANA nicht automatisch, dass Unternehmen die Compatibility Packs nicht mehr benötigen, warnt Robert Kramer, VP und Principal Analyst, Enterprise Data, ERP & SCM, bei Moor Insights & Strategy.

“Viele Migrationen haben diese Komponenten unbemerkt mitgenommen – oft, ohne dass es jemandem auffällt. Um sich ein klares Bild zu machen, sollten Sie die SAP-Tools Readiness Check, Simplification Item Check und Custom Code Analyzer verwenden, um genau zu sehen, wo in Ihrer Umgebung noch Compatibility Packs im Einsatz sind.”

Unternehmen haben jedoch nicht nur technische Herausforderungen zu bewältigen. Sowohl Kramer als auch Bickley betonen, dass zur vollständigen Ablösung der Packs häufig auch Geschäftsprozesse neugestaltet werden müssen.

Wer damit zu lange wartet, riskiert, keine erfahrenen Berater mehr zu finden, warnt Kramer. “Die Beseitigung von Compatibility Packs ist keine rein technische Aufgabe. Oft bedeutet das, Geschäftsprozesse zu überarbeiten, neue Konfigurationen zu testen, Anwender zu schulen und manchmal auch neue S/4HANA-Module einzuführen.“

Bickley sieht eine der größten Herausforderungen darin, all dies rechtzeitig vor dem drohenden Stichtag im Dezember 2025 umzusetzen: „Egal welchen Weg man wählt, die Herausforderungen sind vielfältig und keineswegs trivial“, erklärt er. „Es ist davon auszugehen, dass die meisten Unternehmen, die Packs noch nutzen, dies aufgrund ihrer komplexen Legacy-Prozesse tun, die zudem stark angepasst sein können.“

Auch SAP-Managerin Hameroff stimmt zu. „[Die Modernisierung von Geschäftsprozessen] ist etwas, das viele Kunden angehen mussten, als sich die Technologie weiterentwickelte“, erklärt sie. “Und es geht nicht nur um Kompatibilität. Es geht darum, die Vorteile von modern gestalteten Geschäftsprozessen zu nutzen.“

Ein Großprojekt

Moor-Analyst Kramer rät Unternehmen, die Lizenzproblematik als Großproblematik zu betrachten und keine Gnade von SAP zu erwarten. „SAP hat nicht vor, die Frist für die meisten Kunden zu verlängern. Machen Sie einen Plan, engagieren Sie die richtigen Leute, stellen Sie das nötige Budget bereit und fangen Sie jetzt an, daran zu arbeiten.“

Auch sein Kollege Bickley von der Info-Tech Research Group warnt vor den Gefahren der Nichteinhaltung. „Wer bei diesem Thema auf dem falschen Fuß erwischt wird, muss wissen: Die Versäumnis, die SAP Compatibility Packs bis zum Ablaufdatum außer Kraft zu setzen, führt wahrscheinlich zu einem Lizenzverstoß gegenüber SAP. Unternehmen sollten nicht erwarten, dass SAP Fristen verlängert oder Kulanz zeigt.“

„Stattdessen ist mit einem massiven Druck durch den Vertrieb zu rechnen, um die Kunden zu einem Upgrade auf die S/4HANA Business Suite zu bewegen – oder sie müssen mit einer formellen, intensivierten Lizenzprüfung rechnen.“ (mb)

SAP warnt vor Ende der S/4HANA Compatibility Pack-Lizenzierung​ Weiterlesen »

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​

Allgemein

Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft. Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz). Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht. Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen. Weitere Ergebnisse der Studie: Regulierung 70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend. 76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden. 88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen. Arbeitswelt 58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI). Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance. Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben. Bildungswesen 83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung. Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness. Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten. Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten. Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren. Halluzinationen werden schlimmer Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern. „Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“ KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück. Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren. Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen. „Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an. Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell. “Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“ Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind. SLMs als Retter in der Not Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen. Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind. „Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“ Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb) 

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​ Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft.

Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz).

Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht.

Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen.

Weitere Ergebnisse der Studie:

Regulierung

70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend.

76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden.

88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen.

Arbeitswelt

58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI).

Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance.

Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben.

Bildungswesen

83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung.

Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness.

Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten.

Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten.

Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren.

Halluzinationen werden schlimmer

Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern.

„Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“

KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück.

Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren.

Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen.

„Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an.

Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell.

“Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“

Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind.

SLMs als Retter in der Not

Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen.

Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind.

„Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“

Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb)

Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht​ Weiterlesen »

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​

Allgemein

Erinnerungen an Traumjobs in der Kindheit können nützlich sein, um bei Unzufriedenheit im Job ein neues Berufsbild zu entwickeln. Foto: Supamotion – shutterstock.comAstronaut, Model, Polizist, Koch, Schuhverkäufer, Jet-Pilot, manchmal sogar Bundeskanzler – Jeder Mensch hat Berufe, von denen er in jungen Jahren geträumt hat. Auch wenn nur die Allerwenigsten ihre Kindheitsträume verwirklicht haben und sie heute rückblickend manchmal sogar belächeln, sind sie doch wertvolle Schätze, die helfen können, mehr Erfüllung im Job zu finden. “Die Geschichte jedes Menschen beginnt naturgemäß in der Kindheit”, erläutert die Münchner Karriereberaterin und Diplom-Psychologin Madeleine Leitner. “Darum bieten gerade die Kindheitsträume eine wertvolle Hilfe, wenn es darum geht herauszufinden, warum Menschen heute beruflich unzufrieden sind. So helfen sie sogar bei der Karriereplanung.” Wilde Kerle, traurige RealitätTraumjobs aus der Kindheit verdeutlichen oft verblüffend das Problem in der heutigen Realität: Ein braver Familienvater, der auch im Job folgsam seinem dominanten Vorgesetzten assistiert, wollte als Kind eigentlich immer Raubritter werden und war im Gegensatz zu heute tatsächlich ein “wilder Kerl”. Oder: Eine in heftige Machtkämpfe im Management verstrickte Führungskraft war schon als Kind der Überzeugung, dass ihr Name später einmal auf einem Hochhaus stehen würde. Ein beruflich aufs Abstellgleis geratener Mitarbeiter im mittleren Management wollte als Kind zwar Matrose werden, hatte damals aber schon festgestellt, dass nur Kapitäne wirklich etwas zu sagen haben. Schon Kinder haben eine Persönlichkeit mit Vorlieben und Abneigungen. Viele Menschen verlören aber im Laufe ihres Lebens aus den unterschiedlichsten Gründen ihren eigentlichen Wesenskern, weiß die Psychologin aus ihrer Erfahrung in der Beratung von Menschen in beruflichen Umbruchsituationen. “Die Erinnerungen an frühere Traumjobs in der Kindheit geben in der Zusammenarbeit oft wertvolle Hinweise auf des Pudels sprichwörtlichen Kern: Wer bin ich eigentlich? Was macht mir wirklich Spaß, was bringt mir Erfüllung?” Madeleine Leitner, Diplom-Psychologin: “Jeder sollte einmal ganz bewusst die Vorstellung von früheren Traumjobs mit der Realität abglichen.” Foto: Madeleine Leitner Ursachen kennen, Veränderungen anstoßen Dabei warnt Leitner jedoch davor, bei der Interpretation der Ideen allzu schnelle und oberflächliche Schlussfolgerungen zu ziehen. Traumjobs können ganz unterschiedliche Vorstellungen und Motivationen zu Grunde liegen. Ein Pilot kann Touristen an ihr Urlaubsziel bringen und ihnen damit eine Freude machen, er kann als Kampfpilot das Böse bekämpfen oder als Kunstflieger kreative Showflüge entwickeln. Ein Förster kann etwas Gutes für Pflanzen und die Natur tun, Beute machen oder den Wald zu einem wirtschaftlichen Erfolgsmodell gestalten. Ein Arzt kann vor allem Menschen helfen wollen, aber auch Prestige und Wohlstand als Motivation sehen oder einfach nur ein perfekter Handwerker in seinem Spezialgebiet sein. Der amerikanische Autor John Holland unterschied sechs unterschiedliche Motive, mit denen man die Vorstellung der Menschen von ihren Traumjobs kategorisieren kann: R(ealistic): körperlich arbeitenI(nvestigative): analysieren A(rtistic): kreativ sein S(ocial): helfen, unterstützen E(nterprising): etwas managen C(onventional): verwalten Diese Kategorien erweisen sich selbst bei auf den ersten Blick sehr unterschiedlichen früheren Traumjobs eines Menschen als erstaunlich homogen. “Wenn man die daraus resultierenden Muster dann mit der aktuellen Tätigkeit und den dabei geforderten Elementen vergleicht, erkennt man zumeist sehr schnell, wo die Ursachen für Unzufriedenheit liegen”, so Leitner. Typische und besonders problematische Kombinationen sind zum Beispiel: ein “A”- lastiger, kreativer Mensch, der einen “C”-Verwaltungsjob ausübt. Auch eine “S”-Person, die primär helfen will, in ihrem Job aber vor allem Geschäfte und Umsatz generieren soll, wird in ihrem Wesenskern verletzt. Hier liegt ein wichtiger Schlüssel zum Verständnis des Veränderungsbedarfs. Feintuning statt radikalem Wechsel Dabei warnt die Psychologin jedoch ausdrücklich vor radikalen Berufswechseln. Oft reiche ein Feintuning. Mehr oder auch weniger Verantwortung, mehr oder weniger Kreativität, verwaltende oder gestaltende Tätigkeiten könne man oftmals auch im bestehenden Job übernehmen. Es komme auf die Details an, um wieder mehr Zufriedenheit im Beruf zu finden oder mehr Erfolg zu haben. Auch wenn manche Menschen ihren Kindheitsträumen bis heute nachtrauern, seien diese selten noch wirklich relevant. Wenn sie nämlich die Vorstellung von ihren früheren Traumjobs bewusst mit der Realität abglichen, führe das nicht selten schnell zur Ernüchterung. “Das sollte man aber wirklich einmal ganz bewusst tun”, rät Leitner. “Am schlimmsten ist es nämlich, ein Leben lang einem Traum nachzutrauern, der sich in Wirklichkeit als Albtraum erwiesen hätte.” 

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​ Erinnerungen an Traumjobs in der Kindheit können nützlich sein, um bei Unzufriedenheit im Job ein neues Berufsbild zu entwickeln.
Foto: Supamotion – shutterstock.comAstronaut, Model, Polizist, Koch, Schuhverkäufer, Jet-Pilot, manchmal sogar Bundeskanzler – Jeder Mensch hat Berufe, von denen er in jungen Jahren geträumt hat. Auch wenn nur die Allerwenigsten ihre Kindheitsträume verwirklicht haben und sie heute rückblickend manchmal sogar belächeln, sind sie doch wertvolle Schätze, die helfen können, mehr Erfüllung im Job zu finden. “Die Geschichte jedes Menschen beginnt naturgemäß in der Kindheit”, erläutert die Münchner Karriereberaterin und Diplom-Psychologin Madeleine Leitner. “Darum bieten gerade die Kindheitsträume eine wertvolle Hilfe, wenn es darum geht herauszufinden, warum Menschen heute beruflich unzufrieden sind. So helfen sie sogar bei der Karriereplanung.” Wilde Kerle, traurige RealitätTraumjobs aus der Kindheit verdeutlichen oft verblüffend das Problem in der heutigen Realität: Ein braver Familienvater, der auch im Job folgsam seinem dominanten Vorgesetzten assistiert, wollte als Kind eigentlich immer Raubritter werden und war im Gegensatz zu heute tatsächlich ein “wilder Kerl”. Oder: Eine in heftige Machtkämpfe im Management verstrickte Führungskraft war schon als Kind der Überzeugung, dass ihr Name später einmal auf einem Hochhaus stehen würde. Ein beruflich aufs Abstellgleis geratener Mitarbeiter im mittleren Management wollte als Kind zwar Matrose werden, hatte damals aber schon festgestellt, dass nur Kapitäne wirklich etwas zu sagen haben. Schon Kinder haben eine Persönlichkeit mit Vorlieben und Abneigungen. Viele Menschen verlören aber im Laufe ihres Lebens aus den unterschiedlichsten Gründen ihren eigentlichen Wesenskern, weiß die Psychologin aus ihrer Erfahrung in der Beratung von Menschen in beruflichen Umbruchsituationen. “Die Erinnerungen an frühere Traumjobs in der Kindheit geben in der Zusammenarbeit oft wertvolle Hinweise auf des Pudels sprichwörtlichen Kern: Wer bin ich eigentlich? Was macht mir wirklich Spaß, was bringt mir Erfüllung?” Madeleine Leitner, Diplom-Psychologin: “Jeder sollte einmal ganz bewusst die Vorstellung von früheren Traumjobs mit der Realität abglichen.”
Foto: Madeleine Leitner Ursachen kennen, Veränderungen anstoßen Dabei warnt Leitner jedoch davor, bei der Interpretation der Ideen allzu schnelle und oberflächliche Schlussfolgerungen zu ziehen. Traumjobs können ganz unterschiedliche Vorstellungen und Motivationen zu Grunde liegen. Ein Pilot kann Touristen an ihr Urlaubsziel bringen und ihnen damit eine Freude machen, er kann als Kampfpilot das Böse bekämpfen oder als Kunstflieger kreative Showflüge entwickeln. Ein Förster kann etwas Gutes für Pflanzen und die Natur tun, Beute machen oder den Wald zu einem wirtschaftlichen Erfolgsmodell gestalten. Ein Arzt kann vor allem Menschen helfen wollen, aber auch Prestige und Wohlstand als Motivation sehen oder einfach nur ein perfekter Handwerker in seinem Spezialgebiet sein. Der amerikanische Autor John Holland unterschied sechs unterschiedliche Motive, mit denen man die Vorstellung der Menschen von ihren Traumjobs kategorisieren kann: R(ealistic): körperlich arbeitenI(nvestigative): analysieren A(rtistic): kreativ sein S(ocial): helfen, unterstützen E(nterprising): etwas managen C(onventional): verwalten Diese Kategorien erweisen sich selbst bei auf den ersten Blick sehr unterschiedlichen früheren Traumjobs eines Menschen als erstaunlich homogen. “Wenn man die daraus resultierenden Muster dann mit der aktuellen Tätigkeit und den dabei geforderten Elementen vergleicht, erkennt man zumeist sehr schnell, wo die Ursachen für Unzufriedenheit liegen”, so Leitner. Typische und besonders problematische Kombinationen sind zum Beispiel: ein “A”- lastiger, kreativer Mensch, der einen “C”-Verwaltungsjob ausübt. Auch eine “S”-Person, die primär helfen will, in ihrem Job aber vor allem Geschäfte und Umsatz generieren soll, wird in ihrem Wesenskern verletzt. Hier liegt ein wichtiger Schlüssel zum Verständnis des Veränderungsbedarfs.

Feintuning statt radikalem Wechsel Dabei warnt die Psychologin jedoch ausdrücklich vor radikalen Berufswechseln. Oft reiche ein Feintuning. Mehr oder auch weniger Verantwortung, mehr oder weniger Kreativität, verwaltende oder gestaltende Tätigkeiten könne man oftmals auch im bestehenden Job übernehmen. Es komme auf die Details an, um wieder mehr Zufriedenheit im Beruf zu finden oder mehr Erfolg zu haben. Auch wenn manche Menschen ihren Kindheitsträumen bis heute nachtrauern, seien diese selten noch wirklich relevant. Wenn sie nämlich die Vorstellung von ihren früheren Traumjobs bewusst mit der Realität abglichen, führe das nicht selten schnell zur Ernüchterung. “Das sollte man aber wirklich einmal ganz bewusst tun”, rät Leitner. “Am schlimmsten ist es nämlich, ein Leben lang einem Traum nachzutrauern, der sich in Wirklichkeit als Albtraum erwiesen hätte.”

Traumberufe: Wie Kindheitsträume der Karriereplanung nutzen​ Weiterlesen »

Customer Service Experience: Die besten Helpdesk-Tools​

Allgemein

Helpdesk-Tools können einen wesentlichen Beitrag zu einer positiven Customer Service Experience leisten. Foto: Andrey Popov – shutterstock.com Software für den Helpdesk soll den Kundenservice vereinheitlichen und einen zentralen Kontaktpunkt schaffen, um Ticketing-Prozesse und Kundenprobleme abzuarbeiten und die Qualität des Customer-Service messen zu können. Dabei fokussieren Helpdesk-Tools darauf, bestimmte Aufgaben zu automatisieren, etwa: Tickets zuzuweisen, die gängigsten Fragen zu beantworten oder Probleme zu kategorisieren. Die beste Helpdesk-Software für Ihre Zwecke ist die, die optimal zu Ihren geschäftlichen Bedürfnissen und Ihrem Budget passt. Zwar bieten viele Kundenservice-Tools ähnliche Basisfunktionen, doch sie unterscheiden sich mit Blick auf die Preisstruktur und geschäftskritische Features. In diesem Artikel haben wir die besten Softwarepakete für den Service Desk zusammengetragen. Freshdesk Freshdesk von Freshworks ist eine Omnichannel-Helpdesk-Lösung, die den Kundenservice für die IT-Abteilung möglichst einfach gestalten will. Dazu nutzt sie beispielsweise automatisierte Workflows, Bots und Self-Services sowie ein Ticketing-System, das die Fachbereichs-übergreifende Bearbeitung von Problemen im Kundenservice ermöglicht. Tickets lassen sich darüber hinaus auch mehreren “Besitzern” zuweisen, zusammenfassen, um tiefergehende Problemzusammenhänge aufzulösen oder über Social-Tools mit den Kollegen zu diskutieren. Gorgias Die Helpdesk Software Gorgias richtet sich speziell an E-Commerce-Unternehmen und verspricht, den Kundenservice zum “Profit Center” zu machen – unter anderem mit Conversational AI. Damit das klappt, bietet Gorgias die Möglichkeit, alle Support-Tickets zu zentralisieren. So soll ein ganzheitliches Bild der Kunden gewährleistet werden, wenn diese den Support kontaktieren und im Ergebnis eine deutlich schnellere Supportleistung stehen. Gorgias integriert dabei mit diversen Plattformen, von Shopify über BigCommerce, Facebook und Instagram bis hin zu Gmail, Netsuite und Slack. Darüber hinaus bietet das Tool auch die Möglichkeit, Tasks zu automatisieren. HaloITSM Workflow-Automatisierung und Kommunikationszentralisierung stehen bei HaloITSM im Mittelpunkt. Das Enterprise Tool bietet ITIL-konforme Prozesse, Incident Management, ein Self-Service-Portal für die Benutzer sowie diverse Management-Funktionalitäten, um die Helpdesk-Prozesse jederzeit tracken, planen und skalieren zu können. Darüber hinaus hat HaloITSM auch eine CMDB zu bieten, um das Asset Management in Unternehmen zu zentralisieren. Der Hersteller bewirbt die Software mit dem Satz “Everything you need for IT – all in one place”. Zu den Referenzkunden gehören zum Beispiel Siemens und Atos. Hiver Für Unternehmen die auf Google, beziehungsweise Workspace setzen, könnte das Helpdesk Tool Hiver besonders interessant sein. Laut Hersteller handelt es sich um den weltweit ersten Helpdesk auf Gmail-Basis. Durch die Verknüpfung mit Workspace bietet die Software zum Beispiel die Möglichkeit, auf geteilte Inboxen direkt in Gmail zuzugreifen. Darüber hinaus stehen zahlreiche Metriken und Tracking-Möglichkeiten zur Verfügung sowie Features wie das Delegieren von Tasks oder das Hinzufügen von Notizen, was CC-Orgien den Garaus bereiten soll. Hiver bietet ausserdem auch die Möglichkeit, repetitive Tasks zu automatisieren. Hubspot Hubspot bietet eine Helpdesk- beziehungsweise Ticketing-Software, die mit der CRM-Plattform des Anbieters integriert ist. So verspricht der Hersteller einen besseren, benutzerfreundlicheren Kundenservice. Zu den Features der Helpdesk-Software zählen unter anderem automatisiertes Ticket-Routing, Live-Chatbots sowie Analytics- und Reporting-Funktionen. Jira Service Desk Mit Jira Service Desk bietet Atlassian eine kollaborative ITSM-Plattform, die Unternehmen dabei unterstützt, IT-Services schneller bereitzustellen und dabei ITIL Best Practices einzusetzen. Zu den Alleinstellungsmerkmalen der Software zählen der einfache Setup- und Konfigurationsprozess und die Möglichkeit, die Service-Management-Prozesse auf die Arbeitsweise der Teams auszurichten. Natürlich lassen sich mit Jira auch Standard Helpdesk Features wie HR-Management, IT-Support, automatisiertes Ticketing oder Collaboration-Tools zum Einsatz bringen. Daneben zeichnet sich Atlassians Software durch ihre umfassende Kompatibilität aus: Mehr als 1.000 Applikationen sind mit Jira integrierbar, so dass Anwender ihren Helpdesk zielgenau auf die Unternehmensziele ausrichten können. ManageEngine ServiceDesk Plus Incident-, Problem-, Change-, Asset- und IT-Projektmanagement vereint die Servicedesk-Software ManageEngine ServiceDesk Plus in sich. Dazu gesellen sich Reporting- und Analytics-Funktionen sowie die Möglichkeit, einen personalisierten Servicekatalog mit maßgeschneiderten SLAs und mehrstufigen Freigabeprozessen in die Tat umzusetzen. Zur Wahl stehen sowohl eine Cloud-, als auch eine On-Premises-Version. Salesforce Service Cloud Salesforce bietet mit seiner Service Cloud zahlreiche gängige Helpdesk Features – beispielsweise Omnichannel-Ticket-Routing, Kundenzufriedenheits-Tracking, Produktivitäts-Tools oder auch Knowledge-Management-Services. Die Plattform beinhaltet darüber hinaus auch Service Process Automation (SPA). Dieses Feature bezeichnet die Orchestrierung von Workflows über ein simples Point-and-Click-Interface. SPA hilft Unternehmen darüber hinaus auch mit Handlungsempfehlungen und einer unterstützten Kundenbetreuung im Serviceprozess. ServiceNow ServiceNow stellt Unternehmen eine KI-basierende Cloud-Plattform zur Verfügung, die dabei hilft, den IT-Helpdesk zu automatisieren und zu managen. Die Plattform beinhaltet Digital Workflow Apps, integriert eine intuitive Mobile Experience, unterstützt die unternehmensweite Zusammenarbeit und nutzt KI und Analytics, um bessere IT-Entscheidungen zu treffen. Ein weiteres Alleinstellungsmerkmal ist die Möglichkeit, maßgeschneiderte Apps auf Low-Code-Basis zu entwickeln. Solarwinds Die ITSM-Helpdesk-Lösung von Solarwinds richtet sich vor allem an Unternehmen, die ihre Service-Desk- Software in eine ITIL-Umgebung integrieren wollen. Die Solarwinds-Lösung beinhaltet Features wie Incident-Management-Konsolidierung, standardisierte Servicekataloge, integriertes IT-Asset-Management und ein Service-Portal für Tickets und sonstige Anfragen. Solarwinds Service Desk integriert mit mehr als 200 Cloud-Applikationen, darunter Google Cloud Platform, Amazon Web Services, Dropbox, Microsoft Azure, Slack, Jira und TeamViewer. Zendesk Unternehmen, deren Ziel ein ganzheitliches Kunden-Support-System ist, sollten sich Zendesks Omnichannel-Ticketing-System näher ansehen. Die Software befähigt Unternehmen dazu, personalisierten Support über sämtliche digitale Kanäle zu leisten. Automatsiertes Ticketing, Self-Service-Tools, ein benutzerfreundliches Interface und Collaboration-Tools gehören ebenfalls zum Paket. Zoho Desk Bei Zoho Desk handelt es sich laut Hersteller um die erste “kontextsensitive” Helpdesk-Software. Dazu nutzt das Programm die Kundendaten aus vorangegangenen Interaktionen, um Probleme im Support zielgerichtet und schnell lösen zu können. Darüber hinaus bietet auch Zoho Desk die üblichen Service-Desk-Funktionalitäten und ist kompatibel mit einer Vielzahl von Apps und Add-Ons. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Customer Service Experience: Die besten Helpdesk-Tools​ Helpdesk-Tools können einen wesentlichen Beitrag zu einer positiven Customer Service Experience leisten.
Foto: Andrey Popov – shutterstock.com

Software für den Helpdesk soll den Kundenservice vereinheitlichen und einen zentralen Kontaktpunkt schaffen, um Ticketing-Prozesse und Kundenprobleme abzuarbeiten und die Qualität des Customer-Service messen zu können. Dabei fokussieren Helpdesk-Tools darauf, bestimmte Aufgaben zu automatisieren, etwa:

Tickets zuzuweisen,

die gängigsten Fragen zu beantworten oder

Probleme zu kategorisieren.

Die beste Helpdesk-Software für Ihre Zwecke ist die, die optimal zu Ihren geschäftlichen Bedürfnissen und Ihrem Budget passt. Zwar bieten viele Kundenservice-Tools ähnliche Basisfunktionen, doch sie unterscheiden sich mit Blick auf die Preisstruktur und geschäftskritische Features. In diesem Artikel haben wir die besten Softwarepakete für den Service Desk zusammengetragen.

Freshdesk

Freshdesk von Freshworks ist eine Omnichannel-Helpdesk-Lösung, die den Kundenservice für die IT-Abteilung möglichst einfach gestalten will. Dazu nutzt sie beispielsweise automatisierte Workflows, Bots und Self-Services sowie ein Ticketing-System, das die Fachbereichs-übergreifende Bearbeitung von Problemen im Kundenservice ermöglicht. Tickets lassen sich darüber hinaus auch mehreren “Besitzern” zuweisen, zusammenfassen, um tiefergehende Problemzusammenhänge aufzulösen oder über Social-Tools mit den Kollegen zu diskutieren.

Gorgias

Die Helpdesk Software Gorgias richtet sich speziell an E-Commerce-Unternehmen und verspricht, den Kundenservice zum “Profit Center” zu machen – unter anderem mit Conversational AI. Damit das klappt, bietet Gorgias die Möglichkeit, alle Support-Tickets zu zentralisieren. So soll ein ganzheitliches Bild der Kunden gewährleistet werden, wenn diese den Support kontaktieren und im Ergebnis eine deutlich schnellere Supportleistung stehen. Gorgias integriert dabei mit diversen Plattformen, von Shopify über BigCommerce, Facebook und Instagram bis hin zu Gmail, Netsuite und Slack. Darüber hinaus bietet das Tool auch die Möglichkeit, Tasks zu automatisieren.

HaloITSM

Workflow-Automatisierung und Kommunikationszentralisierung stehen bei HaloITSM im Mittelpunkt. Das Enterprise Tool bietet ITIL-konforme Prozesse, Incident Management, ein Self-Service-Portal für die Benutzer sowie diverse Management-Funktionalitäten, um die Helpdesk-Prozesse jederzeit tracken, planen und skalieren zu können. Darüber hinaus hat HaloITSM auch eine CMDB zu bieten, um das Asset Management in Unternehmen zu zentralisieren. Der Hersteller bewirbt die Software mit dem Satz “Everything you need for IT – all in one place”. Zu den Referenzkunden gehören zum Beispiel Siemens und Atos.

Hiver

Für Unternehmen die auf Google, beziehungsweise Workspace setzen, könnte das Helpdesk Tool Hiver besonders interessant sein. Laut Hersteller handelt es sich um den weltweit ersten Helpdesk auf Gmail-Basis. Durch die Verknüpfung mit Workspace bietet die Software zum Beispiel die Möglichkeit, auf geteilte Inboxen direkt in Gmail zuzugreifen. Darüber hinaus stehen zahlreiche Metriken und Tracking-Möglichkeiten zur Verfügung sowie Features wie das Delegieren von Tasks oder das Hinzufügen von Notizen, was CC-Orgien den Garaus bereiten soll. Hiver bietet ausserdem auch die Möglichkeit, repetitive Tasks zu automatisieren.

Hubspot

Hubspot bietet eine Helpdesk- beziehungsweise Ticketing-Software, die mit der CRM-Plattform des Anbieters integriert ist. So verspricht der Hersteller einen besseren, benutzerfreundlicheren Kundenservice. Zu den Features der Helpdesk-Software zählen unter anderem automatisiertes Ticket-Routing, Live-Chatbots sowie Analytics- und Reporting-Funktionen.

Jira Service Desk

Mit Jira Service Desk bietet Atlassian eine kollaborative ITSM-Plattform, die Unternehmen dabei unterstützt, IT-Services schneller bereitzustellen und dabei ITIL Best Practices einzusetzen. Zu den Alleinstellungsmerkmalen der Software zählen der einfache Setup- und Konfigurationsprozess und die Möglichkeit, die Service-Management-Prozesse auf die Arbeitsweise der Teams auszurichten. Natürlich lassen sich mit Jira auch Standard Helpdesk Features wie HR-Management, IT-Support, automatisiertes Ticketing oder Collaboration-Tools zum Einsatz bringen. Daneben zeichnet sich Atlassians Software durch ihre umfassende Kompatibilität aus: Mehr als 1.000 Applikationen sind mit Jira integrierbar, so dass Anwender ihren Helpdesk zielgenau auf die Unternehmensziele ausrichten können.

ManageEngine ServiceDesk Plus

Incident-, Problem-, Change-, Asset- und IT-Projektmanagement vereint die Servicedesk-Software ManageEngine ServiceDesk Plus in sich. Dazu gesellen sich Reporting- und Analytics-Funktionen sowie die Möglichkeit, einen personalisierten Servicekatalog mit maßgeschneiderten SLAs und mehrstufigen Freigabeprozessen in die Tat umzusetzen. Zur Wahl stehen sowohl eine Cloud-, als auch eine On-Premises-Version.

Salesforce Service Cloud

Salesforce bietet mit seiner Service Cloud zahlreiche gängige Helpdesk Features – beispielsweise Omnichannel-Ticket-Routing, Kundenzufriedenheits-Tracking, Produktivitäts-Tools oder auch Knowledge-Management-Services. Die Plattform beinhaltet darüber hinaus auch Service Process Automation (SPA). Dieses Feature bezeichnet die Orchestrierung von Workflows über ein simples Point-and-Click-Interface. SPA hilft Unternehmen darüber hinaus auch mit Handlungsempfehlungen und einer unterstützten Kundenbetreuung im Serviceprozess.

ServiceNow

ServiceNow stellt Unternehmen eine KI-basierende Cloud-Plattform zur Verfügung, die dabei hilft, den IT-Helpdesk zu automatisieren und zu managen. Die Plattform beinhaltet Digital Workflow Apps, integriert eine intuitive Mobile Experience, unterstützt die unternehmensweite Zusammenarbeit und nutzt KI und Analytics, um bessere IT-Entscheidungen zu treffen. Ein weiteres Alleinstellungsmerkmal ist die Möglichkeit, maßgeschneiderte Apps auf Low-Code-Basis zu entwickeln.

Solarwinds

Die ITSM-Helpdesk-Lösung von Solarwinds richtet sich vor allem an Unternehmen, die ihre Service-Desk- Software in eine ITIL-Umgebung integrieren wollen. Die Solarwinds-Lösung beinhaltet Features wie Incident-Management-Konsolidierung, standardisierte Servicekataloge, integriertes IT-Asset-Management und ein Service-Portal für Tickets und sonstige Anfragen. Solarwinds Service Desk integriert mit mehr als 200 Cloud-Applikationen, darunter Google Cloud Platform, Amazon Web Services, Dropbox, Microsoft Azure, Slack, Jira und TeamViewer.

Zendesk

Unternehmen, deren Ziel ein ganzheitliches Kunden-Support-System ist, sollten sich Zendesks Omnichannel-Ticketing-System näher ansehen. Die Software befähigt Unternehmen dazu, personalisierten Support über sämtliche digitale Kanäle zu leisten. Automatsiertes Ticketing, Self-Service-Tools, ein benutzerfreundliches Interface und Collaboration-Tools gehören ebenfalls zum Paket.

Zoho Desk

Bei Zoho Desk handelt es sich laut Hersteller um die erste “kontextsensitive” Helpdesk-Software. Dazu nutzt das Programm die Kundendaten aus vorangegangenen Interaktionen, um Probleme im Support zielgerichtet und schnell lösen zu können. Darüber hinaus bietet auch Zoho Desk die üblichen Service-Desk-Funktionalitäten und ist kompatibel mit einer Vielzahl von Apps und Add-Ons. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Customer Service Experience: Die besten Helpdesk-Tools​ Weiterlesen »

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​

Allgemein

Ann Funai, CIO and VP of Business Platform Transformation, IBM Ann Funai / IBM IBM präsentierte sich auf der SAP Sapphire-Konferenz in Orlando als Consulting-Anbieter mit fundierter Erfahrung aus der eigenen, mehrjährigen Migration zu SAP S/4HANA auf IBM Power Virtual Server. Wie Ann Funai, CIO und Vice President Business Platform Transformation, berichtete, konnte das Unternehmen seit Abschluss der Migration auf SAPs Cloud-ERP-Plattform im Juli vergangenen Jahres die Kosten für den Infrastrukturbetrieb um 30 Prozent senken. Die Migration zu S/4HANA – laut Funai betreibt IBM eine der größten SAP-Installationen überhaupt – verbesserte außerdem die Bearbeitungszeiten bei der Vertragsregistrierung und steigerte die Effizienz im Rechnungswesen, indem beispielsweise die Zeit für die Rechnungserstellung verkürzt wurde. Zudem, so die IBM-CIO, habe der Wechsel vom On-Premises-ERP zur Cloud-Variante die Zahlungsabstimmung beschleunigt und Fehler in den Forderungskonten reduziert. IBM hatte 2012 sein vorher zersplittertes System aus vielen eigenen „Mini-ERP“-Lösungen auf ein einheitliches, lokales SAP-ECC-System umgestellt. Der Wechsel zur Cloud-Plattform von SAP begann so richtig dann im Jahr 2022. Geschäft auf gelernten Lektionen aufbauen Die Migration ist Teil eines umfassenden Fahrplans von IBM, seine Geschäftsprozesse zu straffen und seine IT-Systeme an das Cloud- und KI-Zeitalter anzupassen – ein zentrales Thema mehrerer IBM-Führungskräfte auf der Sapphire-Konferenz. „Wenn wir diesen sehr sauberen SAP-Kern betreiben und unsere hausgemachten Tools herausnehmen, wird unser Geschäft effizienter“, erklärte Funai, die ihre Karriere bei IBM begann und nach einigen leitenden Tech-Stationen und einer Zeit bei Under Armour als SVP of Engineering 2023 zu Big Blue zurückkehrte. Während SAP seinen großen Kundenstamm weiterhin zur Migration auf S/4HANA drängt, versucht IBM, ein wichtiger Partner und Kunde seit 52 Jahren, zögernde CIOs davon zu überzeugen, die Vorteile einer Migration jetzt zu nutzen und nicht bis zur Deadline 2027 zu warten. Aber das ist keine einfache Aufgabe. Selbst mit Unterstützung durch die umfangreiche Expertise von IBM Consulting, so räumt Funai ein, sei ein solch massives Migrationsprojekt komplex und schwierig. Immerhin bilde das ERPdas Herzstück eines jeden Unternehmens und dürfe nicht ins Stocken geraten. „Das ist das wirklich Angsteinflößende, oder?“, wandte sich die IBM-CIO ans Publikum. „Es geht um das Hauptbuch, um Ihre finanziell bedeutendste, staatlich regulierte Software. Um das, was Ihre Lieferkette und Ihre Vertriebskanäle am Laufen hält. Unternehmen sind davon abhängig, dass die Technologie einwandfrei funktioniert.” “Ich glaube, es ist nur menschlich, ein wenig Angst davor zu haben, das anzufassen. Ich denke, das ist einer der Gründe für die Schwierigkeiten“, fügte Funai hinzu. Zweifellos sind ERP-Transformationen für viele IT-Leiter eine existenzielle Herausforderung. Dennoch betonte die IBM-CIO, dass sich die Unternehmen dem unvermeidlichen Wechsel zu einem SaaS-Modell nicht widersetzen könnten, selbst wenn sie die Füße stillhalten. „Wir sehen, dass sich SAP klar in Richtung SaaS bewegt, um uns schneller mit Updates, Änderungen und Modifikationen versorgen zu können“, erklärte Funai. “Für uns ist das der richtige Weg. Es ist eine SaaS-Welt und wer noch nicht dabei ist, wird früher oder später dort landen. So sieht moderne IT aus.” Mit den bisherigen Ergebnissen der Migration zu S/4HANA, an der rund 400 IBM-Mitarbeiter beteiligt waren, ist Funai zufrieden. Die ERP-Betriebsabläufe seien heute deutlich schlanker und besser zu verwalten, berichtete sie. “Durch die Abschaltung der Altsysteme und die Senkung unserer Infrastruktur- und Betriebskosten konnten wir insgesamt etwa 30 Prozent einsparen. Und das ist nur die Systemkonsolidierung. Hinzu kommt die Automatisierung, die wir einführen konnten”, so Funai. „Und aus CIO-Sicht besonders wichtig: Ich brauche nur noch ein einziges Team für das System. Das hat uns enorm geholfen.“ Weil IBMs internes IT-Team die typischen Hürden und Herausforderungen selbst gemeistert hat, sieht Funai darin einen entscheidenden Vorteil in der Beratung von Kunden: „Jeder CIO, mit dem ich spreche – egal ob aus dem Einzelhandel, der Finanzwelt oder der Logistik – hat dieselben Sorgen wie ich damals“, erklärte sie. „Und wir können zeigen, wie wir Planung, Testphasen und Business-Alignment gemeistert haben. Das zeigt, was möglich ist.“ Eine herausfordernde Reise Zweifellos ist es hilfreich, IBM Consulting Services im Haus zu haben, gibt Funai selbst zu. Forrester-Analystin Akshara Naik Lopez stimmt dem zu. „IBM konnte sich in der Leader–Kategorie für SAP-Services platzieren – das ist die höchste Kategorie in einer Forrester Wave-Bewertung“, erklärte sie. „Das ist eine ziemlich große Sache, was die Bewertung ihrer SAP-Servicekompetenz im Vergleich zu anderen weltweit aktiven Systemintegratoren angeht. Neben IBMs SAP-Einheit sind Accenture, Deloitte und CapGemini die einzigen IT-Dienstleister in der Leader-Kategorie.“ Natürlich bietet SAP seinen Unternehmenskunden verschiedene Wege zur Migration auf SAP S4/HANA an und 2027 ist für große Kunden keine harte Deadline, betonen Analysten. Laut Gartner setzen SAP-Kunden ihre Verlagerung in die Cloud fort – Workloads eingeschlossen, die auf der SAP ABAP Platform und SAP NetWeaver basieren. Und während IBM seine Plattform teilweise auf der IBM-Cloud betreibt, ziehen es die meisten Kunden vor, ihre SAP-Workloads auf ihren bevorzugten Hyperscaler-Clouds zu betreiben. Die IBM-Cloud ist dort eher unüblich und macht laut aktuellen Gartner-Zahlen nur 1,5 Prozent des weltweiten Cloud-Marktanteils aus. Das Hauptaugenmerk von Funai liegt jedoch darauf, die Effizienz im eigenen Haus zu steigern. Die Standardisierung auf SAP nach einer Vergangenheit mit verschiedenen ERP-Systemen hat auch den Integrationsprozess großer zugekaufter Unternehmen erleichtert, darunter Red Hat, Apptio, DataStax, Hakkoda und HashiCorp. „Ein einziges ERP-System zu haben, wenn man ein anderes globales Unternehmen übernimmt, ist eine Erleichterung für den Fusions- und Übernahmeprozess“, erklärte Funai. Auch SAP macht weiterhin Fortschritte dabei, Kunden für die Cloud-Transformation zu gewinnen. Laut Gartner hatten bis Ende 2024 etwa 39 Prozent der weltweiten ECC-Kunden, rund 35.000 Unternehmen Lizenzen gekauft oder abonniert, um den Übergang zu SAP S/4HANA zu starten. Zu diesem Zeitpunkt hatte S/4HANA rund 26.900 Kunden, wobei etwa 62 Prozent der im späten letzten Jahr hinzugekommenen Kunden komplett neu waren. Rise with SAP hebt nicht ab Dennoch betont Gartner, dass sich die Walldorfer mit dem Vertrieb von Rise with SAP schwertun. Vier Jahre nach dem Start des Angebots, das S/4HANA mit SAP-Dienstleistungen bündelt, um bestehende ERP-Systeme in die Cloud zu migrieren, würden viele Organisationen weiterhin „Zweifel am Mehrwert des Angebots äußern“, so die Analysten. Im April 2025 schätzte Gartner, dass rund 5.800 Kunden RISE-Verträge unterzeichnet haben, was 22 Prozent des bisherigen Gesamtumsatzes mit S/4HANA entspricht. Für IBM-CIO Funai hat sich die frühzeitige Migration jedoch bereits ausgezahlt, unter anderem in Form eines „höheren freien Cashflows und echten Produktivitätseinsparungen“, wie sie betont – ganz zu schweigen davon, dass sich Mitarbeitende um höherwertige Aufgaben kümmern könnten. „Aus CIO-Perspektive lassen sich jetzt einige der heikelsten Backoffice-Bereiche von IBM deutlich einfacher verwalten und warten“, so Funai. „Wir können kluge Köpfe für strategisch wichtigere Aufgaben bei IBM einsetzen.” (mb)   

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​ Ann Funai, CIO and VP of Business Platform Transformation, IBM
Ann Funai / IBM

IBM präsentierte sich auf der SAP Sapphire-Konferenz in Orlando als Consulting-Anbieter mit fundierter Erfahrung aus der eigenen, mehrjährigen Migration zu SAP S/4HANA auf IBM Power Virtual Server. Wie Ann Funai, CIO und Vice President Business Platform Transformation, berichtete, konnte das Unternehmen seit Abschluss der Migration auf SAPs Cloud-ERP-Plattform im Juli vergangenen Jahres die Kosten für den Infrastrukturbetrieb um 30 Prozent senken.

Die Migration zu S/4HANA – laut Funai betreibt IBM eine der größten SAP-Installationen überhaupt – verbesserte außerdem die Bearbeitungszeiten bei der Vertragsregistrierung und steigerte die Effizienz im Rechnungswesen, indem beispielsweise die Zeit für die Rechnungserstellung verkürzt wurde. Zudem, so die IBM-CIO, habe der Wechsel vom On-Premises-ERP zur Cloud-Variante die Zahlungsabstimmung beschleunigt und Fehler in den Forderungskonten reduziert.

IBM hatte 2012 sein vorher zersplittertes System aus vielen eigenen „Mini-ERP“-Lösungen auf ein einheitliches, lokales SAP-ECC-System umgestellt. Der Wechsel zur Cloud-Plattform von SAP begann so richtig dann im Jahr 2022.

Geschäft auf gelernten Lektionen aufbauen

Die Migration ist Teil eines umfassenden Fahrplans von IBM, seine Geschäftsprozesse zu straffen und seine IT-Systeme an das Cloud- und KI-Zeitalter anzupassen – ein zentrales Thema mehrerer IBM-Führungskräfte auf der Sapphire-Konferenz.

„Wenn wir diesen sehr sauberen SAP-Kern betreiben und unsere hausgemachten Tools herausnehmen, wird unser Geschäft effizienter“, erklärte Funai, die ihre Karriere bei IBM begann und nach einigen leitenden Tech-Stationen und einer Zeit bei Under Armour als SVP of Engineering 2023 zu Big Blue zurückkehrte.

Während SAP seinen großen Kundenstamm weiterhin zur Migration auf S/4HANA drängt, versucht IBM, ein wichtiger Partner und Kunde seit 52 Jahren, zögernde CIOs davon zu überzeugen, die Vorteile einer Migration jetzt zu nutzen und nicht bis zur Deadline 2027 zu warten.

Aber das ist keine einfache Aufgabe. Selbst mit Unterstützung durch die umfangreiche Expertise von IBM Consulting, so räumt Funai ein, sei ein solch massives Migrationsprojekt komplex und schwierig. Immerhin bilde das ERPdas Herzstück eines jeden Unternehmens und dürfe nicht ins Stocken geraten.

„Das ist das wirklich Angsteinflößende, oder?“, wandte sich die IBM-CIO ans Publikum. „Es geht um das Hauptbuch, um Ihre finanziell bedeutendste, staatlich regulierte Software. Um das, was Ihre Lieferkette und Ihre Vertriebskanäle am Laufen hält. Unternehmen sind davon abhängig, dass die Technologie einwandfrei funktioniert.”

“Ich glaube, es ist nur menschlich, ein wenig Angst davor zu haben, das anzufassen. Ich denke, das ist einer der Gründe für die Schwierigkeiten“, fügte Funai hinzu.

Zweifellos sind ERP-Transformationen für viele IT-Leiter eine existenzielle Herausforderung. Dennoch betonte die IBM-CIO, dass sich die Unternehmen dem unvermeidlichen Wechsel zu einem SaaS-Modell nicht widersetzen könnten, selbst wenn sie die Füße stillhalten.

„Wir sehen, dass sich SAP klar in Richtung SaaS bewegt, um uns schneller mit Updates, Änderungen und Modifikationen versorgen zu können“, erklärte Funai. “Für uns ist das der richtige Weg. Es ist eine SaaS-Welt und wer noch nicht dabei ist, wird früher oder später dort landen. So sieht moderne IT aus.”

Mit den bisherigen Ergebnissen der Migration zu S/4HANA, an der rund 400 IBM-Mitarbeiter beteiligt waren, ist Funai zufrieden. Die ERP-Betriebsabläufe seien heute deutlich schlanker und besser zu verwalten, berichtete sie.

“Durch die Abschaltung der Altsysteme und die Senkung unserer Infrastruktur- und Betriebskosten konnten wir insgesamt etwa 30 Prozent einsparen. Und das ist nur die Systemkonsolidierung. Hinzu kommt die Automatisierung, die wir einführen konnten”, so Funai. „Und aus CIO-Sicht besonders wichtig: Ich brauche nur noch ein einziges Team für das System. Das hat uns enorm geholfen.“

Weil IBMs internes IT-Team die typischen Hürden und Herausforderungen selbst gemeistert hat, sieht Funai darin einen entscheidenden Vorteil in der Beratung von Kunden: „Jeder CIO, mit dem ich spreche – egal ob aus dem Einzelhandel, der Finanzwelt oder der Logistik – hat dieselben Sorgen wie ich damals“, erklärte sie. „Und wir können zeigen, wie wir Planung, Testphasen und Business-Alignment gemeistert haben. Das zeigt, was möglich ist.“

Eine herausfordernde Reise

Zweifellos ist es hilfreich, IBM Consulting Services im Haus zu haben, gibt Funai selbst zu. Forrester-Analystin Akshara Naik Lopez stimmt dem zu. „IBM konnte sich in der Leader–Kategorie für SAP-Services platzieren – das ist die höchste Kategorie in einer Forrester Wave-Bewertung“, erklärte sie. „Das ist eine ziemlich große Sache, was die Bewertung ihrer SAP-Servicekompetenz im Vergleich zu anderen weltweit aktiven Systemintegratoren angeht. Neben IBMs SAP-Einheit sind Accenture, Deloitte und CapGemini die einzigen IT-Dienstleister in der Leader-Kategorie.“

Natürlich bietet SAP seinen Unternehmenskunden verschiedene Wege zur Migration auf SAP S4/HANA an und 2027 ist für große Kunden keine harte Deadline, betonen Analysten.

Laut Gartner setzen SAP-Kunden ihre Verlagerung in die Cloud fort – Workloads eingeschlossen, die auf der SAP ABAP Platform und SAP NetWeaver basieren. Und während IBM seine Plattform teilweise auf der IBM-Cloud betreibt, ziehen es die meisten Kunden vor, ihre SAP-Workloads auf ihren bevorzugten Hyperscaler-Clouds zu betreiben. Die IBM-Cloud ist dort eher unüblich und macht laut aktuellen Gartner-Zahlen nur 1,5 Prozent des weltweiten Cloud-Marktanteils aus.

Das Hauptaugenmerk von Funai liegt jedoch darauf, die Effizienz im eigenen Haus zu steigern. Die Standardisierung auf SAP nach einer Vergangenheit mit verschiedenen ERP-Systemen hat auch den Integrationsprozess großer zugekaufter Unternehmen erleichtert, darunter Red Hat, Apptio, DataStax, Hakkoda und HashiCorp.

„Ein einziges ERP-System zu haben, wenn man ein anderes globales Unternehmen übernimmt, ist eine Erleichterung für den Fusions- und Übernahmeprozess“, erklärte Funai.

Auch SAP macht weiterhin Fortschritte dabei, Kunden für die Cloud-Transformation zu gewinnen. Laut Gartner hatten bis Ende 2024 etwa 39 Prozent der weltweiten ECC-Kunden, rund 35.000 Unternehmen Lizenzen gekauft oder abonniert, um den Übergang zu SAP S/4HANA zu starten. Zu diesem Zeitpunkt hatte S/4HANA rund 26.900 Kunden, wobei etwa 62 Prozent der im späten letzten Jahr hinzugekommenen Kunden komplett neu waren.

Rise with SAP hebt nicht ab

Dennoch betont Gartner, dass sich die Walldorfer mit dem Vertrieb von Rise with SAP schwertun. Vier Jahre nach dem Start des Angebots, das S/4HANA mit SAP-Dienstleistungen bündelt, um bestehende ERP-Systeme in die Cloud zu migrieren, würden viele Organisationen weiterhin „Zweifel am Mehrwert des Angebots äußern“, so die Analysten. Im April 2025 schätzte Gartner, dass rund 5.800 Kunden RISE-Verträge unterzeichnet haben, was 22 Prozent des bisherigen Gesamtumsatzes mit S/4HANA entspricht.

Für IBM-CIO Funai hat sich die frühzeitige Migration jedoch bereits ausgezahlt, unter anderem in Form eines „höheren freien Cashflows und echten Produktivitätseinsparungen“, wie sie betont – ganz zu schweigen davon, dass sich Mitarbeitende um höherwertige Aufgaben kümmern könnten.

„Aus CIO-Perspektive lassen sich jetzt einige der heikelsten Backoffice-Bereiche von IBM deutlich einfacher verwalten und warten“, so Funai. „Wir können kluge Köpfe für strategisch wichtigere Aufgaben bei IBM einsetzen.” (mb)  

IBMs gewaltige SAP S/4HANA-Migration scheint sich auszuzahlen​ Weiterlesen »

Ein NFL-Stadion wird Fussball-WM-ready​

Allgemein

Das Gillette Stadium nahe Boston erhält ein umfassendes Netzwerk-Upgrade. Joseph Sohm | shutterstock.com Das NFL-Team der New England Patriots hofft darauf, mit neuem Cheftrainer und umgestaltetem Kader nach einigen schlechten Jahren wieder in die Erfolgsspur zu kommen. Abseits des Spielfelds hat sich der Teambesitzer, die Kraft Group, mit dem KI-Serviceanbieter NWN zusammengetan, um auch aus technologischer Perspektive künftig wieder ganz vorne mitzuspielen. Das umfangreichste und prestigeträchtigste Unterfangen ist dabei ein umfassendes Netzwerk-Upgrade für das (2002 eingeweihte) Gillette Stadium in Foxboro im US-Bundesstaat Massachusetts. Das 65.000 Zuschauer fassende Stadion ist nicht nur die Heimspielstätte der Patriots, sondern auch (noch) der Major-League-Soccer-Mannschaft New England Revolution – und kommt darüber hinaus als Veranstaltungsort für diverse, publikumswirksame Anlässe zum Einsatz. Etwa Monster-Truck-Spektakel oder Konzerte von Stars wie Taylor Swift und Beyoncé. Davon abgesehen, ist das Gillette Stadium zu sieben Gelegenheiten auch als Spielstätte bei der kommenden Fußballweltmeisterschaft 2026 in den USA vorgesehen – unter anderem findet dort auch ein Viertelfinale statt. “Das Gillette Stadium wird ganzjährig für eine Vielzahl von Veranstaltungen genutzt und sollte unseren Gästen so viel Komfort wie möglich bieten”, postuliert Jim Nolan, COO von Kraft Sports and Entertainment, den Anspruch. Er ergänzt: “Unsere Partnerschaft mit NWN gewährleistet, dass wir über die neuesten technischen Möglichkeiten verfügen, um die Erwartungen der Fans zu übertreffen. Diese neuen Möglichkeiten sind in Kombination mit den bereits vorhandenen und der Branchenerfahrung von NWN der Schlüssel dazu, unsere Einrichtungen zu einem Ort zu machen, an dem man immer in Verbindung bleiben kann.” Meisterschaftliche Bandbreitenherausforderungen Für Michael Israel, den CIO der Kraft Group, bedeutet das in erster Linie eine ganze Menge Arbeit. Unter anderem ist der IT-Entscheider gerade damit beschäftigt, sein altgedientes VoIP-Netzwerk auf eine neue, Cloud-basierte VoIP-Plattform von Cisco zu migrieren. Der Technologiepartner NWN kümmert sich dabei darum, das Projekt zu implementieren und zu managen. Zudem wird neben dem Gillette-Stadion derzeit auch eine neue, hochmoderne Trainingseinrichtung für das NFL-Team der Patriots hochgezogen. Sie soll im April 2026 eröffnet werden. Entsprechend müssen das Netzwerk in und um das Stadion sowie sämtliche Applikationen, die darauf laufen sollen, bis zu diesem Zeitpunkt entworfen, getestet und einsatzbereit sein. Ungeachtet dessen beobachten die Verantwortlichen schon längere Zeit eine beständig steigende Nachfrage nach Netzwerkkapazität – auch getrieben durch die zunehmende Social-Media-Nutzung (vor allem) jüngerer Stadionbesucher. So fanden sich bei einem Taylor-Swift-Konzert rund 10.000 Menschen auf dem Parkplatz des Gillette Stadium ein. Allerdings ohne Tickets, denn sie waren wegen einer TikTok-Challenge vor Ort. Laut Kraft-CIO Israel sei das eine zusätzliche, unerwartete Belastung für das Netzwerk gewesen, mit der er in ähnlicher Weise auch für die Fußballweltmeisterschaft rechne. “Deshalb arbeiten wir daran, auch die drahtlose Konnektivität in den Fan-Zonen außerhalb des Stadions zu optimieren”, so der Manager. Speziell um den für die WM 2026 erwarteten Fan-Massen aus aller Welt ein optimales Erlebnis bieten zu können, steht der CIO auch direkt mit dem Weltfussballverband FIFA im Austausch. Mit Blick auf den Andrang und die Aufmerksamkeit, so Israel, sei jedes einzelne Spiel der Fussballweltmeisterschaft als Äquivalent zum Super Bowl zu betrachten. Aus Business-Perspektive müsse das zugrundeliegende Cisco-Netzwerk deshalb in der Lage sein, sämtliche neuen, bandbreitenintensiven Anwendungen mühelos zu stemmen – von der Gesichtserkennung an den Eingängen über digitale Bezahlvorgänge an den Verkaufsständen bis hin zur Wireless-Anbindung der Point-of-Sale-Systeme. Die längerfristige Technologie-Roadmap für das Gillette Stadium sieht außerdem vor: die 1.800 Wi-Fi-6-Zugangspunkte auf Wi-Fi 6E oder 7 zu upgraden, 80 physische und virtuelle Cisco Firewalls im Netzwerk zu aktualisieren, sowie ein umfassendes Netzwerkkonsolidierungsprojekt. Aus Besucher-, beziehungsweise Kundensicht sind insbesondere folgende, geplante Features erwähnenswert: In Kooperation mit Wicket Software plant die Kraft Group, Gesichtserkennung einzusetzen, um Besucher biometrisch zu erfassen und ihnen so schnellen und reibungslosen Zutritt zum Stadion zu gewähren – ganz ohne Schlange stehen. Dabei sollen die Fans dazu eingeladen werden, das System auf ihren eigenen Geräten zu nutzen. Sind sie damit einverstanden, genügt es die App zu installieren und einen Selfie zu schießen. Laut Kraft-CIO Israel ist die Technologie in der Lage, Gesichter in weniger als einer Sekunde zu identifizieren – selbst wenn die betreffende Person einen Hut, eine Maske oder eine Brille trägt. Neben den Vorteilen für die Besucher senkt die Technologie außerdem die Verwaltungs- und Personalkosten der Kraft-Gruppe. Probleme, den Sitzplatz zu finden oder sich in den Katakomben hoffnungslos verlaufen sind bei Stadionbesuchen nichts Ungewöhnliches. Deshalb plant die Kraft Group auch eine Wegweiser-Applikation, die auf Technologie des Mapping-Spezialisten Concept 3D sowie der Kartierungssoftware von Esri basiert. Die resultierende App soll die Besucher schnurstracks zu ihrem Ziel, beziehungsweise den sie umgebenden Services geleiten. Mit dem Ausbau des IPTV-Netzwerks sollen sowohl das digitale Fernseherlebnis für die Fans zuhause mit interaktiven Funktionen als auch das Engagement der Besucher vor Ort optimiert werden. Laut dem CIO ergründet die Kraft Group außerdem die Möglichkeit, künftig digitale Wallets im Stadion einzusetzen. Das soll den Fans ermöglichen, Produkte und Dienstleistungen innerhalb des Stadions schnell und einfach mit ihrem Smartphone zu bezahlen – statt erst nach Bargeld oder einer Bezahlkarte kramen zu müssen. Und damit nicht genug: Die Kraft Group bemüht sich zur Zeit außerdem um eine Baugenehmigung für ein neues Stadion, das nördlich von Boston in Everett, Massachusetts, entstehen soll und dem MLS-Team von New England als neue Heimat dienen soll. Falls dieses Projekt realisiert wird, muss sich CIO Israel um die IT einer weiteren Sportstätte kümmern. Immerhin wären beide Stadien nur lediglich 40 Kilometer voneinander entfernt. KI-Vorteile auch für die Teams Ein weiterer interessanter Aspekt der technischen Umgestaltung betrifft das bereits angesprochene, hochmoderne Trainingsareal für das NFL-Team der New England Patriots. Das soll künftig auch die Büroräume für das Management des Fussball-Teams von New England sowie Meeting-Räume und ein Pressebüro beherbergen. Die zentrale Netzwerkinfrastruktur besteht dabei laut Israel aus einer Kombination von Cisco- und Extreme-Networks-Geräten – in Kombination mit HPE Aruba ClearPass für die Authentifizierung und Zugangskontrolle sowie Cisco WebEx für die Zusammenarbeit. “Mit den KI-gestützten Diensten von NWN können die Trainer ihren Teams aktualisierte Besprechungszeiten, Trainingspläne und strategische Informationen direkt auf ihre iPads schicken”, stellt der Kraft-Manager in Aussicht und ergänzt, dass künftig auch Virtual Reality zum Einsatz kommen soll, um den Spielern eine intensivere Möglichkeit zur Verfügung zu stellen, ihre eigene Performance zu analysieren und sich auf anstehende Partien vorzubereiten. Darüber hinaus soll auch die Trainingsanlage selbst künftig technologiegesteuert zum “Leben erwachen”: Ein KI-basiertes Umgebungssystem passt die Temperatur an, schaltet Beleuchtung und Geräte ein, wenn eine Person den Raum betritt – und optimiert so ganz allgemein den Arbeitsbereich für Trainer und Spieler. Für die Kraft Group endet die Kooperation mit NWN jedoch nicht im Stadion, wie Israel festhält: “Über den Fußballkomplex hinaus wird die Zusammenarbeit mit NWN uns in die Lage versetzen, unsere Netzwerke in anderen Geschäftsbereichen – etwa der Rand Whitney Group – zu optimieren und so Zusammenarbeit, Netzwerkzuverlässigkeit und geschäftliche Agilität auf ein neues Level zu bringen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ein NFL-Stadion wird Fussball-WM-ready​ Das Gillette Stadium nahe Boston erhält ein umfassendes Netzwerk-Upgrade. Joseph Sohm | shutterstock.com

Das NFL-Team der New England Patriots hofft darauf, mit neuem Cheftrainer und umgestaltetem Kader nach einigen schlechten Jahren wieder in die Erfolgsspur zu kommen. Abseits des Spielfelds hat sich der Teambesitzer, die Kraft Group, mit dem KI-Serviceanbieter NWN zusammengetan, um auch aus technologischer Perspektive künftig wieder ganz vorne mitzuspielen. Das umfangreichste und prestigeträchtigste Unterfangen ist dabei ein umfassendes Netzwerk-Upgrade für das (2002 eingeweihte) Gillette Stadium in Foxboro im US-Bundesstaat Massachusetts.

Das 65.000 Zuschauer fassende Stadion ist nicht nur die Heimspielstätte der Patriots, sondern auch (noch) der Major-League-Soccer-Mannschaft New England Revolution – und kommt darüber hinaus als Veranstaltungsort für diverse, publikumswirksame Anlässe zum Einsatz. Etwa Monster-Truck-Spektakel oder Konzerte von Stars wie Taylor Swift und Beyoncé. Davon abgesehen, ist das Gillette Stadium zu sieben Gelegenheiten auch als Spielstätte bei der kommenden Fußballweltmeisterschaft 2026 in den USA vorgesehen – unter anderem findet dort auch ein Viertelfinale statt.

“Das Gillette Stadium wird ganzjährig für eine Vielzahl von Veranstaltungen genutzt und sollte unseren Gästen so viel Komfort wie möglich bieten”, postuliert Jim Nolan, COO von Kraft Sports and Entertainment, den Anspruch. Er ergänzt: “Unsere Partnerschaft mit NWN gewährleistet, dass wir über die neuesten technischen Möglichkeiten verfügen, um die Erwartungen der Fans zu übertreffen. Diese neuen Möglichkeiten sind in Kombination mit den bereits vorhandenen und der Branchenerfahrung von NWN der Schlüssel dazu, unsere Einrichtungen zu einem Ort zu machen, an dem man immer in Verbindung bleiben kann.”

Meisterschaftliche Bandbreitenherausforderungen

Für Michael Israel, den CIO der Kraft Group, bedeutet das in erster Linie eine ganze Menge Arbeit. Unter anderem ist der IT-Entscheider gerade damit beschäftigt, sein altgedientes VoIP-Netzwerk auf eine neue, Cloud-basierte VoIP-Plattform von Cisco zu migrieren. Der Technologiepartner NWN kümmert sich dabei darum, das Projekt zu implementieren und zu managen. Zudem wird neben dem Gillette-Stadion derzeit auch eine neue, hochmoderne Trainingseinrichtung für das NFL-Team der Patriots hochgezogen. Sie soll im April 2026 eröffnet werden. Entsprechend müssen das Netzwerk in und um das Stadion sowie sämtliche Applikationen, die darauf laufen sollen, bis zu diesem Zeitpunkt entworfen, getestet und einsatzbereit sein.

Ungeachtet dessen beobachten die Verantwortlichen schon längere Zeit eine beständig steigende Nachfrage nach Netzwerkkapazität – auch getrieben durch die zunehmende Social-Media-Nutzung (vor allem) jüngerer Stadionbesucher. So fanden sich bei einem Taylor-Swift-Konzert rund 10.000 Menschen auf dem Parkplatz des Gillette Stadium ein. Allerdings ohne Tickets, denn sie waren wegen einer TikTok-Challenge vor Ort. Laut Kraft-CIO Israel sei das eine zusätzliche, unerwartete Belastung für das Netzwerk gewesen, mit der er in ähnlicher Weise auch für die Fußballweltmeisterschaft rechne. “Deshalb arbeiten wir daran, auch die drahtlose Konnektivität in den Fan-Zonen außerhalb des Stadions zu optimieren”, so der Manager.

Speziell um den für die WM 2026 erwarteten Fan-Massen aus aller Welt ein optimales Erlebnis bieten zu können, steht der CIO auch direkt mit dem Weltfussballverband FIFA im Austausch. Mit Blick auf den Andrang und die Aufmerksamkeit, so Israel, sei jedes einzelne Spiel der Fussballweltmeisterschaft als Äquivalent zum Super Bowl zu betrachten. Aus Business-Perspektive müsse das zugrundeliegende Cisco-Netzwerk deshalb in der Lage sein, sämtliche neuen, bandbreitenintensiven Anwendungen mühelos zu stemmen – von der Gesichtserkennung an den Eingängen über digitale Bezahlvorgänge an den Verkaufsständen bis hin zur Wireless-Anbindung der Point-of-Sale-Systeme. Die längerfristige Technologie-Roadmap für das Gillette Stadium sieht außerdem vor:

die 1.800 Wi-Fi-6-Zugangspunkte auf Wi-Fi 6E oder 7 zu upgraden,

80 physische und virtuelle Cisco Firewalls im Netzwerk zu aktualisieren, sowie

ein umfassendes Netzwerkkonsolidierungsprojekt.

Aus Besucher-, beziehungsweise Kundensicht sind insbesondere folgende, geplante Features erwähnenswert:

In Kooperation mit Wicket Software plant die Kraft Group, Gesichtserkennung einzusetzen, um Besucher biometrisch zu erfassen und ihnen so schnellen und reibungslosen Zutritt zum Stadion zu gewähren – ganz ohne Schlange stehen. Dabei sollen die Fans dazu eingeladen werden, das System auf ihren eigenen Geräten zu nutzen. Sind sie damit einverstanden, genügt es die App zu installieren und einen Selfie zu schießen. Laut Kraft-CIO Israel ist die Technologie in der Lage, Gesichter in weniger als einer Sekunde zu identifizieren – selbst wenn die betreffende Person einen Hut, eine Maske oder eine Brille trägt. Neben den Vorteilen für die Besucher senkt die Technologie außerdem die Verwaltungs- und Personalkosten der Kraft-Gruppe.

Probleme, den Sitzplatz zu finden oder sich in den Katakomben hoffnungslos verlaufen sind bei Stadionbesuchen nichts Ungewöhnliches. Deshalb plant die Kraft Group auch eine Wegweiser-Applikation, die auf Technologie des Mapping-Spezialisten Concept 3D sowie der Kartierungssoftware von Esri basiert. Die resultierende App soll die Besucher schnurstracks zu ihrem Ziel, beziehungsweise den sie umgebenden Services geleiten.

Mit dem Ausbau des IPTV-Netzwerks sollen sowohl das digitale Fernseherlebnis für die Fans zuhause mit interaktiven Funktionen als auch das Engagement der Besucher vor Ort optimiert werden.

Laut dem CIO ergründet die Kraft Group außerdem die Möglichkeit, künftig digitale Wallets im Stadion einzusetzen. Das soll den Fans ermöglichen, Produkte und Dienstleistungen innerhalb des Stadions schnell und einfach mit ihrem Smartphone zu bezahlen – statt erst nach Bargeld oder einer Bezahlkarte kramen zu müssen.

Und damit nicht genug: Die Kraft Group bemüht sich zur Zeit außerdem um eine Baugenehmigung für ein neues Stadion, das nördlich von Boston in Everett, Massachusetts, entstehen soll und dem MLS-Team von New England als neue Heimat dienen soll. Falls dieses Projekt realisiert wird, muss sich CIO Israel um die IT einer weiteren Sportstätte kümmern. Immerhin wären beide Stadien nur lediglich 40 Kilometer voneinander entfernt.

KI-Vorteile auch für die Teams

Ein weiterer interessanter Aspekt der technischen Umgestaltung betrifft das bereits angesprochene, hochmoderne Trainingsareal für das NFL-Team der New England Patriots. Das soll künftig auch die Büroräume für das Management des Fussball-Teams von New England sowie Meeting-Räume und ein Pressebüro beherbergen. Die zentrale Netzwerkinfrastruktur besteht dabei laut Israel aus einer Kombination von Cisco- und Extreme-Networks-Geräten – in Kombination mit HPE Aruba ClearPass für die Authentifizierung und Zugangskontrolle sowie Cisco WebEx für die Zusammenarbeit.

“Mit den KI-gestützten Diensten von NWN können die Trainer ihren Teams aktualisierte Besprechungszeiten, Trainingspläne und strategische Informationen direkt auf ihre iPads schicken”, stellt der Kraft-Manager in Aussicht und ergänzt, dass künftig auch Virtual Reality zum Einsatz kommen soll, um den Spielern eine intensivere Möglichkeit zur Verfügung zu stellen, ihre eigene Performance zu analysieren und sich auf anstehende Partien vorzubereiten. Darüber hinaus soll auch die Trainingsanlage selbst künftig technologiegesteuert zum “Leben erwachen”: Ein KI-basiertes Umgebungssystem passt die Temperatur an, schaltet Beleuchtung und Geräte ein, wenn eine Person den Raum betritt – und optimiert so ganz allgemein den Arbeitsbereich für Trainer und Spieler.

Für die Kraft Group endet die Kooperation mit NWN jedoch nicht im Stadion, wie Israel festhält: “Über den Fußballkomplex hinaus wird die Zusammenarbeit mit NWN uns in die Lage versetzen, unsere Netzwerke in anderen Geschäftsbereichen – etwa der Rand Whitney Group – zu optimieren und so Zusammenarbeit, Netzwerkzuverlässigkeit und geschäftliche Agilität auf ein neues Level zu bringen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ein NFL-Stadion wird Fussball-WM-ready​ Weiterlesen »

Microsoft vs. Google: Kampf der KI-Konzepte​

Allgemein

Microsoft und Google verfolgen unterschiedliche Strategien bei KI-Agenten für die Arbeitswelt.  kovop – shutterstock.com KI-Agenten werden immer ausgefeilter, doch darüber, wie sie richtig eingesetzt werden, lässt sich streiten. Mit Microsoft und Google zeigen zwei Schwergewichte der Tech-Branche, dass sich dabei ganz unterschiedliche Ansätze verfolgen lassen. Beide Unternehmen kündigten unlängst eine Anzahl neuer Agenten an, unter anderem mit dem Ziel, einen Mehrwert aus Unternehmensdokumenten zu ziehen. Die Tech-Giganten deuteten dabei an, welche Richtung ihre KI-Agenten in Microsoft 365 und Google Workspace einschlagen sollen. Hunderte spezialisierte KI-Funktionen bei Microsoft Microsofts Ansatz ist es demnach, seinen KI-Assistenten Copilot in eine Reihe von Tools umzugestalten. Hiermit sollen sich dann Erkenntnisse auf individueller und organisatorischer Ebene erstellen, erschließen und umsetzen lassen. Die Roadmap von Microsoft 365 listet Hunderte von spezialisierten KI-Tools auf, die derzeit entwickelt werden. Ihr Ziel soll es sein, die Arbeit im Personalwesen und in der Buchhaltung zu automatisieren. Das Unternehmen entwickelt zusätzlich kleinere KI-Modelle um bestimmte Spezialfunktionen auszuführen. Ein großer, vielseitiger Agent bei Google Google wiederum geht den umgekehrten Weg, indem es sein Large Language Model (LLM) Gemini in den Mittelpunkt der Workspace-Plattform stellt . Das Unternehmen bietet Tools wie Gems für Mitarbeitende, um einfache benutzerdefinierte Agenten zu erstellen. Sie sollen damit in der Lage sein, Aufgaben wie den Kundendienst zu automatisieren. Um komplexere benutzerdefinierte Agenten für die Zusammenarbeit und das Workflow-Management zu erstellen, gibt es Agentspace in der Google-Cloud. Zusätzlich hat Google auf der Entwicklerkonferenz Google I/O angekündigt, eine Echtzeit-Sprachübersetzung zu Google Meet hinzuzufügen. Verschiedene Unternehmensphilosophien Experten sehen in den unterschiedlichen Ausrichtungen der KI-Agenten ein Spiegelbild dessen, wie die beiden Unternehmen Produktivität interpretieren: Microsoft bleibt stärker bei traditionellen Desktop-Anwendungen, während Google von Anfang an Cloud-basiert war. Gleichzeitig sind Microsoft–Nutzer typischerweise an klassische Unternehmensstrukturen gebunden, während Google sich eher an kleinere, kollaborativ arbeitende Firmen orientiert, so Liz Miller, Vizepräsidentin und Hauptanalystin bei Constellation Research. KI-Systeme noch am Anfang In Hinblick auf die integrierten GenAI-Modelle sind Googles Gemini-Modelle laut Miller, Hauptanalystin bei Constellation Research, aktuell leistungsfähiger als die von Microsoft. Das könnte sich allerdings ändern, wenn Microsoft sein Modellangebot in Microsoft 365 erweitert, so die Expertin. Microsoft hat laut Miller derzeit aber den Vorteil, dass es ein tiefes Verständnis für Arbeitsprozesse besitzt und KI nahtlos in verschiedene Anwendungen wie Office und Dynamics integrieren kann. Ihr Kollege J.P. Gownder, Hauptanalyst im Forrester-Team für die Zukunft der Arbeit, merkt an, dass sich sowohl Microsofts Copilot als auch Googles Gems und Agentspace noch in einem frühen Stadium befänden. Sie würden aber bereits Fortschritte zeigen. . Ein wichtiger Schritt sei Microsofts Übernahme von Googles A2A-Protokoll gewesen, so der Experte. Dies habe Zusammenarbeit zwischen beiden Plattformen erleichtert und die Nutzung bislang ungenutzter Daten verbessert. MS führt noch, aber Google holt auf Gownder weist darauf hin, dass die meisten Microsoft-Shops nicht zu Google wechseln wollen, weil sie auf jahrzehntealten digitalen Beständen wie Excel-Makros sitzen, die sich nicht leicht zu Google migrieren lassen. Dennoch lasse sich aktuell noch kein klarer Marktführer zwischen Microsoft und Google ausmachen, da beide neue KI-Ökosysteme entwickeln, um das Wachstum der agentenbasierten KI zu unterstützen, so der Analyst. Während Microsoft mit M365 stark vertreten ist, gewinnt Google durch KI an Boden bei größeren, weniger Microsoft-geprägten Unternehmen, erklärt Jack Gold, Principal Analyst bei J.Gold Associates. Technologien wie A2A würden zudem die Zusammenarbeit fördern und damit Googles Position stärken. Zudem punkte Google bei kostenbewussten Unternehmen mit einer transparenteren Preisstruktur als Microsoft, so der Experte. Auch unterschiedliche Business-Pläne Microsoft bezieht Copilot nicht in seine M365-Abonnements ein, die je nach Kundentyp unterschiedlich teuer sind. Die Copilot-Abonnements für Unternehmen reichen von rund 30 Euro pro Nutzer und Monat für M365 Copilot bis zu rund 190 Euro pro Monat für 25.000 Nachrichten für Copilot Studio. Google bietet pauschale Abonnementpreise für Workspace an, die bei rund 14 Euro pro Nutzer und Monat für Business-Pläne mit Gemini beginnen. 

Microsoft vs. Google: Kampf der KI-Konzepte​ Microsoft und Google verfolgen unterschiedliche Strategien bei KI-Agenten für die Arbeitswelt. 
kovop – shutterstock.com

KI-Agenten werden immer ausgefeilter, doch darüber, wie sie richtig eingesetzt werden, lässt sich streiten. Mit Microsoft und Google zeigen zwei Schwergewichte der Tech-Branche, dass sich dabei ganz unterschiedliche Ansätze verfolgen lassen.

Beide Unternehmen kündigten unlängst eine Anzahl neuer Agenten an, unter anderem mit dem Ziel, einen Mehrwert aus Unternehmensdokumenten zu ziehen. Die Tech-Giganten deuteten dabei an, welche Richtung ihre KI-Agenten in Microsoft 365 und Google Workspace einschlagen sollen.

Hunderte spezialisierte KI-Funktionen bei Microsoft

Microsofts Ansatz ist es demnach, seinen KI-Assistenten Copilot in eine Reihe von Tools umzugestalten. Hiermit sollen sich dann Erkenntnisse auf individueller und organisatorischer Ebene erstellen, erschließen und umsetzen lassen.

Die Roadmap von Microsoft 365 listet Hunderte von spezialisierten KI-Tools auf, die derzeit entwickelt werden. Ihr Ziel soll es sein, die Arbeit im Personalwesen und in der Buchhaltung zu automatisieren. Das Unternehmen entwickelt zusätzlich kleinere KI-Modelle um bestimmte Spezialfunktionen auszuführen.

Ein großer, vielseitiger Agent bei Google

Google wiederum geht den umgekehrten Weg, indem es sein Large Language Model (LLM) Gemini in den Mittelpunkt der Workspace-Plattform stellt . Das Unternehmen bietet Tools wie Gems für Mitarbeitende, um einfache benutzerdefinierte Agenten zu erstellen. Sie sollen damit in der Lage sein, Aufgaben wie den Kundendienst zu automatisieren. Um komplexere benutzerdefinierte Agenten für die Zusammenarbeit und das Workflow-Management zu erstellen, gibt es Agentspace in der Google-Cloud.

Zusätzlich hat Google auf der Entwicklerkonferenz Google I/O angekündigt, eine Echtzeit-Sprachübersetzung zu Google Meet hinzuzufügen.

Verschiedene Unternehmensphilosophien

Experten sehen in den unterschiedlichen Ausrichtungen der KI-Agenten ein Spiegelbild dessen, wie die beiden Unternehmen Produktivität interpretieren:

Microsoft bleibt stärker bei traditionellen Desktop-Anwendungen, während Google von Anfang an Cloud-basiert war. Gleichzeitig sind Microsoft–Nutzer typischerweise an klassische Unternehmensstrukturen gebunden, während Google sich eher an kleinere, kollaborativ arbeitende Firmen orientiert, so Liz Miller, Vizepräsidentin und Hauptanalystin bei Constellation Research.

KI-Systeme noch am Anfang

In Hinblick auf die integrierten GenAI-Modelle sind Googles Gemini-Modelle laut Miller, Hauptanalystin bei Constellation Research, aktuell leistungsfähiger als die von Microsoft. Das könnte sich allerdings ändern, wenn Microsoft sein Modellangebot in Microsoft 365 erweitert, so die Expertin.

Microsoft hat laut Miller derzeit aber den Vorteil, dass es ein tiefes Verständnis für Arbeitsprozesse besitzt und KI nahtlos in verschiedene Anwendungen wie Office und Dynamics integrieren kann.

Ihr Kollege J.P. Gownder, Hauptanalyst im Forrester-Team für die Zukunft der Arbeit, merkt an, dass sich sowohl Microsofts Copilot als auch Googles Gems und Agentspace noch in einem frühen Stadium befänden. Sie würden aber bereits Fortschritte zeigen. .

Ein wichtiger Schritt sei Microsofts Übernahme von Googles A2A-Protokoll gewesen, so der Experte. Dies habe Zusammenarbeit zwischen beiden Plattformen erleichtert und die Nutzung bislang ungenutzter Daten verbessert.

MS führt noch, aber Google holt auf

Gownder weist darauf hin, dass die meisten Microsoft-Shops nicht zu Google wechseln wollen, weil sie auf jahrzehntealten digitalen Beständen wie Excel-Makros sitzen, die sich nicht leicht zu Google migrieren lassen. Dennoch lasse sich aktuell noch kein klarer Marktführer zwischen Microsoft und Google ausmachen, da beide neue KI-Ökosysteme entwickeln, um das Wachstum der agentenbasierten KI zu unterstützen, so der Analyst.

Während Microsoft mit M365 stark vertreten ist, gewinnt Google durch KI an Boden bei größeren, weniger Microsoft-geprägten Unternehmen, erklärt Jack Gold, Principal Analyst bei J.Gold Associates. Technologien wie A2A würden zudem die Zusammenarbeit fördern und damit Googles Position stärken. Zudem punkte Google bei kostenbewussten Unternehmen mit einer transparenteren Preisstruktur als Microsoft, so der Experte.

Auch unterschiedliche Business-Pläne

Microsoft bezieht Copilot nicht in seine M365-Abonnements ein, die je nach Kundentyp unterschiedlich teuer sind. Die Copilot-Abonnements für Unternehmen reichen von rund 30 Euro pro Nutzer und Monat für M365 Copilot bis zu rund 190 Euro pro Monat für 25.000 Nachrichten für Copilot Studio.

Google bietet pauschale Abonnementpreise für Workspace an, die bei rund 14 Euro pro Nutzer und Monat für Business-Pläne mit Gemini beginnen.

Microsoft vs. Google: Kampf der KI-Konzepte​ Weiterlesen »

Agil(er) entwickeln mit generativer KI​

Allgemein

Auch agile Dev-Teams können von KI profitieren. Pixel-Shot | shutterstock.com Generative AI (GenAI; generative KI) führt zu einem bedeutenden Paradigmenwechsel in der Art und Weise, wie Entwickler Code schreiben, Softwareanwendungen entwickeln, deren Qualität optimieren und technische Schulden reduzieren. Darüber hinaus kann die Technologie jedoch auch agile Entwicklungsteams unterstützen, um den gesamten Software Development Lifecycle zu optimieren. Insbesondere mit Blick auf Anforderungskataloge und agile User Stories bietet sich eine bedeutende Chance für Large Language Models (LLMs), KI-Agenten und andere GenAI-Ausformungen. Denn wenn Entwickler mit KI schneller und effizienter Code schreiben, testen und dokumentieren, braucht es auch tiefgehendere agile Backlogs, mehr User Stories, die schneller entstehen, sowie striktere Akzeptanzkriterien. “In einer Welt, in der die Copiloten coden, werden Planungsprozesse eine deutlich wichtigere Rolle einnehmen”, prophezeit David Brooks, SVP of Evangelism beim KI-Spezialisten Copado. Insbesondere Anforderungsdokumente müssten detaillierter ausgestaltet werden als zu Zeiten, in denen die Teams noch in einem Büro gesessen haben, und fügt er hinzu. In der Vision des KI-Experten nutzen Business-Analysten künftig generative KI, um Feature Requests und Meeting-Protokolle zusammenzufassen, sämtliche Inputs zu erfassen und bedarfsgerecht Prioritäten zu setzen. “GenAI kann dann einen ersten Entwurf erstellen oder einen manuell erarbeiteten auf Vollständigkeit prüfen”, meint Brooks. Um das in der Praxis umzusetzen, ist es allerdings erforderlich, sowohl Endbenutzer als auch Stakeholder einzubinden – wobei das Engagement über die üblichen Aufgaben agiler Product Owner hinausgehen muss. Agile Softwareentwicklung trifft generative KI Laut Chris Mahl, CEO beim GenAI-Unternehmen Pryon, ist es mit generativer KI möglich, die Dokumentationsaufgabe Anforderungen zu erfassen zu einem kollaborativen Entdeckungsprozess umzugestalten: “Produktverantwortliche nutzen KI inzwischen, um aus Interviews mit Stakeholdern erste Anforderungsentwürfe zu erstellen und diese dann im Rahmen von Feedback-Zyklen zu verfeinern.” Die Rolle des Business-Analysten entwickle sich in Richtung KI-Orchestrator, fügt Mahl hinzu: “Um diese Aufgabe erfolgreich zu bewältigen und optimale KI-Outputs zu erzeugen, sind sowohl Kompetenzen in Prompt Engineering erforderlich, als auch darin, Geschäftsprobleme zu formulieren.” Um den gesamten Anforderungsprozess zu überwachen, arbeiten die Business-Analysten eng mit dem Agile Product Owner sowie dem Teamleiter zusammen. Das ist besonders wertvoll für technisch versierte agile Teams, die mit Microservices-Architekturen, Integration oder Daten-Pipelines arbeiten. Denn die User Stories in diesen technischen Deliverables weisen erhebliche nicht-funktionale Akzeptanzkriterien auf. Entsprechend müssen oft synthetische Testdaten erstellt werden, um viele Anwendungsfälle zu validieren. Mahl erklärt: “Die Technologie eignet sich hervorragend, um Geschäftsanforderungen in technische Spezifikationen zu übersetzen und umgekehrt, wodurch Kommunikationslücken überbrückt werden. Dabei ist die Fähigkeit, kritisch zu denken essenziell, weil Analysten die von KI generierten Inhalte auf Genauigkeit und Business-Alignment prüfen müssen.” Eine weitere GenAI-Chance für agile Entwicklungsteams besteht darin, Zykluszeiten zu verkürzen, insbesondere, wenn es um Proofs of Concept geht oder darum, Endbenutzererfahrungen zu iterieren. Simon Margolis, Associate CTO beim Cloud-Serviceanbieter SADA, erklärt: “GenAI-Tools verändern die Rolle von Produktverantwortlichen und Business-Analysten grundlegend, weil sie ihnen ermöglichen, Prototypen zu erstellen und Anforderungen direkt in ihren IDEs schnell zu iterieren. Das ermöglicht es, dynamischer mit den Stakeholdern zusammenzuarbeiten, weil diese User Stories und Akzeptanzkriterien in Echtzeit visualisieren und feinjustieren können. Anstatt sich in der Dokumentation zu verlieren, können sie sich auf die strategische Ausrichtung und ein schnelleres Deployment konzentrieren – die KI übernimmt die technische Umsetzung.” GenAI für menschliche Innovation nutzen Product Owner und Business-Analysten haben wichtigere Aufgaben als Backlogs zu pflegen und Anforderungen zu dokumentieren. Ihre strategische Bedeutung liegt darin, Innovationen voranzutreiben, die für die Endbenutzer relevant sind, geschäftlichen Mehrwert und Wettbewerbsvorteile zu generieren. Außerdem müssen sie sich an DevOps-Standards halten, agile Entwicklungsteams steuern, die Plattformfunktionen entwickeln und Möglichkeiten eruieren, um technische Schulden abzubauen. “GenAI ist zwar hervorragend dazu geeignet, User Stories und Akzeptanzkriterien mit vordefinierten Spezifikationen und Designrichtlinien abzustimmen, aber Kreativleistung ist noch immer eine Sache für Menschen”, meint Ramprakash Ramamoorthy, Director of AI Research beim Sicherheitsanbieter ManageEngine. Seiner Meinung nach sollten Analysten und Product Owner die Technologie als Basiswerkzeug verstehen – statt sich vollständig darauf zu verlassen: “Der wahre Wert liegt darin, die Konsistenz der KI für eine Arbeitsgrundlage zu nutzen. Auf dieser Basis gilt es, Innovationen zu entwickeln und Feinheiten anzupassen, die Maschinen nicht erfassen können”, konstatiert der KI-Spezialist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Agil(er) entwickeln mit generativer KI​ Auch agile Dev-Teams können von KI profitieren. Pixel-Shot | shutterstock.com

Generative AI (GenAI; generative KI) führt zu einem bedeutenden Paradigmenwechsel in der Art und Weise, wie Entwickler Code schreiben, Softwareanwendungen entwickeln, deren Qualität optimieren und technische Schulden reduzieren.

Darüber hinaus kann die Technologie jedoch auch agile Entwicklungsteams unterstützen, um den gesamten Software Development Lifecycle zu optimieren. Insbesondere mit Blick auf Anforderungskataloge und agile User Stories bietet sich eine bedeutende Chance für Large Language Models (LLMs), KI-Agenten und andere GenAI-Ausformungen. Denn wenn Entwickler mit KI schneller und effizienter Code schreiben, testen und dokumentieren, braucht es auch tiefgehendere agile Backlogs, mehr User Stories, die schneller entstehen, sowie striktere Akzeptanzkriterien.

“In einer Welt, in der die Copiloten coden, werden Planungsprozesse eine deutlich wichtigere Rolle einnehmen”, prophezeit David Brooks, SVP of Evangelism beim KI-Spezialisten Copado. Insbesondere Anforderungsdokumente müssten detaillierter ausgestaltet werden als zu Zeiten, in denen die Teams noch in einem Büro gesessen haben, und fügt er hinzu. In der Vision des KI-Experten nutzen Business-Analysten künftig generative KI, um Feature Requests und Meeting-Protokolle zusammenzufassen, sämtliche Inputs zu erfassen und bedarfsgerecht Prioritäten zu setzen. “GenAI kann dann einen ersten Entwurf erstellen oder einen manuell erarbeiteten auf Vollständigkeit prüfen”, meint Brooks.

Um das in der Praxis umzusetzen, ist es allerdings erforderlich, sowohl Endbenutzer als auch Stakeholder einzubinden – wobei das Engagement über die üblichen Aufgaben agiler Product Owner hinausgehen muss.

Agile Softwareentwicklung trifft generative KI

Laut Chris Mahl, CEO beim GenAI-Unternehmen Pryon, ist es mit generativer KI möglich, die Dokumentationsaufgabe Anforderungen zu erfassen zu einem kollaborativen Entdeckungsprozess umzugestalten: “Produktverantwortliche nutzen KI inzwischen, um aus Interviews mit Stakeholdern erste Anforderungsentwürfe zu erstellen und diese dann im Rahmen von Feedback-Zyklen zu verfeinern.”

Die Rolle des Business-Analysten entwickle sich in Richtung KI-Orchestrator, fügt Mahl hinzu: “Um diese Aufgabe erfolgreich zu bewältigen und optimale KI-Outputs zu erzeugen, sind sowohl Kompetenzen in Prompt Engineering erforderlich, als auch darin, Geschäftsprobleme zu formulieren.”

Um den gesamten Anforderungsprozess zu überwachen, arbeiten die Business-Analysten eng mit dem Agile Product Owner sowie dem Teamleiter zusammen. Das ist besonders wertvoll für technisch versierte agile Teams, die mit Microservices-Architekturen, Integration oder Daten-Pipelines arbeiten. Denn die User Stories in diesen technischen Deliverables weisen erhebliche nicht-funktionale Akzeptanzkriterien auf. Entsprechend müssen oft synthetische Testdaten erstellt werden, um viele Anwendungsfälle zu validieren. Mahl erklärt: “Die Technologie eignet sich hervorragend, um Geschäftsanforderungen in technische Spezifikationen zu übersetzen und umgekehrt, wodurch Kommunikationslücken überbrückt werden. Dabei ist die Fähigkeit, kritisch zu denken essenziell, weil Analysten die von KI generierten Inhalte auf Genauigkeit und Business-Alignment prüfen müssen.”

Eine weitere GenAI-Chance für agile Entwicklungsteams besteht darin, Zykluszeiten zu verkürzen, insbesondere, wenn es um Proofs of Concept geht oder darum, Endbenutzererfahrungen zu iterieren. Simon Margolis, Associate CTO beim Cloud-Serviceanbieter SADA, erklärt: “GenAI-Tools verändern die Rolle von Produktverantwortlichen und Business-Analysten grundlegend, weil sie ihnen ermöglichen, Prototypen zu erstellen und Anforderungen direkt in ihren IDEs schnell zu iterieren. Das ermöglicht es, dynamischer mit den Stakeholdern zusammenzuarbeiten, weil diese User Stories und Akzeptanzkriterien in Echtzeit visualisieren und feinjustieren können. Anstatt sich in der Dokumentation zu verlieren, können sie sich auf die strategische Ausrichtung und ein schnelleres Deployment konzentrieren – die KI übernimmt die technische Umsetzung.”

GenAI für menschliche Innovation nutzen

Product Owner und Business-Analysten haben wichtigere Aufgaben als Backlogs zu pflegen und Anforderungen zu dokumentieren. Ihre strategische Bedeutung liegt darin, Innovationen voranzutreiben, die für die Endbenutzer relevant sind, geschäftlichen Mehrwert und Wettbewerbsvorteile zu generieren. Außerdem müssen sie sich an DevOps-Standards halten, agile Entwicklungsteams steuern, die Plattformfunktionen entwickeln und Möglichkeiten eruieren, um technische Schulden abzubauen.

“GenAI ist zwar hervorragend dazu geeignet, User Stories und Akzeptanzkriterien mit vordefinierten Spezifikationen und Designrichtlinien abzustimmen, aber Kreativleistung ist noch immer eine Sache für Menschen”, meint Ramprakash Ramamoorthy, Director of AI Research beim Sicherheitsanbieter ManageEngine. Seiner Meinung nach sollten Analysten und Product Owner die Technologie als Basiswerkzeug verstehen – statt sich vollständig darauf zu verlassen: “Der wahre Wert liegt darin, die Konsistenz der KI für eine Arbeitsgrundlage zu nutzen. Auf dieser Basis gilt es, Innovationen zu entwickeln und Feinheiten anzupassen, die Maschinen nicht erfassen können”, konstatiert der KI-Spezialist. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Agil(er) entwickeln mit generativer KI​ Weiterlesen »

Anaconda Python erklärt​

Allgemein

Anaconda stattet Python mit jeder Menge Data-Science-“Fleisch” aus. Foto: Vadim Petrakov | shutterstock.com Python ist zweifelsohne ein essenzieller Bestandteil der modernen Datenwissenschaft. Die Programmiersprache gibt Data Scientists und Softwareentwicklern eine ganze Reihe praktischer und performanter Tools an die Hand. Die Tools erfordern in vielen Fällen aber auch ein gewisses Maß an Assembler-Knowhow. Zudem ist die Art und Weise, wie Python verpackt und bereitgestellt wird, nicht spezifisch auf Datenwissenschaftler zugeschnitten. Um diese Lücke zu füllen und Assembler dennoch außenvorzulassen, existieren verschiedene Projekte. Zum Beispiel Anaconda. Was ist Anaconda Python? Anaconda ist eine Python-Distribution – also quasi eine Neupaketierung von Python – die sich speziell an Entwickler richtet, die die Programmiersprache für Data-Science-Zwecke verwenden möchten. Dazu bietet Anaconda eine ganze Reihe datenwissenschaftlich ausgerichteter Tools und Features, die speziell die Datenverarbeitung mit Python vereinfachen. Anaconda-Editionen im Überblick Anaconda besteht aus zwei Hauptkomponenten – der Anaconda-Distribution und den dazugehörigen Services. Die Anaconda-Distribution lässt sich auch ohne die Dienste downloaden und nutzen – und steht in zwei unterschiedlichen Editionen zur Verfügung, nämlich: der regulären Version und einer abgespeckten Variante namens Miniconda. Letztere ist eine gute Wahl für Einsteiger, denn sie ist auf die grundlegenden Funktionen beschränkt. Auf die Einzelheiten zu Miniconda kommen wir im Verlauf des Artikels noch einmal zu sprechen. Die Anaconda-Distribution ist in beiden Fällen kostenlos nutzbar. Die Anaconda Services stehen mit unterschiedlichen Preisplänen für Einzelnutzer sowie Unternehmen (ab 75 Dollar pro Monat) zur Verfügung. Für erstgenannte ist auch eine kostenlose Version verfügbar. Zu den verfügbaren Enterprise-Features zählen beispielsweise: Repository-Kontrollmaßnahmen, Versionskontrolle, Job Scheduling und SLAs für die Uptime. Anaconda-Python-Komponenten Die Referenzversion von Python – Cpython – enthält einige hilfreiche Komponenten, etwa die Standardbibliothek und eine IDE. Data-Science-Tools gibt es dabei aber lediglich als Add-on. Nicht so bei Anaconda – hier ist eine hochwertige Auswahl entsprechender Tools standardmäßig mit an Bord. Anaconda enthält: Python Interpreter, Anaconda Navigator und Conda Package Manager. Python Interpreter Hierbei handelt es sich nicht um den Standard-CPython-Build der Python Software Foundation, sondern um eine eigenständige Variante von Anaconda Inc., die speziell für die Python-Distribution erstellt wurde. Er soll im Vergleich (auf einigen Plattformen) sicherere Compiler Flags und bessere Performance-Optimierungen aufweisen. Anaconda Navigator Die auffälligste Neuerung, um die Anaconda die Arbeit mit Python ergänzt, ist eine grafische Benutzeroberfläche (GUI) – der Anaconda Navigator. Der ist keine IDE und versucht auch nicht, eine zu sein: Die meisten Python-fähigen IDEs sind in der Lage, die Anaconda Python Runtime zu registrieren und zu verwenden. Der Anaconda Navigator stellt vielmehr ein Organisationssystem für die größeren Parts der Distribution dar. Mit dem Navigator können Sie: High-Level-Anwendungen wie RStudio oder Jupyterlab hinzufügen und nutzen; virtuelle Umgebungen und Packages managen; “Projects” einrichten (dazu später mehr), um die Arbeit in Anaconda zu verwalten; auf diverse administrative Funktionen zugreifen. Obwohl der Navigator den Komfort einer grafischen Benutzeroberfläche bietet, ersetzt er nicht die Befehlszeilenfunktionalitäten in Anaconda oder Python im Allgemeinen. Sie können Packages beispielsweise über die grafische Benutzeroberfläche verwalten, das aber auch über die Kommandozeile erledigen. Ein Blick auf die (konfigurierbare) grafische Benutzeroberfläche von Anaconda. Foto: IDG CPython hingegen weist keine formale GUI auf. Die Distribution wird zwar mit IDLE geliefert – einer Mini-IDE, die sich für schnelle, einmalige Aufgaben eignet. Geht es darum, Python selbst zu managen, sind Sie allerdings auf Drittanbieter angewiesen. Deswegen bieten einige IDEs GUI-Schnittstellen für CPython-Komponenten. Microsoft Visual Studio hat zum Beispiel eine grafische Benutzeroberfläche für das Pip-Paketverwaltungssystem von Python an Bord, die der GUI ähnelt, die Anaconda für seinen eigenen Paketmanager bereitstellt. Conda Package Manager Um Drittanbieter-Bibliotheken zu managen und zu installieren, wird Python mit dem pip Package Manager ausgeliefert. Dieser ist allerdings – trotz jahrelanger Weiterentwicklungen – eher limitiert, denn er verwaltet nur Packages für Python selbst. Weist eine Bibliothek eine Abhängigkeit zu einem externen Package auf, muss dieses manuell vom Entwickler separat installiert und gemanagt werden. Weil damit auch die Entwickler von Anaconda zu kämpfen hatten, beschlossen sie, ihre eigene Lösung zu entwickeln: Conda. Dieser Package Manager verwaltet nicht nur Packages, sondern auch Abhängigkeiten außerhalb des Python-Ökosystems. Python Data Science Tools sind wegen unzähliger Abhängigkeiten oft schwer zu installieren und managen. Conda will hier Abhilfe schaffen. Foto: IDG Haben Sie es zum Beispiel mit mehreren Packages zu tun, die auf einen Compiler wie GCC oder LLVM angewiesen sind, stellt das für Conda kein Problem dar: Die Lösung ist in der Lage, eine einzige Instanz einer bestimmten GCC-Version für alle Conda-Pakete, die es benötigen, zu installieren. Mit pip müssten Sie hingegen eine Kopie von GCC mit jedem Paket, das es verwendet, bündeln. Im Klartext: eine ineffiziente und umständliche Lösung. Conda und pip verwenden davon abgesehen auch nicht das gleiche Paketformat, weswegen Pakete, die für pip erstellt wurden, für Conda neu erstellt werden müssen. Die gute Nachricht: Nahezu jede für das Python-Ökosystem wichtige Bibliothek ist über Conda verfügbar. Anacondas Data-Science-Optimierungen Die Verbesserungen, die Anaconda einführt, kommen ganz allgemein jedem Python-Nutzer zugute. Die wichtigsten Benefits hält die Distribution aber für Data-Science-Anwender bereit – die des Öfteren mit ihren Python-Umgebungen in Konflikt geraten. Conda Environments Python Packages kommen – selbst wenn sie mit Conda verwaltet werden – nicht immer gut miteinander “klar”. Bestimmte Projekte benötigen manchmal unterschiedliche Package-Versionen. Um das Problem zu lösen, wurde zwar das Python-Feature für virtuelle Umgebungen – auch bekannt als venv – entwickelt, aber Conda geht noch einen Schritt weiter. Conda Environments sind funktional ähnlich aufgebaut wie virtuelle Umgebungen im venv-Stil. Wenn Sie bestimmte Versionen von Bibliotheken oder auch des Python-Interpreters verwenden wollen, können Sie die in einer Conda-Umgebung unterbringen – und isoliert nutzen. venv-Umgebungen können zwar verschoben werden, enthalten aber nicht unbedingt detaillierte Informationen darüber, wie sie erstellt wurden. Wenn Sie für Ihre Arbeit eine reproduzierbare Umgebung benötigen, kann das ein Problem darstellen. Conda Environments sind hingegen auf Reproduzierbarkeit konzipiert. Wollen Sie Kollegen ermöglichen, Ihre Conda-Umgebung zu benutzen, stellen Sie ihnen eine Kopie des entsprechenden Definitions-Files zur Verfügung. Diese beschreibt, wie man die Umgebung auf einem anderen System neu erstellt. Das funktioniert nicht uneingeschränkt plattformübergreifend: Alle Unterschiede hinsichtlich der Funktionsweise von Paketen auf verschiedenen Plattformen (etwa macOS versus Linux) müssen manuell ausgebügelt werden. Drei Conda-Ugebungen mit jeweils eigenem Package- und Runtime-Set. Jedes Conda Environment muss separat aktualisiert werden. Foto: IDG Anaconda Project Ein Environment exakt zu reproduzieren, ist allgemein ein gängiges Problem – sowohl für Datenwissenschaftler als auch für Softwareentwickler. Selbst Conda-Umgebungen bieten nur eine Teillösung für dieses Problem, weil venv-Umgebungen Dinge wie Umgebungsvariablen nicht reproduzieren können. An dieser Stelle kommt Anaconda Project ins Spiel: Das Tool verwandelt ganze Ordner mit Web-Apps, Skripten, Jupyter Notebooks und Files in eine reproduzierbare Ressource um. Sobald dieses Verzeichnis über Anaconda Project gemanagt wird, läuft es überall konsistent – insofern eine Kopie von Anaconda vorhanden ist. Die größte Einschränkung: Anaconda Project befindet sich derzeit in der Betaphase und läuft noch nicht stabil. Solange das nicht der Fall ist, sollte es nicht für die gemeinsame Arbeit in Umgebungen verwendet werden. Bis es soweit ist, können Conda Environments zumindest eine verlässliche Teilmenge der gleichen Funktionalität bieten. Apps in Anaconda Python Anaconda Python macht Datenwissenschaftlern auch das Leben leichter, indem es verschiedene gängige Projekte für die interaktive Arbeit mit Daten bündelt. Zwei der gängigsten sind Jupyter Notebook und JupyterLab, die Live-Umgebungen bereitstellen, um Python Code zu schreiben, Daten zu importieren und Ergebnisse zu visualisieren. Anaconda richtet die entsprechenden Instanzen für Sie ein und managt diese – die Arbeit wird so auf einen Mausklick reduziert. Anaconda bündelt diverse hilfreiche Applikationen und übernimmt auch die Verwaltungsaufgaben. Foto: IDG Weitere, enthaltene Anwendungen sind: Qtconsole – eine grafische Benutzeroberfläche für Jupyter, die die Qt Interface Library verwendet. Sie ist nützlich, wenn Sie mit Jupyter Notebooks lieber über eine plattformeigene Oberfläche als über einen Webbrowser arbeiten wollen. Spyder – eine in Python geschriebene Mini-IDE, die sich hauptsächlich an Entwickler richtet, die mit IPython/Jupyter Notebooks arbeiten. Es kann auch als Bibliothek für Python-Anwendungen verwendet werden, die eine IDE-ähnliche Schnittstelle benötigen. RStudio – ein Toolset, um mit der Programmiersprache R zu arbeiten, die in diversen Bereichen für Datenanalysezwecke verwendet wird. RStudio bietet Möglichkeiten, sowohl mit Python als auch mit R zu arbeiten. Visual Studio Code – Microsofts Editor ist dank seiner enormen Auswahl an Erweiterungen extrem wandelbar. Für die Arbeit mit Python stellt es eine der besten Entwicklungsumgebungen dar. Da kommt es gelegen, dass Anaconda-Nutzer direkt in Visual Studio Code einsteigen können, ohne es separat installieren zu müssen. Wann Miniconda die bessere Option ist Wenn Sie sich lieber schrittweise mit Anaconda Python vertraut machen wollen, empfiehlt sich der Einstieg mit der abgespeckten Version Miniconda. Die installiert nur das absolute Minimum, um mit Anaconda loszulegen: Interpreter, Package Manager und ein paar andere grundlegende Dinge. Sie können zwar weitere Komponenten hinzufügen oder mit Conda über die Kommandozeile Umgebungen erstellen. Allerdings sollten Sie drei wesentliche Dinge im Hinterkopf behalten, wenn Sie mit Miniconda arbeiten wollen: Die Anaconda Navigator GUI ist nicht standardmäßig installiert. Wenn Sie diese benötigen, können Sie diese mit dem Befehl conda install anaconda-navigator hinzufügen. Miniconda wird standardmäßig in ein Verzeichnis namens Miniconda3 und nicht Anaconda installiert. Ein Umstand der potenziell Verwirrung stiften kann. Das Installationsverzeichnis kann jedoch nach Bedarf angepasst werden. Conda kann nur verwendet werden, um Pakete aus Condas eigenem Repository in Miniconda zu installieren. Sie können pip verwenden, um PyPI-Bibliotheken in Miniconda zu installieren. Diese können jedoch nicht mit Conda gemanagt werden, sondern nur mit pip. Zudem sind weitere Schritte nötig, damit pip und Conda koexistieren können. Wenn Sie wollen, dass Conda alles managt, besteht die Möglichkeit, PyPI- in Conda-Packages “umzupacken”. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Anaconda Python erklärt​ Anaconda stattet Python mit jeder Menge Data-Science-“Fleisch” aus.
Foto: Vadim Petrakov | shutterstock.com

Python ist zweifelsohne ein essenzieller Bestandteil der modernen Datenwissenschaft. Die Programmiersprache gibt Data Scientists und Softwareentwicklern eine ganze Reihe praktischer und performanter Tools an die Hand.

Die Tools erfordern in vielen Fällen aber auch ein gewisses Maß an Assembler-Knowhow. Zudem ist die Art und Weise, wie Python verpackt und bereitgestellt wird, nicht spezifisch auf Datenwissenschaftler zugeschnitten. Um diese Lücke zu füllen und Assembler dennoch außenvorzulassen, existieren verschiedene Projekte. Zum Beispiel Anaconda.

Was ist Anaconda Python?

Anaconda ist eine Python-Distribution – also quasi eine Neupaketierung von Python – die sich speziell an Entwickler richtet, die die Programmiersprache für Data-Science-Zwecke verwenden möchten. Dazu bietet Anaconda eine ganze Reihe datenwissenschaftlich ausgerichteter Tools und Features, die speziell die Datenverarbeitung mit Python vereinfachen.

Anaconda-Editionen im Überblick

Anaconda besteht aus zwei Hauptkomponenten – der Anaconda-Distribution und den dazugehörigen Services. Die Anaconda-Distribution lässt sich auch ohne die Dienste downloaden und nutzen – und steht in zwei unterschiedlichen Editionen zur Verfügung, nämlich:

der regulären Version und

einer abgespeckten Variante namens Miniconda.

Letztere ist eine gute Wahl für Einsteiger, denn sie ist auf die grundlegenden Funktionen beschränkt. Auf die Einzelheiten zu Miniconda kommen wir im Verlauf des Artikels noch einmal zu sprechen. Die Anaconda-Distribution ist in beiden Fällen kostenlos nutzbar.

Die Anaconda Services stehen mit unterschiedlichen Preisplänen für Einzelnutzer sowie Unternehmen (ab 75 Dollar pro Monat) zur Verfügung. Für erstgenannte ist auch eine kostenlose Version verfügbar. Zu den verfügbaren Enterprise-Features zählen beispielsweise:

Repository-Kontrollmaßnahmen,

Versionskontrolle,

Job Scheduling und

SLAs für die Uptime.

Anaconda-Python-Komponenten

Die Referenzversion von Python – Cpython – enthält einige hilfreiche Komponenten, etwa die Standardbibliothek und eine IDE. Data-Science-Tools gibt es dabei aber lediglich als Add-on. Nicht so bei Anaconda – hier ist eine hochwertige Auswahl entsprechender Tools standardmäßig mit an Bord. Anaconda enthält:

Python Interpreter,

Anaconda Navigator und

Conda Package Manager.

Python Interpreter

Hierbei handelt es sich nicht um den Standard-CPython-Build der Python Software Foundation, sondern um eine eigenständige Variante von Anaconda Inc., die speziell für die Python-Distribution erstellt wurde. Er soll im Vergleich (auf einigen Plattformen) sicherere Compiler Flags und bessere Performance-Optimierungen aufweisen.

Anaconda Navigator

Die auffälligste Neuerung, um die Anaconda die Arbeit mit Python ergänzt, ist eine grafische Benutzeroberfläche (GUI) – der Anaconda Navigator. Der ist keine IDE und versucht auch nicht, eine zu sein: Die meisten Python-fähigen IDEs sind in der Lage, die Anaconda Python Runtime zu registrieren und zu verwenden. Der Anaconda Navigator stellt vielmehr ein Organisationssystem für die größeren Parts der Distribution dar. Mit dem Navigator können Sie:

High-Level-Anwendungen wie RStudio oder Jupyterlab hinzufügen und nutzen;

virtuelle Umgebungen und Packages managen;

“Projects” einrichten (dazu später mehr), um die Arbeit in Anaconda zu verwalten;

auf diverse administrative Funktionen zugreifen.

Obwohl der Navigator den Komfort einer grafischen Benutzeroberfläche bietet, ersetzt er nicht die Befehlszeilenfunktionalitäten in Anaconda oder Python im Allgemeinen. Sie können Packages beispielsweise über die grafische Benutzeroberfläche verwalten, das aber auch über die Kommandozeile erledigen.

Ein Blick auf die (konfigurierbare) grafische Benutzeroberfläche von Anaconda.
Foto: IDG

CPython hingegen weist keine formale GUI auf. Die Distribution wird zwar mit IDLE geliefert – einer Mini-IDE, die sich für schnelle, einmalige Aufgaben eignet. Geht es darum, Python selbst zu managen, sind Sie allerdings auf Drittanbieter angewiesen. Deswegen bieten einige IDEs GUI-Schnittstellen für CPython-Komponenten. Microsoft Visual Studio hat zum Beispiel eine grafische Benutzeroberfläche für das Pip-Paketverwaltungssystem von Python an Bord, die der GUI ähnelt, die Anaconda für seinen eigenen Paketmanager bereitstellt.

Conda Package Manager

Um Drittanbieter-Bibliotheken zu managen und zu installieren, wird Python mit dem pip Package Manager ausgeliefert. Dieser ist allerdings – trotz jahrelanger Weiterentwicklungen – eher limitiert, denn er verwaltet nur Packages für Python selbst. Weist eine Bibliothek eine Abhängigkeit zu einem externen Package auf, muss dieses manuell vom Entwickler separat installiert und gemanagt werden.

Weil damit auch die Entwickler von Anaconda zu kämpfen hatten, beschlossen sie, ihre eigene Lösung zu entwickeln: Conda. Dieser Package Manager verwaltet nicht nur Packages, sondern auch Abhängigkeiten außerhalb des Python-Ökosystems.

Python Data Science Tools sind wegen unzähliger Abhängigkeiten oft schwer zu installieren und managen. Conda will hier Abhilfe schaffen.
Foto: IDG

Haben Sie es zum Beispiel mit mehreren Packages zu tun, die auf einen Compiler wie GCC oder LLVM angewiesen sind, stellt das für Conda kein Problem dar: Die Lösung ist in der Lage, eine einzige Instanz einer bestimmten GCC-Version für alle Conda-Pakete, die es benötigen, zu installieren. Mit pip müssten Sie hingegen eine Kopie von GCC mit jedem Paket, das es verwendet, bündeln. Im Klartext: eine ineffiziente und umständliche Lösung.

Conda und pip verwenden davon abgesehen auch nicht das gleiche Paketformat, weswegen Pakete, die für pip erstellt wurden, für Conda neu erstellt werden müssen. Die gute Nachricht: Nahezu jede für das Python-Ökosystem wichtige Bibliothek ist über Conda verfügbar.

Anacondas Data-Science-Optimierungen

Die Verbesserungen, die Anaconda einführt, kommen ganz allgemein jedem Python-Nutzer zugute. Die wichtigsten Benefits hält die Distribution aber für Data-Science-Anwender bereit – die des Öfteren mit ihren Python-Umgebungen in Konflikt geraten.

Conda Environments

Python Packages kommen – selbst wenn sie mit Conda verwaltet werden – nicht immer gut miteinander “klar”. Bestimmte Projekte benötigen manchmal unterschiedliche Package-Versionen. Um das Problem zu lösen, wurde zwar das Python-Feature für virtuelle Umgebungen – auch bekannt als venv – entwickelt, aber Conda geht noch einen Schritt weiter.

Conda Environments sind funktional ähnlich aufgebaut wie virtuelle Umgebungen im venv-Stil. Wenn Sie bestimmte Versionen von Bibliotheken oder auch des Python-Interpreters verwenden wollen, können Sie die in einer Conda-Umgebung unterbringen – und isoliert nutzen. venv-Umgebungen können zwar verschoben werden, enthalten aber nicht unbedingt detaillierte Informationen darüber, wie sie erstellt wurden. Wenn Sie für Ihre Arbeit eine reproduzierbare Umgebung benötigen, kann das ein Problem darstellen. Conda Environments sind hingegen auf Reproduzierbarkeit konzipiert.

Wollen Sie Kollegen ermöglichen, Ihre Conda-Umgebung zu benutzen, stellen Sie ihnen eine Kopie des entsprechenden Definitions-Files zur Verfügung. Diese beschreibt, wie man die Umgebung auf einem anderen System neu erstellt. Das funktioniert nicht uneingeschränkt plattformübergreifend: Alle Unterschiede hinsichtlich der Funktionsweise von Paketen auf verschiedenen Plattformen (etwa macOS versus Linux) müssen manuell ausgebügelt werden.

Drei Conda-Ugebungen mit jeweils eigenem Package- und Runtime-Set. Jedes Conda Environment muss separat aktualisiert werden.
Foto: IDG

Anaconda Project

Ein Environment exakt zu reproduzieren, ist allgemein ein gängiges Problem – sowohl für Datenwissenschaftler als auch für Softwareentwickler. Selbst Conda-Umgebungen bieten nur eine Teillösung für dieses Problem, weil venv-Umgebungen Dinge wie Umgebungsvariablen nicht reproduzieren können.

An dieser Stelle kommt Anaconda Project ins Spiel: Das Tool verwandelt ganze Ordner mit Web-Apps, Skripten, Jupyter Notebooks und Files in eine reproduzierbare Ressource um. Sobald dieses Verzeichnis über Anaconda Project gemanagt wird, läuft es überall konsistent – insofern eine Kopie von Anaconda vorhanden ist.

Die größte Einschränkung: Anaconda Project befindet sich derzeit in der Betaphase und läuft noch nicht stabil. Solange das nicht der Fall ist, sollte es nicht für die gemeinsame Arbeit in Umgebungen verwendet werden. Bis es soweit ist, können Conda Environments zumindest eine verlässliche Teilmenge der gleichen Funktionalität bieten.

Apps in Anaconda Python

Anaconda Python macht Datenwissenschaftlern auch das Leben leichter, indem es verschiedene gängige Projekte für die interaktive Arbeit mit Daten bündelt. Zwei der gängigsten sind Jupyter Notebook und JupyterLab, die Live-Umgebungen bereitstellen, um Python Code zu schreiben, Daten zu importieren und Ergebnisse zu visualisieren. Anaconda richtet die entsprechenden Instanzen für Sie ein und managt diese – die Arbeit wird so auf einen Mausklick reduziert.

Anaconda bündelt diverse hilfreiche Applikationen und übernimmt auch die Verwaltungsaufgaben.
Foto: IDG

Weitere, enthaltene Anwendungen sind:

Qtconsole – eine grafische Benutzeroberfläche für Jupyter, die die Qt Interface Library verwendet. Sie ist nützlich, wenn Sie mit Jupyter Notebooks lieber über eine plattformeigene Oberfläche als über einen Webbrowser arbeiten wollen.

Spyder – eine in Python geschriebene Mini-IDE, die sich hauptsächlich an Entwickler richtet, die mit IPython/Jupyter Notebooks arbeiten. Es kann auch als Bibliothek für Python-Anwendungen verwendet werden, die eine IDE-ähnliche Schnittstelle benötigen.

RStudio – ein Toolset, um mit der Programmiersprache R zu arbeiten, die in diversen Bereichen für Datenanalysezwecke verwendet wird. RStudio bietet Möglichkeiten, sowohl mit Python als auch mit R zu arbeiten.

Visual Studio Code – Microsofts Editor ist dank seiner enormen Auswahl an Erweiterungen extrem wandelbar. Für die Arbeit mit Python stellt es eine der besten Entwicklungsumgebungen dar. Da kommt es gelegen, dass Anaconda-Nutzer direkt in Visual Studio Code einsteigen können, ohne es separat installieren zu müssen.

Wann Miniconda die bessere Option ist

Wenn Sie sich lieber schrittweise mit Anaconda Python vertraut machen wollen, empfiehlt sich der Einstieg mit der abgespeckten Version Miniconda. Die installiert nur das absolute Minimum, um mit Anaconda loszulegen: Interpreter, Package Manager und ein paar andere grundlegende Dinge. Sie können zwar weitere Komponenten hinzufügen oder mit Conda über die Kommandozeile Umgebungen erstellen.

Allerdings sollten Sie drei wesentliche Dinge im Hinterkopf behalten, wenn Sie mit Miniconda arbeiten wollen:

Die Anaconda Navigator GUI ist nicht standardmäßig installiert. Wenn Sie diese benötigen, können Sie diese mit dem Befehl conda install anaconda-navigator hinzufügen.

Miniconda wird standardmäßig in ein Verzeichnis namens Miniconda3 und nicht Anaconda installiert. Ein Umstand der potenziell Verwirrung stiften kann. Das Installationsverzeichnis kann jedoch nach Bedarf angepasst werden.

Conda kann nur verwendet werden, um Pakete aus Condas eigenem Repository in Miniconda zu installieren. Sie können pip verwenden, um PyPI-Bibliotheken in Miniconda zu installieren. Diese können jedoch nicht mit Conda gemanagt werden, sondern nur mit pip. Zudem sind weitere Schritte nötig, damit pip und Conda koexistieren können. Wenn Sie wollen, dass Conda alles managt, besteht die Möglichkeit, PyPI- in Conda-Packages “umzupacken”.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Anaconda Python erklärt​ Weiterlesen »

Was ist Data Analytics?​

Allgemein

Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen. Foto: Oleksii Lishchyshyn – shutterstock.com Geht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei. Data Analytics – Definition Bei Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen. Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere. Data Analytics – Methoden Es gibt vier unterschiedliche Data-Analytics-Methoden: “Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen. Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte. “Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet. Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen. Data Analytics – Techniken Um Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten: Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken. Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung. Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt. Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren. Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen. Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz. Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln. Data Analytics – Begriffsabgrenzung Data Analytics vs. Data Analysis Die beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen. Data Analytics vs. Data Science Data Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen. Data Analytics vs. Business Analytics Auch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”. Data Analytics – Beispiele Unternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele. Zalando: ING: Adidas: Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Data Analytics?​ Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen.
Foto: Oleksii Lishchyshyn – shutterstock.com

Geht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei.

Data Analytics – Definition

Bei Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen.

Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere.

Data Analytics – Methoden

Es gibt vier unterschiedliche Data-Analytics-Methoden:

“Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen.

Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte.

“Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet.

Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen.

Data Analytics – Techniken

Um Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten:

Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken.

Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung.

Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt.

Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren.

Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen.

Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz.

Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln.

Data Analytics – Begriffsabgrenzung

Data Analytics vs. Data Analysis

Die beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen.

Data Analytics vs. Data Science

Data Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen.

Data Analytics vs. Business Analytics

Auch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”.

Data Analytics – Beispiele

Unternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele.

Zalando:

ING:

Adidas:

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Data Analytics?​ Weiterlesen »

Der Siegeszug von GenAI Business Apps geht weiter​

Allgemein

GenAI soll laut Gartner unter anderem durch RAG-Technologie präziser und geschäftsrelevanter werden. Andrii Yalanskyi – shuttertsock.com Die Analysten von Gartner prognostizieren, dass bis zum Jahr 2028 Unternehmen vier von fünf ihrer Generative KI (GenAI)-Geschäftsanwendungen auf ihren bereits bestehenden Datenmanagement-Plattformen entwickeln werden. Laut den Experten sollen Betriebe über diesen Ansatz GenAI-Applikationen um 50 Prozent schneller und weniger komplex bereitstellen können. Prasad Pore, Senior Director Analyst bei Gartner, weist darauf hin, dass der Aufbau von GenAI-Geschäftsanwendungen es erfordere, Large Language Modelle (LLM) mit Unternehmensdaten zu integrieren. Zusätzlich müssten neue Technologien wie Vektorsuche und Prompt Design eingesetzt werden. Ohne einheitliches Management könne dies aber zu Verzögerungen und hohen Kosten führen, so der Experte. Daher müssten Datenmanagementplattformen weiterentwickelt werden, um GenAI-Funktionen effektiv zu unterstützen und eine erfolgreiche Umsetzung zu gewährleisten. Bessere GenAI mit RAG Retrieval-Augmented Generation (RAG) ist ein zentrales Konzept für GenAI-Anwendungen, da es LLMs durch kontextbezogene Daten aus verschiedenen Quellen ergänzt, so der Analysten. Dadurch würden die Modelle genauer und erklärbarer, insbesondere bei geschäftsspezifischen Aufgaben. Unternehmenseigene Daten in Kombination mit RAG einzusetzen, verbessere zudem die Leistung. Metadaten und Semantik sind dabei laut Pore entscheidend. Datenkataloge helfen, diese Informationen zu strukturieren und die Nachvollziehbarkeit sicherzustellen, so der Experte. RAG als neue Wissensquelle Um sich beim Einsatz von GenAI-Anwendungen nicht zu verzetteln, empfiehlt der Analyst Unternehmen Folgendes: : Eigene Datenmanagementplattformen weiterentwickeln und prüfen, ob sie in eine RAG-as-a-Service-Plattform umgewandelt werden können, um separate Dokumenten-/Datenspeicher als Wissensquelle für GenAI-Anwendungen abzulösen. RAG-Technologien wie Vektorsuche, Graphen und Chunking priorisieren, da sie sich gut in bestehende Datenmanagementlösungen integrieren lassen, mit Unternehmensdaten kompatibel sind und eine höhere Toleranz gegenüber technologischen Veränderungen bieten. Sowohl technische als auch betriebliche Metadaten nutzen, um GenAI-Anwendungen vor Missbrauch, Datenschutzrisiken und dem Verlust geistigen Eigentums zu schützen. 

Der Siegeszug von GenAI Business Apps geht weiter​ GenAI soll laut Gartner unter anderem durch RAG-Technologie präziser und geschäftsrelevanter werden.
Andrii Yalanskyi – shuttertsock.com

Die Analysten von Gartner prognostizieren, dass bis zum Jahr 2028 Unternehmen vier von fünf ihrer Generative KI (GenAI)-Geschäftsanwendungen auf ihren bereits bestehenden Datenmanagement-Plattformen entwickeln werden. Laut den Experten sollen Betriebe über diesen Ansatz GenAI-Applikationen um 50 Prozent schneller und weniger komplex bereitstellen können.

Prasad Pore, Senior Director Analyst bei Gartner, weist darauf hin, dass der Aufbau von GenAI-Geschäftsanwendungen es erfordere, Large Language Modelle (LLM) mit Unternehmensdaten zu integrieren. Zusätzlich müssten neue Technologien wie Vektorsuche und Prompt Design eingesetzt werden.

Ohne einheitliches Management könne dies aber zu Verzögerungen und hohen Kosten führen, so der Experte. Daher müssten Datenmanagementplattformen weiterentwickelt werden, um GenAI-Funktionen effektiv zu unterstützen und eine erfolgreiche Umsetzung zu gewährleisten.

Bessere GenAI mit RAG

Retrieval-Augmented Generation (RAG) ist ein zentrales Konzept für GenAI-Anwendungen, da es LLMs durch kontextbezogene Daten aus verschiedenen Quellen ergänzt, so der Analysten. Dadurch würden die Modelle genauer und erklärbarer, insbesondere bei geschäftsspezifischen Aufgaben.

Unternehmenseigene Daten in Kombination mit RAG einzusetzen, verbessere zudem die Leistung. Metadaten und Semantik sind dabei laut Pore entscheidend. Datenkataloge helfen, diese Informationen zu strukturieren und die Nachvollziehbarkeit sicherzustellen, so der Experte.

RAG als neue Wissensquelle

Um sich beim Einsatz von GenAI-Anwendungen nicht zu verzetteln, empfiehlt der Analyst Unternehmen Folgendes: :

Eigene Datenmanagementplattformen weiterentwickeln und prüfen, ob sie in eine RAG-as-a-Service-Plattform umgewandelt werden können, um separate Dokumenten-/Datenspeicher als Wissensquelle für GenAI-Anwendungen abzulösen.

RAG-Technologien wie Vektorsuche, Graphen und Chunking priorisieren, da sie sich gut in bestehende Datenmanagementlösungen integrieren lassen, mit Unternehmensdaten kompatibel sind und eine höhere Toleranz gegenüber technologischen Veränderungen bieten.

Sowohl technische als auch betriebliche Metadaten nutzen, um GenAI-Anwendungen vor Missbrauch, Datenschutzrisiken und dem Verlust geistigen Eigentums zu schützen.

Der Siegeszug von GenAI Business Apps geht weiter​ Weiterlesen »

Kommt die Digitalsteuer für Google, Meta und Co.?​

Allgemein

width=”2494″ height=”1402″ sizes=”(max-width: 2494px) 100vw, 2494px”>Kommt die Digitalsteuer, braucht es erst einmal Transparenz darüber, wie viel Geld die Internet-Giganten mit Werbung in Deutschland verdienen.Doucefleur – shutterstock.com Die großen Internet-Plattformen sollen eine Digitalsteuer in Deutschland entrichten. Das ist der Plan von Wolfram Weimer, Ex-Verleger und seit kurzem Staatsminister für Kultur und Medien im Bundeskanzleramt. Demzufolge sollen Google, Meta und Co. eine Abgabe auf ihre hierzulande erzielten Einnahmen mit Online-Werbung leisten.  Big Tech stöhnt unter Trump-Zöllen „Wir halten einen Abgabesatz von zehn Prozent für moderat und legitim“, sagte Weimer dem „Stern“ und verwies die aus seiner Sicht überzeugenden Erfahrungen bei den Nachbarn in Österreich. Die Abgabe habe dazu geführt, „dass die Konzerne endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, also ihre gewaltige Marge etwas sinkt“. Schließlich profitierten die Web-Konzerne nach Ansicht des Staatsministers „enorm von der medialen und kulturellen Leistung sowie der Infrastruktur unseres Landes – sie zahlen aber kaum Steuern, investieren zu wenig und geben der Gesellschaft viel zu wenig zurück”. Weimer sprach von unsolidarischem Verhalten und Steuervermeidung, was es zu ändern gelte. Die Internet-Konzerne sollen endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, fordert Staatsminister Wolfram Weimer.Jesco Denzel / Bundesregierung Auf Verlegerseite begrüßte man die Pläne der neuen Bundesregierung, die Plattformmonopole im Interesse digitaler Medienvielfalt in die Pflicht nehmen zu wollen. Matthias Ditzen-Blanke und Philipp Welte, die Sprecher des Bündnisses Zukunft Presse von Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) und des Medienverbands der freien Presse (MVFP), mahnten gegenüber dem Branchendienst MEEDIA jedoch an, dass die entsprechenden Einnahmen nicht im Bundeshaushalt verschwinden dürfe. „Eine Steuer auf Onlinewerbeleistungen muss unmittelbar für die Gegenfinanzierung der Unterstützung redaktioneller Medien verwendet werden, deren Wirtschaftlichkeit durch eben jene internationalen Technologieplattformen massiv angegriffen ist.“  “Die Digitalwirtschaft unterstützt man so nicht” Aus den Reihen der IT-Branche stieß Weimers Vorstoß indes auf massive Kritik. „Eine solche Steuer stellt Unternehmen vor erhebliche Anforderungen in Bezug auf Dokumentation und Nutzerverfolgung zur korrekten Erfassung des Werbeaufkommens in Deutschland“, monierte Oliver Süme, Vorstandsvorsitzender des eco. Zudem könnten solche Regelungen auch auf deutsche Unternehmen und Angebote Anwendung finden, warnte Süme. „Eine aufstrebende Digitalwirtschaft unterstützt man so nicht.“  Der eco-Mann befürchtet zudem, dass die ohnehin schon angespannten transatlantischen Verhältnisse weiter beschädigt werden könnten. „Weimer provoziert hier die US-Regierung ohne Not zu einer Reaktion. Es bleibt zu hoffen, dass Deutschland und die USA nicht noch weiter politisch auseinanderdriften”, so Süme. Der Vorstoß von Weimer werfe auch die Frage auf, wie die Digitalpolitik in Deutschland zukünftig gestaltet werde. „Wir haben jetzt seit wenigen Wochen ein Digitalministerium, das hier augenscheinlich gar nicht weiter berücksichtigt wird. Digitalpolitik aus einem Guss sieht anders aus“, sagte der eco-Vorstandsvorsitzende und plädierte dafür, die Fragen einer internationalen Digitalsteuer auf internationaler Ebene im Rahmen der OECD zu klären.  Oliver Süme vom eco-Verband befürchtet, dass Deutschland und die USA politisch noch weiter auseinanderdriften könnten. eco Auch Bitkom-Präsident Ralf Wintergerst kritisierte die geplante Digitalsteuer scharf. „Ganz gleich ob neue Steuern, Abgaben, Gebühren oder Zölle auf Digitales: Jeder Aufschlag wird unmittelbar oder mittelbar zu einer Preiserhöhung führen und dies werden Unternehmen, Verwaltungen, Verbraucherinnen und Verbraucher in Deutschland spüren.“ Behauptungen, man werde davon nichts merken, seien unbelegt und widersprächen der wirtschaftlichen Logik. „Preisaufschläge werden die dringend notwendige Beschleunigung der Digitalisierung der Verwaltungen und die digitale Transformation der Unternehmen belasten und verlangsamen.“  “Nicht mehr, sondern weniger finanzielle Belastungen auf digitale Güter” Wintergerst verwies darauf, dass in den USA fast zehnmal so viel in Digitalisierung investiert werde wie in Deutschland und sich diese Schere von Jahr zu Jahr weiter öffne. „Wir brauchen nicht mehr, wir brauchen weniger finanzielle Belastungen für digitale Güter und Dienste, zum Beispiel durch eine Absenkung der Stromkosten für Rechenzentrumsbetreiber oder eine Reduzierung der Mehrwertsteuer auf Reparaturen von Endgeräten“, fordert der IT-Lobbyist.   Bitkom-Präsident Ralf Wintergerst warnt vor Preiserhöhungen in Folge einer Digitalsteuer.Giesecke + Devrient Aber auch Wintergerst schielt bereits mit einem Auge auf die Mittel aus einer Digitalsteuer. Sollte sich die Bundesregierung für die Einführung neuer finanzpolitischer Maßnahmen entscheiden, müsse sie dafür sorgen, dass jegliche Mehreinnahmen der digitalen Transformation der deutschen Wirtschaft und ihren digitalen Infrastrukturen auch wieder zugutekommen. „Tun sie dies nicht, schadet die Bundesregierung dem Digitalstandort Deutschland mehr, als sie ihm nutzt.“  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”> 

Kommt die Digitalsteuer für Google, Meta und Co.?​ width=”2494″ height=”1402″ sizes=”(max-width: 2494px) 100vw, 2494px”>Kommt die Digitalsteuer, braucht es erst einmal Transparenz darüber, wie viel Geld die Internet-Giganten mit Werbung in Deutschland verdienen.Doucefleur – shutterstock.com

Die großen Internet-Plattformen sollen eine Digitalsteuer in Deutschland entrichten. Das ist der Plan von Wolfram Weimer, Ex-Verleger und seit kurzem Staatsminister für Kultur und Medien im Bundeskanzleramt. Demzufolge sollen Google, Meta und Co. eine Abgabe auf ihre hierzulande erzielten Einnahmen mit Online-Werbung leisten. 

Big Tech stöhnt unter Trump-Zöllen

„Wir halten einen Abgabesatz von zehn Prozent für moderat und legitim“, sagte Weimer dem „Stern“ und verwies die aus seiner Sicht überzeugenden Erfahrungen bei den Nachbarn in Österreich. Die Abgabe habe dazu geführt, „dass die Konzerne endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, also ihre gewaltige Marge etwas sinkt“. Schließlich profitierten die Web-Konzerne nach Ansicht des Staatsministers „enorm von der medialen und kulturellen Leistung sowie der Infrastruktur unseres Landes – sie zahlen aber kaum Steuern, investieren zu wenig und geben der Gesellschaft viel zu wenig zurück”. Weimer sprach von unsolidarischem Verhalten und Steuervermeidung, was es zu ändern gelte.

Die Internet-Konzerne sollen endlich einen kleinen Steuerbeitrag für die Gesellschaft leisten, fordert Staatsminister Wolfram Weimer.Jesco Denzel / Bundesregierung

Auf Verlegerseite begrüßte man die Pläne der neuen Bundesregierung, die Plattformmonopole im Interesse digitaler Medienvielfalt in die Pflicht nehmen zu wollen. Matthias Ditzen-Blanke und Philipp Welte, die Sprecher des Bündnisses Zukunft Presse von Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) und des Medienverbands der freien Presse (MVFP), mahnten gegenüber dem Branchendienst MEEDIA jedoch an, dass die entsprechenden Einnahmen nicht im Bundeshaushalt verschwinden dürfe. „Eine Steuer auf Onlinewerbeleistungen muss unmittelbar für die Gegenfinanzierung der Unterstützung redaktioneller Medien verwendet werden, deren Wirtschaftlichkeit durch eben jene internationalen Technologieplattformen massiv angegriffen ist.“ 

“Die Digitalwirtschaft unterstützt man so nicht”

Aus den Reihen der IT-Branche stieß Weimers Vorstoß indes auf massive Kritik. „Eine solche Steuer stellt Unternehmen vor erhebliche Anforderungen in Bezug auf Dokumentation und Nutzerverfolgung zur korrekten Erfassung des Werbeaufkommens in Deutschland“, monierte Oliver Süme, Vorstandsvorsitzender des eco. Zudem könnten solche Regelungen auch auf deutsche Unternehmen und Angebote Anwendung finden, warnte Süme. „Eine aufstrebende Digitalwirtschaft unterstützt man so nicht.“ 

Der eco-Mann befürchtet zudem, dass die ohnehin schon angespannten transatlantischen Verhältnisse weiter beschädigt werden könnten. „Weimer provoziert hier die US-Regierung ohne Not zu einer Reaktion. Es bleibt zu hoffen, dass Deutschland und die USA nicht noch weiter politisch auseinanderdriften”, so Süme. Der Vorstoß von Weimer werfe auch die Frage auf, wie die Digitalpolitik in Deutschland zukünftig gestaltet werde. „Wir haben jetzt seit wenigen Wochen ein Digitalministerium, das hier augenscheinlich gar nicht weiter berücksichtigt wird. Digitalpolitik aus einem Guss sieht anders aus“, sagte der eco-Vorstandsvorsitzende und plädierte dafür, die Fragen einer internationalen Digitalsteuer auf internationaler Ebene im Rahmen der OECD zu klären. 

Oliver Süme vom eco-Verband befürchtet, dass Deutschland und die USA politisch noch weiter auseinanderdriften könnten. eco

Auch Bitkom-Präsident Ralf Wintergerst kritisierte die geplante Digitalsteuer scharf. „Ganz gleich ob neue Steuern, Abgaben, Gebühren oder Zölle auf Digitales: Jeder Aufschlag wird unmittelbar oder mittelbar zu einer Preiserhöhung führen und dies werden Unternehmen, Verwaltungen, Verbraucherinnen und Verbraucher in Deutschland spüren.“ Behauptungen, man werde davon nichts merken, seien unbelegt und widersprächen der wirtschaftlichen Logik. „Preisaufschläge werden die dringend notwendige Beschleunigung der Digitalisierung der Verwaltungen und die digitale Transformation der Unternehmen belasten und verlangsamen.“ 

“Nicht mehr, sondern weniger finanzielle Belastungen auf digitale Güter”

Wintergerst verwies darauf, dass in den USA fast zehnmal so viel in Digitalisierung investiert werde wie in Deutschland und sich diese Schere von Jahr zu Jahr weiter öffne. „Wir brauchen nicht mehr, wir brauchen weniger finanzielle Belastungen für digitale Güter und Dienste, zum Beispiel durch eine Absenkung der Stromkosten für Rechenzentrumsbetreiber oder eine Reduzierung der Mehrwertsteuer auf Reparaturen von Endgeräten“, fordert der IT-Lobbyist.  

Bitkom-Präsident Ralf Wintergerst warnt vor Preiserhöhungen in Folge einer Digitalsteuer.Giesecke + Devrient

Aber auch Wintergerst schielt bereits mit einem Auge auf die Mittel aus einer Digitalsteuer. Sollte sich die Bundesregierung für die Einführung neuer finanzpolitischer Maßnahmen entscheiden, müsse sie dafür sorgen, dass jegliche Mehreinnahmen der digitalen Transformation der deutschen Wirtschaft und ihren digitalen Infrastrukturen auch wieder zugutekommen. „Tun sie dies nicht, schadet die Bundesregierung dem Digitalstandort Deutschland mehr, als sie ihm nutzt.“ 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”>

Kommt die Digitalsteuer für Google, Meta und Co.?​ Weiterlesen »

Die besten IT-Gadgets​

Allgemein

Wo die Liebe hinfällt. Foto: Roman Samborskyi – shutterstock.com In diesem Artikel sammeln wir in unregelmäßigen Abständen die besten Gadgets aus den verschiedensten Bereichen des täglichen Lebens. Wenn Sie nun jedoch zig Varianten der neuesten Smartphone-Ladekabel und -Speichererweiterungen erwarten, müssen wir Sie leider enttäuschen. Wir konzentrieren uns stattdessen lieber auf aktuelle Tech- und IT-Gadgets, die weniger austauschbar sind. Fürs Büro ist unsere Tech-Spielzeugselektion in weiten Teilen nur bedingt geeignet. Die besten Tech- und IT-Gadgets LG Artcool Air AI Mit seinem Klimagerät Artcool Air AI will LG künstliche Intelligenz, gefälliges Produktdesign und Energieeffizienz zusammenbringen. Die KI-fähige Klimaanlage im schwarzen Hochglanzgewand kann Stärke und Richtung des Luftstroms in Echtzeit intelligent anpassen – auf Grundlage der individuellen Raumaufteilung und der aktuellen Positionen der Bewohner. Diese können das Gerät auch per App steuern, remote überwachen und auf ihre jeweiligen Bedürfnisse anpassen. LG Electronics Für mehr Energieeffizienz soll hingegen ein “AI kW Manager” sorgen, der ebenfalls per App aufgerufen werden kann und Stromverbrauchsdaten in Echtzeit bereitstellt. Ein weiteres Feature: Das Klimagerät erkennt, wenn sich durch offene Fenster die Temperatur verändert – und schaltet dann automatisch in den Energiesparmodus. Ab Mitte Juni 2025 soll die Artcool-Air-AI_Familie in Deutschland erhältlich sein. Zum Preis gibt’s bislang keine Infos. Nintendo Switch 2 Nicht nur weil 2025 sonst kein großer Konsolen-Launch ansteht, sehnen Videospiel-Fans den Release der Switch 2 Anfang Juni 2025 herbei. Die Konsole verspricht im Vergleich zu ihrem Vorgänger unter anderem mehr Speicher, bessere Grafikleistung sowie diverse neue In-Game-Funktionen, etwa Sprach- und Videochats. Vor allem erscheint mit der Switch 2 aber auch ein neuer Teil der Mario-Kart-Reihe – die (gemessen an den Verkaufszahlen) erfolgreichste Rennspiel-Serie aller Zeiten. Der UVP für die Konsole liegt bei 470 Euro, das Bundle mit “Mario Kart World” gibt’s ab circa 510 Euro.   Die ganze Welt ist eure Rennstrecke! Fahrt, wohin ihr nur möchtet, in #MarioKartWorld – exklusiv für #NintendoSwitch2 direkt zur Konsolenveröffentlichung erhältlich! pic.twitter.com/ZyYZKGet4v— Nintendo DE (@NintendoDE) April 2, 2025 CoolGeek M1 Betagtere Semester werden sich noch an das schöne Gefühl erinnern, das gerade frisch im Plattenladen in CD-Form erstandene neue Album der Lieblingsband voller Vorfreude in einen entsprechenden Player zu legen. Sollten Sie Ihre CD-Kollektion noch nicht entsorgt haben, können Sie diese jetzt mit dem M1 von CoolGeek völlig neu in Szene setzen. Denn der Player ist in einer Art Bilderrahmen untergebracht und lässt sich an die Wand hängen. Ansonsten bringt er sämtliche konventionelle Funktionen eines normalen CD-Players mit. Wenn Sie analogem Musikgenuss auf diese Art und Weise ein (Wand-)Denkmal setzen wollen, können Sie das direkt tun. Der UVP liegt bei 179 Dollar – auf Kickstarter gibt es noch einige wenige Exemplare zum Vorzugspreis.      Tidbyt Gen2 Das Retro-Display von Tidbyt wurde im Mai 2025 mit einem Update ausgestattet: Die zweite Version des Pixel-Screens verzichtet auf die Walnussholzoptik und kommt wahlweise in einem schwarzen oder weißen Gehäuse. Tidbyt Über Kalenderereignisse, das Wetter oder aktuelle Krypto-Kurse und die neuesten Tweets informiert das Display jedoch weiterhin. Allerdings ist es in Version 2 unter anderem mit einer neuen Touch-Bedienung ausgestattet und kann auch minimalistische Sound-Effekte wiedergeben. Die Einsatzzwecke sind weiterhin zahlreich: Mehr als 150 Apps stehen Benutzern zur Verfügung. Neben den genannten Infos können sich die Benutzer unter anderem auch frei anpassbare Textnachrichten und Animationen anzeigen lassen oder – dank eines offenen Ökosystems – mit wenig Aufwand auch eigene Apps coden. Der Preis liegt bei 179 Dollar. Angry Miao AFA R2 Alles andere als eine 08/15-Tastatur ist das mechanische und modulare AFA R2 Keyboard von Angry Miao. Der zweigeteilte Rahmen der Edel-Tastatur besteht aus gefrästem Aluminium – mittig befindet sich ein PCB, das mit einem Cover aus Glas ausgestattet ist. Dieses Keyboard lässt sich auf so gut wie allen Ebenen an die Bedürfnisse seines Benutzers anpassen – vom Tasten-Feedback bis hin zur individuellen Beleuchtung. Angry Miao Für Nerds besonders interessant: Das AFA R2 steht in diversen, von Animes und Videospielen inspirierten Designs zur Verfügung. Das hat allerdings seinen Preis: Circa 700 Euro müssen Sie einrechnen. Frauscher x Porsche 850 Fantom In Kooperation mit der österreichischen Frauscher Bootswerft hat Porsche bereits zwei Elektroboote aufs Wasser gestellt, die die  (elektrische) Antriebstechnik des SUV Macan Turbo beherbergen. Neben der offenen Variante (Fantom Air) gibt es seit Ende 2024 auch eine Runabout-Version mit geschlossenem Vordeck und Kajüte. Diese Fantom-850-Version bietet Platz für bis zu sieben Passagiere (die offene Version für maximal neun) und beschleunigt bis auf 90 km/h. Die Reichweite soll laut Porsche (bei langsamer Fahrt) bei circa 100 Kilometer liegen. Porsche Wie die “Air”-Version ist auch die Fantom 850 zunächst auf 25 Exemplare in der “First Edition” limitiert. Zum Preis gibt es keine Infos. Allerdings bietet der der 2022 vorgestellten Fantom Air einen Anhaltspunkt: Er startete bei 561.700 Euro. Philips VoiceTracer Ärgern Sie sich auch regelmäßig darüber, dass Ihnen die besten Ideen in den unmöglichsten Situationen kommen? Mit diesem Audio Recorder in Kugelschreiberform haben Sie jetzt eine Möglichkeit, Abhilfe zu schaffen. Der Stift verfügt über ein integriertes Mikrofon für Aufnahmen, die schnell und einfach per One-Click-Bedienung gestartet und beendet werden. Philips Um die Ideen anschließend zu verschriftlichen, lassen sich die Audiodateien in die KI-basierte Sembly-App übertragen. Der 32 GB große, integrierte Speicher reicht für mehrere Stunden Aufnahme. Der Akku hält laut Hersteller bis zu 129 Stunden. Ist er doch einmal leer, lässt sich der Stift einfach per USB aufladen. Wie Philips betont, eignet sich das Device auch sehr gut für “sensible Situationen, in denen ein normaler Audiorecorder zu auffällig wäre”. Der Stealth-Stift ist ab rund 80 Euro zu haben.  Prodrive Racing Simulator Wenn Sie bisher vor allem aus Stilgründen davon abgesehen haben, sich einen Rennsimulator in die Villa zu stellen, könnte dieses Designer-Schmuckstück genau das Richtige für Sie sein. Der Prodrive Racing Simulator vereint minimalistische Optik mit hochwertiger Technik und edlen Materialien. Prodrive Rennsitz, Pedale und Lenkrad im Formel-1-Style (sowie die zugehörige Technik) sind in ein Carbon-Monoquoque eingebettet. Dazu kommt ein Simulator-PC mit 16 GB RAM und 12 GB Nvidia-GPU, Kopfhörer von Bang & Olufsen sowie ein Curved 32:9-Monitor von AOC in 49 Zoll. Das hat allerdings auch seinen Preis, nämlich 49.000 britische Pfund (circa 57.500 Euro). The Charging Tray by Carl Friedrik Carl Friedrik ist ein relativ junges Unternehmen (gegründet 2013) aus London, dass sich auf Premium-Reise-Accessoires aus Leder spezialisiert hat. Das Portfolio deckt dabei auch das Homeoffice ab. The Charging Tray kombiniert kabellose Ladestation mit formschöner Ablagefläche für aufgeräumte Schreibtische. Carl Friedrik Weil das Ganze mit dem Qi-Standard funktioniert, dürfen nicht nur iPhones und AirPods, sondern auch Android-Smartphones und andere kompatible Devices abgelegt, respektive aufgeladen werden. Preislich müssen Sie 245 Euro veranschlagen – insofern das Accessoire gerade lieferbar sein sollte. Audio-Technica Sound Burger Im Jahr 1983 setzte Audio-Technica mit dem Sound Burger – einem portablen Plattenspieler – ein Ausrufezeichen. Zum 40. Geburtstag des Walkmans für Schallplatten hatte der Hersteller sein Kultprodukt in limitierter Auflage wieder aufleben lassen. Die 7.000 produzierten Exemplare waren so schnell weg, dass die Japaner sich entschieden, den Sound Burger wieder standardmäßig ins Portfolio aufzunehmen. Audio-Technica Der modernisierte Sound Burger verfügt über einen USB-C-Port für Ladevorgänge, wird per Bluetooth integriert und spielt Vinyl-LPs und -Singles mit 33 1/3 und 45 UpM ab. Wahlweise kann der Sound Burger auch über Kabel mit einer Anlage oder einem Lautsprechersystem verbunden werden. Der Preis liegt bei 229 Euro. Zero Labs Automotive Wenn Sie auf automobile Klassiker stehen, dabei aber keine Lust haben, diverse Umwelt-Todsünden zu begehen, sollten Sie einen Blick auf das Portfolio von Zero Labs werfen. Das kalifornische Unternehmen hat sich darauf spezialisiert, altes Eisen mit neuester Technologie zu verheiraten. Insbesondere Liebhaber klassischer Land-Rover-Modelle dürften hier zu ihrem Elektroglück finden. Neben einer Komplettumrüstung des Antriebsstrangs auf Elektro wird auch der Innenraum der Gelände-Legenden komplett überarbeitet. Das hat natürlich seinen Preis: Mindestens 185.000 Dollar sollten Sie für einen solchen, umweltfreundlichen SUV-Klassiker auf der hohen Kante haben. Das Unternehmen kümmert sich übrigens auch gerne um individuelle automobile Sonderwünsche. Kohler Numi 2.0 Mit Numi 2.0 hat der US-Hersteller Kohler nach eigenen Angaben die intelligenteste Toilette der Welt im Angebot. Sie verfügt über einen beheizten Sitz, integrierte Lautsprecher, ein Ambient-Lighting-System und kommt sogar mit Alexa-Support. Quasi nebenbei sorgt das smarte Klo auch noch für ein neues Level in Sachen Wassereffizienz. Business Wire Vorgestellt wurde Numi erstmals auf der CES 2019. Inzwischen ist das High-Tech-WC auch erhältlich – die Preise beginnen bei rund 10.000 Dollar. Ecocapsule Dieses Teil, das aussieht, als wäre es der Liebesnacht eines Space Shuttles und eines Airstream-Wohnwagens entsprungen, ist ein mobiles High-Tech-Heim für bis zu zwei Personen. Dank Solar-, Windenergie und der intelligenten Speicherung von Regenwasser muss man im Inneren der Ecocapsule auf so gut wie nichts verzichten: Eine Toilette mit Dusche ist ebenso an Bord wie eine voll ausgestattete Küchenzeile und ein Bett. We´ve made a short video 🎬 at #expo2020dubai about what you can expect in front of the Slovak pavilion and see inside the Ecocapsule. #SlovakiaExpo2020 #expo2020dubai #innovations #visitecocapsule pic.twitter.com/hfDFpzTOXZ— @Ecocapsule (@EcocapsuleSk) February 21, 2022 Ein völlig autarkes Leben in der wilden Natur ist hiermit also ebenso möglich, wie das Projekt “Einliegerwohnung auf Wolkenkratzer-Dach”. Das mobile Heim ist in verschiedenen Ausführungen erhältlich – die Preise beginnen bei 55.000 Euro. Eine XL-Version ist für das erste Quartal 2026 angekündigt. Framed Tech Sie wissen nicht mehr wohin mit ihren alten Smartphones und Spielkonsolen? Dann machen Sie kultige Altgeräte doch einfach zu Kunst. Das übernimmt bei Bedarf auch Framed Tech für Sie: Das Unternehmen hat sich darauf spezialisiert, obsolete Technik zu zerlegen und fein säuberlich in einen Bilderrahmen zu verfrachten. Framed Tech Das Ergebnis ist einzigartiger Tech-Wandschmuck, der auch noch mehr Platz in Kellern und auf Dachböden schafft. Preise auf Anfrage. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten IT-Gadgets​ Wo die Liebe hinfällt.
Foto: Roman Samborskyi – shutterstock.com

In diesem Artikel sammeln wir in unregelmäßigen Abständen die besten Gadgets aus den verschiedensten Bereichen des täglichen Lebens. Wenn Sie nun jedoch zig Varianten der neuesten Smartphone-Ladekabel und -Speichererweiterungen erwarten, müssen wir Sie leider enttäuschen.

Wir konzentrieren uns stattdessen lieber auf aktuelle Tech- und IT-Gadgets, die weniger austauschbar sind. Fürs Büro ist unsere Tech-Spielzeugselektion in weiten Teilen nur bedingt geeignet.

Die besten Tech- und IT-Gadgets

LG Artcool Air AI

Mit seinem Klimagerät Artcool Air AI will LG künstliche Intelligenz, gefälliges Produktdesign und Energieeffizienz zusammenbringen. Die KI-fähige Klimaanlage im schwarzen Hochglanzgewand kann Stärke und Richtung des Luftstroms in Echtzeit intelligent anpassen – auf Grundlage der individuellen Raumaufteilung und der aktuellen Positionen der Bewohner. Diese können das Gerät auch per App steuern, remote überwachen und auf ihre jeweiligen Bedürfnisse anpassen.

LG Electronics

Für mehr Energieeffizienz soll hingegen ein “AI kW Manager” sorgen, der ebenfalls per App aufgerufen werden kann und Stromverbrauchsdaten in Echtzeit bereitstellt. Ein weiteres Feature: Das Klimagerät erkennt, wenn sich durch offene Fenster die Temperatur verändert – und schaltet dann automatisch in den Energiesparmodus. Ab Mitte Juni 2025 soll die Artcool-Air-AI_Familie in Deutschland erhältlich sein. Zum Preis gibt’s bislang keine Infos.

Nintendo Switch 2

Nicht nur weil 2025 sonst kein großer Konsolen-Launch ansteht, sehnen Videospiel-Fans den Release der Switch 2 Anfang Juni 2025 herbei. Die Konsole verspricht im Vergleich zu ihrem Vorgänger unter anderem mehr Speicher, bessere Grafikleistung sowie diverse neue In-Game-Funktionen, etwa Sprach- und Videochats.

Vor allem erscheint mit der Switch 2 aber auch ein neuer Teil der Mario-Kart-Reihe – die (gemessen an den Verkaufszahlen) erfolgreichste Rennspiel-Serie aller Zeiten. Der UVP für die Konsole liegt bei 470 Euro, das Bundle mit “Mario Kart World” gibt’s ab circa 510 Euro.  

Die ganze Welt ist eure Rennstrecke! Fahrt, wohin ihr nur möchtet, in #MarioKartWorld – exklusiv für #NintendoSwitch2 direkt zur Konsolenveröffentlichung erhältlich! pic.twitter.com/ZyYZKGet4v— Nintendo DE (@NintendoDE) April 2, 2025

CoolGeek M1

Betagtere Semester werden sich noch an das schöne Gefühl erinnern, das gerade frisch im Plattenladen in CD-Form erstandene neue Album der Lieblingsband voller Vorfreude in einen entsprechenden Player zu legen. Sollten Sie Ihre CD-Kollektion noch nicht entsorgt haben, können Sie diese jetzt mit dem M1 von CoolGeek völlig neu in Szene setzen.

Denn der Player ist in einer Art Bilderrahmen untergebracht und lässt sich an die Wand hängen. Ansonsten bringt er sämtliche konventionelle Funktionen eines normalen CD-Players mit. Wenn Sie analogem Musikgenuss auf diese Art und Weise ein (Wand-)Denkmal setzen wollen, können Sie das direkt tun. Der UVP liegt bei 179 Dollar – auf Kickstarter gibt es noch einige wenige Exemplare zum Vorzugspreis.     

Tidbyt Gen2

Das Retro-Display von Tidbyt wurde im Mai 2025 mit einem Update ausgestattet: Die zweite Version des Pixel-Screens verzichtet auf die Walnussholzoptik und kommt wahlweise in einem schwarzen oder weißen Gehäuse.

Tidbyt

Über Kalenderereignisse, das Wetter oder aktuelle Krypto-Kurse und die neuesten Tweets informiert das Display jedoch weiterhin. Allerdings ist es in Version 2 unter anderem mit einer neuen Touch-Bedienung ausgestattet und kann auch minimalistische Sound-Effekte wiedergeben.

Die Einsatzzwecke sind weiterhin zahlreich: Mehr als 150 Apps stehen Benutzern zur Verfügung. Neben den genannten Infos können sich die Benutzer unter anderem auch frei anpassbare Textnachrichten und Animationen anzeigen lassen oder – dank eines offenen Ökosystems – mit wenig Aufwand auch eigene Apps coden. Der Preis liegt bei 179 Dollar.

Angry Miao AFA R2

Alles andere als eine 08/15-Tastatur ist das mechanische und modulare AFA R2 Keyboard von Angry Miao. Der zweigeteilte Rahmen der Edel-Tastatur besteht aus gefrästem Aluminium – mittig befindet sich ein PCB, das mit einem Cover aus Glas ausgestattet ist. Dieses Keyboard lässt sich auf so gut wie allen Ebenen an die Bedürfnisse seines Benutzers anpassen – vom Tasten-Feedback bis hin zur individuellen Beleuchtung.

Angry Miao

Für Nerds besonders interessant: Das AFA R2 steht in diversen, von Animes und Videospielen inspirierten Designs zur Verfügung. Das hat allerdings seinen Preis: Circa 700 Euro müssen Sie einrechnen.

Frauscher x Porsche 850 Fantom

In Kooperation mit der österreichischen Frauscher Bootswerft hat Porsche bereits zwei Elektroboote aufs Wasser gestellt, die die  (elektrische) Antriebstechnik des SUV Macan Turbo beherbergen. Neben der offenen Variante (Fantom Air) gibt es seit Ende 2024 auch eine Runabout-Version mit geschlossenem Vordeck und Kajüte. Diese Fantom-850-Version bietet Platz für bis zu sieben Passagiere (die offene Version für maximal neun) und beschleunigt bis auf 90 km/h. Die Reichweite soll laut Porsche (bei langsamer Fahrt) bei circa 100 Kilometer liegen.

Porsche

Wie die “Air”-Version ist auch die Fantom 850 zunächst auf 25 Exemplare in der “First Edition” limitiert. Zum Preis gibt es keine Infos. Allerdings bietet der der 2022 vorgestellten Fantom Air einen Anhaltspunkt: Er startete bei 561.700 Euro.

Philips VoiceTracer

Ärgern Sie sich auch regelmäßig darüber, dass Ihnen die besten Ideen in den unmöglichsten Situationen kommen? Mit diesem Audio Recorder in Kugelschreiberform haben Sie jetzt eine Möglichkeit, Abhilfe zu schaffen. Der Stift verfügt über ein integriertes Mikrofon für Aufnahmen, die schnell und einfach per One-Click-Bedienung gestartet und beendet werden.

Philips

Um die Ideen anschließend zu verschriftlichen, lassen sich die Audiodateien in die KI-basierte Sembly-App übertragen. Der 32 GB große, integrierte Speicher reicht für mehrere Stunden Aufnahme. Der Akku hält laut Hersteller bis zu 129 Stunden. Ist er doch einmal leer, lässt sich der Stift einfach per USB aufladen. Wie Philips betont, eignet sich das Device auch sehr gut für “sensible Situationen, in denen ein normaler Audiorecorder zu auffällig wäre”. Der Stealth-Stift ist ab rund 80 Euro zu haben. 

Prodrive Racing Simulator

Wenn Sie bisher vor allem aus Stilgründen davon abgesehen haben, sich einen Rennsimulator in die Villa zu stellen, könnte dieses Designer-Schmuckstück genau das Richtige für Sie sein. Der Prodrive Racing Simulator vereint minimalistische Optik mit hochwertiger Technik und edlen Materialien.

Prodrive

Rennsitz, Pedale und Lenkrad im Formel-1-Style (sowie die zugehörige Technik) sind in ein Carbon-Monoquoque eingebettet. Dazu kommt ein Simulator-PC mit 16 GB RAM und 12 GB Nvidia-GPU, Kopfhörer von Bang & Olufsen sowie ein Curved 32:9-Monitor von AOC in 49 Zoll. Das hat allerdings auch seinen Preis, nämlich 49.000 britische Pfund (circa 57.500 Euro).

The Charging Tray by Carl Friedrik

Carl Friedrik ist ein relativ junges Unternehmen (gegründet 2013) aus London, dass sich auf Premium-Reise-Accessoires aus Leder spezialisiert hat. Das Portfolio deckt dabei auch das Homeoffice ab. The Charging Tray kombiniert kabellose Ladestation mit formschöner Ablagefläche für aufgeräumte Schreibtische.

Carl Friedrik

Weil das Ganze mit dem Qi-Standard funktioniert, dürfen nicht nur iPhones und AirPods, sondern auch Android-Smartphones und andere kompatible Devices abgelegt, respektive aufgeladen werden. Preislich müssen Sie 245 Euro veranschlagen – insofern das Accessoire gerade lieferbar sein sollte.

Audio-Technica Sound Burger

Im Jahr 1983 setzte Audio-Technica mit dem Sound Burger – einem portablen Plattenspieler – ein Ausrufezeichen. Zum 40. Geburtstag des Walkmans für Schallplatten hatte der Hersteller sein Kultprodukt in limitierter Auflage wieder aufleben lassen. Die 7.000 produzierten Exemplare waren so schnell weg, dass die Japaner sich entschieden, den Sound Burger wieder standardmäßig ins Portfolio aufzunehmen.

Audio-Technica

Der modernisierte Sound Burger verfügt über einen USB-C-Port für Ladevorgänge, wird per Bluetooth integriert und spielt Vinyl-LPs und -Singles mit 33 1/3 und 45 UpM ab. Wahlweise kann der Sound Burger auch über Kabel mit einer Anlage oder einem Lautsprechersystem verbunden werden. Der Preis liegt bei 229 Euro.

Zero Labs Automotive

Wenn Sie auf automobile Klassiker stehen, dabei aber keine Lust haben, diverse Umwelt-Todsünden zu begehen, sollten Sie einen Blick auf das Portfolio von Zero Labs werfen. Das kalifornische Unternehmen hat sich darauf spezialisiert, altes Eisen mit neuester Technologie zu verheiraten. Insbesondere Liebhaber klassischer Land-Rover-Modelle dürften hier zu ihrem Elektroglück finden.

Neben einer Komplettumrüstung des Antriebsstrangs auf Elektro wird auch der Innenraum der Gelände-Legenden komplett überarbeitet. Das hat natürlich seinen Preis: Mindestens 185.000 Dollar sollten Sie für einen solchen, umweltfreundlichen SUV-Klassiker auf der hohen Kante haben. Das Unternehmen kümmert sich übrigens auch gerne um individuelle automobile Sonderwünsche.

Kohler Numi 2.0

Mit Numi 2.0 hat der US-Hersteller Kohler nach eigenen Angaben die intelligenteste Toilette der Welt im Angebot. Sie verfügt über einen beheizten Sitz, integrierte Lautsprecher, ein Ambient-Lighting-System und kommt sogar mit Alexa-Support. Quasi nebenbei sorgt das smarte Klo auch noch für ein neues Level in Sachen Wassereffizienz.

Business Wire

Vorgestellt wurde Numi erstmals auf der CES 2019. Inzwischen ist das High-Tech-WC auch erhältlich – die Preise beginnen bei rund 10.000 Dollar.

Ecocapsule

Dieses Teil, das aussieht, als wäre es der Liebesnacht eines Space Shuttles und eines Airstream-Wohnwagens entsprungen, ist ein mobiles High-Tech-Heim für bis zu zwei Personen. Dank Solar-, Windenergie und der intelligenten Speicherung von Regenwasser muss man im Inneren der Ecocapsule auf so gut wie nichts verzichten: Eine Toilette mit Dusche ist ebenso an Bord wie eine voll ausgestattete Küchenzeile und ein Bett.

We´ve made a short video 🎬 at #expo2020dubai about what you can expect in front of the Slovak pavilion and see inside the Ecocapsule. #SlovakiaExpo2020 #expo2020dubai #innovations #visitecocapsule pic.twitter.com/hfDFpzTOXZ— @Ecocapsule (@EcocapsuleSk) February 21, 2022

Ein völlig autarkes Leben in der wilden Natur ist hiermit also ebenso möglich, wie das Projekt “Einliegerwohnung auf Wolkenkratzer-Dach”. Das mobile Heim ist in verschiedenen Ausführungen erhältlich – die Preise beginnen bei 55.000 Euro. Eine XL-Version ist für das erste Quartal 2026 angekündigt.

Framed Tech

Sie wissen nicht mehr wohin mit ihren alten Smartphones und Spielkonsolen? Dann machen Sie kultige Altgeräte doch einfach zu Kunst. Das übernimmt bei Bedarf auch Framed Tech für Sie: Das Unternehmen hat sich darauf spezialisiert, obsolete Technik zu zerlegen und fein säuberlich in einen Bilderrahmen zu verfrachten.

Framed Tech

Das Ergebnis ist einzigartiger Tech-Wandschmuck, der auch noch mehr Platz in Kellern und auf Dachböden schafft. Preise auf Anfrage.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten IT-Gadgets​ Weiterlesen »

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​

Allgemein

Bundesdigitalminister Karsten Wildberger auf der re:publica 2025Gregor Fischer/re:publica Vor der neuen Bundesregierung liegen große Herausforderungen. Das liegt auch daran, dass viele Dinge wie veraltete und marode Infrastruktur jahrzehntelang nicht richtig angepackt wurden. Gleiches galt für die digitale Unabhängigkeit. Allerdings hat es erst die US-Regierung mit ihrer unkalkulierbaren Bulldozer-Taktik geschafft, dass hierzulande kurzerhand sogar ein neues Ministerium für Digitalisierung und Staatsmodernisierung aus dem Boden gestampft wurde. Fast müsste man Donald Trump dankbar sein. Nun kommt es darauf an, wie ernst die neue Bundesregierung es mit der digitalen Unabhängigkeit meint. Schließlich wurden auch von der Vorgängerregierung große Investitionen in offene Open-Source-Lösungen versprochen, bevor die Budgets dann nach und nach drastisch gekürzt wurden. Das inkonsequente und zögerliche Handeln führte letztlich dazu, dass einzelne Bundesländer sich dazu entschieden, die digitale Unabhängigkeit selbst in die Hand zu nehmen. So ist man etwa in Schleswig-Holstein nun deutlich weiter als dort, wo die oberste Devise „abwarten“ hieß. ZenDiS kommt Schlüsselrolle zu Um die digitale Souveränität strategisch und koordiniert voranzutreiben, gilt es nun, die vorhandenen Kräfte zu bündeln und zeitnah zu stärken. Eine wichtige Rolle wird dabei dem Zentrum für Digitale Souveränität (ZenDiS) zukommen. Trotz seiner vergleichsweise geringen Ressourcen ist es dem ZenDiS in den letzten Jahren gelungen, gemeinsam mit deutschen und europäischen Open-Source-Unternehmen einen digitalen Arbeitsplatz für die öffentliche Verwaltung zu entwickeln. Bereits seit Oktober letzten Jahres kann die „Office & Collaboration Suite” openDesk als Alternative zu Microsoft & Co. genutzt werden. Mit ihr erhalten Nutzer alle wichtigen Tools, die sie zum täglichen Arbeiten benötigen: von E-Mail und Kontakten über Chats und Video-Calls bis hin zum Cloud-Speicher. Anders als bei proprietärer Software können die Betreiber dabei den Code einsehen und kontrollieren. Zudem sind sie nicht von einzelnen Herstellern abhängig – und damit auch nicht von deren Preispolitik. „Mit openDesk steht der Öffentlichen Verwaltung eine souveräne und sichere Alternative zu proprietärer Software zur Verfügung“, erklärt Pamela Krosta-Hartl, Leiterin Strategie und Kommunikation beim ZenDiS. Zentrale Akteure wie das IT-Systemhaus der Bundeswehr und das Robert Koch-Institut setzten bereits auf openDesk und zeigten, dass europäische souveräne Lösungen konkurrenzfähig sind. Staatliche Lösungen bedrohen Existenz von Open-Source-Spezialisten Die neue Bundesregierung will das ZenDiS und openDesk nun ausdrücklich dazu nutzen, um die Digitalisierung der öffentlichen Verwaltung auf Basis offener Standards und Schnittstellen voranzutreiben. Ob dies flächendeckend gelingt, wird auch davon abhängen, wie andere europäische Nachbarn die digitale Unabhängigkeit angehen. Mit unbedachtem Vorgehen kann selbst bei guten Absichten viel kaputt gemacht werden. Das zeigt sich unter anderem in Frankreich. Hier hat die interministerielle Behörde für Digitales (DINUM) eine Plattform in Eigenregie entwickeln lassen, die mittlerweile verschiedene Open-Source-Tools umfasst. Im Gegensatz zu openDesk wird „La Suite Numérique“ allerdings von festangestellten Entwicklern sowie Freelancern in Eigenregie erstellt und betrieben. Damit schadet die französische Regierung letztlich den Open-Source-Unternehmen, die notwendig sind, um eine echte Alternative zu Microsoft zu bieten. Am Ende werden so die Anbieter geschwächt, auf deren Software “La Suite” basiert. Dieses Vorgehen bringt langfristig also niemanden weiter und zeigt ein weitgehend falsches Verständnis von „Unabhängigkeit“. Vielmehr kostet es viel Zeit und Energie – und am Ende wird es keine Alternativen mehr zu den großen US-Anbietern geben. Andere Länder zeigen Interesse an openDesk Der Ansatz der deutschen Bundesregierung ist hier deutlich zielführender. Zwar wird das ZenDiS als Bundes-GmbH ebenfalls von Steuergeldern finanziert. Doch das ZenDiS entwickelt die Lösungen nicht selbst. Sie fungiert vielmehr als zentrale Koordinierungs- und Anlaufstelle, bei der alle Fäden zusammenlaufen – für die Open-Source-Spezialisten wie für die interessierten Verwaltungen und Ministerien. Das openDesk-Konzept ist dabei so gestaltet, dass die einzelnen Lösungen, wenn notwendig, stets austauschbar und ersetzbar sind. Einige europäische Länder haben bereits Interesse an einer Kooperation sowie der Nutzung von openDesk gezeigt. Österreich hat sogar ein Partnerschaftsabkommen mit dem ZenDiS geschlossen. In der Schweiz wird der digitale Arbeitsplatz derzeit getestet. Die Kooperation mit Frankreich und den Niederlanden geht sogar noch einen Schritt weiter: Mit ihnen arbeitet das ZenDiS bereits grenzüberschreitend gemeinsam an einer europäischen Version des souveränen, Open-Source-basierten PC-Arbeitsplatzes.  Politik muss sicherstellen, dass der Wandel flächendeckend gelingt Nach Jahren des zähen Ringens sieht es also so aus, als könnte sich Europa doch noch von den bislang alles dominierenden US-Software-Konzernen lösen. Dass Deutschland dabei eine Vorreiterrolle zukommt, hätten vor wenigen Jahren nur die wenigsten gedacht. Nun muss die Politik allerdings sicherstellen, dass der Wandel langfristig und flächendeckend gelingt. Dazu müssen nicht nur die entsprechenden Budgets zur Verfügung gestellt und mit den europäischen Nachbarn kooperiert werden, sondern es muss auch ein Ökosystem aus leistungsfähigen Dienstleistern aufgebaut werden. (mb) 

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​ Bundesdigitalminister Karsten Wildberger auf der re:publica 2025Gregor Fischer/re:publica

Vor der neuen Bundesregierung liegen große Herausforderungen. Das liegt auch daran, dass viele Dinge wie veraltete und marode Infrastruktur jahrzehntelang nicht richtig angepackt wurden. Gleiches galt für die digitale Unabhängigkeit. Allerdings hat es erst die US-Regierung mit ihrer unkalkulierbaren Bulldozer-Taktik geschafft, dass hierzulande kurzerhand sogar ein neues Ministerium für Digitalisierung und Staatsmodernisierung aus dem Boden gestampft wurde. Fast müsste man Donald Trump dankbar sein.

Nun kommt es darauf an, wie ernst die neue Bundesregierung es mit der digitalen Unabhängigkeit meint. Schließlich wurden auch von der Vorgängerregierung große Investitionen in offene Open-Source-Lösungen versprochen, bevor die Budgets dann nach und nach drastisch gekürzt wurden. Das inkonsequente und zögerliche Handeln führte letztlich dazu, dass einzelne Bundesländer sich dazu entschieden, die digitale Unabhängigkeit selbst in die Hand zu nehmen. So ist man etwa in Schleswig-Holstein nun deutlich weiter als dort, wo die oberste Devise „abwarten“ hieß.

ZenDiS kommt Schlüsselrolle zu

Um die digitale Souveränität strategisch und koordiniert voranzutreiben, gilt es nun, die vorhandenen Kräfte zu bündeln und zeitnah zu stärken. Eine wichtige Rolle wird dabei dem Zentrum für Digitale Souveränität (ZenDiS) zukommen.

Trotz seiner vergleichsweise geringen Ressourcen ist es dem ZenDiS in den letzten Jahren gelungen, gemeinsam mit deutschen und europäischen Open-Source-Unternehmen einen digitalen Arbeitsplatz für die öffentliche Verwaltung zu entwickeln. Bereits seit Oktober letzten Jahres kann die „Office & Collaboration Suite” openDesk als Alternative zu Microsoft & Co. genutzt werden. Mit ihr erhalten Nutzer alle wichtigen Tools, die sie zum täglichen Arbeiten benötigen: von E-Mail und Kontakten über Chats und Video-Calls bis hin zum Cloud-Speicher.

Anders als bei proprietärer Software können die Betreiber dabei den Code einsehen und kontrollieren. Zudem sind sie nicht von einzelnen Herstellern abhängig – und damit auch nicht von deren Preispolitik.

„Mit openDesk steht der Öffentlichen Verwaltung eine souveräne und sichere Alternative zu proprietärer Software zur Verfügung“, erklärt Pamela Krosta-Hartl, Leiterin Strategie und Kommunikation beim ZenDiS. Zentrale Akteure wie das IT-Systemhaus der Bundeswehr und das Robert Koch-Institut setzten bereits auf openDesk und zeigten, dass europäische souveräne Lösungen konkurrenzfähig sind.

Staatliche Lösungen bedrohen Existenz von Open-Source-Spezialisten

Die neue Bundesregierung will das ZenDiS und openDesk nun ausdrücklich dazu nutzen, um die Digitalisierung der öffentlichen Verwaltung auf Basis offener Standards und Schnittstellen voranzutreiben. Ob dies flächendeckend gelingt, wird auch davon abhängen, wie andere europäische Nachbarn die digitale Unabhängigkeit angehen. Mit unbedachtem Vorgehen kann selbst bei guten Absichten viel kaputt gemacht werden.

Das zeigt sich unter anderem in Frankreich. Hier hat die interministerielle Behörde für Digitales (DINUM) eine Plattform in Eigenregie entwickeln lassen, die mittlerweile verschiedene Open-Source-Tools umfasst. Im Gegensatz zu openDesk wird „La Suite Numérique“ allerdings von festangestellten Entwicklern sowie Freelancern in Eigenregie erstellt und betrieben.

Damit schadet die französische Regierung letztlich den Open-Source-Unternehmen, die notwendig sind, um eine echte Alternative zu Microsoft zu bieten. Am Ende werden so die Anbieter geschwächt, auf deren Software “La Suite” basiert. Dieses Vorgehen bringt langfristig also niemanden weiter und zeigt ein weitgehend falsches Verständnis von „Unabhängigkeit“. Vielmehr kostet es viel Zeit und Energie – und am Ende wird es keine Alternativen mehr zu den großen US-Anbietern geben.

Andere Länder zeigen Interesse an openDesk

Der Ansatz der deutschen Bundesregierung ist hier deutlich zielführender. Zwar wird das ZenDiS als Bundes-GmbH ebenfalls von Steuergeldern finanziert. Doch das ZenDiS entwickelt die Lösungen nicht selbst. Sie fungiert vielmehr als zentrale Koordinierungs- und Anlaufstelle, bei der alle Fäden zusammenlaufen – für die Open-Source-Spezialisten wie für die interessierten Verwaltungen und Ministerien. Das openDesk-Konzept ist dabei so gestaltet, dass die einzelnen Lösungen, wenn notwendig, stets austauschbar und ersetzbar sind.

Einige europäische Länder haben bereits Interesse an einer Kooperation sowie der Nutzung von openDesk gezeigt. Österreich hat sogar ein Partnerschaftsabkommen mit dem ZenDiS geschlossen. In der Schweiz wird der digitale Arbeitsplatz derzeit getestet. Die Kooperation mit Frankreich und den Niederlanden geht sogar noch einen Schritt weiter: Mit ihnen arbeitet das ZenDiS bereits grenzüberschreitend gemeinsam an einer europäischen Version des souveränen, Open-Source-basierten PC-Arbeitsplatzes. 

Politik muss sicherstellen, dass der Wandel flächendeckend gelingt

Nach Jahren des zähen Ringens sieht es also so aus, als könnte sich Europa doch noch von den bislang alles dominierenden US-Software-Konzernen lösen. Dass Deutschland dabei eine Vorreiterrolle zukommt, hätten vor wenigen Jahren nur die wenigsten gedacht.

Nun muss die Politik allerdings sicherstellen, dass der Wandel langfristig und flächendeckend gelingt. Dazu müssen nicht nur die entsprechenden Budgets zur Verfügung gestellt und mit den europäischen Nachbarn kooperiert werden, sondern es muss auch ein Ökosystem aus leistungsfähigen Dienstleistern aufgebaut werden. (mb)

Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?​ Weiterlesen »

Replizieren Sie sich (digital), es lohnt sich!​

Allgemein

Der Digital-Twin-Ansatz funktioniert laut unserer Autorin auch bei Menschen ziemlich gut.Sergey Nivens | shutterstock.com Digitale Zwillinge waren mir ein Begriff – in Zusammenhang mit Gebäuden, Prozessen oder Smart Cities. Allerdings war ich davon ausgegangen, dass digitale Zwillinge von Menschen noch ein paar Jahre in der Zukunft liegen würden. Dann belehrte mich der Anruf eines Tech-Entrepreneurs eines Besseren: Er stellte mir seine Plattform vor, mit der praktisch jeder einen digitalen Klon von sich selbst erschaffen und ihn einem Publikum, respektive einer Zielgruppe, zu Kommunikationszwecken zur Verfügung stellen kann. Dabei lernt der Digital Twin aus Publikationen, Videos, Meeting-Protokollen, E-Mails, WhatsApp-Nachrichten und vielen weiteren Inhalten, sich wie sein menschliches Vorbild zu verhalten, beziehungsweise zu kommunizieren. Das Angebot, mir gegen Bezahlung von einem Entwickler-Team einen Digital Twin erstellen zu lassen, schlug ich allerdings aus. Stattdessen wollte ich viel lieber einfach selbst mit der Plattform experimentieren. Schließlich habe ich in den 1980er Jahren als Programmiererin für Großrechner gearbeitet – und bei dieser Gelegenheit den Technik-Freak in mir entdeckt. In uns allen steckt eben ein kleiner Hacker. Und was konnte schon schiefgehen? Wenn das alles zu klobig und komplex wird, kann ich es ja einfach sein lassen. Doch – so viel vorab – dazu kam es nicht. Per Digital Twin zum Digital Twin Als ich meinen Kollegen von meinem Plan erzählte, mich selbst digital zu klonen, rieten die mir davon ab. Ihr Argument war dabei, dass ich mich dadurch selbst überflüssig machen könnte. Ich selbst hatte dagegen vor allem vor Augen, wie viel weniger Arbeit ich bewältigen müsste – und welchen anderen, besseren Dingen ich meine Zeit widmen könnte. Dann lernte ich Eve kennen – den Digital Twin, der mich dabei unterstützt hat, meinen eigenen Digital Twin namens „CJ2“ zu erstellen. Meine Aufgabe bestand zunächst darin, Buchmanuskripte, Artikel, Videos und Links zu Webseiten zu sammeln und diese – gemeinsam mit meinem LinkedIn-Profil und einem Foto von mir – an Eve zu übergeben, die damit meinen Zwilling „fütterte“.   Das war eine echte Hilfe: So ließen sich einige meiner Bücher nicht in kompletter Form einladen. Deshalb schlug Eve mir vor, sie in separate Dateien zu zerlegen, weil Dokumente mit mehr als 25.000 Wörtern nicht unterstützt werden. Danach klappte alles einwandfrei. Ich war wirklich verblüfft über dieses System, das ich auch ohne jede Schulung frustfrei bedienen konnte. Und gab es doch einmal ein Problem, bei dem Eve nicht weiterhelfen konnte, waren die (menschlichen) Support-Mitarbeiter zur Stelle. So war es mir möglich, in nur etwa einer Woche in “Teilzeitarbeit” meinen eigenen, digitalen Zwilling zu erstellen. Dr. CJ Meadows leitet das Innovation & Entrepreneurship Center an der S P Jain School of Global Management. Sie verfügt über mehr als 25 Jahre Erfahrung als Beraterin, Coach, Unternehmerin, E-Business-Entwicklerin, Autorin und Gründerin. CJ2 habe ich mit den Eigenschaften “natürlich”, “freundlich” und “konsistent” ausgestattet, ihren Kommunikationsstil auf “gesprächig”, “einfühlsam” und “neugierig” justiert. Das Feedback eines Benutzers, CJ2 stelle zu viele Fragen, stellte sich nach Gesprächen mit weiteren Testnutzern als realitätsnahes Feature heraus. Allerdings ist CJ2 keine private KI, die mir helfen soll, mich an Dinge zu erinnern oder nur einer bestimmten, definierten Nutzergruppe zugänglich ist: Stattdessen habe ich meinen digitalen Zwilling allgemein verfügbar gemacht, damit jeder mit ihm interagieren kann. Außerdem verfügt CJ2 auch über eine eigene Landing Page sowie eine Biografie und eine Eröffnungsphrase für Gespräche (um die Ähnlichkeiten zu mir, CJ1, herauszustellen). Die Standard-Antwortschwelle habe ich dabei übrigens auf 0 Prozent gesetzt, so dass CJ2 auch dann antwortet, wenn sie die Antwort nicht in ihrem Speicher hat. Ganz allgemein weiß ich aber, dass CJ2 ziemlich gut funktioniert, denn mein Ehemann streitet sich mit ihr: Nachdem er von CJ2 eine Antwort bekommen hatte, die ihm nicht genehm war, versuchte er, mich gegen meinen Zwilling auszuspielen und auf seine Seite zu ziehen. Bei der von CJ2 gelieferten Antwort mit einem Ähnlichkeitswert von 92 Prozent hätte ihm allerdings klar sein sollen, auf wessen Seite ich stehe. CJ2 lernt weiter durch ihre Interaktionen mit Benutzern – und das neue Material, das ich regelmäßig hochlade. Bislang habe ich zu meinem Digital Twin ausschließlich positives Feedback bekommen. Bilden Sie sich am besten einfach selbst ein Urteil und chatten Sie ganz ungezwungen ein wenig mit CJ2. Wenn dabei eine Antwort mit einem Ähnlichkeitswert von weniger als 45 Prozent herauskommt, fragen Sie eventuell lieber noch einmal bei CJ1 nach. Ich bin mit der Performance meines digitalen Zwillings zufrieden, denn CJ2: war für meine Leser und Workshop-Teilnehmer sehr nützlich, hat mich dabei unterstützt meine Marke auszubauen, hat zu Buchverkäufen beigetragen, und konnte Studierende für Studiengänge und Weiterbildungen gewinnen. Die düstere Vision meiner Kollegen hat sich ebenfalls nicht erfüllt: CJ2 hat mich nicht überflüssig gemacht. Aber ich habe jetzt tatsächlich mehr Zeit, um Menschen dabei zu unterstützen, unstrukturierte Probleme mit wenig bis gar keinen Daten zu lösen. Und um dazu beizutragen, neues Wissen zu schaffen. Beides Dinge, die KI derzeit (noch) nicht besonders gut kann. Wo Twin ist, ist auch Schatten Doch bei aller Begeisterung um meinen persönlichen Digital Twin: Es gibt einige Problemstellungen in Zusammenhang mit diesem Ansatz, die Sie sich vergegenwärtigen sollten, bevor Sie diesen im großen Stil in Ihrem Unternehmen ausrollen. Im Zusammenhang mit digitalen Zwillingen sollten folgende Bereiche kritische Fragen aufwerfen: Security. Können vertrauliche Informationen aus geschlossenen SLMs in öffentliche LLMs gelangen? Wie lassen sich Cyberangriffe auf Digital Twins verhindern, bei denen Informationen geleakt oder Antworten manipuliert werden? Datenschutz. Welche Datenschutzrichtlinien sollten Mitarbeiter beachten, wenn sie Meeting-Protokolle und E-Mails hochladen? Kontrolle. Welche Art von Consent- und Control-Protokollen wird benötigt? Bias. Sind die Antworten der digitalen Zwillinge fair und verfügen sie über eine ausreichende Datenbasis? Fähigkeit zu vergessen. Können veraltete Prozesse, Formulare und Ähnliches entfallen? Identität und Autonomie. Wie stehen die Chancen, dass Menschen Entscheidungen auf der Grundlage eines Digital Twin treffen – und dann Menschen dafür verantwortlich machen? Datenmanagement. Sind die Systeme robust genug, um die anfallenden Datenmengen zu verarbeiten? Sind die Daten standardisiert und interoperabel? Geistiges Eigentum. Wem gehört der Input, der in einen digitalen Zwilling fließt und wem seine Outputs – insbesondere bei Kooperationsinitiativen? Monetarisierung. Soll der Twin kostenlos zur Verfügung stehen oder geht es darum, zahlungspflichtige Services anzubieten? Belegschaft. Kann der Digital-Twin-Einsatz den Bedarf an menschlichen Arbeitskräften verringern? Wer bezahlt die nötige Weiterbildung der Mitarbeiter? Regulierungen und Governance. Wie sollen Richtlinienänderungen und Governance-Prozesse gestemmt werden? Digital-Twin-Tipps für Unternehmen Sie ahnen es wahrscheinlich längst: Was Sie brauchen, um eine Digital-Twin-Initiative (für Menschen) in Unternehmen erfolgreich umzusetzen, ist ein interdisziplinärer Ansatz. Dieser sollte (unter anderem) miteinbeziehen: IT-Profis, KI-Ethiker, Juristen, Marketing-Fachleute, sowie Experten aus dem Personalwesen. Sind die richtigen Menschen an Bord, sollten Sie das auch nutzen: Versuchen Sie nicht, alles selbst zu entwerfen und umzusetzen. Leiten Sie stattdessen eine demokratische Basisbewegung. Und: Behalten Sie strategische Vorteile im Auge. Das funktioniert am besten, indem Sie Was-wäre-wenn-Szenarien durchzuspielen. Einige Tipps zur Umsetzung für IT-Entscheider und Ihre Mitarbeiter: Experimentieren Sie in entsprechenden “Safe Spaces” – am besten (auch) selbst. Behalten Sie Risiken im Hinterkopf und kommunizieren Sie mit den zuständigen Kollegen. Auch in diesem Bereich empfehlen sich Experimente – bei entsprechend geringem Risiko. Identifizieren Sie Vorreiter, die die Technologie wirklich durchdringen und als Fürsprecher fungieren können. Definieren Sie Leitplanken – idealerweise in Form eines Videos im „Influencer-Stil“. Das ist geeignet, um die Initiative, die gewählte Plattform, die KI-Nutzung und ihre Vorteile sowie die Richtlinien ansprechend zu präsentieren – und Ängste abzubauen.   Bewerten Sie kontinuierlich die Ergebnisse Ihrer Experimente und die daraus gewonnenen Erkenntnisse. Am besten im Austausch mit den übrigen Beteiligten. Das kann auch Anreize schaffen, Anwendungsfälle zu erweitern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Replizieren Sie sich (digital), es lohnt sich!​ Der Digital-Twin-Ansatz funktioniert laut unserer Autorin auch bei Menschen ziemlich gut.Sergey Nivens | shutterstock.com

Digitale Zwillinge waren mir ein Begriff – in Zusammenhang mit Gebäuden, Prozessen oder Smart Cities. Allerdings war ich davon ausgegangen, dass digitale Zwillinge von Menschen noch ein paar Jahre in der Zukunft liegen würden. Dann belehrte mich der Anruf eines Tech-Entrepreneurs eines Besseren: Er stellte mir seine Plattform vor, mit der praktisch jeder einen digitalen Klon von sich selbst erschaffen und ihn einem Publikum, respektive einer Zielgruppe, zu Kommunikationszwecken zur Verfügung stellen kann.

Dabei lernt der Digital Twin aus Publikationen, Videos, Meeting-Protokollen, E-Mails, WhatsApp-Nachrichten und vielen weiteren Inhalten, sich wie sein menschliches Vorbild zu verhalten, beziehungsweise zu kommunizieren. Das Angebot, mir gegen Bezahlung von einem Entwickler-Team einen Digital Twin erstellen zu lassen, schlug ich allerdings aus. Stattdessen wollte ich viel lieber einfach selbst mit der Plattform experimentieren. Schließlich habe ich in den 1980er Jahren als Programmiererin für Großrechner gearbeitet – und bei dieser Gelegenheit den Technik-Freak in mir entdeckt. In uns allen steckt eben ein kleiner Hacker.

Und was konnte schon schiefgehen? Wenn das alles zu klobig und komplex wird, kann ich es ja einfach sein lassen. Doch – so viel vorab – dazu kam es nicht.

Per Digital Twin zum Digital Twin

Als ich meinen Kollegen von meinem Plan erzählte, mich selbst digital zu klonen, rieten die mir davon ab. Ihr Argument war dabei, dass ich mich dadurch selbst überflüssig machen könnte. Ich selbst hatte dagegen vor allem vor Augen, wie viel weniger Arbeit ich bewältigen müsste – und welchen anderen, besseren Dingen ich meine Zeit widmen könnte.

Dann lernte ich Eve kennen – den Digital Twin, der mich dabei unterstützt hat, meinen eigenen Digital Twin namens „CJ2“ zu erstellen. Meine Aufgabe bestand zunächst darin, Buchmanuskripte, Artikel, Videos und Links zu Webseiten zu sammeln und diese – gemeinsam mit meinem LinkedIn-Profil und einem Foto von mir – an Eve zu übergeben, die damit meinen Zwilling „fütterte“.  

Das war eine echte Hilfe: So ließen sich einige meiner Bücher nicht in kompletter Form einladen. Deshalb schlug Eve mir vor, sie in separate Dateien zu zerlegen, weil Dokumente mit mehr als 25.000 Wörtern nicht unterstützt werden. Danach klappte alles einwandfrei. Ich war wirklich verblüfft über dieses System, das ich auch ohne jede Schulung frustfrei bedienen konnte. Und gab es doch einmal ein Problem, bei dem Eve nicht weiterhelfen konnte, waren die (menschlichen) Support-Mitarbeiter zur Stelle. So war es mir möglich, in nur etwa einer Woche in “Teilzeitarbeit” meinen eigenen, digitalen Zwilling zu erstellen.

Dr. CJ Meadows leitet das Innovation & Entrepreneurship Center an der S P Jain School of Global Management. Sie verfügt über mehr als 25 Jahre Erfahrung als Beraterin, Coach, Unternehmerin, E-Business-Entwicklerin, Autorin und Gründerin.

CJ2 habe ich mit den Eigenschaften “natürlich”, “freundlich” und “konsistent” ausgestattet, ihren Kommunikationsstil auf “gesprächig”, “einfühlsam” und “neugierig” justiert. Das Feedback eines Benutzers, CJ2 stelle zu viele Fragen, stellte sich nach Gesprächen mit weiteren Testnutzern als realitätsnahes Feature heraus.

Allerdings ist CJ2 keine private KI, die mir helfen soll, mich an Dinge zu erinnern oder nur einer bestimmten, definierten Nutzergruppe zugänglich ist: Stattdessen habe ich meinen digitalen Zwilling allgemein verfügbar gemacht, damit jeder mit ihm interagieren kann. Außerdem verfügt CJ2 auch über eine eigene Landing Page sowie eine Biografie und eine Eröffnungsphrase für Gespräche (um die Ähnlichkeiten zu mir, CJ1, herauszustellen). Die Standard-Antwortschwelle habe ich dabei übrigens auf 0 Prozent gesetzt, so dass CJ2 auch dann antwortet, wenn sie die Antwort nicht in ihrem Speicher hat.

Ganz allgemein weiß ich aber, dass CJ2 ziemlich gut funktioniert, denn mein Ehemann streitet sich mit ihr: Nachdem er von CJ2 eine Antwort bekommen hatte, die ihm nicht genehm war, versuchte er, mich gegen meinen Zwilling auszuspielen und auf seine Seite zu ziehen. Bei der von CJ2 gelieferten Antwort mit einem Ähnlichkeitswert von 92 Prozent hätte ihm allerdings klar sein sollen, auf wessen Seite ich stehe.

CJ2 lernt weiter durch ihre Interaktionen mit Benutzern – und das neue Material, das ich regelmäßig hochlade. Bislang habe ich zu meinem Digital Twin ausschließlich positives Feedback bekommen. Bilden Sie sich am besten einfach selbst ein Urteil und chatten Sie ganz ungezwungen ein wenig mit CJ2. Wenn dabei eine Antwort mit einem Ähnlichkeitswert von weniger als 45 Prozent herauskommt, fragen Sie eventuell lieber noch einmal bei CJ1 nach.

Ich bin mit der Performance meines digitalen Zwillings zufrieden, denn CJ2:

war für meine Leser und Workshop-Teilnehmer sehr nützlich,

hat mich dabei unterstützt meine Marke auszubauen,

hat zu Buchverkäufen beigetragen, und

konnte Studierende für Studiengänge und Weiterbildungen gewinnen.

Die düstere Vision meiner Kollegen hat sich ebenfalls nicht erfüllt: CJ2 hat mich nicht überflüssig gemacht. Aber ich habe jetzt tatsächlich mehr Zeit, um Menschen dabei zu unterstützen, unstrukturierte Probleme mit wenig bis gar keinen Daten zu lösen. Und um dazu beizutragen, neues Wissen zu schaffen. Beides Dinge, die KI derzeit (noch) nicht besonders gut kann.

Wo Twin ist, ist auch Schatten

Doch bei aller Begeisterung um meinen persönlichen Digital Twin: Es gibt einige Problemstellungen in Zusammenhang mit diesem Ansatz, die Sie sich vergegenwärtigen sollten, bevor Sie diesen im großen Stil in Ihrem Unternehmen ausrollen. Im Zusammenhang mit digitalen Zwillingen sollten folgende Bereiche kritische Fragen aufwerfen:

Security. Können vertrauliche Informationen aus geschlossenen SLMs in öffentliche LLMs gelangen? Wie lassen sich Cyberangriffe auf Digital Twins verhindern, bei denen Informationen geleakt oder Antworten manipuliert werden?

Datenschutz. Welche Datenschutzrichtlinien sollten Mitarbeiter beachten, wenn sie Meeting-Protokolle und E-Mails hochladen?

Kontrolle. Welche Art von Consent- und Control-Protokollen wird benötigt?

Bias. Sind die Antworten der digitalen Zwillinge fair und verfügen sie über eine ausreichende Datenbasis?

Fähigkeit zu vergessen. Können veraltete Prozesse, Formulare und Ähnliches entfallen?

Identität und Autonomie. Wie stehen die Chancen, dass Menschen Entscheidungen auf der Grundlage eines Digital Twin treffen – und dann Menschen dafür verantwortlich machen?

Datenmanagement. Sind die Systeme robust genug, um die anfallenden Datenmengen zu verarbeiten? Sind die Daten standardisiert und interoperabel?

Geistiges Eigentum. Wem gehört der Input, der in einen digitalen Zwilling fließt und wem seine Outputs – insbesondere bei Kooperationsinitiativen?

Monetarisierung. Soll der Twin kostenlos zur Verfügung stehen oder geht es darum, zahlungspflichtige Services anzubieten?

Belegschaft. Kann der Digital-Twin-Einsatz den Bedarf an menschlichen Arbeitskräften verringern? Wer bezahlt die nötige Weiterbildung der Mitarbeiter?

Regulierungen und Governance. Wie sollen Richtlinienänderungen und Governance-Prozesse gestemmt werden?

Digital-Twin-Tipps für Unternehmen

Sie ahnen es wahrscheinlich längst: Was Sie brauchen, um eine Digital-Twin-Initiative (für Menschen) in Unternehmen erfolgreich umzusetzen, ist ein interdisziplinärer Ansatz. Dieser sollte (unter anderem) miteinbeziehen:

IT-Profis,

KI-Ethiker,

Juristen,

Marketing-Fachleute, sowie

Experten aus dem Personalwesen.

Sind die richtigen Menschen an Bord, sollten Sie das auch nutzen: Versuchen Sie nicht, alles selbst zu entwerfen und umzusetzen. Leiten Sie stattdessen eine demokratische Basisbewegung. Und: Behalten Sie strategische Vorteile im Auge. Das funktioniert am besten, indem Sie Was-wäre-wenn-Szenarien durchzuspielen.

Einige Tipps zur Umsetzung für IT-Entscheider und Ihre Mitarbeiter:

Experimentieren Sie in entsprechenden “Safe Spaces” – am besten (auch) selbst.

Behalten Sie Risiken im Hinterkopf und kommunizieren Sie mit den zuständigen Kollegen. Auch in diesem Bereich empfehlen sich Experimente – bei entsprechend geringem Risiko.

Identifizieren Sie Vorreiter, die die Technologie wirklich durchdringen und als Fürsprecher fungieren können.

Definieren Sie Leitplanken – idealerweise in Form eines Videos im „Influencer-Stil“. Das ist geeignet, um die Initiative, die gewählte Plattform, die KI-Nutzung und ihre Vorteile sowie die Richtlinien ansprechend zu präsentieren – und Ängste abzubauen.  

Bewerten Sie kontinuierlich die Ergebnisse Ihrer Experimente und die daraus gewonnenen Erkenntnisse. Am besten im Austausch mit den übrigen Beteiligten. Das kann auch Anreize schaffen, Anwendungsfälle zu erweitern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Replizieren Sie sich (digital), es lohnt sich!​ Weiterlesen »

Wie Sie mit SPM im Business die richtige Wette abschließen​

Allgemein

In Zeiten wirtschaftlicher Unsicherheit und struktureller Veränderungen gewinnt Strategisches Portfolio Management (SPM) für Unternehmen zunehmend an Bedeutung. So planen laut der Corporate Portfolio Management Studie 2023 von PwC Deutschland 55 Prozent der befragten Unternehmen in der Region DACH innerhalb der nächsten zwölf Monate Anpassungen in ihrem Geschäftsbereichsportfolio. Das überrascht wenig: Erwarten doch 44 Prozent der Entscheiderinnen und Entscheider, dass sich ihr Kerngeschäft in den kommenden fünf Jahren um mindestens 20 Prozent verändern wird. Doch für Unternehmen ist SPM ein komplexes Unterfangen mit einigen Herausforderungen: Häufig herrscht bei den Verantwortlichen ein Mangel an strategischer Klarheit und Priorisierung. Einer Gartner-Umfrage zufolge sind nur 16 % der Unternehmen überzeugt, dass ihre Portfoliomanagemententscheidungen die strategischen Ziele effektiv unterstützen. Kurz: Ein effektives SPM ist ein kraftvolles Steuerungsinstrument – aber nur, wenn Strategie, Struktur, Daten und Kultur zusammenspielen. Die genannten Herausforderungen sind typisch, aber mit den richtigen Methoden, Tools und einem konsequenten Führungsansatz lösbar, wie ein CIO Webcast in Zusammenarbeit mit Planview zeigt. Sie erfahren nicht nur, wie genau SPM Ihre aktuellen Herausforderungen löst, sondern auch warum eine leistungsstarke Simulation zur Abwägung von Risiken und Chancen unabdingbar ist. Sabrina Chrobok von Planview erklärt außerdem, was es braucht, damit Sie datengestützt sicherstellen können, dass risikoreiche Investitionen zu optimalen Renditen führen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren. CIO WebcastErfahren Sie im CIO-Webcast, wie Sie mit SPM die wertvollsten Initiativen identifizieren und diesen die nötigen Ressourcen zuweisen.Registrieren Sie sich jetzt 

Wie Sie mit SPM im Business die richtige Wette abschließen​ In Zeiten wirtschaftlicher Unsicherheit und struktureller Veränderungen gewinnt Strategisches Portfolio Management (SPM) für Unternehmen zunehmend an Bedeutung. So planen laut der Corporate Portfolio Management Studie 2023 von PwC Deutschland 55 Prozent der befragten Unternehmen in der Region DACH innerhalb der nächsten zwölf Monate Anpassungen in ihrem Geschäftsbereichsportfolio. Das überrascht wenig: Erwarten doch 44 Prozent der Entscheiderinnen und Entscheider, dass sich ihr Kerngeschäft in den kommenden fünf Jahren um mindestens 20 Prozent verändern wird.

Doch für Unternehmen ist SPM ein komplexes Unterfangen mit einigen Herausforderungen: Häufig herrscht bei den Verantwortlichen ein Mangel an strategischer Klarheit und Priorisierung. Einer Gartner-Umfrage zufolge sind nur 16 % der Unternehmen überzeugt, dass ihre Portfoliomanagemententscheidungen die strategischen Ziele effektiv unterstützen. Kurz: Ein effektives SPM ist ein kraftvolles Steuerungsinstrument – aber nur, wenn Strategie, Struktur, Daten und Kultur zusammenspielen.

Die genannten Herausforderungen sind typisch, aber mit den richtigen Methoden, Tools und einem konsequenten Führungsansatz lösbar, wie ein CIO Webcast in Zusammenarbeit mit Planview zeigt. Sie erfahren nicht nur, wie genau SPM Ihre aktuellen Herausforderungen löst, sondern auch warum eine leistungsstarke Simulation zur Abwägung von Risiken und Chancen unabdingbar ist. Sabrina Chrobok von Planview erklärt außerdem, was es braucht, damit Sie datengestützt sicherstellen können, dass risikoreiche Investitionen zu optimalen Renditen führen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren.

CIO WebcastErfahren Sie im CIO-Webcast, wie Sie mit SPM die wertvollsten Initiativen identifizieren und diesen die nötigen Ressourcen zuweisen.Registrieren Sie sich jetzt

Wie Sie mit SPM im Business die richtige Wette abschließen​ Weiterlesen »

Eine kleine Geschichte der künstlichen Intelligenz​

Allgemein

Eine kleine Geschichte der KI zeigt die wichtigsten Stationen der Künstlichen Intelligenz – vom Mathematiker Turing bis zum IBM-System Watson. Foto: John Williams RUS – shutterstock.com In den letzten Jahren wurden in der Computerwissenschaft und bei der künstlichen Intelligenz (KI) unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf KI verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten. KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine? Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel’sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen – und das zu nachzuahmen, was uns Wesentlich ist. Künstliche Intelligenz – die Vorarbeiten Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal – zum Beispiel durch Regelanwendungen – neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab. Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten – und mit den Unvollständigkeitssätzen die Grenzen – der Logik auf. Auf der anderen Seite war – analog dem menschlichen Gehirn – ein “Behältnis” oder Medium notwendig, in dem dieser Formalismus “ablaufen” konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine. Der britische Mathematiker Alan Turing beeinflusste die Entwicklung der Künstlichen Intelligenz maßgeblich. Foto: Computerhistory.org Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine – heute als Turing-Maschine bekannt – möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar – also in endliche wohldefinierte Einzelschritte zerlegbar – können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die “physische Trägersubstanz” für künstliche Intelligenz verfügbar. Der Turing-Test: 1950 Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel “Computing Machinery and Intelligence” aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behauptet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann. Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussionen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor. Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiberverbindung – heute würde man sagen: ein Terminal mit Tastatur – erfolgen. Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Trägermasse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physische Eigenschaften – Aussehen, Stimme – werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI. Der Turing-Test: Wer ist Mensch und wer ist Maschine? Foto: Suresh Kumar Mukhiya Big Bang in Dartmouth: Das erste KI-Programm – 1956 Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das “Summer Research Project on Artificial Intelligence” in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001). Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde. Foto: Dartmouth.edu Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zusammengestellt und an die jeweilige Zielsprache angepasst. Die Probleme reduzierten sich darauf, umfangreiche Wörterbücher anzulegen und effizient abzusuchen. Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwissen erforderlich ist. Künstliche Intelligenz im Elfenbeinturm: 1965 bis 1975 Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne praktischen Nutzen. Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wissenschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Umgebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme. Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Winograd (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fragen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet. Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford entwickelte erste autonome Roboter – aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Computer. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zimmer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-Umwelt, in der realen Welt war er zum Scheitern verurteilt. SHRDLU ist ein natürlichsprachliches System, das in einer überschaubaren Klötzchenwelt agiert, Fragen nach der Lage von Klötzchen beantwortet und Klötzchen auf Anfrage symbolisch umstellt. Foto: http://hci.stanford.edu/winograd/shrdlu/ Ende der 1960er Jahre war die Geburtsstunde des ersten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das “sprachverstehende” Programm ELIZA. Simuliert wird dabei der Dialog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach. Das Programm ELIZA von Joseph Weizenbaum ahmt einen Psychotherapeuten nach. Hier ein aus dem Englischen übersetztes Beispiel einer Sitzung, die von Weizenbaum aufgezeichnet wurde. Die menschlichen Inputs sind mit „M>“ gekennzeichnet, die Antwort des Computers ist mit „C>“ angegeben. Foto: Weizenbaum Denkende KI-Maschinen? – Starke und schwache KI In den siebziger Jahren begann ein heftig ausgefochtener Streit um den ontologischen Status von KI-Maschinen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die “Physical Symbol System Hypothesis”. Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Auf das Gehirn als solches komme es beim Denken nicht an. Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschinen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich. Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschlichen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutionären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denkprozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simuliertes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken. Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische “Wetware”. Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine gewisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denkprozesse. Sind KI-Maschinen also hinreichend komplex, denken sie in der gleichen Weise wie Sie und ich. Expertensysteme – die KI wird praktisch: 1975 bis 1985 In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt. Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele identisch mit der ganzen KI-Forschung – so wie heute für vieleMachine Learning identisch mit KI ist. In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Expertensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedensten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte. Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN. Expertensysteme wie MYCIN konnten mit Hilfe von Regeln und Wissensbasen Diagnose erstellen und Therapien empfehlen. Foto: University of Science and Culture Die Renaissance neuronaler Netze: 1985 bis 1990 Anfang der 80er Jahre kündigte Japan das ehrgeizige “Fifth Generation Project” an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenforschung zu betreiben. Für die KI-Entwicklung favorisierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädikatenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP. Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leistungsfähige Computer. Nun in den Achtzigern erlebte das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus. Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Informationsverarbeitung auf der Interaktion vieler einfacher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet. Doch selbst dieser zweite Anlauf kam zu früh für neuronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genügend Trainingsdaten, es fehlten Lösungen zur Strukturierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam. Verteilte KI und Robotik: Künstliche Intelligenz zwischen 1990 und 2010 Ab etwa 1990 entstand mit der Verteilten KI ein weiterer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch “Society of Mind” beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intelligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualistische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwerfen. Marvin Minsky gilt als Vater der Verteilten KI. Foto: Creative Commons Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten – er nannte sie Actoren – miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagierenden KI-Systems war damit konkret geboren – und Carl Hewitt zum Vater des neuen Ansatzes der Verteilten KI bzw. Distributed AI geworden. Im Rückblick erweisen sich Minsky’s und Hewitt’s Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten – sogenannte Multi-Agenten-Systeme -ein enormes Potenzial entfaltet. Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachweltmeister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Menschen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt (“Brute Force”) alle nur denkbaren Züge soweit wie möglich durchrechnete. 1997 bezwang erstmals ein Computer – IBMs Deep Blue – den amtierenden Schachweltmeister. Foto: IBM In dieser Zeit bekam auch die bis dahin eher dahindümpelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern. Die kommerzielle Wende: KI ab 2010 Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebiete maschinelles Lernen und Natural Language Processing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben. IBM Watson war 2011 Sieger in einem Wissensquiz mit menschlichen Kandidaten. IBM vermarktet Watson nun als kognitives System für verschiedene Einsatzbereiche. Foto: IBM Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Software und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante – Deep Learning – als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memory-Datenbanken machten KI-Anwendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zunehmende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bildern, mit denen sich die Lernalgorithmen “trainieren” lassen. Im Zuge dieser verbesserten technischen und ökonomischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet. Maschine schlägt Mensch: 2016 besiegte Google’s Machine Learning System AlphaGo den Weltmeister im Spiel Go. Foto: Google Andere Big Player zogen nach. Google, Microsoft, Facebook, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Ein weiteres großes Event der KI-Geschichte ereignete sich im Januar 2016 schlug Google’s AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwingbar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg. Heute sind KI- und Machine-Learning-Verfahren in unterschiedlichsten Ausprägungen nicht nur bei den großen IT-Konzernen im Einsatz. Vor allem große und mittelständische Anwenderunternehmen aus fast allen Branchen nutzen KI-basierte Systeme, um Prozesse zu verbessern, Kundenschnittstellen zu optimieren oder ganz neue Produkte und Märkte zu entwickeln. Die Vielzahl an einschlägigen Cloud-basierten Services hat den Einsatz auch für kleinere Organisationen ohne große Entwicklungsbudgets erschwinglich gemacht. Auf den Weg in den Mainstream: ChatGPT & Generative AI ab 2022 Seit OpenAI im November 2022 seinen KI-Chatbot ChatGPT öffentlich verfügbar gemacht hat, hat sich ein Hype entfaltet, der innerhalb der IT-Branche am ehesten mit dem großen Run auf die Cloud vergleichbar ist. Allerdings schaffte ChatGPT etwas, das anderen KI-Tools bis dahin kaum gelungen war – nämlich künstliche Intelligenz auch zum Dauergesprächsthema in den Mainstream-Medien zu machen. ChatGPT rückte auch andere Tools wie DALL-E oder Stable Diffusion ins Rampenlicht und befeuerte die berufliche wie private Nutzung der Tools. Die werden häufig als Modelle bezeichnet, weil sie versuchen, einen Aspekt der realen Welt auf der Grundlage einer (manchmal sehr großen) Teilmenge von Informationen zu simulieren oder zu modellieren. Die Ergebnisse können Erstaunen hervorrufen, werfen aber auch Fragen auf. Abseits des Hypes geht unter der glänzenden Oberfläche der Systeme weniger Revolutionäres vor sich als man glaubt: Im Grunde geht es bei Generative AI darum, mit Hilfe von Machine Learning große Datenmengen zu verarbeiten, die in vielen Fällen aus dem Netz zusammengesammelt und anschließend als Grundlage für Vorhersagen genutzt werden. Wie ChatGPT sich selbst definiert, lesen Sie im COMPUTERWOCHE-Interview mit der KI-Instanz. Mehr Informationen zur Funktionsweise, Anwendungsfällen sowie den Limitationen von Generative AI erfahren Sie in unserem Grundlagenartikel zum Thema sowie einem weiterführenden Beitrag zum Thema Large Language Models (LLMs). Im Januar 2023 konnte Microsoft einen Deal mit OpenAI verkünden: Die Redmonder erklärten sich bereit, rund zehn Milliarden Dollar in das KI-Startup zu investieren. Im Gegenzug werkelt der Konzern seitdem fleißig daran, die KI-Technologie zunehmend mit seinen eigenen Softwareprodukten im Verbraucher- und Unternehmensumfeld zu verknüpfen. Der Erfolg von ChatGPT (respektive OpenAI und Microsoft) setzte eine Art KI-Goldrausch in Gang und sorgte dafür, dass auch andere große Tech-Player Anstrengungen unternahmen, um möglichst schnell ein Konkurrenzprodukt auf den Markt zu bringen – allen voran Google. Darüber hinaus entstanden im Dunstkreis von ChatGPT zahllose weitere generative KI-Tools und -Services für diverse Einsatzzwecke und Anwendungsfälle. Das hat Folgen: Laut der kommenden Studie “Applied AI 2023” nutzt bereits jeder zweite Entscheider in der DACH-Region Generative AI – beruflich wie privat. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Eine kleine Geschichte der künstlichen Intelligenz​ Eine kleine Geschichte der KI zeigt die wichtigsten Stationen der Künstlichen Intelligenz – vom Mathematiker Turing bis zum IBM-System Watson.
Foto: John Williams RUS – shutterstock.com

In den letzten Jahren wurden in der Computerwissenschaft und bei der künstlichen Intelligenz (KI) unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf KI verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten.

KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine?

Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel’sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen – und das zu nachzuahmen, was uns Wesentlich ist.

Künstliche Intelligenz – die Vorarbeiten

Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal – zum Beispiel durch Regelanwendungen – neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab.

Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten – und mit den Unvollständigkeitssätzen die Grenzen – der Logik auf.

Auf der anderen Seite war – analog dem menschlichen Gehirn – ein “Behältnis” oder Medium notwendig, in dem dieser Formalismus “ablaufen” konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine.

Der britische Mathematiker Alan Turing beeinflusste die Entwicklung der Künstlichen Intelligenz maßgeblich.
Foto: Computerhistory.org

Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine – heute als Turing-Maschine bekannt – möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar – also in endliche wohldefinierte Einzelschritte zerlegbar – können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die “physische Trägersubstanz” für künstliche Intelligenz verfügbar.

Der Turing-Test: 1950

Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel “Computing Machinery and Intelligence” aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behauptet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann.

Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussionen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor.

Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiberverbindung – heute würde man sagen: ein Terminal mit Tastatur – erfolgen.

Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Trägermasse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physische Eigenschaften – Aussehen, Stimme – werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI.

Der Turing-Test: Wer ist Mensch und wer ist Maschine?
Foto: Suresh Kumar Mukhiya

Big Bang in Dartmouth: Das erste KI-Programm – 1956

Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das “Summer Research Project on Artificial Intelligence” in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001).

Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde.
Foto: Dartmouth.edu

Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zusammengestellt und an die jeweilige Zielsprache angepasst. Die Probleme reduzierten sich darauf, umfangreiche Wörterbücher anzulegen und effizient abzusuchen. Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwissen erforderlich ist.

Künstliche Intelligenz im Elfenbeinturm: 1965 bis 1975

Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne praktischen Nutzen.

Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wissenschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Umgebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme.

Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Winograd (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fragen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet.

Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford entwickelte erste autonome Roboter – aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Computer. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zimmer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-Umwelt, in der realen Welt war er zum Scheitern verurteilt.

SHRDLU ist ein natürlichsprachliches System, das in einer überschaubaren Klötzchenwelt agiert, Fragen nach der Lage von Klötzchen beantwortet und Klötzchen auf Anfrage symbolisch umstellt.
Foto: http://hci.stanford.edu/winograd/shrdlu/

Ende der 1960er Jahre war die Geburtsstunde des ersten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das “sprachverstehende” Programm ELIZA. Simuliert wird dabei der Dialog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach.

Das Programm ELIZA von Joseph Weizenbaum ahmt einen Psychotherapeuten nach. Hier ein aus dem Englischen übersetztes Beispiel einer Sitzung, die von Weizenbaum aufgezeichnet wurde. Die menschlichen Inputs sind mit „M>“ gekennzeichnet, die Antwort des Computers ist mit „C>“ angegeben.
Foto: Weizenbaum

Denkende KI-Maschinen? – Starke und schwache KI

In den siebziger Jahren begann ein heftig ausgefochtener Streit um den ontologischen Status von KI-Maschinen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die “Physical Symbol System Hypothesis”. Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Auf das Gehirn als solches komme es beim Denken nicht an.

Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschinen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich.

Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschlichen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutionären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denkprozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simuliertes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken.

Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische “Wetware”. Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine gewisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denkprozesse. Sind KI-Maschinen also hinreichend komplex, denken sie in der gleichen Weise wie Sie und ich.

Expertensysteme – die KI wird praktisch: 1975 bis 1985

In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt.

Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele identisch mit der ganzen KI-Forschung – so wie heute für vieleMachine Learning identisch mit KI ist.

In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Expertensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten.

Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedensten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte.

Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN.

Expertensysteme wie MYCIN konnten mit Hilfe von Regeln und Wissensbasen Diagnose erstellen und Therapien empfehlen.
Foto: University of Science and Culture

Die Renaissance neuronaler Netze: 1985 bis 1990

Anfang der 80er Jahre kündigte Japan das ehrgeizige “Fifth Generation Project” an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenforschung zu betreiben. Für die KI-Entwicklung favorisierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädikatenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP.

Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leistungsfähige Computer. Nun in den Achtzigern erlebte das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus.

Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Informationsverarbeitung auf der Interaktion vieler einfacher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet.

Doch selbst dieser zweite Anlauf kam zu früh für neuronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genügend Trainingsdaten, es fehlten Lösungen zur Strukturierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam.

Verteilte KI und Robotik: Künstliche Intelligenz zwischen 1990 und 2010

Ab etwa 1990 entstand mit der Verteilten KI ein weiterer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch “Society of Mind” beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intelligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualistische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwerfen.

Marvin Minsky gilt als Vater der Verteilten KI.
Foto: Creative Commons

Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten – er nannte sie Actoren – miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagierenden KI-Systems war damit konkret geboren – und Carl Hewitt zum Vater des neuen Ansatzes der Verteilten KI bzw. Distributed AI geworden. Im Rückblick erweisen sich Minsky’s und Hewitt’s Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten – sogenannte Multi-Agenten-Systeme -ein enormes Potenzial entfaltet.

Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachweltmeister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Menschen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt (“Brute Force”) alle nur denkbaren Züge soweit wie möglich durchrechnete.

1997 bezwang erstmals ein Computer – IBMs Deep Blue – den amtierenden Schachweltmeister.
Foto: IBM

In dieser Zeit bekam auch die bis dahin eher dahindümpelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern.

Die kommerzielle Wende: KI ab 2010

Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebiete maschinelles Lernen und Natural Language Processing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben.

IBM Watson war 2011 Sieger in einem Wissensquiz mit menschlichen Kandidaten. IBM vermarktet Watson nun als kognitives System für verschiedene Einsatzbereiche.
Foto: IBM

Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Software und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante – Deep Learning – als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memory-Datenbanken machten KI-Anwendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zunehmende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bildern, mit denen sich die Lernalgorithmen “trainieren” lassen.

Im Zuge dieser verbesserten technischen und ökonomischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet.

Maschine schlägt Mensch: 2016 besiegte Google’s Machine Learning System AlphaGo den Weltmeister im Spiel Go.
Foto: Google

Andere Big Player zogen nach. Google, Microsoft, Facebook, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Ein weiteres großes Event der KI-Geschichte ereignete sich im Januar 2016 schlug Google’s AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwingbar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg.

Heute sind KI- und Machine-Learning-Verfahren in unterschiedlichsten Ausprägungen nicht nur bei den großen IT-Konzernen im Einsatz. Vor allem große und mittelständische Anwenderunternehmen aus fast allen Branchen nutzen KI-basierte Systeme, um Prozesse zu verbessern, Kundenschnittstellen zu optimieren oder ganz neue Produkte und Märkte zu entwickeln. Die Vielzahl an einschlägigen Cloud-basierten Services hat den Einsatz auch für kleinere Organisationen ohne große Entwicklungsbudgets erschwinglich gemacht.

Auf den Weg in den Mainstream: ChatGPT & Generative AI ab 2022

Seit OpenAI im November 2022 seinen KI-Chatbot ChatGPT öffentlich verfügbar gemacht hat, hat sich ein Hype entfaltet, der innerhalb der IT-Branche am ehesten mit dem großen Run auf die Cloud vergleichbar ist. Allerdings schaffte ChatGPT etwas, das anderen KI-Tools bis dahin kaum gelungen war – nämlich künstliche Intelligenz auch zum Dauergesprächsthema in den Mainstream-Medien zu machen.

ChatGPT rückte auch andere Tools wie DALL-E oder Stable Diffusion ins Rampenlicht und befeuerte die berufliche wie private Nutzung der Tools. Die werden häufig als Modelle bezeichnet, weil sie versuchen, einen Aspekt der realen Welt auf der Grundlage einer (manchmal sehr großen) Teilmenge von Informationen zu simulieren oder zu modellieren. Die Ergebnisse können Erstaunen hervorrufen, werfen aber auch Fragen auf. Abseits des Hypes geht unter der glänzenden Oberfläche der Systeme weniger Revolutionäres vor sich als man glaubt: Im Grunde geht es bei Generative AI darum, mit Hilfe von Machine Learning große Datenmengen zu verarbeiten, die in vielen Fällen aus dem Netz zusammengesammelt und anschließend als Grundlage für Vorhersagen genutzt werden. Wie ChatGPT sich selbst definiert, lesen Sie im COMPUTERWOCHE-Interview mit der KI-Instanz. Mehr Informationen zur Funktionsweise, Anwendungsfällen sowie den Limitationen von Generative AI erfahren Sie in unserem Grundlagenartikel zum Thema sowie einem weiterführenden Beitrag zum Thema Large Language Models (LLMs).

Im Januar 2023 konnte Microsoft einen Deal mit OpenAI verkünden: Die Redmonder erklärten sich bereit, rund zehn Milliarden Dollar in das KI-Startup zu investieren. Im Gegenzug werkelt der Konzern seitdem fleißig daran, die KI-Technologie zunehmend mit seinen eigenen Softwareprodukten im Verbraucher- und Unternehmensumfeld zu verknüpfen. Der Erfolg von ChatGPT (respektive OpenAI und Microsoft) setzte eine Art KI-Goldrausch in Gang und sorgte dafür, dass auch andere große Tech-Player Anstrengungen unternahmen, um möglichst schnell ein Konkurrenzprodukt auf den Markt zu bringen – allen voran Google.

Darüber hinaus entstanden im Dunstkreis von ChatGPT zahllose weitere generative KI-Tools und -Services für diverse Einsatzzwecke und Anwendungsfälle. Das hat Folgen: Laut der kommenden Studie “Applied AI 2023” nutzt bereits jeder zweite Entscheider in der DACH-Region Generative AI – beruflich wie privat.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Eine kleine Geschichte der künstlichen Intelligenz​ Weiterlesen »

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​

Allgemein

Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen Foto: TierneyMJ – shutterstock.com “Angehende SAP-Beraterinnen und -Berater können bereits mit einem Einstiegsgehalt von rund 50.000 Euro rechnen”, so Thomas Biber, Geschäftsführer der auf das SAP-Umfeld spezialisierten Personalberatung Biber & Associates. Nach drei bis fünf Jahren Berufserfahrung seien für qualifizierte SAP-Fachkräfte mit einschlägigem Spezialwissen in komplexen Themenbereichen bis zu 100.000 Euro oder sogar mehr möglich. Einstieg in die SAP-Beratung Der klassische Direkteinstieg für Junior-Beraterinnen und -Berater beginnt in der Regel in einem SAP-Beratungshaus. Diese verfügen über Trainingsprogramme, die sich speziell an junge Talente ohne SAP-Vorkenntnisse richten. “Angehende Junioren sollten vor allem wichtige Fähigkeiten wie eine Affinität für Technologie und Wirtschaftsprozesse, Kommunikationsstärke, Leistungsbereitschaft und den Wunsch zur stetigen Weiterentwicklung mitbringen”, so Biber. Bei der Auswahl passender Bewerber seien diese Faktoren den Consulting-Häusern meist wichtiger als der eigentliche Studiengang. Dieser könne von Wirtschaftsinformatik, Naturwissenschaften und Wirtschaftswissenschaften bis hin zu Geisteswissenschaften reichen. Aufstieg zum Senior Consultant Nach drei bis vier Jahren, in denen Junior Consultants ihr Trainingsprogramm und verschiedene Weiterbildungen durchlaufen sowie mit Senior-Fachkräften auf Projekten arbeiten, um Praxiserfahrung zu sammeln, sind sie fähig, Themen weitgehend selbständig zu betreuen. Die Beförderung zum Senior Consultant schlägt sich in einem deutlichen Gehaltsprung auf circa 75.000 bis 85.000 Euro nieder. 100.000-Euro-Gehalt durch Spezial- und Branchenwissen “Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen”, so Biber. Eine Beispielkarriere ist laut Biber ein Management-Consultant mit Schwerpunkt Handelslogistik sowie Spezialkenntnissen in den SAP-Logistikmodulen Materialwirtschaft (SAP MM), Vertrieb/Faktura (SAP SD) und der Einzelhandelssoftware SAP Retail. “Fachkräfte sollten jedoch beachten, dass erfolgsbasierte, variable Gehaltsanteile in Consulting-Firmen die Regel sind”, erläutert Biber. Dieser Anteil könne bis zu 20 bis 30 Prozent der Vergütung betragen. Allerdings gibt es auch Beratungshäuser, die einen hohen Fixanteil mit nur drei bis fünf Prozent variablen Anteil bieten. Zu Benefits in Consulting-Häusern zählen zudem häufig Firmenwägen, die oft auch die private Nutzung inklusive Urlaubsfahrten einschließen. Bei intensiver privater Nutzung kann dies mit Benzin, Unterhalt und Wertverlust leicht 12.000 bis 15.000 Euro pro Jahr ausmachen. Auf der anderen Seite zeigt sich mit der starken Verbreitung neuer Remote-Arbeitsmodelle auch im SAP-Consulting ein Trend hin zu einer weniger intensiven Reisetätigkeit. War früher laut Biber ein Anteil von 80 bis 100 Prozent gefordert, verlangen viele Arbeitgeber heute 50 Prozent oder noch weniger. Ein deutlicher Vorteil für die allgemeine Work-Life-Balance sowie insbesondere für Bewerber, die aufgrund familiärer Verpflichtungen nicht uneingeschränkt mobil sein können. Thomas Biber: “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich” Foto: Biber & Associates Selbstständigkeit – Alternative zur Karriere im Beratungshaus “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”, führt Biber weiter aus. “Eine Alternative ist die Selbstständigkeit. Hier können erfahrene SAP-Profis, die sich in einem Kernmarkt wie etwa Retail und Logistik nach ein bis zwei Jahren gut im Markt etabliert haben, einen Jahresumsatz von circa 200.000 bis 250.000 Euro erreichen. Jedoch will dieser Schritt wohlüberlegt sein, da er – wie jede Selbstständigkeit – mit Risiken und einem hohen Arbeitsvolumen einhergeht.” Was SAP-Profis in Anwenderunternehmen verdienen Stellen im Beratungshaus sind deutlich besser vergütet als Inhouse-Positionen in einem Anwenderunternehmen, gehen jedoch auch mit einer deutlich stärkeren Arbeitsbelastung einher. Im Inhouse-Bereich kommen dafür variable Gehaltsanteile kaum vor, betreffen in der Regel nur Führungspositionen und liegen selten über 10 bis 15 Prozent. Wenn SAP-Profis in Anwenderunternehmen den Schritt zur Führungskraft mit Personalverantwortung gehen, können allerdings auch sie die sechsstellige Gehaltsgrenze knacken, abhängig von der Größe des Unternehmens und des zu leitenden Teams. “In einem mittelständischen Betrieb liegt das Gehalt bei rund 95.000 Euro, wenn die Führungskraft nur ein kleineres Team unter sich hat”, so Biber. Unterstehe ihr jedoch in einem Unternehmen mit 20.000 Mitarbeitern die gesamte BI-Truppe sowie 20 eigene Mitarbeiter, könne das Gehalt 130.000 bis 150.000 Euro oder sogar mehr betragen. Was sich auszahlt: Fachwissen, Branche, Standort Der eigene Marktwert für SAP-Beraterinnen und -Berater steht in direkter Relation zu ihrem technischen Spezialwissen und Branchen-Know-how, welches sie sich in ihrer Berufslaufbahn angeeignet haben. “Besonders gesucht auf dem Markt sind Fachkräfte mit Expertise in S/4HANA und C/4HANA sowie in Cloud-basierten Technologie- und Entwicklungsthemen”, weiß der Kenner des SAP-Arbeitsmarkts. “Auch das Thema Gehaltsabrechnung auf Basis von SAP HCM, Hybris und SuccessFactors wird sehr gut vergütet, da es wegen der sozialversicherungsrechtlichen Rahmenbedingungen besonders komplex ist.” Sehr profitabel sind laut Biber zudem Kenntnisse in Finance- oder Logistikkomponenten wie SAP EWM, IS-Retail oder SAP PP-PI (Produktionsplanung Prozessindustrie). Im Entwicklungsbereich ist vor allem Wissen in SAP BTP, FIORI, WeBUI, SAP UI5 oder anderen Themen rund um die Full-Stack-SAP-Softwareentwicklung gefragt. Besonders hochbezahlte Positionen gibt es laut Biber in der Chemie- und Pharmaindustrie sowie im Anlagenbau und Manufacturing. Ebenfalls gute Verdienstchancen bieten Banken, Versicherungen und die Luxusgüterbranche. Dabei zahlen große Unternehmen üblicherweise besser als kleine. Hinsichtlich des Standorts führen in Bezug auf das Gehalt weiterhin die Ballungsgebiete um München, Stuttgart, Rhein-Main, Rhein-Ruhr sowie Hamburg. “Standort und Branche wirken sich deutlich auf das Gehalt aus”, so Biber. “Bei einem renommierten Industrieunternehmen im Frankfurter oder Stuttgarter Raum sind zum Beispiel für eine SAP-HCM-PY-Fachkraft mit fünf bis sieben Jahren Projekterfahrung auch ohne Führungsverantwortung bis zu 120.000 Euro und mehr möglich. Im Vergleich hierzu verdiene ein SAP-Payroll-Experte in einem Unternehmen aus dem Gesundheitswesen in den neuen Bundesländern mit etwa 75.000 bis 80.000 Euro deutlich weniger. Tipps für den Karriereweg Wichtig für SAP-Fachkräfte ist laut Biber, sich kontinuierlich über die neuesten Technologien auf dem Laufenden zu halten, um den eigenen Marktwert zu erhalten und zu steigern. Dies kann in manchen Fällen auch die Suche nach einer neuen Stelle bedeuten, falls der bisherige Arbeitgeber mit veralteten Technologien arbeitet und es keine interne Möglichkeit der Weiterentwicklung gibt. “Gleichzeitig gilt es, bei der Stellensuche Gehaltsverhandlungen mit Augenmaß zu betreiben”, so Biber. “Fachkräfte müssen stets selbstkritisch prüfen, ob sie die jeweiligen Anforderungen erfüllen und zugleich ihre vorhandenen Fähigkeiten deutlich hervorstellen. Unternehmen haben kein Interesse daran, in Verhandlungen die Gehälter möglichst tief herunterzuhandeln. Schließlich wünschen sie sich eine langjährige Zusammenarbeit und wollen nicht das Risiko eingehen, dass ihnen die Fachkraft sofort wieder abspringt.” SAP-Beraterinnen und -Berater ab drei bis fünf Jahren Berufserfahrung können auch in Erwägung ziehen, eine auf ihr Fachgebiet spezialisierte Personalberatung hinzuzuziehen. Ein erfahrender Headhunter, der sich mit den lokalen Gegebenheiten gut auskennt, kann eine realistische Einschätzung geben, was für das entsprechende Bewerberprofil hinsichtlich des Gehalts möglich ist. Consultants und ihre SprücheGetöse, Getöse … Foto: New Africa – shutterstock.comManchmal ist es gar nicht so einfach, in der täglichen Wörterflut das Wesentliche auszumachen. Wenn dann noch jemand “Denglisch” redet, wird’s manchmal richtig kompliziert. Wir übersetzen für Sie.Commitment … Foto: Krakenimages.com – shutterstock.com… hat sich zu einem gängige Begriff im deutschen Sprachgebrauch gemausert, der eine Verpflichtung beziehungsweise ein Bekenntnis ausdrückt. Sich zu einem “objective committen” bedeutet nichts anderes, als ein Ziel zu akzeptieren.On the way Foto: Dimitrios Karamitros – shutterstock.comDie häufig bemühte “Roadmap” mit ihren “Milestones” ist ein Fahrplan samt Meilensteinen. Vorsicht, VIP! Foto: Hurst Photo – shutterstock.comWenn alles im “Round-up” des “Board-Meetings” als “High-Level-Approach” eingestuft wird, dann heißt das vermutlich: Alles im Vorstand Besprochene ist sehr wichtig.Auch betroffen? Foto: Kzenon – shutterstock.comBeschlossen werden auf Vorstandsebene bisweilen Maßnahmen, die sich auf alle “Stakeholder” auswirken. Gemeint sind alle, die mit dem Unternehmen zu tun haben. Die Betroffenen werden dankbar sein, wenn Ergebnisse zügig “reportet” werden. Vielleicht doch besser auf Deutsch? Foto: fizkes – shutterstock.comOft müssen aber gar nicht Anglizismen herhalten, um Kompetenz zu vermitteln: Zwar gibt es den Ausdruck “Kombinatorik” als Teildisziplin der Mathematik, doch Berater meinen meistens einfach nur die “Kombination”.Unseriös … Foto: Rawpixel.com – shutterstock.com… ist ohne Zweifel die falsche Verwendung des Begriffs “Ressourcen”. Spricht man über Güter, Materialen, Immobilien etc. ist dagegen nichts einzuwenden. Ressourcen als Synonym für Mitarbeiter oder gar Menschen zu verwenden, ist indes gelinde gesagt geschmacklos. Da aber im englischsprachigen Raum von “Human Resources” die Rede ist, lässt sich dieser Fehler zumindest erklären. No risk, no fun … Foto: Mauricio Graiki – shutterstock.comGerne werben Berater auch damit, dass sie “ins Risiko gehen”, also etwas riskieren. Die Steigerung davon heißt vermutlich “ins Verderben rennen” – aber im Projektumfeld mag wohl niemand davon reden.Am Ende des Tages Foto: fizkes – shutterstock.comDer Klassiker im Berater-Slang lautet”Am Ende des Tages“. Kaum ein Berater verzichtet auf diese Phrase, um ein Resümee zu ziehen. Seinen Ursprung hat der Ausdruck in der holprigen Übersetzung der englischen Formulierung “at the end of the day”. Gemeint ist eigentlich “schlussendlich”, “unterm Strich” oder einfach nur “schließlich”. Expertise Foto: Jacek Dudzinski – shutterstock.comAuch der im Deutschen gerne als Synonym für Erfahrung und Kompetenz verwendete Begriff “Expertise” wurde falsch aus dem Englischen übernommen. Eine Expertise ist ein Gutachten. Es macht Sinn Foto: Alice Arts Bar – shutterstock.comDas Gleiche gilt für “Es macht Sinn” (it makes sense). Die korrekte deutsche Übersetzung lautet “Etwas ist sinnvoll” oder “Etwas ergibt Sinn”.In 2023 Foto: Ronald WiltscheckEin häufig zu hörender Ausdruck, wenn Berater Zeitpunkte benennen, lautet: “In 2023 erwarten wir eine Erholung.” Richtiger wäre “Im Jahr 2023 erwarten wir eine Erholung” oder einfach “2023 erwarten wir eine Erholung”. Consultants und ihre Sprüche Foto: GLF Media – shutterstock.comNatürlich müssen die “Surroundings” passen. Welche Umgebung ist denn gemeint? Egal, Hauptsache es klingt wichtig.Business Case Foto: KeyStock – shutterstock.comHäufige Anglizismen sind charakteristisch für das Consulting: Ein “Business Case” ist nichts anderes als ein Geschäftsmodell. Proof of Concept Foto: StockLite – shutterstock.comEin “Proof of Concept” ist eine Machbarkeitsstudie. Line of Business Foto: alphaspirit – Fotolia.comUnd für “Line of Business” gibt es den schönen deutschen Begriff Geschäftsbereich.low hanging fruits Foto: NAN – Fotolia.comAuch gern genommen: “low hanging fruits” und “quick wins“. Damit sind schnelle, einfache Erfolge gemeint. Sie sind wichtig, um für gute Stimmung im Projekt zu sorgen.asap Foto: oatawa – shutterstock.comIn den E-Mail-Verkehr haben viele englische Abkürzungen Einzug gehalten: Doch zum Beispiel “asap” (as soon as possible) und “pdq” (pretty damn quick) sollte man tunlichst nur im Bekanntenkreis verwenden. Denn während diese unmissverständlichen Aufforderungen im US-Amerikanischen gang und gäbe sind und niemanden besonders aufregen, klingen sie im Deutschen aufdringlich und unfreundlich. proaktiv Foto: Kzenon – Fotolia.comWas ist “proaktiv“? Ist es mehr als “aktiv”? Es klingt auf jeden Fall nach mehr. Also benutzen es Berater und Manager. Zielsetzung Foto: zeljkodan – shutterstock.comEbenso verhält es sich mit “Zielsetzung“. Man könnte auch einfach ein Ziel verfolgen und erreichen. Foto: travelcaesar – Fotolia.comDas Anhängen einer überflüssigen Endung ist kein Einzelfall. Gern verwendete Erweiterungen sind etwa “-prozess“, “-struktur” und “-bereich“. Herausforderungen Foto: Sergey Tinyakov – shutterstock.comEs gibt zudem Wörter, die nicht grundsätzlich falsch sind, deren übermäßige Benutzung jedoch aufstößt. Berater kennen beispielsweise keine Probleme und Schwierigkeiten, sondern nur “Herausforderungen” (Challenges). Und sie “fokussieren” sehr häufig. Foto: alphaspirit – shutterstock.comDer Ursprung mancher sonderbaren Ausdrucksweise ist nicht ganz klar. Ein Berater ist “auf einem Projekt” statt “in einem Projekt“. Anglizismen Foto: Roman Samborskyi – shutterstock.comDie inflationäre Verwendung von Anglizismen beschäftigt die Kunden in Großbritannien naturgemäß nicht. Doch auch dort haben die Berater eine eigene Sprache entwickelt. Das Online-Magazin consulting-news.com hat vor geraumer Zeit die Hitliste der nervigsten Beraterphrasen veröffentlicht. Erhoben haben sie die Marktforscher von Coleman Parkes Research. Einige Formulierungen erscheinen erstaunlich vertraut. Platz 13 Foto: Khakimullin Aleksandr – shutterstock.com18 Prozent: Going forward (den Blick nach vorne richten). Platz 12 Foto: AMLbox – shutterstock.com22 Prozent: Leverage (Hebel, Hebelwirkung).Platz 11 Foto: Rawpixel.com – shutterstock.com26 Prozent: Core values (Grundwerte).Platz 10 Foto: Jacob Lund – shutterstock.com27 Prozent: We’re in good shape (Wir sind gut im Rennen).Platz 9 Foto: topshots – Fotolia.com27 Prozent: On the same page (auf einer Wellenlänge, einig sein).Platz 8 Foto: Jeff Metzger – Fotolia.com31 Prozent: Paradigm (Paradigma, Denkmuster).Platz 7 Foto: James Thew – Fotolia.com33 Prozent: Synergy (Synergien).Platz 6 Foto: Picture-Factory – Fotolia.com35 Prozent: At the end of the day (am Ende des Tages).Platz 5 Foto: Ground Picture – shutterstock.com38 Prozent: Let’s have a meet about it (Lasst uns zusammensitzen).Platz 4 Foto: Artur Didyk – shutterstock.com42 Prozent: Lock ‘n load (schussbereit).Platz 3 Foto: xactive – shutterstock.com42 Prozent: Think outside the box (querdenken).Platz 2 Foto: Pressmaster – shutterstock.com42 Prozent: Let’s engage the client (Beziehung zum Kunden aufbauen).Platz 1 Foto: Tomo Jesenicnik – Fotolia.com49 Prozent: Singing from the same hymn sheet (in dasselbe Horn blasen). Foto: patpitchaya – shutterstock.comZum Abschluss noch ein Berater-Witz: “Das Glas ist halb leer”, sagt der Pessimist. “Das Glas ist halb voll “, sagt der Optimist. “Das Glas ist viel zu groß “, sagt der Unternehmensberater. 

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​ Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen
Foto: TierneyMJ – shutterstock.com

“Angehende SAP-Beraterinnen und -Berater können bereits mit einem Einstiegsgehalt von rund 50.000 Euro rechnen”, so Thomas Biber, Geschäftsführer der auf das SAP-Umfeld spezialisierten Personalberatung Biber & Associates. Nach drei bis fünf Jahren Berufserfahrung seien für qualifizierte SAP-Fachkräfte mit einschlägigem Spezialwissen in komplexen Themenbereichen bis zu 100.000 Euro oder sogar mehr möglich.

Einstieg in die SAP-Beratung

Der klassische Direkteinstieg für Junior-Beraterinnen und -Berater beginnt in der Regel in einem SAP-Beratungshaus. Diese verfügen über Trainingsprogramme, die sich speziell an junge Talente ohne SAP-Vorkenntnisse richten. “Angehende Junioren sollten vor allem wichtige Fähigkeiten wie eine Affinität für Technologie und Wirtschaftsprozesse, Kommunikationsstärke, Leistungsbereitschaft und den Wunsch zur stetigen Weiterentwicklung mitbringen”, so Biber. Bei der Auswahl passender Bewerber seien diese Faktoren den Consulting-Häusern meist wichtiger als der eigentliche Studiengang. Dieser könne von Wirtschaftsinformatik, Naturwissenschaften und Wirtschaftswissenschaften bis hin zu Geisteswissenschaften reichen.

Aufstieg zum Senior Consultant

Nach drei bis vier Jahren, in denen Junior Consultants ihr Trainingsprogramm und verschiedene Weiterbildungen durchlaufen sowie mit Senior-Fachkräften auf Projekten arbeiten, um Praxiserfahrung zu sammeln, sind sie fähig, Themen weitgehend selbständig zu betreuen. Die Beförderung zum Senior Consultant schlägt sich in einem deutlichen Gehaltsprung auf circa 75.000 bis 85.000 Euro nieder.

100.000-Euro-Gehalt durch Spezial- und Branchenwissen

“Nach fünf Jahren Berufserfahrung ist es Fachkräften mit fundiertem Spezialwissen und gefragtem Branchen-Know-how möglich, die 100.000-Euro-Marke zu durchbrechen”, so Biber. Eine Beispielkarriere ist laut Biber ein Management-Consultant mit Schwerpunkt Handelslogistik sowie Spezialkenntnissen in den SAP-Logistikmodulen Materialwirtschaft (SAP MM), Vertrieb/Faktura (SAP SD) und der Einzelhandelssoftware SAP Retail.

“Fachkräfte sollten jedoch beachten, dass erfolgsbasierte, variable Gehaltsanteile in Consulting-Firmen die Regel sind”, erläutert Biber. Dieser Anteil könne bis zu 20 bis 30 Prozent der Vergütung betragen. Allerdings gibt es auch Beratungshäuser, die einen hohen Fixanteil mit nur drei bis fünf Prozent variablen Anteil bieten.

Zu Benefits in Consulting-Häusern zählen zudem häufig Firmenwägen, die oft auch die private Nutzung inklusive Urlaubsfahrten einschließen. Bei intensiver privater Nutzung kann dies mit Benzin, Unterhalt und Wertverlust leicht 12.000 bis 15.000 Euro pro Jahr ausmachen. Auf der anderen Seite zeigt sich mit der starken Verbreitung neuer Remote-Arbeitsmodelle auch im SAP-Consulting ein Trend hin zu einer weniger intensiven Reisetätigkeit. War früher laut Biber ein Anteil von 80 bis 100 Prozent gefordert, verlangen viele Arbeitgeber heute 50 Prozent oder noch weniger. Ein deutlicher Vorteil für die allgemeine Work-Life-Balance sowie insbesondere für Bewerber, die aufgrund familiärer Verpflichtungen nicht uneingeschränkt mobil sein können.

Thomas Biber: “Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”
Foto: Biber & Associates

Selbstständigkeit – Alternative zur Karriere im Beratungshaus

“Entscheidet sich die SAP-Fachkraft, weiterhin im Consulting-Haus zu bleiben, ist nach zehn Jahren noch eine Gehaltssteigerung auf 120.000 bis 130.000 Euro möglich”, führt Biber weiter aus. “Eine Alternative ist die Selbstständigkeit. Hier können erfahrene SAP-Profis, die sich in einem Kernmarkt wie etwa Retail und Logistik nach ein bis zwei Jahren gut im Markt etabliert haben, einen Jahresumsatz von circa 200.000 bis 250.000 Euro erreichen. Jedoch will dieser Schritt wohlüberlegt sein, da er – wie jede Selbstständigkeit – mit Risiken und einem hohen Arbeitsvolumen einhergeht.”

Was SAP-Profis in Anwenderunternehmen verdienen

Stellen im Beratungshaus sind deutlich besser vergütet als Inhouse-Positionen in einem Anwenderunternehmen, gehen jedoch auch mit einer deutlich stärkeren Arbeitsbelastung einher. Im Inhouse-Bereich kommen dafür variable Gehaltsanteile kaum vor, betreffen in der Regel nur Führungspositionen und liegen selten über 10 bis 15 Prozent. Wenn SAP-Profis in Anwenderunternehmen den Schritt zur Führungskraft mit Personalverantwortung gehen, können allerdings auch sie die sechsstellige Gehaltsgrenze knacken, abhängig von der Größe des Unternehmens und des zu leitenden Teams.

“In einem mittelständischen Betrieb liegt das Gehalt bei rund 95.000 Euro, wenn die Führungskraft nur ein kleineres Team unter sich hat”, so Biber. Unterstehe ihr jedoch in einem Unternehmen mit 20.000 Mitarbeitern die gesamte BI-Truppe sowie 20 eigene Mitarbeiter, könne das Gehalt 130.000 bis 150.000 Euro oder sogar mehr betragen.

Was sich auszahlt: Fachwissen, Branche, Standort

Der eigene Marktwert für SAP-Beraterinnen und -Berater steht in direkter Relation zu ihrem technischen Spezialwissen und Branchen-Know-how, welches sie sich in ihrer Berufslaufbahn angeeignet haben. “Besonders gesucht auf dem Markt sind Fachkräfte mit Expertise in S/4HANA und C/4HANA sowie in Cloud-basierten Technologie- und Entwicklungsthemen”, weiß der Kenner des SAP-Arbeitsmarkts. “Auch das Thema Gehaltsabrechnung auf Basis von SAP HCM, Hybris und SuccessFactors wird sehr gut vergütet, da es wegen der sozialversicherungsrechtlichen Rahmenbedingungen besonders komplex ist.”

Sehr profitabel sind laut Biber zudem Kenntnisse in Finance- oder Logistikkomponenten wie SAP EWM, IS-Retail oder SAP PP-PI (Produktionsplanung Prozessindustrie). Im Entwicklungsbereich ist vor allem Wissen in SAP BTP, FIORI, WeBUI, SAP UI5 oder anderen Themen rund um die Full-Stack-SAP-Softwareentwicklung gefragt.

Besonders hochbezahlte Positionen gibt es laut Biber in der Chemie- und Pharmaindustrie sowie im Anlagenbau und Manufacturing. Ebenfalls gute Verdienstchancen bieten Banken, Versicherungen und die Luxusgüterbranche. Dabei zahlen große Unternehmen üblicherweise besser als kleine. Hinsichtlich des Standorts führen in Bezug auf das Gehalt weiterhin die Ballungsgebiete um München, Stuttgart, Rhein-Main, Rhein-Ruhr sowie Hamburg.

“Standort und Branche wirken sich deutlich auf das Gehalt aus”, so Biber. “Bei einem renommierten Industrieunternehmen im Frankfurter oder Stuttgarter Raum sind zum Beispiel für eine SAP-HCM-PY-Fachkraft mit fünf bis sieben Jahren Projekterfahrung auch ohne Führungsverantwortung bis zu 120.000 Euro und mehr möglich. Im Vergleich hierzu verdiene ein SAP-Payroll-Experte in einem Unternehmen aus dem Gesundheitswesen in den neuen Bundesländern mit etwa 75.000 bis 80.000 Euro deutlich weniger.

Tipps für den Karriereweg

Wichtig für SAP-Fachkräfte ist laut Biber, sich kontinuierlich über die neuesten Technologien auf dem Laufenden zu halten, um den eigenen Marktwert zu erhalten und zu steigern. Dies kann in manchen Fällen auch die Suche nach einer neuen Stelle bedeuten, falls der bisherige Arbeitgeber mit veralteten Technologien arbeitet und es keine interne Möglichkeit der Weiterentwicklung gibt.

“Gleichzeitig gilt es, bei der Stellensuche Gehaltsverhandlungen mit Augenmaß zu betreiben”, so Biber. “Fachkräfte müssen stets selbstkritisch prüfen, ob sie die jeweiligen Anforderungen erfüllen und zugleich ihre vorhandenen Fähigkeiten deutlich hervorstellen. Unternehmen haben kein Interesse daran, in Verhandlungen die Gehälter möglichst tief herunterzuhandeln. Schließlich wünschen sie sich eine langjährige Zusammenarbeit und wollen nicht das Risiko eingehen, dass ihnen die Fachkraft sofort wieder abspringt.”

SAP-Beraterinnen und -Berater ab drei bis fünf Jahren Berufserfahrung können auch in Erwägung ziehen, eine auf ihr Fachgebiet spezialisierte Personalberatung hinzuzuziehen. Ein erfahrender Headhunter, der sich mit den lokalen Gegebenheiten gut auskennt, kann eine realistische Einschätzung geben, was für das entsprechende Bewerberprofil hinsichtlich des Gehalts möglich ist.

Consultants und ihre SprücheGetöse, Getöse …
Foto: New Africa – shutterstock.comManchmal ist es gar nicht so einfach, in der täglichen Wörterflut das Wesentliche auszumachen. Wenn dann noch jemand “Denglisch” redet, wird’s manchmal richtig kompliziert. Wir übersetzen für Sie.Commitment …
Foto: Krakenimages.com – shutterstock.com… hat sich zu einem gängige Begriff im deutschen Sprachgebrauch gemausert, der eine Verpflichtung beziehungsweise ein Bekenntnis ausdrückt. Sich zu einem “objective committen” bedeutet nichts anderes, als ein Ziel zu akzeptieren.On the way
Foto: Dimitrios Karamitros – shutterstock.comDie häufig bemühte “Roadmap” mit ihren “Milestones” ist ein Fahrplan samt Meilensteinen. Vorsicht, VIP!
Foto: Hurst Photo – shutterstock.comWenn alles im “Round-up” des “Board-Meetings” als “High-Level-Approach” eingestuft wird, dann heißt das vermutlich: Alles im Vorstand Besprochene ist sehr wichtig.Auch betroffen?
Foto: Kzenon – shutterstock.comBeschlossen werden auf Vorstandsebene bisweilen Maßnahmen, die sich auf alle “Stakeholder” auswirken. Gemeint sind alle, die mit dem Unternehmen zu tun haben. Die Betroffenen werden dankbar sein, wenn Ergebnisse zügig “reportet” werden. Vielleicht doch besser auf Deutsch?
Foto: fizkes – shutterstock.comOft müssen aber gar nicht Anglizismen herhalten, um Kompetenz zu vermitteln: Zwar gibt es den Ausdruck “Kombinatorik” als Teildisziplin der Mathematik, doch Berater meinen meistens einfach nur die “Kombination”.Unseriös …
Foto: Rawpixel.com – shutterstock.com… ist ohne Zweifel die falsche Verwendung des Begriffs “Ressourcen”. Spricht man über Güter, Materialen, Immobilien etc. ist dagegen nichts einzuwenden. Ressourcen als Synonym für Mitarbeiter oder gar Menschen zu verwenden, ist indes gelinde gesagt geschmacklos. Da aber im englischsprachigen Raum von “Human Resources” die Rede ist, lässt sich dieser Fehler zumindest erklären. No risk, no fun …
Foto: Mauricio Graiki – shutterstock.comGerne werben Berater auch damit, dass sie “ins Risiko gehen”, also etwas riskieren. Die Steigerung davon heißt vermutlich “ins Verderben rennen” – aber im Projektumfeld mag wohl niemand davon reden.Am Ende des Tages
Foto: fizkes – shutterstock.comDer Klassiker im Berater-Slang lautet”Am Ende des Tages“. Kaum ein Berater verzichtet auf diese Phrase, um ein Resümee zu ziehen. Seinen Ursprung hat der Ausdruck in der holprigen Übersetzung der englischen Formulierung “at the end of the day”. Gemeint ist eigentlich “schlussendlich”, “unterm Strich” oder einfach nur “schließlich”. Expertise
Foto: Jacek Dudzinski – shutterstock.comAuch der im Deutschen gerne als Synonym für Erfahrung und Kompetenz verwendete Begriff “Expertise” wurde falsch aus dem Englischen übernommen. Eine Expertise ist ein Gutachten. Es macht Sinn
Foto: Alice Arts Bar – shutterstock.comDas Gleiche gilt für “Es macht Sinn” (it makes sense). Die korrekte deutsche Übersetzung lautet “Etwas ist sinnvoll” oder “Etwas ergibt Sinn”.In 2023
Foto: Ronald WiltscheckEin häufig zu hörender Ausdruck, wenn Berater Zeitpunkte benennen, lautet: “In 2023 erwarten wir eine Erholung.” Richtiger wäre “Im Jahr 2023 erwarten wir eine Erholung” oder einfach “2023 erwarten wir eine Erholung”. Consultants und ihre Sprüche
Foto: GLF Media – shutterstock.comNatürlich müssen die “Surroundings” passen. Welche Umgebung ist denn gemeint? Egal, Hauptsache es klingt wichtig.Business Case
Foto: KeyStock – shutterstock.comHäufige Anglizismen sind charakteristisch für das Consulting: Ein “Business Case” ist nichts anderes als ein Geschäftsmodell. Proof of Concept
Foto: StockLite – shutterstock.comEin “Proof of Concept” ist eine Machbarkeitsstudie. Line of Business
Foto: alphaspirit – Fotolia.comUnd für “Line of Business” gibt es den schönen deutschen Begriff Geschäftsbereich.low hanging fruits
Foto: NAN – Fotolia.comAuch gern genommen: “low hanging fruits” und “quick wins“. Damit sind schnelle, einfache Erfolge gemeint. Sie sind wichtig, um für gute Stimmung im Projekt zu sorgen.asap
Foto: oatawa – shutterstock.comIn den E-Mail-Verkehr haben viele englische Abkürzungen Einzug gehalten: Doch zum Beispiel “asap” (as soon as possible) und “pdq” (pretty damn quick) sollte man tunlichst nur im Bekanntenkreis verwenden. Denn während diese unmissverständlichen Aufforderungen im US-Amerikanischen gang und gäbe sind und niemanden besonders aufregen, klingen sie im Deutschen aufdringlich und unfreundlich. proaktiv
Foto: Kzenon – Fotolia.comWas ist “proaktiv“? Ist es mehr als “aktiv”? Es klingt auf jeden Fall nach mehr. Also benutzen es Berater und Manager. Zielsetzung
Foto: zeljkodan – shutterstock.comEbenso verhält es sich mit “Zielsetzung“. Man könnte auch einfach ein Ziel verfolgen und erreichen.
Foto: travelcaesar – Fotolia.comDas Anhängen einer überflüssigen Endung ist kein Einzelfall. Gern verwendete Erweiterungen sind etwa “-prozess“, “-struktur” und “-bereich“. Herausforderungen
Foto: Sergey Tinyakov – shutterstock.comEs gibt zudem Wörter, die nicht grundsätzlich falsch sind, deren übermäßige Benutzung jedoch aufstößt. Berater kennen beispielsweise keine Probleme und Schwierigkeiten, sondern nur “Herausforderungen” (Challenges). Und sie “fokussieren” sehr häufig.
Foto: alphaspirit – shutterstock.comDer Ursprung mancher sonderbaren Ausdrucksweise ist nicht ganz klar. Ein Berater ist “auf einem Projekt” statt “in einem Projekt“. Anglizismen
Foto: Roman Samborskyi – shutterstock.comDie inflationäre Verwendung von Anglizismen beschäftigt die Kunden in Großbritannien naturgemäß nicht. Doch auch dort haben die Berater eine eigene Sprache entwickelt. Das Online-Magazin consulting-news.com hat vor geraumer Zeit die Hitliste der nervigsten Beraterphrasen veröffentlicht. Erhoben haben sie die Marktforscher von Coleman Parkes Research. Einige Formulierungen erscheinen erstaunlich vertraut. Platz 13
Foto: Khakimullin Aleksandr – shutterstock.com18 Prozent: Going forward (den Blick nach vorne richten). Platz 12
Foto: AMLbox – shutterstock.com22 Prozent: Leverage (Hebel, Hebelwirkung).Platz 11
Foto: Rawpixel.com – shutterstock.com26 Prozent: Core values (Grundwerte).Platz 10
Foto: Jacob Lund – shutterstock.com27 Prozent: We’re in good shape (Wir sind gut im Rennen).Platz 9
Foto: topshots – Fotolia.com27 Prozent: On the same page (auf einer Wellenlänge, einig sein).Platz 8
Foto: Jeff Metzger – Fotolia.com31 Prozent: Paradigm (Paradigma, Denkmuster).Platz 7
Foto: James Thew – Fotolia.com33 Prozent: Synergy (Synergien).Platz 6
Foto: Picture-Factory – Fotolia.com35 Prozent: At the end of the day (am Ende des Tages).Platz 5
Foto: Ground Picture – shutterstock.com38 Prozent: Let’s have a meet about it (Lasst uns zusammensitzen).Platz 4
Foto: Artur Didyk – shutterstock.com42 Prozent: Lock ‘n load (schussbereit).Platz 3
Foto: xactive – shutterstock.com42 Prozent: Think outside the box (querdenken).Platz 2
Foto: Pressmaster – shutterstock.com42 Prozent: Let’s engage the client (Beziehung zum Kunden aufbauen).Platz 1
Foto: Tomo Jesenicnik – Fotolia.com49 Prozent: Singing from the same hymn sheet (in dasselbe Horn blasen).
Foto: patpitchaya – shutterstock.comZum Abschluss noch ein Berater-Witz: “Das Glas ist halb leer”, sagt der Pessimist. “Das Glas ist halb voll “, sagt der Optimist. “Das Glas ist viel zu groß “, sagt der Unternehmensberater.

Karrierechancen im SAP-Consulting: Was SAP-Profis verdienen​ Weiterlesen »

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?quality=50&strip=all 2732w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mangels positiver Nachrichten scheint Apples PR-Maschinerie auf “Deadcatting” zurückzugreifen. letspicsit – Shutterstock.com Die Dead-Cat-Strategie ist eine uralte PR-Taktik, auch wenn sie seit kurzem dank Donald Trump gerne als „flooding the zone“ bezeichnet wird. Ich glaube, genau das scheint Apple zu tun, nachdem kürzlich Gerüchte die Runde machten, dass das Unternehmen auf der Entwicklerkonferenz WWDC eine Änderung der Benennung seiner Betriebssysteme ankündigen will. Demnach wird es kein iOS 19 geben, stattdessen rückt iOS 26 nach. Das Gleiche soll auch für die anderen Betriebssysteme gelten: iPadOS 26 macOS 26 tvOS 26 visionOS 26 watchOS 26 homeOS 26 Aus meiner Sicht ist die Änderung unproblematisch. Aber für Apple hat sie zu einer Flut von Berichten über die Entscheidung geführt. Auch wenn nicht alle Meldungen positiv ausfallen – die Tatsache, dass das Thema überhaupt aufgegriffen wird, bringt Apple wieder etwas von seiner Kontrolle über die Berichterstattung zurück. Existenzielle Bedrohungen Diese Art von Mediensteuerung braucht Apple dringend. Beinahe jeder andere Artikel, der derzeit über das Unternehmen geschrieben wird, hat mit Zöllen, Regulierung oder Apples Problemen mit seiner KI-Strategie zu tun. Sogar positive Entwicklungen wie der strategisch wichtige Erfolg, die Produktion nach Indien zu verlagern, werden unter dem Blickwinkel nationalistischer US-Politik und Handelszölle betrachtet. Auch europäische Regulierer scheinen Apple zum politischen Faustpfand machen zu wollen – mit dem Ziel, Druck in Handelsverhandlungen mit den USA auszuüben. Was also bleibt Apple anderes übrig? Tatsächlich scheint die Company derzeit jede offene Diskussion über diese Herausforderungen zu meiden. Dafür spricht auch die Entscheidung der Apple-Führungskräfte, dieses Jahr an der traditionellen „WWDC-Talkshow” von John Gruber nicht teilzunehmen. Apple war dort fast seit einem Jahrzehnt regelmäßig vertreten, daher ist diese Änderung bemerkenswert. Warten auf die (Höhen-)Sonne Dass Apple kurz vor der WWDC über seine offiziellen inoffiziellen Kanäle bei Bloomberg gezielt Leaks über die Zukunft seiner Betriebssystemnamen streut, spricht Bände. Erstens lenkt es die Aufmerksamkeit kurzfristig auf etwas anderes. Zweitens senkt Apple damit die Erwartungen für die WWDC bewusst ab. Erwartet wird: Ein überarbeitetes OS-Design namens Solarium, das für ein einheitlicheres Nutzererlebnis auf allen Apple-Geräten sorgen soll. Das iPad erhält Tools, die es Mac-ähnlicher machen, und Apple führt eine neue Namenslogik für seine Betriebssysteme ein. Was ist Solarium? Es handelt sich um ein UI-Update, das das Aussehen von Icons, Menüs, Fenstern und Schaltflächen optisch vereinheitlicht. Die neue Oberfläche soll wie ein lichtdurchfluteter Raum mit Glaswänden wirken – leicht durchsichtig, vermutlich mit runderen Icons, schwebenden Bedienelemente, räumlicher Tiefe und visuellen Anleihen bei visionOS 1.0. Weitere Ablenkungsmanöver erwartet Wird das reichen, um die Kontrolle über die öffentliche Wahrnehmung zurückzugewinnen? Ich glaube nicht. Wenn Solarium das Highlight der WWDC ist, muss Apple vermutlich weiter auf Zeit spielen und noch ein paar weitere „Dead Cats“ ins Spiel bringen. (mb) 

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?quality=50&strip=all 2732w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2015444585_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mangels positiver Nachrichten scheint Apples PR-Maschinerie auf “Deadcatting” zurückzugreifen. letspicsit – Shutterstock.com

Die Dead-Cat-Strategie ist eine uralte PR-Taktik, auch wenn sie seit kurzem dank Donald Trump gerne als „flooding the zone“ bezeichnet wird. Ich glaube, genau das scheint Apple zu tun, nachdem kürzlich Gerüchte die Runde machten, dass das Unternehmen auf der Entwicklerkonferenz WWDC eine Änderung der Benennung seiner Betriebssysteme ankündigen will.

Demnach wird es kein iOS 19 geben, stattdessen rückt iOS 26 nach.

Das Gleiche soll auch für die anderen Betriebssysteme gelten:

iPadOS 26

macOS 26

tvOS 26

visionOS 26

watchOS 26

homeOS 26

Aus meiner Sicht ist die Änderung unproblematisch. Aber für Apple hat sie zu einer Flut von Berichten über die Entscheidung geführt. Auch wenn nicht alle Meldungen positiv ausfallen – die Tatsache, dass das Thema überhaupt aufgegriffen wird, bringt Apple wieder etwas von seiner Kontrolle über die Berichterstattung zurück.

Existenzielle Bedrohungen

Diese Art von Mediensteuerung braucht Apple dringend. Beinahe jeder andere Artikel, der derzeit über das Unternehmen geschrieben wird, hat mit Zöllen, Regulierung oder Apples Problemen mit seiner KI-Strategie zu tun. Sogar positive Entwicklungen wie der strategisch wichtige Erfolg, die Produktion nach Indien zu verlagern, werden unter dem Blickwinkel nationalistischer US-Politik und Handelszölle betrachtet. Auch europäische Regulierer scheinen Apple zum politischen Faustpfand machen zu wollen – mit dem Ziel, Druck in Handelsverhandlungen mit den USA auszuüben.

Was also bleibt Apple anderes übrig? Tatsächlich scheint die Company derzeit jede offene Diskussion über diese Herausforderungen zu meiden. Dafür spricht auch die Entscheidung der Apple-Führungskräfte, dieses Jahr an der traditionellen „WWDC-Talkshow” von John Gruber nicht teilzunehmen. Apple war dort fast seit einem Jahrzehnt regelmäßig vertreten, daher ist diese Änderung bemerkenswert.

Warten auf die (Höhen-)Sonne

Dass Apple kurz vor der WWDC über seine offiziellen inoffiziellen Kanäle bei Bloomberg gezielt Leaks über die Zukunft seiner Betriebssystemnamen streut, spricht Bände. Erstens lenkt es die Aufmerksamkeit kurzfristig auf etwas anderes. Zweitens senkt Apple damit die Erwartungen für die WWDC bewusst ab.

Erwartet wird: Ein überarbeitetes OS-Design namens Solarium, das für ein einheitlicheres Nutzererlebnis auf allen Apple-Geräten sorgen soll. Das iPad erhält Tools, die es Mac-ähnlicher machen, und Apple führt eine neue Namenslogik für seine Betriebssysteme ein.

Was ist Solarium? Es handelt sich um ein UI-Update, das das Aussehen von Icons, Menüs, Fenstern und Schaltflächen optisch vereinheitlicht. Die neue Oberfläche soll wie ein lichtdurchfluteter Raum mit Glaswänden wirken – leicht durchsichtig, vermutlich mit runderen Icons, schwebenden Bedienelemente, räumlicher Tiefe und visuellen Anleihen bei visionOS 1.0.

Weitere Ablenkungsmanöver erwartet

Wird das reichen, um die Kontrolle über die öffentliche Wahrnehmung zurückzugewinnen? Ich glaube nicht. Wenn Solarium das Highlight der WWDC ist, muss Apple vermutlich weiter auf Zeit spielen und noch ein paar weitere „Dead Cats“ ins Spiel bringen. (mb)

Vor der WWDC erreicht Apple seinen „Dead-Cat“-Moment​ Weiterlesen »

Cloud Native erklärt​

Allgemein

Dieser Beitrag kann Cloud-Native-Missverständnissen vorbeugen.SeventyFour | shutterstock.com Cloud-Native-Applikationen entwickeln sich zunehmend zum Standard in Public- und Private-Cloud-Instanzen. In diesem Artikel lesen Sie: wie sich Cloud-Native-Anwendungen definieren, welche Tools erforderlich sind, um sie zu entwickeln, und   welche Best Practices dabei dringend zu empfehlen sind. Cloud-Native-Definition Wie viele andere Technologiebegriffe wird auch Cloud Native oft missverstanden oder fehlinterpretiert. Die Cloud Native Computing Foundation (CNCF) hat eine Definition entwickelt, die regelmäßig gepflegt wird und die Sie auf GitHub einsehen können. Dort wird der Begriff auf Deutsch wie folgt definiert: „Cloud-Native-Technologien ermöglichen es Unternehmen, skalierbare Anwendungen in modernen, dynamischen Umgebungen zu implementieren und zu betreiben. Dies können öffentliche, private und Hybrid-Clouds sein. Best Practices, wie Container, Service-Meshs, Microservices, Immutable Infrastructure und deklarative APIs unterstützen diesen Ansatz.“ Cloud-Native-Anwendungen laufen nicht einfach nur in der Cloud – sie wurden speziell für Cloud-Umgebungen entwickelt und konzipiert. Eine On-Premises-Applikation im Lift-&-Shift-Verfahren in die Cloud zu verfrachten und dort auszuführen, rechtfertigt also nicht das Cloud-Native-Label. Vielmehr stellt Cloud Native eine grundlegende Veränderung der Art und Weise dar, wie Unternehmen Software entwerfen, entwickeln und bereitstellen. Der Cloud-Native-Ansatz nutzt die einzigartigen Fähigkeiten der Cloud durch architektonische Entscheidungen, die Flexibilität, Ausfallsicherheit und Skalierbarkeit in den Vordergrund stellen. Im Gegensatz zu herkömmlichen, monolithischen Anwendungen, die oft eng miteinander verwoben sind, zeichnen sich Cloud-Native-Anwendungen durch einen modularen Aufbau aus. Es handelt sich also nicht um einen Stack, sondern eine entkoppelte Applikationsarchitektur. Die atomare Ebene einer Cloud-Native-Applikation ist der Container. Das kann ein Docker-Container sein – oder jeder andere Typ, der die Spezifikationen der Open Container Initiative (OCI) unterstützt. Über die Container werden kleine, unabhängige Services bereitgestellt, die über APIs kommunizieren – sogenannte Microservices. Eine Microservices-Architektur ermöglicht es, unabhängig zu skalieren, was wiederum auf die Funktionsweise der Cloud einzahlt. Obwohl Container in jeder Art von Host-Umgebung ausgeführt werden können, werden sie (und damit auch Microservices) im Regelfall über eine Orchestrierungsplattform bereitgestellt – etwa die Open-Source-Plattform Kubernetes, die von allen großen Public-Cloud-Anbietern unterstützt wird. Die wesentlichen Merkmale von Cloud-Native-Applikationen im Überblick: Microservices-Architekturen „zerlegen“Anwendungen in kleinere, lose gekoppelte Services, die unabhängig voneinander entwickelt, bereitgestellt und skaliert werden können. Containerisierung bündelt Microservices mit Abhängigkeiten und gewährleistet so umgebungsübergreifende Konsistenz sowie eine effiziente Ressourcennutzung. Orchestrierungsplattformen dienen dazu, Container mit integrierten Scaling-, Availability-, Networking- und Management-Funktionen bereitzustellen. Continuous Integration/Continous Deployment automatisiert Pipelines für schnellere Code-Integration sowie optimierte Testing- und Deployment-Prozesse. DevOps-Kulturansätze fördern die Zusammenarbeit zwischen Entwicklungs- und Betriebsteams sorgt für gemeinsame Verantwortung, schnellere Development-Zyklen und zuverlässige Releases. Skalierbarkeit und Ausfallsicherheit wird durch eine dynamische Skalierung der Ressourcen je nach Bedarf und eine reibungslose Fehlerbehandlung sichergestellt. Verteiltes Systemdesign ermöglicht Services, die über mehrere Server hinweg ausgeführt werden, sowie eine komponentenspezifische Skalierung, Fehlertoleranz und optimierte Ressourcennutzung. Cloud-Native-Werkzeugkasten Cloud-Native-Anwendungen zu entwickeln, erfordert folglich sich mit einer Vielzahl unterschiedlicher Technologien auseinanderzusetzen. Nachfolgend haben wir die gängigsten (respektive populärsten) Cloud-Native-Werkzeuge für Sie zusammengefasst. Cloud-Native-Programmiersprachen Go wurde von Google entwickelt und wird für seine Leistung und Effizienz geschätzt – insbesondere, wenn es um Cloud Services geht. Java ist eine vielseitige Sprache mit umfangreichem Ökosystem, die häufig für Enterprise-Anwendungen eingesetzt wird. JavaScript kommt nicht nur zu Scripting-Zwecken zum Einsatz, sondern auch, um Applikationen und Echtzeit-Services zu entwickeln. Python ist (unter anderem) simpel und einfach lesbar, wodurch es sich für diverse Anwendungen eignet, etwa für Web Services oder um Daten zu verarbeiten. Cloud-Native-Frameworks Um umfassendere Enterprise-Anwendungen zu entwickeln, reichen Programmiersprachen allein allerdings oft nicht aus. Dann kommen Application Development Frameworks ins Spiel. Zu den beliebtesten Cloud-Native-Frameworks zählen: Django ist ein populäres Web-Framework für Python, das in den letzten Jahren zunehmend dafür genutzt wird, Cloud-Native-Anwendungen zu entwickeln. Micronaut ist ein Full-Stack-Framework, um Cloud-Native-Apps mit Java zu erstellen. Quarkus wurde speziell für Java-Entwickler konzipiert, um Cloud-Native-Applikationen zu programmieren. .NET Aspire ist das Open-Source-Framework von Microsoft, um Cloud-Native-Anwendungen mit .NET zu erstellen. Next.js ist ein React-JavaScript-Framework, das sich besonders gut dazu eignet, Cloud-native Webanwendungen zu entwickeln. Node.js ist eine schlanke und performante JavaScript-Laufzeitumgebung, die ein ereignisgesteuertes E/A-Modell enthält. Container- & -Orchestrierungs-Tools Wie bereits erwähnt, werden Cloud-Native-Apps über Container-, beziehungsweise Orchestrierungs-Plattformen bereitgestellt. Zu den wichtigsten Technologien in diesem Bereich zählen: Docker hat Anwendungscontainer in den (IT-)Mainstream getragen dient häufig als Standard-Container-Technologie bei Cloud-Native-Deployments. Podman ist ein von Red Hat entwickelter Container-Ansatz, der weitgehend mit Docker kompatibel ist. Kubernetes ist der De-Facto-Standard, um Container in Cloud-Native-Umgebungen zu orchestrieren. Kubernetes Services sind auf allen wichtigen Cloud-Plattformen verfügbar. CI/CD-Tools Continuous Integration und Continuous Development (CI/CD) sind wesentliche Komponenten, um Cloud-Native-Apps zu entwickeln. CI/CD-Pipelines ermöglichen es, Anwendungen automatisiert zu erstellen, zu testen und bereitzustellen. Moderne CI/CD-Tools sind dabei eng mit Container-Technologien und Cloud-Plattformen integriert und bieten eine durchgängige Automatisierung über den gesamten Anwendungslebenszyklus hinweg. Zu den am häufigsten verwendeten Tools gehören: Argo CD, AWS CodePipeline, Azure DevOps, GitHub Actions, GitLab, und Jenkins. Observability- & Monitoring-Tools Observability-Technologie hilft, Einblicke in das Verhalten der verteilten Systeme zu gewinnen, auf denen Cloud-Native-Applikationen laufen. Zu diesem Zweck können verschiedene Funktionen zum Einsatz kommen. Das Rückgrat für Cloud-Native-Observability bilden dabei alle Tools, die den OpenTelemetry-Standard unterstützen. Darüber hinaus sind an dieser Stelle auch Plattformen zu nennen wie: Prometheus (Metriken) und Jaeger (Tracing). Best Practices, um Cloud-Native-Apps zu entwickeln Die Hyperscaler haben im Lauf der letzten Jahre jeweils eigene Best Practices entwickelt, wenn es darum geht Cloud-Native-Anwendungen zu entwickeln. Diese werden unter der Bezeichnung „Well-Architected Framework“ zusammengefasst: AWS Well-Architected Framework Google Cloud Well-Architected Framework Microsoft Azure Well-Architected Framework Die grundlegenden Prinzipien des „Well-Architected Framework“ sollen dabei dazu beitragen, dass Cloud-Native-Applikationen besonders sicher, zuverlässig und effizient sind. Zu diesen Kernprinzipien zählen: Operative Exzellenz: Systeme überwachen und Prozesse optimieren. Sicherheit: Robustes Identity & Access Management, Datenschutz- und Incident-Response-Maßnahmen implementieren. Zuverlässigkeit: Systeme entwerfen, die sich von Ausfällen erholen und die Nachfrage befriedigen können. Leistungseffizienz: Rechenressourcen effizient nutzen. Kostenoptimierung: Kosten managen, um den erzielten Wert zu maximieren. Indem sie Cloud-Native-Prinzipien verinnerlichen und umsetzen, können Unternehmen das volle Potenzial der Cloud ausschöpfen, statt sie nur als Hosting-Modell zu nutzen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Cloud Native erklärt​ Dieser Beitrag kann Cloud-Native-Missverständnissen vorbeugen.SeventyFour | shutterstock.com

Cloud-Native-Applikationen entwickeln sich zunehmend zum Standard in Public- und Private-Cloud-Instanzen. In diesem Artikel lesen Sie:

wie sich Cloud-Native-Anwendungen definieren,

welche Tools erforderlich sind, um sie zu entwickeln, und  

welche Best Practices dabei dringend zu empfehlen sind.

Cloud-Native-Definition

Wie viele andere Technologiebegriffe wird auch Cloud Native oft missverstanden oder fehlinterpretiert. Die Cloud Native Computing Foundation (CNCF) hat eine Definition entwickelt, die regelmäßig gepflegt wird und die Sie auf GitHub einsehen können. Dort wird der Begriff auf Deutsch wie folgt definiert:

„Cloud-Native-Technologien ermöglichen es Unternehmen, skalierbare Anwendungen in modernen, dynamischen Umgebungen zu implementieren und zu betreiben. Dies können öffentliche, private und Hybrid-Clouds sein. Best Practices, wie Container, Service-Meshs, Microservices, Immutable Infrastructure und deklarative APIs unterstützen diesen Ansatz.“

Cloud-Native-Anwendungen laufen nicht einfach nur in der Cloud – sie wurden speziell für Cloud-Umgebungen entwickelt und konzipiert. Eine On-Premises-Applikation im Lift-&-Shift-Verfahren in die Cloud zu verfrachten und dort auszuführen, rechtfertigt also nicht das Cloud-Native-Label. Vielmehr stellt Cloud Native eine grundlegende Veränderung der Art und Weise dar, wie Unternehmen Software entwerfen, entwickeln und bereitstellen. Der Cloud-Native-Ansatz nutzt die einzigartigen Fähigkeiten der Cloud durch architektonische Entscheidungen, die Flexibilität, Ausfallsicherheit und Skalierbarkeit in den Vordergrund stellen.

Im Gegensatz zu herkömmlichen, monolithischen Anwendungen, die oft eng miteinander verwoben sind, zeichnen sich Cloud-Native-Anwendungen durch einen modularen Aufbau aus. Es handelt sich also nicht um einen Stack, sondern eine entkoppelte Applikationsarchitektur. Die atomare Ebene einer Cloud-Native-Applikation ist der Container. Das kann ein Docker-Container sein – oder jeder andere Typ, der die Spezifikationen der Open Container Initiative (OCI) unterstützt. Über die Container werden kleine, unabhängige Services bereitgestellt, die über APIs kommunizieren – sogenannte Microservices. Eine Microservices-Architektur ermöglicht es, unabhängig zu skalieren, was wiederum auf die Funktionsweise der Cloud einzahlt. Obwohl Container in jeder Art von Host-Umgebung ausgeführt werden können, werden sie (und damit auch Microservices) im Regelfall über eine Orchestrierungsplattform bereitgestellt – etwa die Open-Source-Plattform Kubernetes, die von allen großen Public-Cloud-Anbietern unterstützt wird.

Die wesentlichen Merkmale von Cloud-Native-Applikationen im Überblick:

Microservices-Architekturen „zerlegen“Anwendungen in kleinere, lose gekoppelte Services, die unabhängig voneinander entwickelt, bereitgestellt und skaliert werden können.

Containerisierung bündelt Microservices mit Abhängigkeiten und gewährleistet so umgebungsübergreifende Konsistenz sowie eine effiziente Ressourcennutzung.

Orchestrierungsplattformen dienen dazu, Container mit integrierten Scaling-, Availability-, Networking- und Management-Funktionen bereitzustellen.

Continuous Integration/Continous Deployment automatisiert Pipelines für schnellere Code-Integration sowie optimierte Testing- und Deployment-Prozesse.

DevOps-Kulturansätze fördern die Zusammenarbeit zwischen Entwicklungs- und Betriebsteams sorgt für gemeinsame Verantwortung, schnellere Development-Zyklen und zuverlässige Releases.

Skalierbarkeit und Ausfallsicherheit wird durch eine dynamische Skalierung der Ressourcen je nach Bedarf und eine reibungslose Fehlerbehandlung sichergestellt.

Verteiltes Systemdesign ermöglicht Services, die über mehrere Server hinweg ausgeführt werden, sowie eine komponentenspezifische Skalierung, Fehlertoleranz und optimierte Ressourcennutzung.

Cloud-Native-Werkzeugkasten

Cloud-Native-Anwendungen zu entwickeln, erfordert folglich sich mit einer Vielzahl unterschiedlicher Technologien auseinanderzusetzen. Nachfolgend haben wir die gängigsten (respektive populärsten) Cloud-Native-Werkzeuge für Sie zusammengefasst.

Cloud-Native-Programmiersprachen

Go wurde von Google entwickelt und wird für seine Leistung und Effizienz geschätzt – insbesondere, wenn es um Cloud Services geht.

Java ist eine vielseitige Sprache mit umfangreichem Ökosystem, die häufig für Enterprise-Anwendungen eingesetzt wird.

JavaScript kommt nicht nur zu Scripting-Zwecken zum Einsatz, sondern auch, um Applikationen und Echtzeit-Services zu entwickeln.

Python ist (unter anderem) simpel und einfach lesbar, wodurch es sich für diverse Anwendungen eignet, etwa für Web Services oder um Daten zu verarbeiten.

Cloud-Native-Frameworks

Um umfassendere Enterprise-Anwendungen zu entwickeln, reichen Programmiersprachen allein allerdings oft nicht aus. Dann kommen Application Development Frameworks ins Spiel. Zu den beliebtesten Cloud-Native-Frameworks zählen:

Django ist ein populäres Web-Framework für Python, das in den letzten Jahren zunehmend dafür genutzt wird, Cloud-Native-Anwendungen zu entwickeln.

Micronaut ist ein Full-Stack-Framework, um Cloud-Native-Apps mit Java zu erstellen.

Quarkus wurde speziell für Java-Entwickler konzipiert, um Cloud-Native-Applikationen zu programmieren.

.NET Aspire ist das Open-Source-Framework von Microsoft, um Cloud-Native-Anwendungen mit .NET zu erstellen.

Next.js ist ein React-JavaScript-Framework, das sich besonders gut dazu eignet, Cloud-native Webanwendungen zu entwickeln.

Node.js ist eine schlanke und performante JavaScript-Laufzeitumgebung, die ein ereignisgesteuertes E/A-Modell enthält.

Container- & -Orchestrierungs-Tools

Wie bereits erwähnt, werden Cloud-Native-Apps über Container-, beziehungsweise Orchestrierungs-Plattformen bereitgestellt. Zu den wichtigsten Technologien in diesem Bereich zählen:

Docker hat Anwendungscontainer in den (IT-)Mainstream getragen dient häufig als Standard-Container-Technologie bei Cloud-Native-Deployments.

Podman ist ein von Red Hat entwickelter Container-Ansatz, der weitgehend mit Docker kompatibel ist.

Kubernetes ist der De-Facto-Standard, um Container in Cloud-Native-Umgebungen zu orchestrieren. Kubernetes Services sind auf allen wichtigen Cloud-Plattformen verfügbar.

CI/CD-Tools

Continuous Integration und Continuous Development (CI/CD) sind wesentliche Komponenten, um Cloud-Native-Apps zu entwickeln. CI/CD-Pipelines ermöglichen es, Anwendungen automatisiert zu erstellen, zu testen und bereitzustellen.

Moderne CI/CD-Tools sind dabei eng mit Container-Technologien und Cloud-Plattformen integriert und bieten eine durchgängige Automatisierung über den gesamten Anwendungslebenszyklus hinweg. Zu den am häufigsten verwendeten Tools gehören:

Argo CD,

AWS CodePipeline,

Azure DevOps,

GitHub Actions,

GitLab, und

Jenkins.

Observability- & Monitoring-Tools

Observability-Technologie hilft, Einblicke in das Verhalten der verteilten Systeme zu gewinnen, auf denen Cloud-Native-Applikationen laufen. Zu diesem Zweck können verschiedene Funktionen zum Einsatz kommen.

Das Rückgrat für Cloud-Native-Observability bilden dabei alle Tools, die den OpenTelemetry-Standard unterstützen. Darüber hinaus sind an dieser Stelle auch Plattformen zu nennen wie:

Prometheus (Metriken) und

Jaeger (Tracing).

Best Practices, um Cloud-Native-Apps zu entwickeln

Die Hyperscaler haben im Lauf der letzten Jahre jeweils eigene Best Practices entwickelt, wenn es darum geht Cloud-Native-Anwendungen zu entwickeln. Diese werden unter der Bezeichnung „Well-Architected Framework“ zusammengefasst:

AWS Well-Architected Framework

Google Cloud Well-Architected Framework

Microsoft Azure Well-Architected Framework

Die grundlegenden Prinzipien des „Well-Architected Framework“ sollen dabei dazu beitragen, dass Cloud-Native-Applikationen besonders sicher, zuverlässig und effizient sind. Zu diesen Kernprinzipien zählen:

Operative Exzellenz: Systeme überwachen und Prozesse optimieren.

Sicherheit: Robustes Identity & Access Management, Datenschutz- und Incident-Response-Maßnahmen implementieren.

Zuverlässigkeit: Systeme entwerfen, die sich von Ausfällen erholen und die Nachfrage befriedigen können.

Leistungseffizienz: Rechenressourcen effizient nutzen.

Kostenoptimierung: Kosten managen, um den erzielten Wert zu maximieren.

Indem sie Cloud-Native-Prinzipien verinnerlichen und umsetzen, können Unternehmen das volle Potenzial der Cloud ausschöpfen, statt sie nur als Hosting-Modell zu nutzen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Cloud Native erklärt​ Weiterlesen »

Nach oben scrollen
×