Computerhaus Quickborn

April 2025

SAP-Kunden fordern Klarheit – neue Strategie, alte Sorgen​

Allgemein

Mit ihren Plänen schwebt SAP oft in anderen Sphären – die Kunden kommen da oft nicht hinterher.Tada Images | shutterstock.com Mit der neuen SAP-Strategie werden die Karten neu gemischt, stellten die Verantwortlichen der Deutschsprachigen SAP-Anwendergruppe (DSAG) anlässlich der diesjährigen Technologietage fest. Dabei haben die Anwendervertreter in erster Linie die „Business-Unleashed“-Ankündigung SAPs vom Februar 2025 im Blick: Deren drei Kernelemente sind  die neue Business Suite in der Cloud, mit der Softwarekonzern ein erfolgreiches Produkt-Label aus der On-Premises-Ära für seine Cloud-Strategie einspannen möchte,  die Business Data Cloud (BDC), mit der SAP seinen Kunden eine systemübergreifende Harmonisierung und Nutzung von SAP-Daten verspricht, und  die bereits seit Jahren bekannte Business Technology Platform (BTP) als technisches Fundament der neuen Business Suite und BDC, die eine zentrale Rolle spielen bei der Integration der verschiedenen SAP-Lösungen spielen soll.  SAP zielt in erster Linie darauf ab, mit ihren Lösungen Prozessketten bei den Kunden möglichst End-to-End zu unterfüttern. Dafür muss der größte deutsche Softwarehersteller allerdings noch weiter an seinem Portfolio feilen. Aus Sicht der Anwender braucht es eine konsistente Architektur, um der avisierten Business Suite zum Erfolg zu verhelfen. „Dafür ist es notwendig, dass SAP die Produktlandschaft kontinuierlich weiter harmonisiert und konsequent einheitliche Standards umsetzt, zum Beispiel bei den Datenmodellen und den Identity- und Security-Services“, fordert DSAG-Technologievorstand Sebastian Westphal. „Denn eine Suite braucht per Definition die nahtlose Integration der darin enthaltenen SAP-Lösungen, einheitliche Betriebsmodelle und auf dem Weg dorthin klare Migrations- und Umsetzungsstrategien.“  Neue Business Suite – integriert und flexibel   Zudem erwarten die DSAG-Mitglieder eine modulare Business-Suite, die sich flexibel an Unternehmensanforderungen anpassen lässt und ohne großen Aufwand und Kosten in übergreifende Unternehmensarchitekturen integrieren lässt, hieß es von Seiten der DSAG. Aus Sicht der Anwendervertretung gilt es noch etliche Punkte zu klären. Das betreffe Westphal zufolge beispielsweise transparente Kostenstrukturen und Vertragsmodelle sowie eine langfristige Unterstützung von Partnerlösungen. „Für eine Business-Suite aus einem Guss ist noch einiges zu tun“, lautet Westphals Fazit.  SAP baut neue Business Suite in der Cloud Hinsichtlich der Migrationsunterstützung seitens SAP begrüßt die DSAG, dass der Softwarekonzern sein Anfang 2024 vorgestelltes Programm RISE Migration & Modernization, das eigentlich Ende vergangenen Jahres auslaufen sollte, fortsetzt. Kosten und Zeitaufwand für die Migration in die neue SAP-Welt sollen sich damit deutlich reduzieren lassen, beispielsweise durch Anrechnung auf bisher getätigte Investitionen in SAP-Produkte. Laut DSAG wird SAP das Programm 2025 unter einem anderen Namen fortsetzen. Eine entsprechende Ankündigung sei in den kommenden Wochen zu erwarten.  SAP will seinen Kunden entgegenkommen. Philipp Herzig, als Chief Technology Officer (CTO) Mitglied im erweiterten Vorstand von SAP, verweist auf den SAP-managed-Ansatz, den der Konzern künftig favorisiert. Dabei will SAP möglichst viel Funktionalität vorkonfiguriert out-of-the-box anbieten. Wenn viel Arbeit, Systeme zusammenzustellen und zu betreiben, beim Kunden liege, sei dies fehleranfällig und verursache meist hohe Kosten. Um das zu vermeiden und die Vorteile von SAP-managed zu heben, müssten die Anwender allerdings die Dinge, die SAP bereits gelöst habe, auch nutzen, schreibt Herzig seinen Kunden ins Hausaufgabenheft.  Der CTO betont, dass sämtliche von SAP neu entwickelten Funktionen voll integriert im Gesamtsystem seien. Als Beispiel nennt Herzig den AI Hub. Bereits heute könnten Kunden auf etwa 210 eingebettete KI-Funktionen zurückgreifen.  Business Data Cloud kann ein großer Wurf werden  Große Hoffnungen setzen die deutschen SAP-Anwender offenbar in die Business Data Cloud, die SAP Anfang des Jahres vorgestellt hatte. DSAG-Mann Westphal betont das hohe Potenzial und spricht vom größten Strategiewechsel SAPs seit S/4HANA. Es geht um nichts weniger, als die in vielen Unternehmen fragmentierten Datenstrukturen zu harmonisieren und damit die Transformation von Bestandslandschaften in eine zukunftsfähige, Cloud-zentrierte Architektur. Vor allem wolle SAP in diesem Zusammenhang auch die betriebliche Verantwortung für die Integration und Bereitstellung einheitlicher Datenmodelle übernehmen.  SAP müsse die Business Data Cloud allen Kunden zur Verfügung stellen auch für On-premises-Systeme, fordert Sebastian Westphal, DSAG-Fachvorstand Technologie. DSAG DSAG-Vorstand Westphal spricht in diesem Zusammenhang von einer enormen Herausforderung. Er fordert, dass die BDC allen SAP-Kunden zur Verfügung stehen müsse, „auch für On-Premises-Systeme und unabhängig von kommerziellen Konstrukten wie RISE with SAP und GROW with SAP“. Darüber hinaus werde der Erfolg der BDC auch davon abhängen, wie sich SAPs neue Datenplattform in bestehende Architekturen integrieren lasse und SAP-Daten ohne technische und kommerzielle Restriktionen bereitstelle. Die SAP-Anwender hätten schließlich vielfach schon moderne Data-Lake(house)-Architekturen implementiert.  DSAG sieht weiterhin Korrekturbedarf  Aus Sicht der DSAG-Vertreter hat SAP durchaus Potenzial, mit seiner neuen Strategie bei den Kunden zu punkten. Gerade der BDC räumen die Anwendervertreter gute Chancen ein. Allerdings gibt es aus Sicht der DSAG noch einiges zu tun, damit die SAP-Strategie verfängt. Die Forderungen indes sind altbekannt und es wird abzuwarten bleiben, inwieweit sich der Walldorfer Softwarekonzern darauf einlässt. Das sind die Kernforderungen der DSAG:  SAP muss seine Architektur konsistent und harmonisiert mit einem einheitlichen Betriebsmodell anbieten.  Alle SAP-Services müssen sich in bereits bestehende Betriebsprozesse bei den Kunden integrieren lassen.  SAP muss seine Produkte, gerade neue Entwicklungen rund um KI und Datenprodukte, für alle Kunden zugänglich machen – auch On-Premises.  SAP muss seinen Kunden eine transparente und konsistente Preisstruktur bieten. Außerdem braucht es flexible, transparente Lizenz- und Rabattmodelle mit verständlichen Mengenrabatten.  SAP muss seinen Kunden eine belastbare Roadmap für mehr Planungssicherheit und eine verlässliche Migrationsstrategie bieten.   

SAP-Kunden fordern Klarheit – neue Strategie, alte Sorgen​ Mit ihren Plänen schwebt SAP oft in anderen Sphären – die Kunden kommen da oft nicht hinterher.Tada Images | shutterstock.com

Mit der neuen SAP-Strategie werden die Karten neu gemischt, stellten die Verantwortlichen der Deutschsprachigen SAP-Anwendergruppe (DSAG) anlässlich der diesjährigen Technologietage fest. Dabei haben die Anwendervertreter in erster Linie die „Business-Unleashed“-Ankündigung SAPs vom Februar 2025 im Blick: Deren drei Kernelemente sind 

die neue Business Suite in der Cloud, mit der Softwarekonzern ein erfolgreiches Produkt-Label aus der On-Premises-Ära für seine Cloud-Strategie einspannen möchte, 

die Business Data Cloud (BDC), mit der SAP seinen Kunden eine systemübergreifende Harmonisierung und Nutzung von SAP-Daten verspricht, und 

die bereits seit Jahren bekannte Business Technology Platform (BTP) als technisches Fundament der neuen Business Suite und BDC, die eine zentrale Rolle spielen bei der Integration der verschiedenen SAP-Lösungen spielen soll. 

SAP zielt in erster Linie darauf ab, mit ihren Lösungen Prozessketten bei den Kunden möglichst End-to-End zu unterfüttern. Dafür muss der größte deutsche Softwarehersteller allerdings noch weiter an seinem Portfolio feilen. Aus Sicht der Anwender braucht es eine konsistente Architektur, um der avisierten Business Suite zum Erfolg zu verhelfen. „Dafür ist es notwendig, dass SAP die Produktlandschaft kontinuierlich weiter harmonisiert und konsequent einheitliche Standards umsetzt, zum Beispiel bei den Datenmodellen und den Identity- und Security-Services“, fordert DSAG-Technologievorstand Sebastian Westphal. „Denn eine Suite braucht per Definition die nahtlose Integration der darin enthaltenen SAP-Lösungen, einheitliche Betriebsmodelle und auf dem Weg dorthin klare Migrations- und Umsetzungsstrategien.“ 

Neue Business Suite – integriert und flexibel  

Zudem erwarten die DSAG-Mitglieder eine modulare Business-Suite, die sich flexibel an Unternehmensanforderungen anpassen lässt und ohne großen Aufwand und Kosten in übergreifende Unternehmensarchitekturen integrieren lässt, hieß es von Seiten der DSAG. Aus Sicht der Anwendervertretung gilt es noch etliche Punkte zu klären. Das betreffe Westphal zufolge beispielsweise transparente Kostenstrukturen und Vertragsmodelle sowie eine langfristige Unterstützung von Partnerlösungen. „Für eine Business-Suite aus einem Guss ist noch einiges zu tun“, lautet Westphals Fazit. 

SAP baut neue Business Suite in der Cloud

Hinsichtlich der Migrationsunterstützung seitens SAP begrüßt die DSAG, dass der Softwarekonzern sein Anfang 2024 vorgestelltes Programm RISE Migration & Modernization, das eigentlich Ende vergangenen Jahres auslaufen sollte, fortsetzt. Kosten und Zeitaufwand für die Migration in die neue SAP-Welt sollen sich damit deutlich reduzieren lassen, beispielsweise durch Anrechnung auf bisher getätigte Investitionen in SAP-Produkte. Laut DSAG wird SAP das Programm 2025 unter einem anderen Namen fortsetzen. Eine entsprechende Ankündigung sei in den kommenden Wochen zu erwarten. 

SAP will seinen Kunden entgegenkommen. Philipp Herzig, als Chief Technology Officer (CTO) Mitglied im erweiterten Vorstand von SAP, verweist auf den SAP-managed-Ansatz, den der Konzern künftig favorisiert. Dabei will SAP möglichst viel Funktionalität vorkonfiguriert out-of-the-box anbieten. Wenn viel Arbeit, Systeme zusammenzustellen und zu betreiben, beim Kunden liege, sei dies fehleranfällig und verursache meist hohe Kosten. Um das zu vermeiden und die Vorteile von SAP-managed zu heben, müssten die Anwender allerdings die Dinge, die SAP bereits gelöst habe, auch nutzen, schreibt Herzig seinen Kunden ins Hausaufgabenheft. 

Der CTO betont, dass sämtliche von SAP neu entwickelten Funktionen voll integriert im Gesamtsystem seien. Als Beispiel nennt Herzig den AI Hub. Bereits heute könnten Kunden auf etwa 210 eingebettete KI-Funktionen zurückgreifen. 

Business Data Cloud kann ein großer Wurf werden 

Große Hoffnungen setzen die deutschen SAP-Anwender offenbar in die Business Data Cloud, die SAP Anfang des Jahres vorgestellt hatte. DSAG-Mann Westphal betont das hohe Potenzial und spricht vom größten Strategiewechsel SAPs seit S/4HANA. Es geht um nichts weniger, als die in vielen Unternehmen fragmentierten Datenstrukturen zu harmonisieren und damit die Transformation von Bestandslandschaften in eine zukunftsfähige, Cloud-zentrierte Architektur. Vor allem wolle SAP in diesem Zusammenhang auch die betriebliche Verantwortung für die Integration und Bereitstellung einheitlicher Datenmodelle übernehmen. 

SAP müsse die Business Data Cloud allen Kunden zur Verfügung stellen auch für On-premises-Systeme, fordert Sebastian Westphal, DSAG-Fachvorstand Technologie. DSAG

DSAG-Vorstand Westphal spricht in diesem Zusammenhang von einer enormen Herausforderung. Er fordert, dass die BDC allen SAP-Kunden zur Verfügung stehen müsse, „auch für On-Premises-Systeme und unabhängig von kommerziellen Konstrukten wie RISE with SAP und GROW with SAP“. Darüber hinaus werde der Erfolg der BDC auch davon abhängen, wie sich SAPs neue Datenplattform in bestehende Architekturen integrieren lasse und SAP-Daten ohne technische und kommerzielle Restriktionen bereitstelle. Die SAP-Anwender hätten schließlich vielfach schon moderne Data-Lake(house)-Architekturen implementiert. 

DSAG sieht weiterhin Korrekturbedarf 

Aus Sicht der DSAG-Vertreter hat SAP durchaus Potenzial, mit seiner neuen Strategie bei den Kunden zu punkten. Gerade der BDC räumen die Anwendervertreter gute Chancen ein. Allerdings gibt es aus Sicht der DSAG noch einiges zu tun, damit die SAP-Strategie verfängt. Die Forderungen indes sind altbekannt und es wird abzuwarten bleiben, inwieweit sich der Walldorfer Softwarekonzern darauf einlässt. Das sind die Kernforderungen der DSAG: 

SAP muss seine Architektur konsistent und harmonisiert mit einem einheitlichen Betriebsmodell anbieten. 

Alle SAP-Services müssen sich in bereits bestehende Betriebsprozesse bei den Kunden integrieren lassen. 

SAP muss seine Produkte, gerade neue Entwicklungen rund um KI und Datenprodukte, für alle Kunden zugänglich machen – auch On-Premises. 

SAP muss seinen Kunden eine transparente und konsistente Preisstruktur bieten. Außerdem braucht es flexible, transparente Lizenz- und Rabattmodelle mit verständlichen Mengenrabatten. 

SAP muss seinen Kunden eine belastbare Roadmap für mehr Planungssicherheit und eine verlässliche Migrationsstrategie bieten.  

SAP-Kunden fordern Klarheit – neue Strategie, alte Sorgen​ Weiterlesen »

Mit KI lässt sich nicht zum Mond fliegen​

Allgemein

Die NASA warnt vor unkritischem Einsatz generativer KI in sicherheitskritischen Bereichen. shutterstock – Phonlamai Photo IT-Entscheider können sich nicht leisten, das Gleiche zu tun, was viele Führungskräfte in der Chefetage und in der Geschäftsleitung gerne machen: sich auf die Effizienz und Flexibilität von generativer KI (GenAI) konzentrieren – und zu ignorieren, wie oft die Technologie falsche Antworten liefert. Dieser Mangel an Zuverlässigkeit wird hauptsächlich durch Elemente aus einem der folgenden vier Bereiche verursacht: Halluzinationen, bei denen sich GenAI-Tools die Antworten einfach ausdenken; Schlechte Trainingsdaten, das heißt unzureichende, veraltete, verzerrte oder qualitativ minderwertige Daten; Ignorierte Abfrageanweisungen, häufig Folge von Bias in den Trainingsdaten; Nicht beachtete Leitplanken (für eine milliardenschwere Lizenzgebühr sollte man meinen, das Modell würde zumindest versuchen, das zu tun, was ihm aufgetragen wird). Maschinen denken nicht Und doch scheinen viele Unternehmen diese Schwachstellen zu ignorieren, weshalb ein Bericht der US National Aeronautics and Space Administration (NASA) vom März so wichtig ist. Der NASA-Bericht warnt davor, sich bei wichtiger Forschung auf generative KI zu verlassen. Systeme mit unakzeptablem Risiko dürften nicht ohne gründliche Sicherheitsanalysen eingesetzt werden: „Genauso wie wir ein System mit dem Potenzial, Menschen zu töten, nicht in Betrieb nehmen würden, ohne eine angemessene Sicherheitsanalyse und sicherheitstechnische Aktivitäten durchzuführen, sollten wir keine Technologie in den Zulassungsprozess aufnehmen, ohne akzeptable Gründe für die Annahme zu haben, dass sie für die kritischen Aktivitäten der Sicherheitstechnik und Zertifizierung geeignet ist.“ Da Large Language Models (LLMs) rechnen, aber nicht denken, sind sie für sicherheitskritische Anwendungen ungeeignet, so das Fazit der NASA. Luftfahrt als Lehrstück für LLMs In einer wunderbaren Darbietung wissenschaftlicher Logik fragt sich der Bericht – in einem Abschnitt, der für CIOs in der gesamten IT-Nahrungskette zur Pflichtlektüre werden sollte -, wozu GenAI-Modelle wirklich eingesetzt werden könnten. Die NASA-Forscher betonen, dass anstelle empirischer Forschung auch ein praktischer Einsatz von LLMs zur Bewertung ihrer Tauglichkeit möglich wäre – eine Methode, die in der Vergangenheit zum Beispiel in der Luftfahrt genutzt wurde. Aus Sicht der Forscher ergeben sich zwei kritische Fragen: Warum eine neue, unsichere Methode wählen, wenn bewährte Verfahren existieren? Wie ließe sich der Erfolg überhaupt messen? Die Antwort hängt von der spezifischen Anwendung und den akzeptablen Risiken eines möglichen Scheiterns ab. Unzuverlässiges Feedback bei risikobehafteten Anwendungen Der Bericht weist dann auf den logischen Widerspruch bei dieser Art von Experimenten hin: Weniger kritische Systeme werden oft weniger streng überwacht, weshalb es kaum verlässliches Feedback gebe, wie gut neuartige Prozesse funktioniert hätten. Laut der NASA ist es zudem falsch anzunehmen, anzunehmen, „dass diese Art von Rechenmodell weiß, wann die Umstände eine Entscheidung zu einer schlechten Idee machen würden.“ Zudem fehle LLMs das Verständnis für Ausnahmen: Sie erkennen nicht, wann gängige Argumentationsmuster unpassend sind. Trainingsdaten allein reichen nicht aus, um solche Unterschiede zu erfassen, was ihre Zuverlässigkeit in sicherheitskritischen Bereichen weiter infrage stellt. Ein Beispiel: Die ISO 26262 für Kraftfahrzeuge „würden einen LLM nicht darauf vorbereiten, wie ein Mensch zu erkennen, dass das schwimmende James-Bond-Auto eine ganz andere Art von Fahrzeug ist als eine typische Limousine oder ein leichtes Nutzfahrzeug, und dass daher typische Schlussfolgerungen – z.B. über die Angemessenheit von Industriestandard-Wassereindringschutzwerten – nicht anwendbar sein könnten.“ Die gleichen logischen Fragen sollten für jedes Unternehmen gelten. Doch wenn der geschäftskritische Charakter sensibler Arbeiten den Einsatz von GenAI ausschließt – und wenn die geringe Überwachung bei typischen Arbeiten mit geringem Risiko diese zu einer ungeeigneten Umgebung für Experimente macht – wo sollte sie dann eingesetzt werden? Besonnene Führung statt Jagd nach Trends Gartner-Analystin Lauren Kornutick stimmt zu, betont aber, dass CIOs als „Stimme der Vernunft“ agieren müssen, um unrealistische Erwartungen an Technologieprojekte zu vermeiden. Sie sollten Lösungen gezielt vorantreiben und nicht unüberlegt neuen Trends folgen. Zudem müssen sie gemeinsam mit Führungskräften die Risikotoleranz bewerten und dem Vorstand fundierte Entscheidungen über Chancen und Risiken präsentieren. Rowan Curran, Analyst von Forrester, empfiehlt einen taktischeren Ansatz: IT-Entscheidungsträger sollten darauf bestehen, zu Beginn viel stärker in GenAI-Projekte eingebunden werden, um die Risiken zu bewerten und Data-Governance-Kontrollen festzulegen. Curran schlägt weiterhin vor, GenAI-Daten nur als Ausgangspunkt betrachten – nicht für präzise Antworten. Mit anderen Worten: Wer GenAI zu sehr vertraut, könnte jeden Tag des Jahres einen Aprilscherz erleben. 

Mit KI lässt sich nicht zum Mond fliegen​ Die NASA warnt vor unkritischem Einsatz generativer KI in sicherheitskritischen Bereichen.
shutterstock – Phonlamai Photo

IT-Entscheider können sich nicht leisten, das Gleiche zu tun, was viele Führungskräfte in der Chefetage und in der Geschäftsleitung gerne machen: sich auf die Effizienz und Flexibilität von generativer KI (GenAI) konzentrieren – und zu ignorieren, wie oft die Technologie falsche Antworten liefert.

Dieser Mangel an Zuverlässigkeit wird hauptsächlich durch Elemente aus einem der folgenden vier Bereiche verursacht:

Halluzinationen, bei denen sich GenAI-Tools die Antworten einfach ausdenken;

Schlechte Trainingsdaten, das heißt unzureichende, veraltete, verzerrte oder qualitativ minderwertige Daten;

Ignorierte Abfrageanweisungen, häufig Folge von Bias in den Trainingsdaten;

Nicht beachtete Leitplanken (für eine milliardenschwere Lizenzgebühr sollte man meinen, das Modell würde zumindest versuchen, das zu tun, was ihm aufgetragen wird).

Maschinen denken nicht

Und doch scheinen viele Unternehmen diese Schwachstellen zu ignorieren, weshalb ein Bericht der US National Aeronautics and Space Administration (NASA) vom März so wichtig ist.

Der NASA-Bericht warnt davor, sich bei wichtiger Forschung auf generative KI zu verlassen. Systeme mit unakzeptablem Risiko dürften nicht ohne gründliche Sicherheitsanalysen eingesetzt werden:

„Genauso wie wir ein System mit dem Potenzial, Menschen zu töten, nicht in Betrieb nehmen würden, ohne eine angemessene Sicherheitsanalyse und sicherheitstechnische Aktivitäten durchzuführen, sollten wir keine Technologie in den Zulassungsprozess aufnehmen, ohne akzeptable Gründe für die Annahme zu haben, dass sie für die kritischen Aktivitäten der Sicherheitstechnik und Zertifizierung geeignet ist.“

Da Large Language Models (LLMs) rechnen, aber nicht denken, sind sie für sicherheitskritische Anwendungen ungeeignet, so das Fazit der NASA.

Luftfahrt als Lehrstück für LLMs

In einer wunderbaren Darbietung wissenschaftlicher Logik fragt sich der Bericht – in einem Abschnitt, der für CIOs in der gesamten IT-Nahrungskette zur Pflichtlektüre werden sollte -, wozu GenAI-Modelle wirklich eingesetzt werden könnten.

Die NASA-Forscher betonen, dass anstelle empirischer Forschung auch ein praktischer Einsatz von LLMs zur Bewertung ihrer Tauglichkeit möglich wäre – eine Methode, die in der Vergangenheit zum Beispiel in der Luftfahrt genutzt wurde.

Aus Sicht der Forscher ergeben sich zwei kritische Fragen:

Warum eine neue, unsichere Methode wählen, wenn bewährte Verfahren existieren?

Wie ließe sich der Erfolg überhaupt messen?

Die Antwort hängt von der spezifischen Anwendung und den akzeptablen Risiken eines möglichen Scheiterns ab.

Unzuverlässiges Feedback bei risikobehafteten Anwendungen

Der Bericht weist dann auf den logischen Widerspruch bei dieser Art von Experimenten hin: Weniger kritische Systeme werden oft weniger streng überwacht, weshalb es kaum verlässliches Feedback gebe, wie gut neuartige Prozesse funktioniert hätten. Laut der NASA ist es zudem falsch anzunehmen, anzunehmen, „dass diese Art von Rechenmodell weiß, wann die Umstände eine Entscheidung zu einer schlechten Idee machen würden.“

Zudem fehle LLMs das Verständnis für Ausnahmen: Sie erkennen nicht, wann gängige Argumentationsmuster unpassend sind. Trainingsdaten allein reichen nicht aus, um solche Unterschiede zu erfassen, was ihre Zuverlässigkeit in sicherheitskritischen Bereichen weiter infrage stellt.

Ein Beispiel: Die ISO 26262 für Kraftfahrzeuge „würden einen LLM nicht darauf vorbereiten, wie ein Mensch zu erkennen, dass das schwimmende James-Bond-Auto eine ganz andere Art von Fahrzeug ist als eine typische Limousine oder ein leichtes Nutzfahrzeug, und dass daher typische Schlussfolgerungen – z.B. über die Angemessenheit von Industriestandard-Wassereindringschutzwerten – nicht anwendbar sein könnten.“

Die gleichen logischen Fragen sollten für jedes Unternehmen gelten. Doch wenn der geschäftskritische Charakter sensibler Arbeiten den Einsatz von GenAI ausschließt – und wenn die geringe Überwachung bei typischen Arbeiten mit geringem Risiko diese zu einer ungeeigneten Umgebung für Experimente macht – wo sollte sie dann eingesetzt werden?

Besonnene Führung statt Jagd nach Trends

Gartner-Analystin Lauren Kornutick stimmt zu, betont aber, dass CIOs als „Stimme der Vernunft“ agieren müssen, um unrealistische Erwartungen an Technologieprojekte zu vermeiden. Sie sollten Lösungen gezielt vorantreiben und nicht unüberlegt neuen Trends folgen. Zudem müssen sie gemeinsam mit Führungskräften die Risikotoleranz bewerten und dem Vorstand fundierte Entscheidungen über Chancen und Risiken präsentieren.

Rowan Curran, Analyst von Forrester, empfiehlt einen taktischeren Ansatz: IT-Entscheidungsträger sollten darauf bestehen, zu Beginn viel stärker in GenAI-Projekte eingebunden werden, um die Risiken zu bewerten und Data-Governance-Kontrollen festzulegen. Curran schlägt weiterhin vor, GenAI-Daten nur als Ausgangspunkt betrachten – nicht für präzise Antworten.

Mit anderen Worten: Wer GenAI zu sehr vertraut, könnte jeden Tag des Jahres einen Aprilscherz erleben.

Mit KI lässt sich nicht zum Mond fliegen​ Weiterlesen »

Was ist Lean Six Sigma?​

Allgemein

Lean Six Sigma kann Unternehmen dabei unterstützen, schlanker und effizienter zu arbeiten sowie im Sinne ihrer Kunden zu agieren. Foto: Mark2481 – shutterstock.com Lean Six Sigma kombiniert Lean Management mit Six Sigma, um das Qualitätsmanagement zu verbessern und Prozesse zu beschleunigen. Das Ziel: Unternehmen sollen Aufgaben schneller und effizienter lösen, ohne die Qualität zu beeinträchtigen, während sie gleichzeitig Mehrwert für die Kunden schaffen. Lean Six Sigma – Definition Lean Six Sigma bringt die Vorzüge der Lean-Methoden mit der Fehler- und Varianzreduzierung von Six Sigma zusammen. So entsteht eine leistungsstarke Methodik, mit der Unternehmen Zeit- und Budgetpläne besser einhalten können. Lean Six Sigma ermöglicht Prozesse, die den Betrieb und seine Mitarbeiter unterstützen und gleichzeitig Geld sparen, Mehrwerte schaffen und die Produktivität verbessern. Der Fokus von Lean Six Sigma liegt darauf, Probleme in Geschäftsprozessen (Ausschuss = Waste) zu reduzieren und einen kontinuierlichen Flow zwischen den einzelnen Prozessschritten herzustellen. Lean Six Sigma kategorisiert acht Arten von “Waste”: Fehler, Überproduktion, Wartezeiten, nicht genutzte Talente, Transport, Inventar, Bewegung und zusätzliche Prozesse. Reduziert ein Unternehmen diese Arten von Ausschuss, lassen sich Probleme schneller lösen, ineffiziente Abläufe auflösen und die allgemeine Produktivität steigern. Lean Six Sigma – Prinzipien Sowohl die Lean-Management-Ansätze als auch Six Sigma folgen eigenen Grundsätzen. Lean Six Sigma kombiniert Elemente aus beiden Frameworks zu einem eigenen Set von Prinzipien. Laut der Purdue University sind die fünf Hauptprinzipien von Lean Six Sigma: Im Sinne des Kunden arbeiten: Stellen Sie sicher, dass alle durchgeführten Änderungen dem Kunden zugutekommen und den höchsten Qualitätsstandards gemäß den Marktanforderungen genügen. Problem identifizieren und fokussieren: Lassen Sie sich nicht von anderen Problemen ablenken, während Sie die Prozesse in Ihrem Unternehmen optimieren. Bestimmen Sie das Problem, das Sie angehen wollen, konzentrieren Sie sich auf diesen Geschäftsbereich und wenden Sie sich erst dann anderen Themen zu, wenn Sie das Hauptproblem gelöst haben. Abweichungen und Engpässe beseitigen: Optimieren Sie Prozesse, indem Sie Wege zur Fehlerreduzierung auftun. Die Straffung Ihrer Prozesse trägt zur Verbesserung von Effizienz und Qualität bei. Klar kommunizieren und weiterbilden: Lean Six Sigma zu implementieren, kann ein Gefühl des Umbruchs im Unternehmen hervorrufen. Stellen Sie sicher, dass alle Mitarbeiter entsprechend geschult und auf die Umsetzung von Lean Six Sigma vorbereitet sind, um das Risiko eines Projektausfalls zu verringern. Flexibel und verantwortungsbewusst agieren: Wenn Sie mit Lean Six Sigma starten, müssen Sie Ihren Ansatz wahrscheinlich im Laufe der Zeit verfeinern und Ihre Strategie entsprechend nachjustieren. Es gibt keinen Sinn, an einem Plan festzuhalten, der nicht aufgegangen ist. Sie tun also gut daran, während des Prozesses flexibel zu bleiben, wenn Sie das bestmögliche Ergebnis erzielen wollen. Lean Six Sigma – Belts Lean Six Sigma verwendet eine ähnliche Struktur wie Six Sigma, um Erfahrungslevel und Know-how einer bestimmten Person zusammenzufassen. Während Sie sich auf der Lean-Six-Sigma-Zertifizierungsleiter nach oben arbeiten, erhalten Sie verschiedene “Belts”, bevor Sie zum Champion werden: White Belt: Auf der Einstiegsebene melden Sie Prozessprobleme an Green und Black Belts. Als White Belt sollten Sie die Grundlagen von Lean Six Sigma verstehen, einschließlich der gängigen Terminologie und der grundlegenden Struktur und Ziele der Methodik. Yellow Belt: Sie berichten weiterhin an Green und Black Belts. Als Yellow Belt müssen Sie die Prinzipien von Lean Six Sigma beherrschen. Sie nehmen auch an Projekten teil und erhalten weitere Schulungen. Green Belt: Lean-Six-Sigma-Projekte zu initiieren und zu managen, ist Aufgabe von Green Belts. Sie sollen White und Yellow Belts schulen. Auf dieser Stufe sollten Sie über ein detailliertes Verständnis der Lean-Six-Sigma-Methodik verfügen. Black Belt: Über fortgeschrittene Lean-Six-Sigma-Kenntnisse verfügen Sie als Black Belt – und berichten an Master Black Belts. Sie werden als Mentor, Coach und Projektleiter für Lean-Six-Sigma-Projekte angesehen. Master Black Belt: Für die Implementierung und den damit einhergehenden Kulturwandel sind Master Black Belts verantwortlich. Sie kollaborieren direkt mit der Geschäftsleitung und sollen Lean-Six-Sigma-Projekte coachen, betreuen, überwachen und leiten. Champion: Die höchste Stufe auf der Lean-Six-Sigma-Leiter ist für Führungskräfte gedacht, die dabei helfen, die richtigen Projekte auszuwählen und anschließend sicherstellen, dass die Teams den Support erhalten, den Sie für den Erfolg benötigen. Lean Six Sigma – Gehalt & Zertifizierung Eine Lean-Six-Sigma-Zertifizierung kann eine wertvolle Investition in Ihre Karriere sein. Auf seiner Webseite führt das Six Sigma Council die Durchschnitts-Jahresgehälter für die jeweiligen Lean-Six-Sigma-Zertifizierungen auf: White Belt: 39.802 Euro Yellow Belt: 61.598 Euro Green Belt: 80.551 Euro Black Belt: 90.028 bis 104.243 Euro Master Black Belt: 94.767 bis 127.935 Euro Größere Unternehmen verfügen in der Regel über ein internes System zur Zertifizierung der Lean-Six-Sigma-Belts ihrer Mitarbeiter. Mehrere Hochschulen, Universitäten und unabhängige Organisationen bieten ebenfalls Zertifizierungskurse und Schulungen für Lean Six Sigma an – zum Beispiel: Akademie der Ruhr-Universität Bochum TU München Universität Marburg TÜV Rheinland Akademie LinkedIn Learning Udemy IASSC Lean Six Sigma Zertifizierung The Council for Six Sigma Certification Q-Learning Deutsche Gesellschaft für Qualität The Lean Six Sigma Company Lean Six Sigma – Tools & Software Lean-Six-Sigma-Tools konzentrieren sich in der Regel auf die Rationalisierung von Prozessen, die Verbesserung der Zusammenarbeit und die Datenanalyse. Zu den gängigen Lean Six Sigma-Tools gehören: DMAIC, Datenerfassungsplan, Streudiagramme, SIPOC, Stakeholder-Analyse, Value Stream Mapping, Flow, Fishbone-Diagramme, Regressionsanalyse, Projektmanagement, Visual Workplace, statistische Prozesskontrolle und die Stimme des Kunden. Geht es darum, Lean Six Sigma effektiv umzusetzen, können diverse Software-Tools helfen, die zur Unterstützung der Methodik entwickelt wurden. Diese Lösungen konzentrieren sich in der Regel auf Daten-Reportings und -analysen sowie auf die Collaboration. Zu den populären Softwarelösungen im Bereich Lean Six Sigma gehören unter anderem: ARIS Six Sigma KaiNexus Kanbanize KPI Fire Microsoft Visio Minitab Oracle Crystal Ball Process Street RCASE R Project SDI Tools SigmaXL SMartView Statgraphic TeamPage Telelogic System Architect Lean und Six Sigma – Integration Laut der American Society for Quality (ASQ) beginnen die meisten erfolgreichen Implementierungen von Lean Six Sigma mit dem Lean-Ansatz. Dieser steigert die Effizienz und gestaltet den Arbeitsplatz so effizient wie möglich, indem er Verschwendung reduziert und Value Stream Maps einsetzt, um den Durchsatz zu optimieren. Danach könnten weiterhin bestehende Prozessprobleme mit “technischer ausgerichteten, Six-Sigma-Statistik-Tools” angegangen werden. Die Grundidee von Lean Six Sigma ist es, das Beste der beiden Methoden Lean und Six Sigma zu kombinieren, um eine runde Strategie zur Verbesserung der IT-Prozesse zu entwickeln. Beide Methoden weisen für sich genommen Schwachstellen auf – in Kombination ist es jedoch einfacher, diese Lücken zu schließen. Laut dem Business Process Management Institute (BPMI) beseitigt Six Sigma zwar Fehler, zeigt Unternehmen aber nicht, wie sie den Prozessfluss optimieren können. Ähnlich urteilt das BPMI über Lean, das eine oberflächliche Sicht auf Prozessdefekte biete, “aber die fortschrittlichen, statistischen Werkzeuge vermissen lässt, die oft erforderlich sind, um die Prozessfähigkeiten zu erreichen, die für echtes ‘Lean’ erforderlich sind.” Bei der Integration und Umsetzung von Lean und Six Sigma sieht die Strategie jedes Unternehmens anders aus. Laut der ASQ verwendet Lean weniger technische Werkzeuge, Arbeitsplatzorganisation und visuelle Kontrollen. Six Sigma hingegen stützt sich auf Tools wie die statistische Datenanalyse, experimentelle Designs und Hypothesentests. Während einige Unternehmen mit den Lean-Prinzipien besser fahren, werden andere tiefer in Six-Sigma-Analysen einsteigen, um ihre Ziele zu erreichen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Lean Six Sigma?​ Lean Six Sigma kann Unternehmen dabei unterstützen, schlanker und effizienter zu arbeiten sowie im Sinne ihrer Kunden zu agieren.
Foto: Mark2481 – shutterstock.com

Lean Six Sigma kombiniert Lean Management mit Six Sigma, um das Qualitätsmanagement zu verbessern und Prozesse zu beschleunigen. Das Ziel: Unternehmen sollen Aufgaben schneller und effizienter lösen, ohne die Qualität zu beeinträchtigen, während sie gleichzeitig Mehrwert für die Kunden schaffen.

Lean Six Sigma – Definition

Lean Six Sigma bringt die Vorzüge der Lean-Methoden mit der Fehler- und Varianzreduzierung von Six Sigma zusammen. So entsteht eine leistungsstarke Methodik, mit der Unternehmen Zeit- und Budgetpläne besser einhalten können. Lean Six Sigma ermöglicht Prozesse, die den Betrieb und seine Mitarbeiter unterstützen und gleichzeitig Geld sparen, Mehrwerte schaffen und die Produktivität verbessern.

Der Fokus von Lean Six Sigma liegt darauf, Probleme in Geschäftsprozessen (Ausschuss = Waste) zu reduzieren und einen kontinuierlichen Flow zwischen den einzelnen Prozessschritten herzustellen. Lean Six Sigma kategorisiert acht Arten von “Waste”:

Fehler,

Überproduktion,

Wartezeiten,

nicht genutzte Talente,

Transport,

Inventar,

Bewegung und

zusätzliche Prozesse.

Reduziert ein Unternehmen diese Arten von Ausschuss, lassen sich Probleme schneller lösen, ineffiziente Abläufe auflösen und die allgemeine Produktivität steigern.

Lean Six Sigma – Prinzipien

Sowohl die Lean-Management-Ansätze als auch Six Sigma folgen eigenen Grundsätzen. Lean Six Sigma kombiniert Elemente aus beiden Frameworks zu einem eigenen Set von Prinzipien. Laut der Purdue University sind die fünf Hauptprinzipien von Lean Six Sigma:

Im Sinne des Kunden arbeiten: Stellen Sie sicher, dass alle durchgeführten Änderungen dem Kunden zugutekommen und den höchsten Qualitätsstandards gemäß den Marktanforderungen genügen.

Problem identifizieren und fokussieren: Lassen Sie sich nicht von anderen Problemen ablenken, während Sie die Prozesse in Ihrem Unternehmen optimieren. Bestimmen Sie das Problem, das Sie angehen wollen, konzentrieren Sie sich auf diesen Geschäftsbereich und wenden Sie sich erst dann anderen Themen zu, wenn Sie das Hauptproblem gelöst haben.

Abweichungen und Engpässe beseitigen: Optimieren Sie Prozesse, indem Sie Wege zur Fehlerreduzierung auftun. Die Straffung Ihrer Prozesse trägt zur Verbesserung von Effizienz und Qualität bei.

Klar kommunizieren und weiterbilden: Lean Six Sigma zu implementieren, kann ein Gefühl des Umbruchs im Unternehmen hervorrufen. Stellen Sie sicher, dass alle Mitarbeiter entsprechend geschult und auf die Umsetzung von Lean Six Sigma vorbereitet sind, um das Risiko eines Projektausfalls zu verringern.

Flexibel und verantwortungsbewusst agieren: Wenn Sie mit Lean Six Sigma starten, müssen Sie Ihren Ansatz wahrscheinlich im Laufe der Zeit verfeinern und Ihre Strategie entsprechend nachjustieren. Es gibt keinen Sinn, an einem Plan festzuhalten, der nicht aufgegangen ist. Sie tun also gut daran, während des Prozesses flexibel zu bleiben, wenn Sie das bestmögliche Ergebnis erzielen wollen.

Lean Six Sigma – Belts

Lean Six Sigma verwendet eine ähnliche Struktur wie Six Sigma, um Erfahrungslevel und Know-how einer bestimmten Person zusammenzufassen. Während Sie sich auf der Lean-Six-Sigma-Zertifizierungsleiter nach oben arbeiten, erhalten Sie verschiedene “Belts”, bevor Sie zum Champion werden:

White Belt: Auf der Einstiegsebene melden Sie Prozessprobleme an Green und Black Belts. Als White Belt sollten Sie die Grundlagen von Lean Six Sigma verstehen, einschließlich der gängigen Terminologie und der grundlegenden Struktur und Ziele der Methodik.

Yellow Belt: Sie berichten weiterhin an Green und Black Belts. Als Yellow Belt müssen Sie die Prinzipien von Lean Six Sigma beherrschen. Sie nehmen auch an Projekten teil und erhalten weitere Schulungen.

Green Belt: Lean-Six-Sigma-Projekte zu initiieren und zu managen, ist Aufgabe von Green Belts. Sie sollen White und Yellow Belts schulen. Auf dieser Stufe sollten Sie über ein detailliertes Verständnis der Lean-Six-Sigma-Methodik verfügen.

Black Belt: Über fortgeschrittene Lean-Six-Sigma-Kenntnisse verfügen Sie als Black Belt – und berichten an Master Black Belts. Sie werden als Mentor, Coach und Projektleiter für Lean-Six-Sigma-Projekte angesehen.

Master Black Belt: Für die Implementierung und den damit einhergehenden Kulturwandel sind Master Black Belts verantwortlich. Sie kollaborieren direkt mit der Geschäftsleitung und sollen Lean-Six-Sigma-Projekte coachen, betreuen, überwachen und leiten.

Champion: Die höchste Stufe auf der Lean-Six-Sigma-Leiter ist für Führungskräfte gedacht, die dabei helfen, die richtigen Projekte auszuwählen und anschließend sicherstellen, dass die Teams den Support erhalten, den Sie für den Erfolg benötigen.

Lean Six Sigma – Gehalt & Zertifizierung

Eine Lean-Six-Sigma-Zertifizierung kann eine wertvolle Investition in Ihre Karriere sein. Auf seiner Webseite führt das Six Sigma Council die Durchschnitts-Jahresgehälter für die jeweiligen Lean-Six-Sigma-Zertifizierungen auf:

White Belt: 39.802 Euro

Yellow Belt: 61.598 Euro

Green Belt: 80.551 Euro

Black Belt: 90.028 bis 104.243 Euro

Master Black Belt: 94.767 bis 127.935 Euro

Größere Unternehmen verfügen in der Regel über ein internes System zur Zertifizierung der Lean-Six-Sigma-Belts ihrer Mitarbeiter. Mehrere Hochschulen, Universitäten und unabhängige Organisationen bieten ebenfalls Zertifizierungskurse und Schulungen für Lean Six Sigma an – zum Beispiel:

Akademie der Ruhr-Universität Bochum

TU München

Universität Marburg

TÜV Rheinland Akademie

LinkedIn Learning

Udemy

IASSC Lean Six Sigma Zertifizierung

The Council for Six Sigma Certification

Q-Learning

Deutsche Gesellschaft für Qualität

The Lean Six Sigma Company

Lean Six Sigma – Tools & Software

Lean-Six-Sigma-Tools konzentrieren sich in der Regel auf die Rationalisierung von Prozessen, die Verbesserung der Zusammenarbeit und die Datenanalyse. Zu den gängigen Lean Six Sigma-Tools gehören:

DMAIC,

Datenerfassungsplan,

Streudiagramme,

SIPOC,

Stakeholder-Analyse,

Value Stream Mapping,

Flow,

Fishbone-Diagramme,

Regressionsanalyse,

Projektmanagement,

Visual Workplace,

statistische Prozesskontrolle und

die Stimme des Kunden.

Geht es darum, Lean Six Sigma effektiv umzusetzen, können diverse Software-Tools helfen, die zur Unterstützung der Methodik entwickelt wurden. Diese Lösungen konzentrieren sich in der Regel auf Daten-Reportings und -analysen sowie auf die Collaboration. Zu den populären Softwarelösungen im Bereich Lean Six Sigma gehören unter anderem:

ARIS Six Sigma

KaiNexus

Kanbanize

KPI Fire

Microsoft Visio

Minitab

Oracle Crystal Ball

Process Street

RCASE

R Project

SDI Tools

SigmaXL

SMartView

Statgraphic

TeamPage

Telelogic System Architect

Lean und Six Sigma – Integration

Laut der American Society for Quality (ASQ) beginnen die meisten erfolgreichen Implementierungen von Lean Six Sigma mit dem Lean-Ansatz. Dieser steigert die Effizienz und gestaltet den Arbeitsplatz so effizient wie möglich, indem er Verschwendung reduziert und Value Stream Maps einsetzt, um den Durchsatz zu optimieren. Danach könnten weiterhin bestehende Prozessprobleme mit “technischer ausgerichteten, Six-Sigma-Statistik-Tools” angegangen werden.

Die Grundidee von Lean Six Sigma ist es, das Beste der beiden Methoden Lean und Six Sigma zu kombinieren, um eine runde Strategie zur Verbesserung der IT-Prozesse zu entwickeln. Beide Methoden weisen für sich genommen Schwachstellen auf – in Kombination ist es jedoch einfacher, diese Lücken zu schließen. Laut dem Business Process Management Institute (BPMI) beseitigt Six Sigma zwar Fehler, zeigt Unternehmen aber nicht, wie sie den Prozessfluss optimieren können. Ähnlich urteilt das BPMI über Lean, das eine oberflächliche Sicht auf Prozessdefekte biete, “aber die fortschrittlichen, statistischen Werkzeuge vermissen lässt, die oft erforderlich sind, um die Prozessfähigkeiten zu erreichen, die für echtes ‘Lean’ erforderlich sind.”

Bei der Integration und Umsetzung von Lean und Six Sigma sieht die Strategie jedes Unternehmens anders aus. Laut der ASQ verwendet Lean weniger technische Werkzeuge, Arbeitsplatzorganisation und visuelle Kontrollen. Six Sigma hingegen stützt sich auf Tools wie die statistische Datenanalyse, experimentelle Designs und Hypothesentests. Während einige Unternehmen mit den Lean-Prinzipien besser fahren, werden andere tiefer in Six-Sigma-Analysen einsteigen, um ihre Ziele zu erreichen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Lean Six Sigma?​ Weiterlesen »

Was ist Laterale Führung?​

Allgemein

Definition Methoden Einsatzbeispiele Erfolgsfaktoren Die laterale Führung gibt dem Steuermann (Führenden) eines Projektes keine klassischen Führungselemente wie Belohnung an die Hand. Die Selbstverantwortung der Team-Mitglieder wird groß geschrieben. Foto: Altrendo Images – shutterstock.comZur Effizienzsteigerung in Unternehmen gewinnt die Möglichkeit der lateralen Führung zunehmend an Bedeutung. Laterale Führung bezeichnet die wirksame Einflussnahme auf gleichrangige Mitarbeiter zur Erreichung von definierten Zielen. Im Fokus stehen dabei Motivation durch Kompetenzerwerb und Zielerreichung, sowie Macht aus Wissen und Netzwerken. Laterale Führung – Definition Laterale Führung bezeichnet die Steuerung von Mitarbeitern ohne Nutzung von herkömmlichen hierarchischen Macht- und Entscheidungsstrukturen. Das klassische vertikale Modell zwischen Vorgesetzten und Mitarbeitern mit disziplinarischen Führungsinstrumenten kommt dabei nicht zur Anwendung.Vielmehr steht die horizontale Dimension im Blickfeld. Laterale Führung wird von der Seite praktiziert, was auch die Begriffsbildung anzeigt: das Adjektiv lateral ist vom lateinischen Begriff latus (d.h. Seite) abgeleitet. Steuernde Akteure an der Seite sind gleichrangige Mitarbeiter mit Fachverantwortung und definierten Zielen, denen die üblichen Steuerungsmöglichkeiten eines Vorgesetzten nicht zur Verfügung stehen.Keine Bestandteile von lateraler Führung sind somit:Weisungen,formale Beurteilungen,Weiterbildungs- und Entwicklungspläne,Gehaltssteigerungen,Sonderzahlungen, usw.Im Gegenteil, die Kunst der lateralen Führung besteht darin, ohne diese etablierten Führungsmittel die gesteckten Ziele eines Geschäftsauftrags zu erreichen. Zentrale Fragen lateraler Führung sind:Wie kann Einfluss auf die beteiligten Mitarbeiter zur Realisierung von Zielen genommen werden?Welche Aspekte sind bei lateraler Führung relevant?Welche Arbeitsweisen sind wirksam?Laterale FührungsmethodenIn der Literatur sind Verständigungs-, Vertrauens- und Machtprozesse die vorherrschenden Kernbestandteile der lateralen Führung (z. B. Kühl, Schnelle & Schnelle, 2004). Diese Prozesse ergänzen sich und werden je nach Situation unterschiedlich gewichtet. Verständigung bezeichnet alle Formen verbaler Kommunikation über die gesamte Wertschöpfungskette eines Unternehmens. Bedeutsam sind dabei die Haltungen und Interessen des jeweiligen Gegenübers. Zur Verständnisbildung wird Empathie an beiden Enden der Kommunikation, d.h. von dem Sender und den Empfänger einer Nachricht, beansprucht. Aktives Zuhören ist dabei eine wirksame Methode. Die verständnisbildende Kommunikation ist eine Voraussetzung zur Vertrauensbildung zwischen den Beteiligten. Es ist ein subjektiver und emotionaler Prozess. Kommunikation und Vertrauensprozesse sind zwar wichtig, jedoch nicht typisch für die laterale Führung. In konventionellen, hierarchischen Führungsstrukturen sind diese nicht minder wesentlich. Insofern sind weitere Aspekte und Methoden zu betrachten, vornehmlich formlose Macht und intrinsische Motivation.Formlose Macht entsteht allein aus persönlichen Attributen, im Gegensatz zu den Befugnissen und organisatorischen Kompetenzen mit denen klassische, disziplinare Vorgesetzte für deren Führungsrolle ausgestattet werden. Formlose Macht ist komplex und abstrakt. Sie entsteht durch persönliche Verbindungen in realen sozialen Netzwerken, über die wichtige informelle Nachrichten fließen. Derartige Informationsquellen beruhen auf etablierten und langfristigen Kommunikationskanälen und Vertrauensverhältnissen zwischen einflussreichen Personen. Diese Informationsnetzwerke sind exklusiv und ein Mittel zur Steuerung von Interessen.Das wohlbekannte Sprichwort Wissen ist Macht bringt den zweiten zentralen Aspekt lateraler Führung auf den Punkt. Mit Fachkenntnissen erzielt man fachliche Führung. Der persönliche Wissensvorsprung zählt. Nur mit fundierter, tiefgehender Expertise und der nötigen Weitsicht (der berühmte Blick über den Tellerrand) kann man inhaltlich argumentieren, überzeugen und die Richtung vorgeben. Wer über fundiertes Wissen verfügt und dieses überzeugend überträgt, leitet fachlich und gewinnt Respekt, Anerkennung und das Vertrauen anderer Mitarbeiter. Unter dieser Voraussetzung, folgen die Mitarbeiter dem fachlichen Führer. Laterale Führung wird durch die Anerkennung fachlicher Kompetenz des Führenden von “Folgenden” erst möglich. Dieses Phänomen ist in modernen sozialen Medien mit den Rollen Influencer und Follower populär geworden. Entscheidend ist hierbei die Anerkennung des Meinungsführers durch die Follower, auch wenn Sachkenntnis und Fachverstand in sozialen Medien nebensächlich sein können.Die Förderung der intrinsischen Motivation ist ein weiterer essentieller Ansatz für laterale Führung, der jedoch in der Literatur zur lateralen Führung weitgehend übersehen wurde. Intrinsische Motivation wird nicht von externen Quellen (z. B. Gehalt, andere monetäre Anreize, Position) gespeist, sondern entsteht vornehmlich aus dem persönlichen Interesse an Herausforderungen und Arbeitsinhalten, sowie der aktiven und strukturierten Einbeziehung des Einzelnen in die Arbeitsgruppe. Mitarbeiter spüren Lerneffekte und erfahren die Erweiterung eigener Kompetenzen, die die individuelle Motivation weiter antreiben. Kompetenzen werden durch das Bearbeiten fachlicher Aufgaben und durch methodisches Lernen in der Gruppe erworben. Motivation entsteht durch Erfolgserlebnisse aus Problemlösungen und Zielerreichung. Voraussetzung ist jedoch, dass der jeweilige Mitarbeiter gemäß seines persönlichen Kompetenzprofils eingesetzt wird, die übertragenen Aufgaben dürfen nicht zur Über- oder Unterforderung führen.Erfolgsfaktoren der Lateralen FührungZur Ausschöpfung des Leistungsvermögens von Mitarbeitern bedarf es gleichzeitiger hoher Aufgaben- und Mitarbeiterorientierung. Der lateral Führende befindet sich also in einem zweidimensionalen Spannungsfeld, sie/er muss individuelle und gemeinsame Anstrengungen zur Zielerreichung antreiben und dabei die zwischenmenschlichen Beziehungen angemessen berücksichtigen. Das Führen mit Zielen und das Management der Team-Motivation sind dabei ausschlaggebende Erfolgsfaktoren.Führen mit Zielen (engl. Management by Objectives) ist eine bewährte und wirkungsvolle Möglichkeit zur Entfachung intrinsischer Motivation. Verantwortungen für definierte Arbeitsergebnisse werden an Mitarbeiter übertragen. Diese können in Form von Projektaufträgen, Arbeitspaketen oder Sprints dargestellt werden. Entscheidend ist jedoch, dass die Ziele klar beschrieben und realisierbar sind. Die Ziele müssen vom verantwortlichen Mitarbeiter und dem Team akzeptiert werden. Es ist ebenso wichtig, nicht nur die Verantwortungen zuzuweisen, sondern auch Rechte und Befugnisse zu delegieren. Somit schafft man Freiräume. Die geführten Mitarbeiter erhalten das Gefühl etwas bewegen zu können. Sichtbare bzw. spürbare Erfolge steigern die Motivation im weiteren Verlauf.Es ist wichtig, dass die Aktionsräume der lateral geführten Mitarbeiter erhalten bleiben. Lateral Führende müssen die Mitarbeiter auf dem Weg zum Ziel begleiten, stets Hilfsbereitschaft signalisieren und fachliche Unterstützung anbieten. Lateral Führende dürfen jedoch kein Mikromanagement betreiben und sich nicht als detailverliebte Controller aufführen, sondern müssen den geführten Mitarbeitern die Freiräume lassen und sich auf deren Ergebnisse konzentrieren.Der Aufbau und der Erhalt der Motivation der Team-Mitarbeiter ist eine besondere Herausforderung, wenn die Ziele anspruchsvoll gesteckt wurden und eine hohe Leistung von den Mitarbeitern abgerufen wird. Der lateral Führende hat die Gruppe so zu organisieren, dass eine Gleichrangigkeit unter den Mitarbeitern empfunden wird. Alle Mitarbeiter agieren auf ein und derselben Ebene, trotz unterschiedlicher Rollen und Aufgaben – der Teamgedanke soll im Vordergrund stehen. Es ist auf ein gesundes Arbeitsklima im Team zu achten, das von gegenseitigem Respekt und einer sachorientierten Arbeitsweise geprägt ist. Rang- oder Positionierungswettbewerb soll vermieden werden. Sobald sich derartige Konflikte im Team erkennen lassen, hat der laterale Führer gegenzusteuern.Persönliche Gespräche mit den Beteiligten helfen die Ursachen von Auseinandersetzungen frühzeitig zu identifizieren, um noch rechtzeitig Gegenmaßnahmen einleiten zu können, zum Beispiel durch Reorganisation der Arbeitsgruppe. Änderungen der Arbeitsinhalte unter den Team-Mitarbeitern sorgen für Abwechslung und halten das Interesse hoch.Zur Motivation von leistungsorientierten Mitarbeitern steht den lateralen Führern ein sehr einfaches und doch höchstwirksames Mittel zur Verfügung: Das Loben. Ein einfaches, ausgesprochenes Lob hat erheblichen Einfluss auf die Leistungsbereitschaft und den Kooperationswillen im Arbeitsalltag. Der Ausdruck von Anerkennung kann Mitarbeiter regelrecht beflügeln, während die Ignoranz von guten Mitarbeiterleistungen zu Frustration oder zu innerer Kündigung führen kann.Laterale Führungsweisen müssen situativ angepasst werdenVerschiedene Mitarbeiter zeigen unterschiedliche Grade an Motivation und Qualifikation. Die Führungsweise muss diesen individuellen Voraussetzungen angepasst werden. Im Idealfall sind die zu führenden Mitarbeiter hochmotiviert und sehr gut ausgebildet, der laterale Führer kann dann komplette Arbeitspakete delegieren und dazu Handlungsräume freigeben (Situation 1).Sind die Mitarbeiter noch unmotiviert für die vorgesehenen Aufgaben, obwohl sie ausgeprägte Fähigkeiten dazu mitbringen, muss der laterale Führer die Mitarbeiter enger in die Entscheidungsprozesse und die Arbeitsorganisation mit einbeziehen (Situation 2). Weisen die Mitarbeiter Fähigkeitsdefizite für die avisierten Ziele und Arbeiten auf, ist der Motivationsgrad für die Führungsweise entscheidend. Bei hoher Motivation (Situation 3) soll der laterale Führer die Meinungen der Mitarbeiter aktiv anhören, auch wenn diese Standpunkte nicht in die Entscheidungen unbedingt einfließen müssen. Ist neben dem geringen Fähigkeitsgrad auch die Motivierung der Mitarbeiter nicht ausreichend (Situation 4), bleibt nur noch die Möglichkeit des Anweisens. Laterale Führung ist dann nicht mehr möglich.Die Kunst der lateralen Führung besteht im Erkennen der jeweils zutreffenden Situation, sodass die geeignete Führungsweise angesetzt wird. Einflussmöglichkeiten bestehen vornehmlich in der Mitarbeitermotivierung durch den lateralen Führer. Individuelle Fähigkeiten hingegen, können nicht kurzfristig entwickelt werden; sie bedürfen einer strategischen persönlichen Entwicklungsplanung, die außerhalb der Einflussnahme lateraler Führung liegen. Die Linienorganisation und Human Resources sind dabei gefragt. Sie müssen die Mitarbeiter für die vorgesehene Ziele und Aufgaben qualifizieren.Situative Anwendung lateraler Führungsweisen Foto: Christof GellweilerEinsatzbeispiele für Laterale FührungFür verschiedene Aufgaben können Arbeitsgruppen über Abteilungs- oder Unternehmensgrenzen temporär zusammengesetzt werden:Task Forces, eingesetzt von der Unternehmensleitung, zur Lösung eines organisatorischen oder technischen Problems, das eskaliert ist.Selbstorganisierte Teams für kontinuierliche Qualitätsverbesserungen Netzwerkartige Formen der kreativen Zusammenarbeit für Prozess- oder Produkt-Innovationen.Bei der agilen Softwareentwicklung werden Rollen mit klaren Aufgaben und Verantwortungen zugeteilt, jedoch sind diese nicht hierarchisch strukturiert. Man versteht sich als gleichrangige Mitglieder eines Entwicklungs-Teams. Bei Scrum erfolgt die Steuerung größtenteils über Zielsetzungen (ähnlich dem Ansatz Management by Objectives), denen bestimmte Zeitabschnitte (sogenannten Sprints) zugeordnet werden.In Projekten mit Matrix-Organisationen ist laterale Führung ebenfalls von Bedeutung. Der Projektmanager steht zwar in der Projektstruktur über den Projektmitarbeitern, ihm fehlen jedoch die disziplinarischen Führungsmittel. Die Mitarbeiter werden für das Projekt aus Linienfunktionen abgeordnet und bleiben ihren Linienvorgesetzten disziplinarisch unterstellt. Die fachliche Führung obliegt dem Projektmanager und beinhaltet Zielsetzung/-verfolgung und Motivierung. KernaussagenLaterale Führung erfolgt horizontal von gleichrangigen Mitarbeitern; Instrumente disziplinarischer Führung stehen nicht zur Verfügung.Bei der lateralen Führung wird Macht aus Wissen und informellen Netzwerken geschöpft.Intrinsische Motivation entsteht durch Kompetenzerwerb, Erfolge durch Zielerreichung und deren Anerkennung durch Lob.Das Führen mit Zielen ist eine wirksame Möglichkeit zur Steuerung und zur Motivierung der Mitarbeiter.Gleichrangigkeit im Team und der Teamgedanke sind bei der lateralen Führung zentral.Laterale Führung muss den individuellen Fähigkeiten und Motivationen eines Mitarbeiters angepasst werden (situative Führung).Hinweis: Aus Gründen der Lesbarkeit und der Verständlichkeit kommt hier das generische Maskulinum, das alle Geschlechter gleichermaßen einbezieht, zur Anwendung. (bw) 

Was ist Laterale Führung?​ Definition

Methoden

Einsatzbeispiele

Erfolgsfaktoren

Die laterale Führung gibt dem Steuermann (Führenden) eines Projektes keine klassischen Führungselemente wie Belohnung an die Hand. Die Selbstverantwortung der Team-Mitglieder wird groß geschrieben.
Foto: Altrendo Images – shutterstock.comZur Effizienzsteigerung in Unternehmen gewinnt die Möglichkeit der lateralen Führung zunehmend an Bedeutung. Laterale Führung bezeichnet die wirksame Einflussnahme auf gleichrangige Mitarbeiter zur Erreichung von definierten Zielen. Im Fokus stehen dabei Motivation durch Kompetenzerwerb und Zielerreichung, sowie Macht aus Wissen und Netzwerken. Laterale Führung – Definition Laterale Führung bezeichnet die Steuerung von Mitarbeitern ohne Nutzung von herkömmlichen hierarchischen Macht- und Entscheidungsstrukturen. Das klassische vertikale Modell zwischen Vorgesetzten und Mitarbeitern mit disziplinarischen Führungsinstrumenten kommt dabei nicht zur Anwendung.Vielmehr steht die horizontale Dimension im Blickfeld. Laterale Führung wird von der Seite praktiziert, was auch die Begriffsbildung anzeigt: das Adjektiv lateral ist vom lateinischen Begriff latus (d.h. Seite) abgeleitet. Steuernde Akteure an der Seite sind gleichrangige Mitarbeiter mit Fachverantwortung und definierten Zielen, denen die üblichen Steuerungsmöglichkeiten eines Vorgesetzten nicht zur Verfügung stehen.Keine Bestandteile von lateraler Führung sind somit:Weisungen,formale Beurteilungen,Weiterbildungs- und Entwicklungspläne,Gehaltssteigerungen,Sonderzahlungen, usw.Im Gegenteil, die Kunst der lateralen Führung besteht darin, ohne diese etablierten Führungsmittel die gesteckten Ziele eines Geschäftsauftrags zu erreichen. Zentrale Fragen lateraler Führung sind:Wie kann Einfluss auf die beteiligten Mitarbeiter zur Realisierung von Zielen genommen werden?Welche Aspekte sind bei lateraler Führung relevant?Welche Arbeitsweisen sind wirksam?Laterale FührungsmethodenIn der Literatur sind Verständigungs-, Vertrauens- und Machtprozesse die vorherrschenden Kernbestandteile der lateralen Führung (z. B. Kühl, Schnelle & Schnelle, 2004). Diese Prozesse ergänzen sich und werden je nach Situation unterschiedlich gewichtet. Verständigung bezeichnet alle Formen verbaler Kommunikation über die gesamte Wertschöpfungskette eines Unternehmens. Bedeutsam sind dabei die Haltungen und Interessen des jeweiligen Gegenübers. Zur Verständnisbildung wird Empathie an beiden Enden der Kommunikation, d.h. von dem Sender und den Empfänger einer Nachricht, beansprucht. Aktives Zuhören ist dabei eine wirksame Methode. Die verständnisbildende Kommunikation ist eine Voraussetzung zur Vertrauensbildung zwischen den Beteiligten. Es ist ein subjektiver und emotionaler Prozess. Kommunikation und Vertrauensprozesse sind zwar wichtig, jedoch nicht typisch für die laterale Führung. In konventionellen, hierarchischen Führungsstrukturen sind diese nicht minder wesentlich. Insofern sind weitere Aspekte und Methoden zu betrachten, vornehmlich formlose Macht und intrinsische Motivation.Formlose Macht entsteht allein aus persönlichen Attributen, im Gegensatz zu den Befugnissen und organisatorischen Kompetenzen mit denen klassische, disziplinare Vorgesetzte für deren Führungsrolle ausgestattet werden. Formlose Macht ist komplex und abstrakt. Sie entsteht durch persönliche Verbindungen in realen sozialen Netzwerken, über die wichtige informelle Nachrichten fließen. Derartige Informationsquellen beruhen auf etablierten und langfristigen Kommunikationskanälen und Vertrauensverhältnissen zwischen einflussreichen Personen. Diese Informationsnetzwerke sind exklusiv und ein Mittel zur Steuerung von Interessen.Das wohlbekannte Sprichwort Wissen ist Macht bringt den zweiten zentralen Aspekt lateraler Führung auf den Punkt. Mit Fachkenntnissen erzielt man fachliche Führung. Der persönliche Wissensvorsprung zählt. Nur mit fundierter, tiefgehender Expertise und der nötigen Weitsicht (der berühmte Blick über den Tellerrand) kann man inhaltlich argumentieren, überzeugen und die Richtung vorgeben. Wer über fundiertes Wissen verfügt und dieses überzeugend überträgt, leitet fachlich und gewinnt Respekt, Anerkennung und das Vertrauen anderer Mitarbeiter. Unter dieser Voraussetzung, folgen die Mitarbeiter dem fachlichen Führer. Laterale Führung wird durch die Anerkennung fachlicher Kompetenz des Führenden von “Folgenden” erst möglich. Dieses Phänomen ist in modernen sozialen Medien mit den Rollen Influencer und Follower populär geworden. Entscheidend ist hierbei die Anerkennung des Meinungsführers durch die Follower, auch wenn Sachkenntnis und Fachverstand in sozialen Medien nebensächlich sein können.Die Förderung der intrinsischen Motivation ist ein weiterer essentieller Ansatz für laterale Führung, der jedoch in der Literatur zur lateralen Führung weitgehend übersehen wurde. Intrinsische Motivation wird nicht von externen Quellen (z. B. Gehalt, andere monetäre Anreize, Position) gespeist, sondern entsteht vornehmlich aus dem persönlichen Interesse an Herausforderungen und Arbeitsinhalten, sowie der aktiven und strukturierten Einbeziehung des Einzelnen in die Arbeitsgruppe. Mitarbeiter spüren Lerneffekte und erfahren die Erweiterung eigener Kompetenzen, die die individuelle Motivation weiter antreiben. Kompetenzen werden durch das Bearbeiten fachlicher Aufgaben und durch methodisches Lernen in der Gruppe erworben. Motivation entsteht durch Erfolgserlebnisse aus Problemlösungen und Zielerreichung. Voraussetzung ist jedoch, dass der jeweilige Mitarbeiter gemäß seines persönlichen Kompetenzprofils eingesetzt wird, die übertragenen Aufgaben dürfen nicht zur Über- oder Unterforderung führen.Erfolgsfaktoren der Lateralen FührungZur Ausschöpfung des Leistungsvermögens von Mitarbeitern bedarf es gleichzeitiger hoher Aufgaben- und Mitarbeiterorientierung. Der lateral Führende befindet sich also in einem zweidimensionalen Spannungsfeld, sie/er muss individuelle und gemeinsame Anstrengungen zur Zielerreichung antreiben und dabei die zwischenmenschlichen Beziehungen angemessen berücksichtigen. Das Führen mit Zielen und das Management der Team-Motivation sind dabei ausschlaggebende Erfolgsfaktoren.Führen mit Zielen (engl. Management by Objectives) ist eine bewährte und wirkungsvolle Möglichkeit zur Entfachung intrinsischer Motivation. Verantwortungen für definierte Arbeitsergebnisse werden an Mitarbeiter übertragen. Diese können in Form von Projektaufträgen, Arbeitspaketen oder Sprints dargestellt werden. Entscheidend ist jedoch, dass die Ziele klar beschrieben und realisierbar sind. Die Ziele müssen vom verantwortlichen Mitarbeiter und dem Team akzeptiert werden. Es ist ebenso wichtig, nicht nur die Verantwortungen zuzuweisen, sondern auch Rechte und Befugnisse zu delegieren. Somit schafft man Freiräume. Die geführten Mitarbeiter erhalten das Gefühl etwas bewegen zu können. Sichtbare bzw. spürbare Erfolge steigern die Motivation im weiteren Verlauf.Es ist wichtig, dass die Aktionsräume der lateral geführten Mitarbeiter erhalten bleiben. Lateral Führende müssen die Mitarbeiter auf dem Weg zum Ziel begleiten, stets Hilfsbereitschaft signalisieren und fachliche Unterstützung anbieten. Lateral Führende dürfen jedoch kein Mikromanagement betreiben und sich nicht als detailverliebte Controller aufführen, sondern müssen den geführten Mitarbeitern die Freiräume lassen und sich auf deren Ergebnisse konzentrieren.Der Aufbau und der Erhalt der Motivation der Team-Mitarbeiter ist eine besondere Herausforderung, wenn die Ziele anspruchsvoll gesteckt wurden und eine hohe Leistung von den Mitarbeitern abgerufen wird. Der lateral Führende hat die Gruppe so zu organisieren, dass eine Gleichrangigkeit unter den Mitarbeitern empfunden wird. Alle Mitarbeiter agieren auf ein und derselben Ebene, trotz unterschiedlicher Rollen und Aufgaben – der Teamgedanke soll im Vordergrund stehen. Es ist auf ein gesundes Arbeitsklima im Team zu achten, das von gegenseitigem Respekt und einer sachorientierten Arbeitsweise geprägt ist. Rang- oder Positionierungswettbewerb soll vermieden werden. Sobald sich derartige Konflikte im Team erkennen lassen, hat der laterale Führer gegenzusteuern.Persönliche Gespräche mit den Beteiligten helfen die Ursachen von Auseinandersetzungen frühzeitig zu identifizieren, um noch rechtzeitig Gegenmaßnahmen einleiten zu können, zum Beispiel durch Reorganisation der Arbeitsgruppe. Änderungen der Arbeitsinhalte unter den Team-Mitarbeitern sorgen für Abwechslung und halten das Interesse hoch.Zur Motivation von leistungsorientierten Mitarbeitern steht den lateralen Führern ein sehr einfaches und doch höchstwirksames Mittel zur Verfügung: Das Loben. Ein einfaches, ausgesprochenes Lob hat erheblichen Einfluss auf die Leistungsbereitschaft und den Kooperationswillen im Arbeitsalltag. Der Ausdruck von Anerkennung kann Mitarbeiter regelrecht beflügeln, während die Ignoranz von guten Mitarbeiterleistungen zu Frustration oder zu innerer Kündigung führen kann.Laterale Führungsweisen müssen situativ angepasst werdenVerschiedene Mitarbeiter zeigen unterschiedliche Grade an Motivation und Qualifikation. Die Führungsweise muss diesen individuellen Voraussetzungen angepasst werden. Im Idealfall sind die zu führenden Mitarbeiter hochmotiviert und sehr gut ausgebildet, der laterale Führer kann dann komplette Arbeitspakete delegieren und dazu Handlungsräume freigeben (Situation 1).Sind die Mitarbeiter noch unmotiviert für die vorgesehenen Aufgaben, obwohl sie ausgeprägte Fähigkeiten dazu mitbringen, muss der laterale Führer die Mitarbeiter enger in die Entscheidungsprozesse und die Arbeitsorganisation mit einbeziehen (Situation 2). Weisen die Mitarbeiter Fähigkeitsdefizite für die avisierten Ziele und Arbeiten auf, ist der Motivationsgrad für die Führungsweise entscheidend. Bei hoher Motivation (Situation 3) soll der laterale Führer die Meinungen der Mitarbeiter aktiv anhören, auch wenn diese Standpunkte nicht in die Entscheidungen unbedingt einfließen müssen. Ist neben dem geringen Fähigkeitsgrad auch die Motivierung der Mitarbeiter nicht ausreichend (Situation 4), bleibt nur noch die Möglichkeit des Anweisens. Laterale Führung ist dann nicht mehr möglich.Die Kunst der lateralen Führung besteht im Erkennen der jeweils zutreffenden Situation, sodass die geeignete Führungsweise angesetzt wird. Einflussmöglichkeiten bestehen vornehmlich in der Mitarbeitermotivierung durch den lateralen Führer. Individuelle Fähigkeiten hingegen, können nicht kurzfristig entwickelt werden; sie bedürfen einer strategischen persönlichen Entwicklungsplanung, die außerhalb der Einflussnahme lateraler Führung liegen. Die Linienorganisation und Human Resources sind dabei gefragt. Sie müssen die Mitarbeiter für die vorgesehene Ziele und Aufgaben qualifizieren.Situative Anwendung lateraler Führungsweisen
Foto: Christof GellweilerEinsatzbeispiele für Laterale FührungFür verschiedene Aufgaben können Arbeitsgruppen über Abteilungs- oder Unternehmensgrenzen temporär zusammengesetzt werden:Task Forces, eingesetzt von der Unternehmensleitung, zur Lösung eines organisatorischen oder technischen Problems, das eskaliert ist.Selbstorganisierte Teams für kontinuierliche Qualitätsverbesserungen Netzwerkartige Formen der kreativen Zusammenarbeit für Prozess- oder Produkt-Innovationen.Bei der agilen Softwareentwicklung werden Rollen mit klaren Aufgaben und Verantwortungen zugeteilt, jedoch sind diese nicht hierarchisch strukturiert. Man versteht sich als gleichrangige Mitglieder eines Entwicklungs-Teams. Bei Scrum erfolgt die Steuerung größtenteils über Zielsetzungen (ähnlich dem Ansatz Management by Objectives), denen bestimmte Zeitabschnitte (sogenannten Sprints) zugeordnet werden.In Projekten mit Matrix-Organisationen ist laterale Führung ebenfalls von Bedeutung. Der Projektmanager steht zwar in der Projektstruktur über den Projektmitarbeitern, ihm fehlen jedoch die disziplinarischen Führungsmittel. Die Mitarbeiter werden für das Projekt aus Linienfunktionen abgeordnet und bleiben ihren Linienvorgesetzten disziplinarisch unterstellt. Die fachliche Führung obliegt dem Projektmanager und beinhaltet Zielsetzung/-verfolgung und Motivierung. KernaussagenLaterale Führung erfolgt horizontal von gleichrangigen Mitarbeitern; Instrumente disziplinarischer Führung stehen nicht zur Verfügung.Bei der lateralen Führung wird Macht aus Wissen und informellen Netzwerken geschöpft.Intrinsische Motivation entsteht durch Kompetenzerwerb, Erfolge durch Zielerreichung und deren Anerkennung durch Lob.Das Führen mit Zielen ist eine wirksame Möglichkeit zur Steuerung und zur Motivierung der Mitarbeiter.Gleichrangigkeit im Team und der Teamgedanke sind bei der lateralen Führung zentral.Laterale Führung muss den individuellen Fähigkeiten und Motivationen eines Mitarbeiters angepasst werden (situative Führung).Hinweis: Aus Gründen der Lesbarkeit und der Verständlichkeit kommt hier das generische Maskulinum, das alle Geschlechter gleichermaßen einbezieht, zur Anwendung. (bw)

Was ist Laterale Führung?​ Weiterlesen »

Gewerbetreibender versus Freiberufler – Was bin ich und was darf ich sein?​

Allgemein

Sehen die Finanzbeamten in der Tätigkeit keine Anhaltspunkte für eine Freiberuflichkeit, kann das Finanzamt eine Nachzahlung der Gewerbesteuer veranlassen. PIXAS -Shutterstock 2489429343 Grundsätzlich unterliegen Selbständige, die mit ihrer Unternehmung Gewinne erzielen möchten, der Gewerbeordnung. Es gibt aber Ausnahmen für bestimmte Berufsgruppen und Tätigkeiten. Freiberufler wie Künstler, Journalisten, Ärzte, Rechtsanwälte oder Steuerberater sind von der Pflicht ausgenommen, ein Gewerbe anzumelden. Ebenso Selbständige, die in der Urproduktion arbeiten, also in der Land- und Forstwirtschaft, der Fischerei oder dem Bergbau. Kapitalgesellschaften hingegen werden vom Finanzamt per se immer als Gewerbe eingestuft, ganz unabhängig von der konkreten Tätigkeit.   Was zunächst eindeutig klingt, ist bei näherer Betrachtung gar nicht so klar. Die Abgrenzungen verschwimmen häufig, denn nicht nur Künstler und Journalisten können als freiberuflich gelten. Eine freiberufliche Tätigkeit definiert sich nämlich auch durch ihr Tätigkeitsprofil. Sie ist demnach eine selbständig ausgeübte wissenschaftliche, künstlerische, schriftstellerische, unterrichtende oder erzieherische Tätigkeit, die sich durch Professionalität, Gemeinwohlpflicht, Selbstkontrolle und Eigenverantwortlichkeit auszeichnet.     Ein IT-Berater ist nicht immer ein Freelancer In der IT herrscht generell große Unsicherheit. Der Grund: Die Rechtslage ist nicht eindeutig und es gibt viele Einzelfallentscheidungen, die sich von Finanzamt zu Finanzamt unterscheiden. Gemäß der Rechtsprechung des Bundesfinanzhofs (BFH) muss ein IT-Berater das Diplom einer der Katalogberufe besitzen, um als Freiberufler im Tätigkeitsfeld der Informatik anerkannt zu werden: Dies sind Ingenieure oder beratende Betriebswirte.   Ohne einen solchen Abschluss muss der IT-Spezialist plausibel nachweisen, dass er die Kenntnisse anderweitig erworben hat. Beim Nachweis ist zu beachten, dass die Tätigkeit möglichst “ingenieurmäßig” sein muss. Das Bundeswirtschaftsministerium schreibt dazu: „Eine freiberufliche Tätigkeit im Sinne von Paragraf 18 Absatz 1 Nr. 1 Satz 2 EstG übt auch aus, wer einem dem Ingenieurberuf ähnlichen Beruf nachgeht. Der ähnliche Beruf muss dem Beruf des Ingenieurs sowohl hinsichtlich der erforderlichen Berufsausbildung als auch hinsichtlich der tatsächlich entfalteten Tätigkeit im Wesentlichen gleichen (ständige Rechtsprechung, vgl. nur BFH-Urteil vom 9. Februar 2006 IV R 27/05, BFH/NV 2006, 1270, m.w.N.).“ Bundesfinanzhof: Urteil vom 22.09.2009 – VIII R 79/06.  Ein weiteres Kriterium für eine Freiberuflichkeit im Bereich der IT ist der Arbeitsbereich. Die IHK formuliert dazu: “Von der freiberuflichen Tätigkeit umfasst sind jedoch nur die Beratung und die Anfertigung von Entwürfen oder Gutachten. Die Herstellung, Bearbeitung und der Vertrieb von Sachgütern sind hingegen gewerbliche Tätigkeiten und müssen beim Gewerbeamt angemeldet werden.”  Betriebsprüfer nehmen diese Abgrenzungsschwierigkeiten immer häufiger als Anlass für Prüfungen. Ein Beraterwechsel, ein Umzug oder eine Steuererklärung sind Auslöser für Prüfverfahren.     Vorbereitung ist alles Am Ende entscheidet das Finanzamt, sollte es zu einer Betriebsprüfung kommen. Und das kann böse enden, wenn die Finanzbeamten in der Tätigkeit keine Anhaltspunkte für eine Freiberuflichkeit sehen. Dann muss die Gewerbesteuer nachgezahlt werden. Wer also glaubt, eine freiberufliche Tätigkeit auszuüben, muss dies dem Finanzamt belegen, zum Beispiel durch Arbeitsproben.   Ein Austausch mit dem Steuerberater oder einem Rechtsanwalt kann hier auch helfen und Sicherheit bringen. Tätigkeitsbeschreibungen sollten Hand und Fuß haben, sich an Formulierungen orientieren und nicht selbst geschrieben werden. Wichtig ist es, sich bereits im Vorfeld zu informieren, wie die Chancen stehen, freiberuflich eingestuft zu werden. Hierbei ist es wichtig zu prüfen, wie die Ausbildungssituation aussieht und welche Tätigkeit auch konkret nachgewiesen werden kann.  

Gewerbetreibender versus Freiberufler – Was bin ich und was darf ich sein?​ Sehen die Finanzbeamten in der Tätigkeit keine Anhaltspunkte für eine Freiberuflichkeit, kann das Finanzamt eine Nachzahlung der Gewerbesteuer veranlassen. PIXAS -Shutterstock 2489429343

Grundsätzlich unterliegen Selbständige, die mit ihrer Unternehmung Gewinne erzielen möchten, der Gewerbeordnung. Es gibt aber Ausnahmen für bestimmte Berufsgruppen und Tätigkeiten. Freiberufler wie Künstler, Journalisten, Ärzte, Rechtsanwälte oder Steuerberater sind von der Pflicht ausgenommen, ein Gewerbe anzumelden. Ebenso Selbständige, die in der Urproduktion arbeiten, also in der Land- und Forstwirtschaft, der Fischerei oder dem Bergbau. Kapitalgesellschaften hingegen werden vom Finanzamt per se immer als Gewerbe eingestuft, ganz unabhängig von der konkreten Tätigkeit.  

Was zunächst eindeutig klingt, ist bei näherer Betrachtung gar nicht so klar. Die Abgrenzungen verschwimmen häufig, denn nicht nur Künstler und Journalisten können als freiberuflich gelten. Eine freiberufliche Tätigkeit definiert sich nämlich auch durch ihr Tätigkeitsprofil. Sie ist demnach eine selbständig ausgeübte wissenschaftliche, künstlerische, schriftstellerische, unterrichtende oder erzieherische Tätigkeit, die sich durch Professionalität, Gemeinwohlpflicht, Selbstkontrolle und Eigenverantwortlichkeit auszeichnet.  

 

Ein IT-Berater ist nicht immer ein Freelancer

In der IT herrscht generell große Unsicherheit. Der Grund: Die Rechtslage ist nicht eindeutig und es gibt viele Einzelfallentscheidungen, die sich von Finanzamt zu Finanzamt unterscheiden. Gemäß der Rechtsprechung des Bundesfinanzhofs (BFH) muss ein IT-Berater das Diplom einer der Katalogberufe besitzen, um als Freiberufler im Tätigkeitsfeld der Informatik anerkannt zu werden: Dies sind Ingenieure oder beratende Betriebswirte.  

Ohne einen solchen Abschluss muss der IT-Spezialist plausibel nachweisen, dass er die Kenntnisse anderweitig erworben hat. Beim Nachweis ist zu beachten, dass die Tätigkeit möglichst “ingenieurmäßig” sein muss. Das Bundeswirtschaftsministerium schreibt dazu: „Eine freiberufliche Tätigkeit im Sinne von Paragraf 18 Absatz 1 Nr. 1 Satz 2 EstG übt auch aus, wer einem dem Ingenieurberuf ähnlichen Beruf nachgeht. Der ähnliche Beruf muss dem Beruf des Ingenieurs sowohl hinsichtlich der erforderlichen Berufsausbildung als auch hinsichtlich der tatsächlich entfalteten Tätigkeit im Wesentlichen gleichen (ständige Rechtsprechung, vgl. nur BFH-Urteil vom 9. Februar 2006 IV R 27/05, BFH/NV 2006, 1270, m.w.N.).“ Bundesfinanzhof: Urteil vom 22.09.2009 – VIII R 79/06. 

Ein weiteres Kriterium für eine Freiberuflichkeit im Bereich der IT ist der Arbeitsbereich. Die IHK formuliert dazu: “Von der freiberuflichen Tätigkeit umfasst sind jedoch nur die Beratung und die Anfertigung von Entwürfen oder Gutachten. Die Herstellung, Bearbeitung und der Vertrieb von Sachgütern sind hingegen gewerbliche Tätigkeiten und müssen beim Gewerbeamt angemeldet werden.” 

Betriebsprüfer nehmen diese Abgrenzungsschwierigkeiten immer häufiger als Anlass für Prüfungen. Ein Beraterwechsel, ein Umzug oder eine Steuererklärung sind Auslöser für Prüfverfahren.  

 

Vorbereitung ist alles

Am Ende entscheidet das Finanzamt, sollte es zu einer Betriebsprüfung kommen. Und das kann böse enden, wenn die Finanzbeamten in der Tätigkeit keine Anhaltspunkte für eine Freiberuflichkeit sehen. Dann muss die Gewerbesteuer nachgezahlt werden. Wer also glaubt, eine freiberufliche Tätigkeit auszuüben, muss dies dem Finanzamt belegen, zum Beispiel durch Arbeitsproben.  

Ein Austausch mit dem Steuerberater oder einem Rechtsanwalt kann hier auch helfen und Sicherheit bringen. Tätigkeitsbeschreibungen sollten Hand und Fuß haben, sich an Formulierungen orientieren und nicht selbst geschrieben werden. Wichtig ist es, sich bereits im Vorfeld zu informieren, wie die Chancen stehen, freiberuflich eingestuft zu werden. Hierbei ist es wichtig zu prüfen, wie die Ausbildungssituation aussieht und welche Tätigkeit auch konkret nachgewiesen werden kann. 

Gewerbetreibender versus Freiberufler – Was bin ich und was darf ich sein?​ Weiterlesen »

Die besten KI-Tools für R​

Allgemein

TippaPatt | shutterstock.com Das Generative-AI-Ökosystem von R kann zwar nicht mit dem von Python mithalten, hat sich aber in den vergangenen Monaten entscheidend weiterentwickelt. Waren in diesem Bereich zunächst hauptsächlich Tools mit ChatGPT-Bezug angesagt, ist inzwischen mehr nativer Support für die Anbieter von Large Language Models (LLMs) verfügbar. Zudem hat sich auch die Bandbreite der GenAI-Tasks, die Entwickler mit R bewältigen können, erweitert. In diesem Artikel stellen wir Ihnen fünf der besten Tools vor, um große Sprachmodelle in R-Projekte einzubinden – sowohl lokal als auch über APIs. ellmer Eines der wichtigsten Tools, um LLMs in R-Workflows zu integrieren, ist ellmer. Das Projekt ist beim Open-Source-Unternehmen Posit entstanden und wird von Entwicklern gepflegt, die sich bereits mit anderen populären R-Packages einen Namen gemacht haben (etwa ggplot2 und das Web-Framework Shiny R). Darüber hinaus erfreut sich dieses Tool auch einer lebendigen und begeisterten Community:   {ellmer} is the best #LLM interface in any language, in my opinion, and I’d encourage you to give the new PDF support a try. Learn more: ellmer.tidyverse.org/[image or embed]— Kyle Walker (@kylewalker.bsky.social) 14. Februar 2025 um 22:41 Geht’s ans Eingemachte, ist ellmer gut dokumentiert und unterstützt eine ganze Reihe von KI-Funktionen, -Anwendungsfällen und -Plattformen. Zu letzteren zählen beispielsweise:   OpenAI, Azure OpenAI, Anthropic, Google Gemini, AWS Bedrock, Snowflake Cortex, Perplexity AI und Ollama (für lokale Modelle). Das ellmer-Package installieren Sie entweder wie üblich über CRAN – oder testen die Development-Version mit pak::pak(„tidyverse/ellmer“). Um ellmer zu nutzen, erstellen Sie zunächst ein Chat-Objekt mit Funktionen wie chat_openai() oder chat_claude(). Dieses verwenden Sie, um mit dem Large Language Model zu interagieren. Um herauszufinden, wie Sie Ihren API-Key speichern können (falls Sie kein lokales Modell verwenden), konsultieren Sie die Hilfedatei der Chat-Funktion. Ein grundlegendes OpenAI-Chat-Objekt ließe sich zum Beispiel folgendermaßen erstellen: library(ellmer) my_chat Im Fall von Anthropics Claude würde die Syntax lauten: my_chat_claude System-Prompts sind zwar nicht unbedingt erforderlich, für themenspezifische Tasks aber empfehlenswert. Ebenso wenig ist es nötig, ein Modell für alle Chat-Funktionen einzustellen. Trotzdem ist es eine gute Idee, um nicht von einem veralteten oder sehr teuren Modell überrascht zu werden.   Anfang 2025 scheint Anthropics Claude Sonnet 3.5 speziell für R-Code am besten geeignet – ersten Berichten zufolge soll das kommende Modell Sonnet 3.7 im Allgemeinen sogar noch besser performen. Da sich die LLM-Landschaft rasant weiterentwickelt, gilt es jedoch, sich diesbezüglich informiert zu halten. Ein Tipp an dieser Stelle: OpenAIs o3-mini kann nach unserer Erfahrung ebenfalls sehr gut R-Code schreiben und ist günstiger als Sonnet. Allerdings reagiert es als Reasoning-Modell womöglich nicht so schnell wie das Anthropic-LLM. Falls Sie andere Parameter für das Modell festlegen möchten (inklusive der Temperature), nutzen Sie dazu api_arg. Das erfordert eine benannte Liste wie: my_chat Eine höhere Temperature wird oft mit „kreativerem“ Output verbunden, eine niedrigere mit präziserem. Dabei ist zu beachten, dass die Temperature in den Chatfunktionen von ellmer kein explizites Argument darstellt. Deshalb müssen Sie es innerhalb der api_arg-Liste definieren. Eine Auflistung der verfügbaren Argumente und gültigen Wertebereiche für Temperature (und weitere Einstellungen) finden Sie in der API-Dokumentation des jeweiligen Modellanbieters. Um die Chat-Objekte zu verwenden, kann ellmer: eine Chatbot-Schnittstelle bieten (entweder in der R-Konsole oder im Browser), Ergebnisse in Textform streamen und speichern, oder nur die Abfrageergebnissen speichern – ohne zu streamen. In der R-Konsole öffnet live_console(my_chat) ein Chat-Interface. In einem Browser nutzen Sie dazu live_browser(my_chat). In beiden Fällen werden die Antworten gestreamt. Der „Interactive Method Call“ von ellmer nutzt eine Syntax wie my_chat$chat(), um sowohl gestreamte Antworten anzuzeigen, als auch, um das Ergebnis in Textform zu speichern: my_results Wenn Sie my_chat erneut verwenden, um eine weitere Frage zu stellen, wird der Chatverlauf mit den vorherigen Fragen und Antworten beibehalten, so dass Sie auf diese Bezug nehmen können – wie im folgenden Beispiel: my_results2 Die nachfolgende Chat-Abfrage enthält eine Historie früherer Fragen und Antworten: Sharon Machlis Wenn Sie Ellmer-Code nicht interaktiv innerhalb eines R-Skripts als Teil eines größeren Workflows nutzen, empfiehlt die Dokumentation, Ihren Code in einer R-Funktion zu „wrappen“: my_function In diesem Fall ist my_answer ein einfacher Text-String. Das ellmer-Package enthält unter anderem auch Dokumentationen für: Tool/Function Calling, Prompt Design, oder Datenextraktion. Wir haben es in Kombination mit dem shinychat-Package genutzt, um einer Shiny-Applikation Chatbot-Funktionen hinzuzufügen. In diesem öffentlichen GitHub-Gist finden Sie Beispielcode, um eine einfache Shiny-Chat-Oberfläche für lokale Ollama-LLMs zu erstellen (inklusive Dropdown-Menü für die Modellauswahl und einer Schaltfläche, um Chats herunterzuladen). tidyllm Dieses Tool hat deutsche Wurzeln: tidyllm wurde von Eduard Brüll, Forscher beim ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung, entwickelt. In Sachen Funktionen weisen tidyllm und das eben besprochene ellmer Überschneidungsbereiche auf. Mit Blick auf die Benutzeroberfläche und die Designphilosophie gibt es jedoch wesentliche Unterschiede zwischen diesen beiden KI-Tools für R-Entwickler. Denn tidyllm kombiniert „Verben“ – die Art von Anfrage, die Sie stellen möchten, wie chat() oder send_batch() – mit Anbietern. Zu diesen Requests gehören Text Embeddings, Chats und Batch Processing. Aktuell unterstützt das tidyllm-Tool die KI-Modelle von: Anthropic (Claude), OpenAI, Google (Gemini), Mistral, Groq (nicht Grok), Perplexity, Azure OpenAI, sowie lokale Ollama-Modelle. Falls Sie einen Cloud-Anbieter nutzen, müssen Sie zuvor Ihren API-Key einrichten – entweder mit sys.setenv() oder über Ihre .Renviron-Datei. Eine einfache Chat-Abfrage beginnt in der Regel damit, mit der llm_message(„your query here“)-Funktion ein einfaches LLMMessage-Objekt zu erstellen und dieses an eine chat()-Funktion weiterzuleiten: library(tidyllm) my_conversation chat(openai(.model = “gpt-4o-mini”, .temperature = 0, .stream = FALSE)) Dabei kann llm_message() auch eine .system_prompt-Nachricht enthalten. Der zurückgegebene Wert von my_conversation ist lediglich ein Text-String mit der Antwort des Modells, die sich leicht ausgeben lässt. Darauf können Sie aufbauen, indem Sie eine weitere Nachricht und einen Chat hinzufügen, wodurch die ursprüngliche Abfrage und Antwort im Speicher bleiben: # Keep history of last message my_conversation2 llm_message(“How would I rotate labels on the x-axis 90 degrees?”) |> chat(openai(.model = “gpt-4o-mini”, .temperature = 0, .stream = FALSE)) print(my_conversation2) Um Metadaten aus den Ergebnissen zu extrahieren, nutzen Sie: result_metadata Das gibt einen „Tibble“ (spezieller Data Frame) zurück, der Spalten aufweist für: model, timestamp, prompt_tokens, completion_tokens, total_tokens, sowie api_specific-Listen mit weiteren Token-Details. Sie können auch die Benutzernachricht extrahieren, die die Antwort mit get_user_message(my_conversation2) generiert hat. Darüber hinaus unterstützt llm_message() auch Modelle, die Bild-Uploads mit dem .imagefile-Argument ermöglichen – sowie Fragen zu PDF-Dateien mit dem .pdf-Argument (vorausgesetzt, das R-Package pdftools ist installiert). Wir haben beispielsweise das tidyllm PDF-Referenzhandbuch von CRAN heruntergeladen und in einem Unterverzeichnis gespeichert (tidyllm.pdf). Anschließend konnten wir dazu eine Frage stellen: my_conversation3 chat(openai(.model = “gpt-4o”, .temperature = .1, .stream = FALSE)) print(my_conversation3) Message History: system: You are a helpful assistant ————————————————————– user: What are 10 interesting tasks I can perform with the tidyllm package? -> Attached Media Files: tidyllm.pdf ————————————————————– assistant: The tidyllm package provides a tidy interface for integrating large language model (LLM) APIs into R workflows. Here are 10 interesting tasks you can perform with the tidyllm package: Chat with Language Models: Use the chat() function to send messages to various language models like OpenAI, Claude, or Mistral, and receive responses. This can be useful for generating text, answering questions, or creating conversational agents. Generate Text Embeddings: Use the embed() function to generate embeddings for text data. This can be useful for tasks like semantic search, clustering, or as input features for machine learning models. Batch Processing: Use functions like send_batch(), fetch_batch(), and check_batch() to send multiple requests in a batch to an LLM API, retrieve results, and check the status of batch processing. This is useful for processing large datasets efficiently. Multimodal Interactions: Create LLMMessage objects that include text and media (such as images or PDFs) for multimodal processing. This can be useful for tasks that require understanding both text and visual content. Interactive Message History: Maintain a conversation history using LLMMessage objects, allowing for context-aware interactions with language models. This is useful for building chatbots or virtual assistants that need to remember previous interactions. Custom JSON Schemas: Define custom JSON schemas using tidyllm_schema() to enforce structured outputs from language models. This is useful for ensuring that the responses from the models adhere to a specific format. Transcribe Audio Files: Use the groq_transcribe() function to transcribe audio files using the Groq transcription API. This can be useful for converting spoken content into text. File Management with Gemini API: Use functions like gemini_upload_file(), gemini_list_files(), and gemini_delete_file() to manage files in the Gemini API. This is useful for tasks that involve uploading, listing, or deleting files as part of the workflow. Rate Limit Information: Use rate_limit_info() to retrieve the current rate limit information for APIs. This is useful for managing API usage and avoiding hitting rate limits. Stream Responses: Enable streaming of responses from language models using the .stream parameter in functions like chat() or ollama_chat(). This is useful for real-time applications where you want to display the response as it is being generated. These tasks demonstrate the versatility of the tidyllm package in integrating LLMs into various data workflows and applications. Hinweis: Der obenstehende Code dient lediglich dazu, die Paketsyntax und -funktionen zu veranschaulichen. Es handelt es sich dabei nicht um eine effiziente Methode, große Dokumente abzufragen (dazu später mehr). Ein abschließender Tipp: Wenn Sie keine sofortigen Antworten benötigen, können Sie die Kosten auch senken, indem Sie auf Batch Processing setzen. Diverse Anbieter bieten für diesen Fall großzügige Rabatte an. Die Funktion tidyllm send_batch() sendet eine solchen Batch-Processing-Request, check_batch() überprüft den Status und fetch_batch() ruft die Ergebnisse ab. Weitere Details dazu finden Sie auf der offiziellen Webseite von tidyllm. batchLLM Entwickler Dylan Pieper hat batchLLM kürzlich zugunsten eines neuen Pakets namens hellmer eingestellt – es funktioniert weiterhin, erhält aber keine neuen Funktionen mehr. Wie der Name bereits nahelegt, ist batchLLM darauf ausgelegt, Prompts über mehrere Ziele hinweg auszuführen. Etwas konkreter ausgedrückt, ermöglicht das Tool, einen Prompt über eine Spalte in einem Data Frame auszuführen – und einen Data Frame zurückzuerhalten, der eine neue Spalte mit Antworten enthält. Das ist eine praktische Möglichkeit, um LLMs in R-Workflows einzubinden – etwa für Tasks wie: Sentiment-Analysen, Klassifizierung und Labeling oder Tagging. Das Tool protokolliert auch Batches und Metadaten, ermöglicht es, Ergebnisse verschiedener LLMs zu vergleichen und verfügt über integrierte Verzögerungen für das API-Rate-Limiting. Darüber hinaus enthält batchLLM auch eine integrierte Shiny-App, die eine praktische Weboberfläche zur Verfügung stellt: Sharon Machlis Diese starten Sie mit batchLLM_shiny() (oder als RStudio-Add-in). Eine Webdemo der Applikation finden Sie hier. Zusätzliche LLM-Tools für R-Entwickler Nach dem Blick auf die drei wichtigsten Tools, um große Sprachmodelle in R-Programme und -Skripte zu integrieren, lohnt sich auch ein Blick auf die folgenden beiden Werkzeuge. Sie fokussieren auf spezifische Tasks, wenn LLMs mit R genutzt werden: ragnar extrahiert Informationen aus großen Datenmengen, während tidyprompt Skripte für allgemeine Prompts erstellt. ragnar Retrieval Augmented Generation (RAG) ist eine der nützlichsten Anwendungen für LLMs. Für Python und JavaScript stehen entsprechend viele RAG-Packages und -Tools zur Verfügung. Nicht so für R – zumindest, wenn sie darüber hinausgehen sollen, Embeddings zu generieren. Das ragnar-Package (das sich derzeit noch in Entwicklung befindet) zielt jedoch darauf ab, „eine Komplettlösung mit sinnvollen Standardeinstellungen anzubieten, die sachkundigen Benutzern dennoch präzise Kontrolle über alle Schritte einräumt“. Diese Schritte umfassen: Dokumentenverarbeitung, Chunking, Embedding, Storage (standardmäßig DuckDB), Retrieval (basierend auf der Ähnlichkeits- und Textsuche), sowie einen Prozess namens „Re-Ranking“ (soll Suchergebnisse und Prompts optimieren). R-Entwickler mit RAG-Affinität sollten dieses Tool auf jeden Fall im Auge behalten. tidyprompt LLM-Nutzer werden bestimmte Tasks sehr wahrscheinlich mehrmals codieren wollen. Zum Beispiel, wenn es darum geht strukturierte Outputs zu generieren, Funktionen zu callen oder bestimmte LLM-Verhaltensweisen zu erzwingen (etwa eine „Chain of Thought“). Die Idee hinter dem tidyprompt-Package ist es, „Bausteine“ anzubieten, um Prompts zu erstellen und LLM-Outputs zu verarbeiten. Diese Bausteine werden dann mithilfe herkömmlicher R-Pipes miteinander verkettet. Laut seiner Dokumentation will tidyprompt als Tool wahrgenommen werden, „mit dem sich die Funktionalität von LLMs über native APIs hinaus optimieren lässt“. Das Tool unterstützt zurzeit Modelle von: OpenAI, Google, Ollama, Groq, Grok, XAI und OpenRouter. Eine Prompt kann so simpel ausfallen wie: library(tidyprompt) “Is London the capital of France?” |> answer_as_boolean() |> send_prompt(llm_provider_groq(parameters = list(model = “llama3-70b-8192”) )) Ein detaillierteres Beispiel finden Sie auf GitHub. Darüber hinaus gibt es auch komplexere Pipelines, die beispielweise Funktionen wie llm_feedback() verwenden, um zu überprüfen, ob eine LLM-Antwort bestimmte Bedingungen erfüllt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten KI-Tools für R​ TippaPatt | shutterstock.com

Das Generative-AI-Ökosystem von R kann zwar nicht mit dem von Python mithalten, hat sich aber in den vergangenen Monaten entscheidend weiterentwickelt. Waren in diesem Bereich zunächst hauptsächlich Tools mit ChatGPT-Bezug angesagt, ist inzwischen mehr nativer Support für die Anbieter von Large Language Models (LLMs) verfügbar. Zudem hat sich auch die Bandbreite der GenAI-Tasks, die Entwickler mit R bewältigen können, erweitert.

In diesem Artikel stellen wir Ihnen fünf der besten Tools vor, um große Sprachmodelle in R-Projekte einzubinden – sowohl lokal als auch über APIs.

ellmer

Eines der wichtigsten Tools, um LLMs in R-Workflows zu integrieren, ist ellmer. Das Projekt ist beim Open-Source-Unternehmen Posit entstanden und wird von Entwicklern gepflegt, die sich bereits mit anderen populären R-Packages einen Namen gemacht haben (etwa ggplot2 und das Web-Framework Shiny R). Darüber hinaus erfreut sich dieses Tool auch einer lebendigen und begeisterten Community:  

{ellmer} is the best #LLM interface in any language, in my opinion, and I’d encourage you to give the new PDF support a try.

Learn more: ellmer.tidyverse.org/[image or embed]— Kyle Walker (@kylewalker.bsky.social) 14. Februar 2025 um 22:41

Geht’s ans Eingemachte, ist ellmer gut dokumentiert und unterstützt eine ganze Reihe von KI-Funktionen, -Anwendungsfällen und -Plattformen. Zu letzteren zählen beispielsweise:  

OpenAI,

Azure OpenAI,

Anthropic,

Google Gemini,

AWS Bedrock,

Snowflake Cortex,

Perplexity AI und

Ollama (für lokale Modelle).

Das ellmer-Package installieren Sie entweder wie üblich über CRAN – oder testen die Development-Version mit pak::pak(„tidyverse/ellmer“).

Um ellmer zu nutzen, erstellen Sie zunächst ein Chat-Objekt mit Funktionen wie chat_openai() oder chat_claude(). Dieses verwenden Sie, um mit dem Large Language Model zu interagieren. Um herauszufinden, wie Sie Ihren API-Key speichern können (falls Sie kein lokales Modell verwenden), konsultieren Sie die Hilfedatei der Chat-Funktion.

Ein grundlegendes OpenAI-Chat-Objekt ließe sich zum Beispiel folgendermaßen erstellen:

library(ellmer)
my_chat

Im Fall von Anthropics Claude würde die Syntax lauten:

my_chat_claude

System-Prompts sind zwar nicht unbedingt erforderlich, für themenspezifische Tasks aber empfehlenswert. Ebenso wenig ist es nötig, ein Modell für alle Chat-Funktionen einzustellen. Trotzdem ist es eine gute Idee, um nicht von einem veralteten oder sehr teuren Modell überrascht zu werden.  

Anfang 2025 scheint Anthropics Claude Sonnet 3.5 speziell für R-Code am besten geeignet – ersten Berichten zufolge soll das kommende Modell Sonnet 3.7 im Allgemeinen sogar noch besser performen. Da sich die LLM-Landschaft rasant weiterentwickelt, gilt es jedoch, sich diesbezüglich informiert zu halten. Ein Tipp an dieser Stelle: OpenAIs o3-mini kann nach unserer Erfahrung ebenfalls sehr gut R-Code schreiben und ist günstiger als Sonnet. Allerdings reagiert es als Reasoning-Modell womöglich nicht so schnell wie das Anthropic-LLM.

Falls Sie andere Parameter für das Modell festlegen möchten (inklusive der Temperature), nutzen Sie dazu api_arg. Das erfordert eine benannte Liste wie:

my_chat

Eine höhere Temperature wird oft mit „kreativerem“ Output verbunden, eine niedrigere mit präziserem. Dabei ist zu beachten, dass die Temperature in den Chatfunktionen von ellmer kein explizites Argument darstellt. Deshalb müssen Sie es innerhalb der api_arg-Liste definieren. Eine Auflistung der verfügbaren Argumente und gültigen Wertebereiche für Temperature (und weitere Einstellungen) finden Sie in der API-Dokumentation des jeweiligen Modellanbieters.

Um die Chat-Objekte zu verwenden, kann ellmer:

eine Chatbot-Schnittstelle bieten (entweder in der R-Konsole oder im Browser),

Ergebnisse in Textform streamen und speichern, oder

nur die Abfrageergebnissen speichern – ohne zu streamen.

In der R-Konsole öffnet live_console(my_chat) ein Chat-Interface. In einem Browser nutzen Sie dazu live_browser(my_chat). In beiden Fällen werden die Antworten gestreamt.

Der „Interactive Method Call“ von ellmer nutzt eine Syntax wie my_chat$chat(), um sowohl gestreamte Antworten anzuzeigen, als auch, um das Ergebnis in Textform zu speichern:

my_results

Wenn Sie my_chat erneut verwenden, um eine weitere Frage zu stellen, wird der Chatverlauf mit den vorherigen Fragen und Antworten beibehalten, so dass Sie auf diese Bezug nehmen können – wie im folgenden Beispiel:

my_results2

Die nachfolgende Chat-Abfrage enthält eine Historie früherer Fragen und Antworten:

Sharon Machlis

Wenn Sie Ellmer-Code nicht interaktiv innerhalb eines R-Skripts als Teil eines größeren Workflows nutzen, empfiehlt die Dokumentation, Ihren Code in einer R-Funktion zu „wrappen“:

my_function

In diesem Fall ist my_answer ein einfacher Text-String.

Das ellmer-Package enthält unter anderem auch Dokumentationen für:

Tool/Function Calling,

Prompt Design, oder

Datenextraktion.

Wir haben es in Kombination mit dem shinychat-Package genutzt, um einer Shiny-Applikation Chatbot-Funktionen hinzuzufügen. In diesem öffentlichen GitHub-Gist finden Sie Beispielcode, um eine einfache Shiny-Chat-Oberfläche für lokale Ollama-LLMs zu erstellen (inklusive Dropdown-Menü für die Modellauswahl und einer Schaltfläche, um Chats herunterzuladen).

tidyllm

Dieses Tool hat deutsche Wurzeln: tidyllm wurde von Eduard Brüll, Forscher beim ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung, entwickelt. In Sachen Funktionen weisen tidyllm und das eben besprochene ellmer Überschneidungsbereiche auf. Mit Blick auf die Benutzeroberfläche und die Designphilosophie gibt es jedoch wesentliche Unterschiede zwischen diesen beiden KI-Tools für R-Entwickler.

Denn tidyllm kombiniert „Verben“ – die Art von Anfrage, die Sie stellen möchten, wie chat() oder send_batch() – mit Anbietern. Zu diesen Requests gehören Text Embeddings, Chats und Batch Processing.

Aktuell unterstützt das tidyllm-Tool die KI-Modelle von:

Anthropic (Claude),

OpenAI,

Google (Gemini),

Mistral,

Groq (nicht Grok),

Perplexity,

Azure OpenAI, sowie

lokale Ollama-Modelle.

Falls Sie einen Cloud-Anbieter nutzen, müssen Sie zuvor Ihren API-Key einrichten – entweder mit sys.setenv() oder über Ihre .Renviron-Datei.

Eine einfache Chat-Abfrage beginnt in der Regel damit, mit der llm_message(„your query here“)-Funktion ein einfaches LLMMessage-Objekt zu erstellen und dieses an eine chat()-Funktion weiterzuleiten:

library(tidyllm)

my_conversation
chat(openai(.model = “gpt-4o-mini”, .temperature = 0, .stream = FALSE))

Dabei kann llm_message() auch eine .system_prompt-Nachricht enthalten.

Der zurückgegebene Wert von my_conversation ist lediglich ein Text-String mit der Antwort des Modells, die sich leicht ausgeben lässt. Darauf können Sie aufbauen, indem Sie eine weitere Nachricht und einen Chat hinzufügen, wodurch die ursprüngliche Abfrage und Antwort im Speicher bleiben:

# Keep history of last message
my_conversation2
llm_message(“How would I rotate labels on the x-axis 90 degrees?”) |>
chat(openai(.model = “gpt-4o-mini”, .temperature = 0, .stream = FALSE))
print(my_conversation2)

Um Metadaten aus den Ergebnissen zu extrahieren, nutzen Sie:

result_metadata

Das gibt einen „Tibble“ (spezieller Data Frame) zurück, der Spalten aufweist für:

model,

timestamp,

prompt_tokens,

completion_tokens,

total_tokens, sowie

api_specific-Listen mit weiteren Token-Details.

Sie können auch die Benutzernachricht extrahieren, die die Antwort mit get_user_message(my_conversation2) generiert hat.

Darüber hinaus unterstützt llm_message() auch Modelle, die Bild-Uploads mit dem .imagefile-Argument ermöglichen – sowie Fragen zu PDF-Dateien mit dem .pdf-Argument (vorausgesetzt, das R-Package pdftools ist installiert).

Wir haben beispielsweise das tidyllm PDF-Referenzhandbuch von CRAN heruntergeladen und in einem Unterverzeichnis gespeichert (tidyllm.pdf). Anschließend konnten wir dazu eine Frage stellen:

my_conversation3
chat(openai(.model = “gpt-4o”, .temperature = .1, .stream = FALSE))

print(my_conversation3)
Message History: system: You are a helpful assistant ————————————————————– user: What are 10 interesting tasks I can perform with the tidyllm package? -> Attached Media Files: tidyllm.pdf ————————————————————– assistant: The tidyllm package provides a tidy interface for integrating large language model (LLM) APIs into R workflows. Here are 10 interesting tasks you can perform with the tidyllm package:

Chat with Language Models: Use the chat() function to send messages to various language models like OpenAI, Claude, or Mistral, and receive responses. This can be useful for generating text, answering questions, or creating conversational agents.

Generate Text Embeddings: Use the embed() function to generate embeddings for text data. This can be useful for tasks like semantic search, clustering, or as input features for machine learning models.

Batch Processing: Use functions like send_batch(), fetch_batch(), and check_batch() to send multiple requests in a batch to an LLM API, retrieve results, and check the status of batch processing. This is useful for processing large datasets efficiently.

Multimodal Interactions: Create LLMMessage objects that include text and media (such as images or PDFs) for multimodal processing. This can be useful for tasks that require understanding both text and visual content.

Interactive Message History: Maintain a conversation history using LLMMessage objects, allowing for context-aware interactions with language models. This is useful for building chatbots or virtual assistants that need to remember previous interactions.

Custom JSON Schemas: Define custom JSON schemas using tidyllm_schema() to enforce structured outputs from language models. This is useful for ensuring that the responses from the models adhere to a specific format.

Transcribe Audio Files: Use the groq_transcribe() function to transcribe audio files using the Groq transcription API. This can be useful for converting spoken content into text.

File Management with Gemini API: Use functions like gemini_upload_file(), gemini_list_files(), and gemini_delete_file() to manage files in the Gemini API. This is useful for tasks that involve uploading, listing, or deleting files as part of the workflow.

Rate Limit Information: Use rate_limit_info() to retrieve the current rate limit information for APIs. This is useful for managing API usage and avoiding hitting rate limits.

Stream Responses: Enable streaming of responses from language models using the .stream parameter in functions like chat() or ollama_chat(). This is useful for real-time applications where you want to display the response as it is being generated.

These tasks demonstrate the versatility of the tidyllm package in integrating LLMs into various data workflows and applications.

Hinweis: Der obenstehende Code dient lediglich dazu, die Paketsyntax und -funktionen zu veranschaulichen. Es handelt es sich dabei nicht um eine effiziente Methode, große Dokumente abzufragen (dazu später mehr).

Ein abschließender Tipp: Wenn Sie keine sofortigen Antworten benötigen, können Sie die Kosten auch senken, indem Sie auf Batch Processing setzen. Diverse Anbieter bieten für diesen Fall großzügige Rabatte an. Die Funktion tidyllm send_batch() sendet eine solchen Batch-Processing-Request, check_batch() überprüft den Status und fetch_batch() ruft die Ergebnisse ab. Weitere Details dazu finden Sie auf der offiziellen Webseite von tidyllm.

batchLLM

Entwickler Dylan Pieper hat batchLLM kürzlich zugunsten eines neuen Pakets namens hellmer eingestellt – es funktioniert weiterhin, erhält aber keine neuen Funktionen mehr.

Wie der Name bereits nahelegt, ist batchLLM darauf ausgelegt, Prompts über mehrere Ziele hinweg auszuführen. Etwas konkreter ausgedrückt, ermöglicht das Tool, einen Prompt über eine Spalte in einem Data Frame auszuführen – und einen Data Frame zurückzuerhalten, der eine neue Spalte mit Antworten enthält. Das ist eine praktische Möglichkeit, um LLMs in R-Workflows einzubinden – etwa für Tasks wie:

Sentiment-Analysen,

Klassifizierung und

Labeling oder Tagging.

Das Tool protokolliert auch Batches und Metadaten, ermöglicht es, Ergebnisse verschiedener LLMs zu vergleichen und verfügt über integrierte Verzögerungen für das API-Rate-Limiting. Darüber hinaus enthält batchLLM auch eine integrierte Shiny-App, die eine praktische Weboberfläche zur Verfügung stellt:

Sharon Machlis

Diese starten Sie mit batchLLM_shiny() (oder als RStudio-Add-in). Eine Webdemo der Applikation finden Sie hier.

Zusätzliche LLM-Tools für R-Entwickler

Nach dem Blick auf die drei wichtigsten Tools, um große Sprachmodelle in R-Programme und -Skripte zu integrieren, lohnt sich auch ein Blick auf die folgenden beiden Werkzeuge. Sie fokussieren auf spezifische Tasks, wenn LLMs mit R genutzt werden:

ragnar extrahiert Informationen aus großen Datenmengen,

während tidyprompt Skripte für allgemeine Prompts erstellt.

ragnar

Retrieval Augmented Generation (RAG) ist eine der nützlichsten Anwendungen für LLMs. Für Python und JavaScript stehen entsprechend viele RAG-Packages und -Tools zur Verfügung. Nicht so für R – zumindest, wenn sie darüber hinausgehen sollen, Embeddings zu generieren.

Das ragnar-Package (das sich derzeit noch in Entwicklung befindet) zielt jedoch darauf ab, „eine Komplettlösung mit sinnvollen Standardeinstellungen anzubieten, die sachkundigen Benutzern dennoch präzise Kontrolle über alle Schritte einräumt“.

Diese Schritte umfassen:

Dokumentenverarbeitung,

Chunking,

Embedding,

Storage (standardmäßig DuckDB),

Retrieval (basierend auf der Ähnlichkeits- und Textsuche), sowie

einen Prozess namens „Re-Ranking“ (soll Suchergebnisse und Prompts optimieren).

R-Entwickler mit RAG-Affinität sollten dieses Tool auf jeden Fall im Auge behalten.

tidyprompt

LLM-Nutzer werden bestimmte Tasks sehr wahrscheinlich mehrmals codieren wollen. Zum Beispiel, wenn es darum geht strukturierte Outputs zu generieren, Funktionen zu callen oder bestimmte LLM-Verhaltensweisen zu erzwingen (etwa eine „Chain of Thought“).

Die Idee hinter dem tidyprompt-Package ist es, „Bausteine“ anzubieten, um Prompts zu erstellen und LLM-Outputs zu verarbeiten. Diese Bausteine werden dann mithilfe herkömmlicher R-Pipes miteinander verkettet. Laut seiner Dokumentation will tidyprompt als Tool wahrgenommen werden, „mit dem sich die Funktionalität von LLMs über native APIs hinaus optimieren lässt“.

Das Tool unterstützt zurzeit Modelle von:

OpenAI,

Google,

Ollama,

Groq,

Grok,

XAI und

OpenRouter.

Eine Prompt kann so simpel ausfallen wie:

library(tidyprompt)
“Is London the capital of France?” |>
answer_as_boolean() |>
send_prompt(llm_provider_groq(parameters = list(model = “llama3-70b-8192”) ))

Ein detaillierteres Beispiel finden Sie auf GitHub.

Darüber hinaus gibt es auch komplexere Pipelines, die beispielweise Funktionen wie llm_feedback() verwenden, um zu überprüfen, ob eine LLM-Antwort bestimmte Bedingungen erfüllt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten KI-Tools für R​ Weiterlesen »

US-Handelszölle belasten hiesige Digitalindustrie kaum​

Allgemein

Chip Somodevilla – shutterstock.com Lange angedroht, hat US-Präsident Donald Trump jetzt mit seinen Handelszöllen auf Importgüter Fakten geschaffen: Gemäß der von Trump unterzeichneten Durchführungsverordnung belegen die USA ab dem 5. April Einfuhren aus allen Ländern mit Zöllen von zehn Prozent. Ab dem 9. April gelten dann weitere Regelungen, die für viele Länder höhere, laut Trump „reziproke“ Zölle vorsehen. Für die EU-Mitgliedsstaaten belaufen sie sich auf 20 Prozent.  Besonders hart treffen diese Maßnahmen Deutschland, waren doch die Vereinigten Staaten im vergangenen Jahr erstmals seit 2015 wieder der wichtigste Handelspartner. Laut Berechnungen des Statistischen Bundesamts (Destatis) wurden 2024 Waren im Wert von rund 253 Milliarden Euro zwischen den beiden Ländern gehandelt – mit einem hohen Außenhandelssaldo. So wurden Güter im Wert von 161,4 Milliarden Euro von Deutschland in die Vereinigten Staaten exportiert, aber nur Güter im Wert von 91,5 Milliarden Euro importiert.   Destatis Angesichts der erwarteten Preissteigerungen für Käufer in den USA müssen voraussichtlich so dominante Branchen wie die deutsche Autoindustrie mit Umsatzeinbußen infolge der höheren Einfuhrzölle rechnen. Infolge erwägt Mercedes Berichten zufolge einen teilweisen Rückzug aus den USA. VW hat wohl vorerst alle Transporte/Lieferungen in die USA gestoppt.  Immerhin waren die Vereinigten Staaten 2024 laut Destatis das größte Abnehmerland der deutschen Autoindustrie mit einem Anteil von 13,1 Prozent aller exportierten Neufahrzeuge oder rund 450.000 Stück, gefolgt von Großbritannien (11,3 Prozent) und Frankreich (7,4 Prozent). Importiert aus den Vereinigten Staaten wurden dagegen nur 136.000 Autos.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”> Fast nichts Digitales zu verzollen Die Auswirkungen von Trumps Strafzöllen auf digitale Technologien und Dienstleistungen „made in Germany“ dürften sich dagegen in Grenzen halten – Ausnahmen wie SAP ausgenommen. Ein schwacher Trost, weil es (wieder einmal) dokumentiert, wie schlecht Deutschland hier im internationalen Vergleich aufgestellt ist. Wie eine Umfrage des Bitkom zum Thema Digitale Souveränität ergab, verkaufen fast drei Viertel (71 Prozent) der befragten Unternehmen überhaupt keine digitalen Technologien und Dienstleistungen ins Ausland. Wenn doch, exportieren die meisten Unternehmen in EU-Länder (92 Prozent), die USA folgen immerhin mit 60 Prozent der Nennungen.  Weitaus deutlicher dürfte es dagegen deutsche Unternehmen treffen, falls die EU als Gegenmaßnahme selbst die Zölle auf US-Importe anhebt. In der Bitkom-Umfrage erklärten 41 der befragten Unternehmen, sie seien stark abhängig vom Import digitaler Technologien oder Services aus den USA, 40 Prozent bezeichneten sich als eher abhängig.   Grund dafür ist, dass die Vereinigten Staaten hierzulande zusammen mit der EU und China zu den wichtigsten Herkunftsländern und -regionen für Digitalimporte zählen. 87 Prozent der Umfrageteilnehmer gaben an, dass sie digitale Technologien oder Services aus den USA beziehen – 59 Prozent häufig, 28 Prozent in Einzelfällen.   Gleichzeitig gab die Hälfte der befragten Unternehmen an, sie hätten faktisch keine Abwehrmöglichkeit, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden. Zum Zeitpunkt der Umfrage Ende 2024, also nach Trumps Wahlsieg, aber noch vor konkreteren Hinweisen auf Strafzölle, hatten 51 Prozent eher oder sogar sehr großes Vertrauen in die USA – ein Wert, der sich mittlerweile wohl deutlich verschlechtert hat.    width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

US-Handelszölle belasten hiesige Digitalindustrie kaum​ Chip Somodevilla – shutterstock.com

Lange angedroht, hat US-Präsident Donald Trump jetzt mit seinen Handelszöllen auf Importgüter Fakten geschaffen: Gemäß der von Trump unterzeichneten Durchführungsverordnung belegen die USA ab dem 5. April Einfuhren aus allen Ländern mit Zöllen von zehn Prozent. Ab dem 9. April gelten dann weitere Regelungen, die für viele Länder höhere, laut Trump „reziproke“ Zölle vorsehen. Für die EU-Mitgliedsstaaten belaufen sie sich auf 20 Prozent. 

Besonders hart treffen diese Maßnahmen Deutschland, waren doch die Vereinigten Staaten im vergangenen Jahr erstmals seit 2015 wieder der wichtigste Handelspartner. Laut Berechnungen des Statistischen Bundesamts (Destatis) wurden 2024 Waren im Wert von rund 253 Milliarden Euro zwischen den beiden Ländern gehandelt – mit einem hohen Außenhandelssaldo. So wurden Güter im Wert von 161,4 Milliarden Euro von Deutschland in die Vereinigten Staaten exportiert, aber nur Güter im Wert von 91,5 Milliarden Euro importiert.  

Destatis

Angesichts der erwarteten Preissteigerungen für Käufer in den USA müssen voraussichtlich so dominante Branchen wie die deutsche Autoindustrie mit Umsatzeinbußen infolge der höheren Einfuhrzölle rechnen. Infolge erwägt Mercedes Berichten zufolge einen teilweisen Rückzug aus den USA. VW hat wohl vorerst alle Transporte/Lieferungen in die USA gestoppt. 

Immerhin waren die Vereinigten Staaten 2024 laut Destatis das größte Abnehmerland der deutschen Autoindustrie mit einem Anteil von 13,1 Prozent aller exportierten Neufahrzeuge oder rund 450.000 Stück, gefolgt von Großbritannien (11,3 Prozent) und Frankreich (7,4 Prozent). Importiert aus den Vereinigten Staaten wurden dagegen nur 136.000 Autos. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”>

Fast nichts Digitales zu verzollen

Die Auswirkungen von Trumps Strafzöllen auf digitale Technologien und Dienstleistungen „made in Germany“ dürften sich dagegen in Grenzen halten – Ausnahmen wie SAP ausgenommen. Ein schwacher Trost, weil es (wieder einmal) dokumentiert, wie schlecht Deutschland hier im internationalen Vergleich aufgestellt ist. Wie eine Umfrage des Bitkom zum Thema Digitale Souveränität ergab, verkaufen fast drei Viertel (71 Prozent) der befragten Unternehmen überhaupt keine digitalen Technologien und Dienstleistungen ins Ausland. Wenn doch, exportieren die meisten Unternehmen in EU-Länder (92 Prozent), die USA folgen immerhin mit 60 Prozent der Nennungen. 

Weitaus deutlicher dürfte es dagegen deutsche Unternehmen treffen, falls die EU als Gegenmaßnahme selbst die Zölle auf US-Importe anhebt. In der Bitkom-Umfrage erklärten 41 der befragten Unternehmen, sie seien stark abhängig vom Import digitaler Technologien oder Services aus den USA, 40 Prozent bezeichneten sich als eher abhängig.  

Grund dafür ist, dass die Vereinigten Staaten hierzulande zusammen mit der EU und China zu den wichtigsten Herkunftsländern und -regionen für Digitalimporte zählen. 87 Prozent der Umfrageteilnehmer gaben an, dass sie digitale Technologien oder Services aus den USA beziehen – 59 Prozent häufig, 28 Prozent in Einzelfällen.  

Gleichzeitig gab die Hälfte der befragten Unternehmen an, sie hätten faktisch keine Abwehrmöglichkeit, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden. Zum Zeitpunkt der Umfrage Ende 2024, also nach Trumps Wahlsieg, aber noch vor konkreteren Hinweisen auf Strafzölle, hatten 51 Prozent eher oder sogar sehr großes Vertrauen in die USA – ein Wert, der sich mittlerweile wohl deutlich verschlechtert hat.

  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

US-Handelszölle belasten hiesige Digitalindustrie kaum​ Weiterlesen »

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​

Allgemein

BMWs Neue Klasse nutzt in China eine KI von Alibaba. BMW Group Neue, intelligente In-Car-Erlebnisse versprechen BMW und die Alibaba Group chinesischen Kunden der Neuen Klasse ab 2026. Dazu vertiefen die beiden Unternehmen ihre strategische Partnerschaft. BMW und Alibaba arbeiten seit 2015 in den Bereichen Cloud Computing, intelligente Fertigung, intelligente Vernetzung, intelligente Logistik und Sprachinteraktion zusammen. Kernstück der KI-Zusammenarbeit ist eine angepasste Version von Alibabas Large Language Model (LLM) Qwen, das vollständig in das BMW-Bediensystem eingebunden wird. Auf diese Weise sollen die Fahrzeugnutzer einen empathischen, kontextsensiblen Sprachassistenten erhalten. KI-Agenten der Neuen Klasse Der Assistent selbst enthält zwei KI-Agenten. Car Genius agiert als Bordexperte für Fahrzeugfunktionen und unterstützt bei Echtzeitanfragen. Travel Companion offeriert eine personalisierte Unterstützung bei Navigation, Unterhaltung und Lifestyle-Services. Die Agenten ermöglichen, wie es heißt, eine natürliche Interaktion, Multi-Agenten-Koordination und die Integration in digitale Ökosysteme – für ein intelligenteres, vernetztes Fahrerlebnis. Das kann die KI Dazu soll die KI über drei Kernfähigkeiten verfügen: menschenähnliche Interaktion, Koordination mehrerer Agenten, Integration digitaler Ökosysteme. Diese Fähigkeiten erlauben nach Angaben der beiden Partner eine genauere Erkennung von Absichten sowie eine komplexere Befehlsverarbeitung. Unter dem Strich resultierten daraus ein differenzierteres semantisches Verständnis und eine verbesserte logische Argumentation. Technisch basiert der in China verwendete neue BMW Intelligent Personal Assistant (IPA) der neuen Klasse auf einer maßgeschneiderten KI-Engine. Diese wurde BMW und Alibaba gemeinsam entwickelt. Die KI-Engine basiert auf der Yan-KI, einer von Qwen unterstützten intelligenten Cockpit-KI-Lösung. Sie stammt von Banma, dem Anbieter intelligenter Cockpit-Lösungen von Alibaba. Das KI-gestützte IPA wird erstmals in den in China produzierten Modellen der BMW Neue Klasse ab 2026 zum Einsatz kommen. Praxisbeispiel In der Praxis sollen die Benutzer so der KI komplexe Fragen stellen können. Alibaba verdeutlich dies an einem Beispiel: „Ich gehe heute Abend mit meinen Eltern und Verwandten Abendessen. Bitte empfehlen Sie ein Restaurant in der Nähe des Westtors des Chaoyang-Parks in Peking mit ebenerdigen Parkplätzen. Das Restaurant soll leichte Kost anbieten und pro Person etwa 200 CNY kosten. Es soll gute Kundenbewertungen haben.“ Um diese und ähnliche Fragen künftig zu beantworten, werde das IPA-System Echtzeit-Verkehrsdaten, die Verfügbarkeit von Ladestationen, Bewertungen des Veranstaltungsortes und Benutzerpräferenzen zusammenführen. Daraus generiere die KI dann maßgeschneiderte Empfehlungen und gewährleiste so eine stressfreie Reiseplanung. 

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​ BMWs Neue Klasse nutzt in China eine KI von Alibaba.
BMW Group

Neue, intelligente In-Car-Erlebnisse versprechen BMW und die Alibaba Group chinesischen Kunden der Neuen Klasse ab 2026. Dazu vertiefen die beiden Unternehmen ihre strategische Partnerschaft. BMW und Alibaba arbeiten seit 2015 in den Bereichen Cloud Computing, intelligente Fertigung, intelligente Vernetzung, intelligente Logistik und Sprachinteraktion zusammen.

Kernstück der KI-Zusammenarbeit ist eine angepasste Version von Alibabas Large Language Model (LLM) Qwen, das vollständig in das BMW-Bediensystem eingebunden wird. Auf diese Weise sollen die Fahrzeugnutzer einen empathischen, kontextsensiblen Sprachassistenten erhalten.

KI-Agenten der Neuen Klasse

Der Assistent selbst enthält zwei KI-Agenten.

Car Genius

agiert als Bordexperte für Fahrzeugfunktionen und unterstützt bei Echtzeitanfragen.

Travel Companion

offeriert eine personalisierte Unterstützung bei Navigation, Unterhaltung und Lifestyle-Services.

Die Agenten ermöglichen, wie es heißt, eine natürliche Interaktion, Multi-Agenten-Koordination und die Integration in digitale Ökosysteme – für ein intelligenteres, vernetztes Fahrerlebnis.

Das kann die KI

Dazu soll die KI über drei Kernfähigkeiten verfügen:

menschenähnliche Interaktion,

Koordination mehrerer Agenten,

Integration digitaler Ökosysteme.

Diese Fähigkeiten erlauben nach Angaben der beiden Partner eine genauere Erkennung von Absichten sowie eine komplexere Befehlsverarbeitung. Unter dem Strich resultierten daraus ein differenzierteres semantisches Verständnis und eine verbesserte logische Argumentation.

Technisch basiert der in China verwendete neue BMW Intelligent Personal Assistant (IPA) der neuen Klasse auf einer maßgeschneiderten KI-Engine. Diese wurde BMW und Alibaba gemeinsam entwickelt.

Die KI-Engine basiert auf der Yan-KI, einer von Qwen unterstützten intelligenten Cockpit-KI-Lösung. Sie stammt von Banma, dem Anbieter intelligenter Cockpit-Lösungen von Alibaba. Das KI-gestützte IPA wird erstmals in den in China produzierten Modellen der BMW Neue Klasse ab 2026 zum Einsatz kommen.

Praxisbeispiel

In der Praxis sollen die Benutzer so der KI komplexe Fragen stellen können. Alibaba verdeutlich dies an einem Beispiel: „Ich gehe heute Abend mit meinen Eltern und Verwandten Abendessen. Bitte empfehlen Sie ein Restaurant in der Nähe des Westtors des Chaoyang-Parks in Peking mit ebenerdigen Parkplätzen. Das Restaurant soll leichte Kost anbieten und pro Person etwa 200 CNY kosten. Es soll gute Kundenbewertungen haben.“

Um diese und ähnliche Fragen künftig zu beantworten, werde das IPA-System Echtzeit-Verkehrsdaten, die Verfügbarkeit von Ladestationen, Bewertungen des Veranstaltungsortes und Benutzerpräferenzen zusammenführen. Daraus generiere die KI dann maßgeschneiderte Empfehlungen und gewährleiste so eine stressfreie Reiseplanung.

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​ Weiterlesen »

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​

Allgemein

Vorsicht vor “falschen Freunden” in der englischen E-Mail-Kommunikation: Manche Anglizismen haben in der Muttersprache eine ganz andere Bedeutung. Foto: ESB Professional – shutterstock.comEnglisch ist die Sprache der Popmusik, der Diplomatie, des wissenschaftlichen Diskurs, des kulturellen Austauschs, der Politik und … Englisch ist ganz einfach die dominierende Verkehrssprache der Gegenwart. Weltweit sprechen schätzungsweise 1,5 Milliarden Menschen Englisch – und somit ist Englisch am Ende dann doch die meistgesprochene Sprache der Welt. Daher kommt es wenig überraschend, dass internationale Geschäftsbeziehungen heute erst durch die englische Sprache möglich, arrangiert und gepflegt werden – ein gutes Business-Englisch wird deshalb zum Zwecke der gegenseitigen Verständigung ganz einfach vorausgesetzt.Wäre da doch bloß nicht diese englische E-Mail-Kommunikation. Hier ist schon der ein oder andere gestolpert. Und nicht selten sind diese Strauchler auch durchaus nachvollziehbar. Denn nicht immer scheint das, was auf den ersten Blick logisch sein mag, am Ende der E-Mail auch tatsächlich sinnvoll. Das sind die häufigsten Fehler in der englischen E-Mail-Kommunikation.False Friends – Immer diese falschen FreundeEnglisch verstehen ist das eine, Texte auf Englisch verfassen etwas ganz anderes. Das ist zunächst einmal eine ganz grundsätzlich Herausforderung. Jetzt kennt man (vermeintliche) englische Begriffe und verbaut diese voller Überzeugung in der Business-Korrespondenz. Leider existieren diese aber im Englischen überhaupt nicht oder haben zumindest eine vollkommen andere Bedeutung – “False Friends” werden solche Fauxpas genannt. Davon gibt es jede Menge. Falsche Freunde sind beispielsweise actual anstatt topical, current oder recent (aktuell), persons anstelle von people (Plural von person), all day für every day (den ganzen Tag) oder auch rests anstatt leftlovers beziehungsweise remains.Pseudoanglizismen – Im besten Falle wird geschmunzeltÄhnlich verführerisch wie die falschen Freunde sind Pseudo- beziehungsweise Scheinanglizismen. Auch da lauern etliche Fettnäpfchen in Sachen Übersetzung und Contentproduktion. Hier werden fälschlicherweise lexikalische Elemente des Englischen benutzt und ein Neologismus kreiert, der für Muttersprachler allerdings völlig sinnfrei erscheint und gänzlich unbekannt ist.Wenn nächstes Jahr die Fußball-Europameisterschaft die Nation zum gemeinsamen Public Viewing einlädt, könnte der ein oder andere nicht-deutsche Geschäftskunde eventuell verwirrt ob des Events sein. Was in Deutschland als Massenveranstaltung bekannt ist und sich auch niemand pikiert zeigt, ist im Englischen die Leichenschau. Ebenso kennt der Native Speaker weder Mobbing (Bullying) noch – und das kann dann im Business-Alltag schon mal für Schulterzucken sorgen – den Beamer (Projector). Als Beamer wird der bajuwarische Automobilkonzern BMW bezeichnet. Und Vorsicht, wenn es um Vorgesetzte geht. Der deutsche Chef ist im Englischen ein (Chef-)Koch und der Chief nichts anderes als das Stammesoberhaupt (Häuptling). Ein Vorgesetzter heißt Manager oder einfach Boss.“Lost in Translation” – Weniger ist mehrUm unnötige Fehler zu vermeiden, sollten die einzelnen Sätze sowie der gesamte Inhalt ganz allgemein nicht unnötig in die Länge gezogen werden. Zudem kann man auf übertriebenes Imponiergehabe aus den falschen Gründen, zum Beispiel der Versuch die E-Mail besonders intellektuell zu gestalten, getrost verzichten. Grundsätzlich gilt: Die Rhetorik in der englischen E-Mail-Konversation muss beileibe nicht der Qualität eines Parlamentsabgeordneten entsprechen. Das braucht es nicht. Die Balance aus Diplomatie, Klarheit und Geradlinigkeit bestimmt den (guten) Ton der Konversation. Ein Pauschal- oder Patentrezept ist zwar nur schwer zu definieren, wer sich jedoch an die KISS-Formel – keep it short and simple – hält, macht schon mal viel richtig. Wo Sätze kurz und einfach gehalten sind, ist auch wenig Spielraum für Fehler.“I’m foxdevilswild” – Bloß keine deutschen Sprichwörter und Redewendungen übersetzenZugegeben: Es ist nicht immer so einfach, den Sinn und die Bedeutung deutscher Redewendungen auf Englisch zu kommunizieren. Und doch werden eben diese häufig zum Opfer von 1:1-Übersetzungen. Im besten Falle wird geschmunzelt und sich darüber amüsiert, im Worst Case aber an der Kompetenz gezweifelt, da der Empfänger nur Bahnhof versteht – was im Übrigen mit “it’s all Greek to me” und nicht mit “I understand just train station” übersetzt wird.Viele Fehler passieren auch deshalb, weil die Texte zuerst auf Deutsch vorgeschrieben und anschließend Wort für Wort übersetzt werden. Die Orientierung am deutschen “Original” ist aber nicht sonderlich hilfreich. Das erlernen und die Nutzung von gängigen Phrasen dagegen kann die Kommunikation erheblich erleichtern und sogar fördern.Weitere Dos & Don’ts – So klappt’s auch mit den NachbarnDie Ansprache sowie das inhaltliche Korsett (Anrede, Aufbau, Grußformel, Anhänge) sind wichtige Faktoren in der englischen E-Mail-Kommunikation. Oft ist die Tonalität in englischen E-Mails eine andere als in deutschen. So ist in den USA der lockere Tonfall nichts ungewöhnlich, da begrüßt man sich auch schon mal mit einem fröhlichen “Hi”. In England geht es dagegen etwas persönlicher zu. Die korrekte Anrede ist natürlich auch in englischen E-Mails von der Situation und der Art des Verhältnisses zum Empfänger abhängig. Je nachdem ist sie mal formell, mal informell.Englische Muttersprachler gehen tendenziell auch schneller zum Vornamen über, was in Deutschland generell eher unüblich ist. Die typischen Abkürzen sollten ebenso bekannt sein. Eventuell sollte man auch darauf achten, nicht die verschiedenen Englisch-Varianten (BE, AE etc.) zu vermischen. Überhaupt sollte man sich mit seinen Gesprächspartnern vertraut machen. Denn neben der rein sprachlichen Qualifikation und Kompetenz spielen auch kulturelle Eigenheiten, nationale Standards sowie die ganz eigenen Idiome einer Sprache eine entscheidende Rolle in der englischen E-Mail-Kommunikation.Expertentipps: So gelingt die Präsentation auf Englisch1. Beziehen Sie Ihr Publikum einDas Publikum muss sich mit Ihren Worten identifizieren können. Geben Sie Ihren Zuhörern ein Problem zum Nachdenken: “Suppose your marketing budget was cut by 99 per cent tomorrow. How would you go about promoting your product?” Oder erzählen Sie Ihrem Publikum eine persönliche Geschichte oder eine Anekdote. Nutzen Sie “enrolling questions”: “How many of you want a lot more money in their lives? And how many of you want a lot more freedom in their lives? How many of you want both?” Wichtig hier ist: Sie wollen wirklich von Ihrem Publikum Handzeichen sehen. Deshalb: Wenn Sie die erste Frage stellen, heben Sie den rechten Arm weit nach oben. Bei der zweiten Frage heben Sie den linken Arm ganz nach oben. Halten Sie Blickkontakt zu Ihrem Publikum.2. Nutzen Sie WeichmacherIm Englischen werden viele sogenannte Softeners (Weichmacher) benutzt – Redewendungen, die das Gesagte diplomatischer klingen lassen, Worte wie like‚ quite, a little, fairly, all in all, probably, a bit, more or less. “I sometimes think we are just a little too price-concious.” Oder: “It’s not quite what we wanted, but it’s a little better than their last offer”. Sprechen Sie diese Sätze für sich mit und ohne den Softener. Wie fühlt es sich an, wenn Sie die Softener mit einbauen? Üben Sie, Weichmacher in Ihren Sätzen zu benutzen.3. Seien Sie meinungsfrohGerade in der Zweitsprache ist es oft schwierig, den Mut zu finden, die eigene Meinung selbstbewusst zu vertreten. Lernen Sie Redewendungen, die Ihnen helfen, Ihre Meinung in Meetings und Präsentationen höflich und bestimmt einzuleiten. Auch hier gelten wieder die Regeln der Softeners: I can imagine that…, In my experience … (niemand kann etwas gegen Ihre Erfahrung sagen), I can honestly say that … 4. Keine Angst vor FragenMachen Sie sich klar, dass Fragen nichts Schlimmes sind. Gerade wenn Sie in der Zweitsprache präsentieren, ist die Angst vor Fragen noch größer als in der Muttersprache. Zunächst einmal gilt: Bedanken Sie sich für jede Frage. “Thank you for posing that question” oder einfach nur “Thank you, great question”. Leiten Sie auch Ihre Antwort kurz ein. I think I answered that earlier.. oder Well, as I said … (Sie haben den Sachverhalt schon vorher erwähnt). I’m afraid I don’t have that information with me. Can I get back to you on that? Oder I don’t know that off the top of my head. Can I get back to you on that? (Sie haben die Antwort nicht an der Hand.) Irrelevante Fragen können mit “Good question and I am glad you asked that but I think that raises a different issue” beantwortet werden. Oder geben Sie die Frage an den Sprecher und das Publikum zurück: “Interesting (question). What do you think?” Oder: “Interesting (question). Does anybody have an answer for that?” 5. Nobody is perfectVerabschieden Sie sich von Ihrem deutschen Perfektionsdenken. Es ist wichtiger, dass Sie als authentisch und menschlich wahrgenommen werden, als dass Sie mit perfekter Grammatik einen langweiligen Vortrag halten. Nordamerikaner wollen unterhalten werden. Wenn Sie merken, Sie werden nicht verstanden, sprechen Sie es an: “I have a feeling I am not being clear? Is that true?” Wenn Sie merken, Sie haben etwas ungünstig ausgedrückt, sagen Sie einfach: “I think I was not clear. Let me rephrase that…” Im Englischen wird dies als ‘as-ising’ (telling it as it is) bezeichnet. 6. Achten Sie auf korrekte AnhängeFragen werden im Englischen nicht einfach nur mit Yes oder No beantwortet, es gibt immer einen Anhang. “Do you like your hotel?” – “Yes, I do. (Thanks for asking)” Oder :”Yes, very much (Thanks for asking).” “Could you say that again?” – “Yes, of course!” “Do you agree with me?” – “No, I am sorry, I (really) don’t.”7. PublikumskontaktLieben Sie Ihr Publikum! Anders als die Deutschen haben Nordamerikaner keine Angst vor dem Erfolg des anderen. Ihr Publikum möchte, dass Sie erfolgreich sind. Halten Sie auch während Ihrer Rede immer Blickkontakt. Sprechen Sie Ihr Publikum direkt an. Ihre Zuhörer wollen gesehen werden. Sie wollen sich von Ihnen angesprochen fühlen und nicht als lästiges Übel wahrgenommen werden. 

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​ Vorsicht vor “falschen Freunden” in der englischen E-Mail-Kommunikation: Manche Anglizismen haben in der Muttersprache eine ganz andere Bedeutung.
Foto: ESB Professional – shutterstock.comEnglisch ist die Sprache der Popmusik, der Diplomatie, des wissenschaftlichen Diskurs, des kulturellen Austauschs, der Politik und … Englisch ist ganz einfach die dominierende Verkehrssprache der Gegenwart. Weltweit sprechen schätzungsweise 1,5 Milliarden Menschen Englisch – und somit ist Englisch am Ende dann doch die meistgesprochene Sprache der Welt. Daher kommt es wenig überraschend, dass internationale Geschäftsbeziehungen heute erst durch die englische Sprache möglich, arrangiert und gepflegt werden – ein gutes Business-Englisch wird deshalb zum Zwecke der gegenseitigen Verständigung ganz einfach vorausgesetzt.Wäre da doch bloß nicht diese englische E-Mail-Kommunikation. Hier ist schon der ein oder andere gestolpert. Und nicht selten sind diese Strauchler auch durchaus nachvollziehbar. Denn nicht immer scheint das, was auf den ersten Blick logisch sein mag, am Ende der E-Mail auch tatsächlich sinnvoll. Das sind die häufigsten Fehler in der englischen E-Mail-Kommunikation.False Friends – Immer diese falschen FreundeEnglisch verstehen ist das eine, Texte auf Englisch verfassen etwas ganz anderes. Das ist zunächst einmal eine ganz grundsätzlich Herausforderung. Jetzt kennt man (vermeintliche) englische Begriffe und verbaut diese voller Überzeugung in der Business-Korrespondenz. Leider existieren diese aber im Englischen überhaupt nicht oder haben zumindest eine vollkommen andere Bedeutung – “False Friends” werden solche Fauxpas genannt. Davon gibt es jede Menge. Falsche Freunde sind beispielsweise actual anstatt topical, current oder recent (aktuell), persons anstelle von people (Plural von person), all day für every day (den ganzen Tag) oder auch rests anstatt leftlovers beziehungsweise remains.Pseudoanglizismen – Im besten Falle wird geschmunzeltÄhnlich verführerisch wie die falschen Freunde sind Pseudo- beziehungsweise Scheinanglizismen. Auch da lauern etliche Fettnäpfchen in Sachen Übersetzung und Contentproduktion. Hier werden fälschlicherweise lexikalische Elemente des Englischen benutzt und ein Neologismus kreiert, der für Muttersprachler allerdings völlig sinnfrei erscheint und gänzlich unbekannt ist.Wenn nächstes Jahr die Fußball-Europameisterschaft die Nation zum gemeinsamen Public Viewing einlädt, könnte der ein oder andere nicht-deutsche Geschäftskunde eventuell verwirrt ob des Events sein. Was in Deutschland als Massenveranstaltung bekannt ist und sich auch niemand pikiert zeigt, ist im Englischen die Leichenschau. Ebenso kennt der Native Speaker weder Mobbing (Bullying) noch – und das kann dann im Business-Alltag schon mal für Schulterzucken sorgen – den Beamer (Projector). Als Beamer wird der bajuwarische Automobilkonzern BMW bezeichnet. Und Vorsicht, wenn es um Vorgesetzte geht. Der deutsche Chef ist im Englischen ein (Chef-)Koch und der Chief nichts anderes als das Stammesoberhaupt (Häuptling). Ein Vorgesetzter heißt Manager oder einfach Boss.“Lost in Translation” – Weniger ist mehrUm unnötige Fehler zu vermeiden, sollten die einzelnen Sätze sowie der gesamte Inhalt ganz allgemein nicht unnötig in die Länge gezogen werden. Zudem kann man auf übertriebenes Imponiergehabe aus den falschen Gründen, zum Beispiel der Versuch die E-Mail besonders intellektuell zu gestalten, getrost verzichten. Grundsätzlich gilt: Die Rhetorik in der englischen E-Mail-Konversation muss beileibe nicht der Qualität eines Parlamentsabgeordneten entsprechen. Das braucht es nicht. Die Balance aus Diplomatie, Klarheit und Geradlinigkeit bestimmt den (guten) Ton der Konversation. Ein Pauschal- oder Patentrezept ist zwar nur schwer zu definieren, wer sich jedoch an die KISS-Formel – keep it short and simple – hält, macht schon mal viel richtig. Wo Sätze kurz und einfach gehalten sind, ist auch wenig Spielraum für Fehler.“I’m foxdevilswild” – Bloß keine deutschen Sprichwörter und Redewendungen übersetzenZugegeben: Es ist nicht immer so einfach, den Sinn und die Bedeutung deutscher Redewendungen auf Englisch zu kommunizieren. Und doch werden eben diese häufig zum Opfer von 1:1-Übersetzungen. Im besten Falle wird geschmunzelt und sich darüber amüsiert, im Worst Case aber an der Kompetenz gezweifelt, da der Empfänger nur Bahnhof versteht – was im Übrigen mit “it’s all Greek to me” und nicht mit “I understand just train station” übersetzt wird.Viele Fehler passieren auch deshalb, weil die Texte zuerst auf Deutsch vorgeschrieben und anschließend Wort für Wort übersetzt werden. Die Orientierung am deutschen “Original” ist aber nicht sonderlich hilfreich. Das erlernen und die Nutzung von gängigen Phrasen dagegen kann die Kommunikation erheblich erleichtern und sogar fördern.Weitere Dos & Don’ts – So klappt’s auch mit den NachbarnDie Ansprache sowie das inhaltliche Korsett (Anrede, Aufbau, Grußformel, Anhänge) sind wichtige Faktoren in der englischen E-Mail-Kommunikation. Oft ist die Tonalität in englischen E-Mails eine andere als in deutschen. So ist in den USA der lockere Tonfall nichts ungewöhnlich, da begrüßt man sich auch schon mal mit einem fröhlichen “Hi”. In England geht es dagegen etwas persönlicher zu. Die korrekte Anrede ist natürlich auch in englischen E-Mails von der Situation und der Art des Verhältnisses zum Empfänger abhängig. Je nachdem ist sie mal formell, mal informell.Englische Muttersprachler gehen tendenziell auch schneller zum Vornamen über, was in Deutschland generell eher unüblich ist. Die typischen Abkürzen sollten ebenso bekannt sein. Eventuell sollte man auch darauf achten, nicht die verschiedenen Englisch-Varianten (BE, AE etc.) zu vermischen. Überhaupt sollte man sich mit seinen Gesprächspartnern vertraut machen. Denn neben der rein sprachlichen Qualifikation und Kompetenz spielen auch kulturelle Eigenheiten, nationale Standards sowie die ganz eigenen Idiome einer Sprache eine entscheidende Rolle in der englischen E-Mail-Kommunikation.Expertentipps: So gelingt die Präsentation auf Englisch1. Beziehen Sie Ihr Publikum einDas Publikum muss sich mit Ihren Worten identifizieren können. Geben Sie Ihren Zuhörern ein Problem zum Nachdenken: “Suppose your marketing budget was cut by 99 per cent tomorrow. How would you go about promoting your product?” Oder erzählen Sie Ihrem Publikum eine persönliche Geschichte oder eine Anekdote. Nutzen Sie “enrolling questions”: “How many of you want a lot more money in their lives? And how many of you want a lot more freedom in their lives? How many of you want both?” Wichtig hier ist: Sie wollen wirklich von Ihrem Publikum Handzeichen sehen. Deshalb: Wenn Sie die erste Frage stellen, heben Sie den rechten Arm weit nach oben. Bei der zweiten Frage heben Sie den linken Arm ganz nach oben. Halten Sie Blickkontakt zu Ihrem Publikum.2. Nutzen Sie WeichmacherIm Englischen werden viele sogenannte Softeners (Weichmacher) benutzt – Redewendungen, die das Gesagte diplomatischer klingen lassen, Worte wie like‚ quite, a little, fairly, all in all, probably, a bit, more or less. “I sometimes think we are just a little too price-concious.” Oder: “It’s not quite what we wanted, but it’s a little better than their last offer”. Sprechen Sie diese Sätze für sich mit und ohne den Softener. Wie fühlt es sich an, wenn Sie die Softener mit einbauen? Üben Sie, Weichmacher in Ihren Sätzen zu benutzen.3. Seien Sie meinungsfrohGerade in der Zweitsprache ist es oft schwierig, den Mut zu finden, die eigene Meinung selbstbewusst zu vertreten. Lernen Sie Redewendungen, die Ihnen helfen, Ihre Meinung in Meetings und Präsentationen höflich und bestimmt einzuleiten. Auch hier gelten wieder die Regeln der Softeners: I can imagine that…, In my experience … (niemand kann etwas gegen Ihre Erfahrung sagen), I can honestly say that … 4. Keine Angst vor FragenMachen Sie sich klar, dass Fragen nichts Schlimmes sind. Gerade wenn Sie in der Zweitsprache präsentieren, ist die Angst vor Fragen noch größer als in der Muttersprache. Zunächst einmal gilt: Bedanken Sie sich für jede Frage. “Thank you for posing that question” oder einfach nur “Thank you, great question”. Leiten Sie auch Ihre Antwort kurz ein. I think I answered that earlier.. oder Well, as I said … (Sie haben den Sachverhalt schon vorher erwähnt). I’m afraid I don’t have that information with me. Can I get back to you on that? Oder I don’t know that off the top of my head. Can I get back to you on that? (Sie haben die Antwort nicht an der Hand.) Irrelevante Fragen können mit “Good question and I am glad you asked that but I think that raises a different issue” beantwortet werden. Oder geben Sie die Frage an den Sprecher und das Publikum zurück: “Interesting (question). What do you think?” Oder: “Interesting (question). Does anybody have an answer for that?” 5. Nobody is perfectVerabschieden Sie sich von Ihrem deutschen Perfektionsdenken. Es ist wichtiger, dass Sie als authentisch und menschlich wahrgenommen werden, als dass Sie mit perfekter Grammatik einen langweiligen Vortrag halten. Nordamerikaner wollen unterhalten werden. Wenn Sie merken, Sie werden nicht verstanden, sprechen Sie es an: “I have a feeling I am not being clear? Is that true?” Wenn Sie merken, Sie haben etwas ungünstig ausgedrückt, sagen Sie einfach: “I think I was not clear. Let me rephrase that…” Im Englischen wird dies als ‘as-ising’ (telling it as it is) bezeichnet. 6. Achten Sie auf korrekte AnhängeFragen werden im Englischen nicht einfach nur mit Yes oder No beantwortet, es gibt immer einen Anhang. “Do you like your hotel?” – “Yes, I do. (Thanks for asking)” Oder :”Yes, very much (Thanks for asking).” “Could you say that again?” – “Yes, of course!” “Do you agree with me?” – “No, I am sorry, I (really) don’t.”7. PublikumskontaktLieben Sie Ihr Publikum! Anders als die Deutschen haben Nordamerikaner keine Angst vor dem Erfolg des anderen. Ihr Publikum möchte, dass Sie erfolgreich sind. Halten Sie auch während Ihrer Rede immer Blickkontakt. Sprechen Sie Ihr Publikum direkt an. Ihre Zuhörer wollen gesehen werden. Sie wollen sich von Ihnen angesprochen fühlen und nicht als lästiges Übel wahrgenommen werden.

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​ Weiterlesen »

KubeVirt erklärt​

Allgemein

Shawn Hempel / Shutterstock Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik. Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen. In diesem Artikel lesen Sie: was KubeVirt ist und kann, wie seine Architektur aufgebaut ist, welche Vor- und Nachteile die Technologie bringt, und wie Sie KubeVirt für VMware-Migrationen nutzen. Was ist KubeVirt? Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem: Apple, CloudFlare, IBM, NEC, Nvidia, SAP und SUSE. Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich. Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise. Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis.  Zusammengefasst können Sie mit KubeVirt: traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen. VMs und Container mit denselben Kubernetes-Tools und -Workflows managen. Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren. optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen. VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen. Die KubeVirt-Architektur Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören: KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren. Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen. Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods. Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen. Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen. Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden. Die Vor- & Nachteile von KubeVirt Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen. Auf der Benefit-Seite steht, dass KubeVirt: eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde. die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte. sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz. die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden. von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten.   Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt: in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen. im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen. eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden. KubeVirt für VMware-Migrationen KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze: Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen. Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten. Der Migrationsprozess selbst umfasst in der Regel drei Schritte: wird die aktuelle VMware-Umgebung bewertet. ein Kubernetes-Cluster mit KubeVirt erstellt. VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen. Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert. „Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest. Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KubeVirt erklärt​ Shawn Hempel / Shutterstock

Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik.

Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen.

In diesem Artikel lesen Sie:

was KubeVirt ist und kann,

wie seine Architektur aufgebaut ist,

welche Vor- und Nachteile die Technologie bringt, und

wie Sie KubeVirt für VMware-Migrationen nutzen.

Was ist KubeVirt?

Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem:

Apple,

CloudFlare,

IBM,

NEC,

Nvidia,

SAP und

SUSE.

Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich.

Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise.

Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis. 

Zusammengefasst können Sie mit KubeVirt:

traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen.

VMs und Container mit denselben Kubernetes-Tools und -Workflows managen.

Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren.

optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen.

VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen.

Die KubeVirt-Architektur

Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören:

KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren.

Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen.

Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods.

Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen.

Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen.

Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden.

Die Vor- & Nachteile von KubeVirt

Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen.

Auf der Benefit-Seite steht, dass KubeVirt:

eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde.

die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte.

sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz.

die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden.

von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten.  

Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt:

in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen.

im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen.

eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden.

KubeVirt für VMware-Migrationen

KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze:

Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen.

Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten.

Der Migrationsprozess selbst umfasst in der Regel drei Schritte:

wird die aktuelle VMware-Umgebung bewertet.

ein Kubernetes-Cluster mit KubeVirt erstellt.

VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen.

Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert.

„Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest.

Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KubeVirt erklärt​ Weiterlesen »

Python-Package-Installer-Tutorial: So nutzen Sie uv​

Allgemein

Python Packages lassen sich mit uv schneller händeln. So geht’s. Foto: slavchovr | shutterstock.com Eines der stichhaltigsten und langlebigsten Argumente gegen Python ist sein chaotisches Packaging-Ökosystem. Ein Beitrag auf dem Webcomic-Portal xkcd.com bringt die Zustände präzise auf den Punkt: Zwar hat sich die Situation im Laufe der Zeit verbessert – sie ist aber immer noch weit entfernt von “ideal”. Drittanbieter-Tools wie Poetry und pipenv, die auf den existierenden Python-Standards aufbauen, haben versucht, die Lücken zu füllen. Allerdings sind sie auf “elegantere” Workflows ausgelegt. Mit uv steht nun eine neue Ergänzung für das Package-Installations-Ökosystem von Python zur Verfügung. Das Tool wurde von Astral entwickelt und soll einen All-in-One-Ersatz für pip, venv und viele andere Kommandozeilen-basierte Python-Projektmanagement-Tools darstellen. Dabei hebt es sich im Wesentlichen dadurch ab, dass es vorwiegend in Rust geschrieben ist – was es im Vergleich mit der Konkurrenz um mehrere Größenordnungen schneller machen soll. In diesem Artikel lesen Sie, wie Sie erste Schritte mit uv gehen – und wo das Python-Tool an seine Grenzen stößt. uv einrichten Um uv zu installieren, gibt es mehrere Wege. Eine simple Option ist es dabei, auf pip zurückzugreifen und das Tool einer existierenden Python-Installation hinzuzufügen. Wenn sich letztgenannte im System-PATH befindet, rufen Sie das Tool einfach auf, indem Sie uv in die Kommandozeile eingeben. Sobald das Tool installiert ist, lässt sich über den Befehl uv venv eine virtuelle Umgebung in einem spezifizierten Verzeichnis erstellen. Wenn Sie dabei selbst keinen Verzeichnisnamen angeben, wird diese im .venv-Verzeichnis erstellt. Die von uv erstellte venv verhält sich ebenso wie eine “normale” virtuelle Umgebung – mit einigen Anpassungen: Weder pip noch setuptools sind standardmäßig installiert. Für ein uv-gemanagtes Python-Projekt sollten Sie wann immer möglich die Management-Tools von uv nutzen. pip mit uv nutzen uv unterhält seine eigene pip-Version, die Sie explizit aufrufen. Der Befehl ist identisch: uv pip install flask uv unterstützt zudem die große Mehrheit der üblichen pip-Verhaltensweisen – beispielsweise editierbare Installationen, optionale Komponentenauswahl (uv pip install “flask[dotenv]”) oder die Installation aus einer git-Quelle. “uv pip” mit Git nutzen Wenn Sie eine Anforderung aus einem Git-Repository oder GitHub installieren möchten, unterscheidet sich die Syntax im Vergleich zu pip: Sie müssen den Namen des zu installierenden Pakets und anschließend die Quelle angeben: uv pip install ” @ https://github.com//” Beachten Sie dabei die Anführungszeichen, die erforderlich sind, um das @ richtig zu entschlüsseln. Auch für die Authentifizierung über git-Links ist eine spezielle Syntax erforderlich. “uv pip freeze” statt “pip list” verwenden Um aufzulisten, was in einem bestimmten venv installiert ist, verwenden Sie zudem den Befehl uv pip freeze anstelle von uv pip list. Die Ergebnisse können in eine Datei umgeleitet werden, wie Sie es normalerweise mit pip freeze bewerkstelligen würden. Abhängigkeiten managen mit uv uv bietet mehrere Funktionen, um Abhängigkeiten innerhalb einer Projekt-Anforderungsliste festzulegen und zu synchronisieren. Wenn Sie uv pip freeze verwenden, wird die resultierende Liste explizite Versionsanforderungen für jedes Paket aufweisen – was zur Folge hat, dass sie auf die spezifischen Versionen festgelegt (“locked”) ist. Wenn Sie auf Grundlage bestehender pyproject.toml– oder requirements.in-Dateien ein festgelegtes Dependency-Set als requirement.txt generieren wollen, nutzen Sie dazu: uv pip compile pyproject.toml -o requirements.txt oder uv pip compile requirements in -o requirements.txt pip-compile und pip-sync mit uv nutzen Langfristig haben sich die Entwickler von uv zum Ziel gesetzt, mit ihrem Tool eine Alternative zu gleich mehreren Python-Tools zu kreieren. Zwei, die uv derzeit bereits ersetzen kann (zumindest auf rudimentäre Art und Weise), sind: pip-compile und pip-sync. pip-sync synchronisiert das Package-Set einer virtuellen Umgebung mit einer Liste von Paketen – für gewöhnlich einer requirements.txt-Datei. Um die in einem Projekt installierten Abhängigkeiten mit einer Liste festgelegter Dependencies auf ähnliche Weise wie mit dem pip-sync-Tool zu synchronisieren, verwenden Sie: uv pip sync requirements.txt pip-compile erzeugt eine requirements.in-Datei, die “gesperrte” Abhängigkeiten aus einer bestehenden pyproject.toml– oder requirements.txt-Datei aufistet: uv pip compile .pyproject.toml -o requirements.in Das speichert die in pyproject.toml aufgeführte “version-locked”-Liste von Abhängigkeiten in requirements.in – die anschließend genutzt werden kann, um spezifische Anforderunegn für bestimmte Konfigurationen wiederherzustellen. uv-Limitationen Das uv-Projekt steckt noch in den Kinderschuhen und kann insofern noch nicht mit vollem Funktionsumfang glänzen – diverse Features sind unvollständig, andere sollen später folgen. Zudem ist es nicht nur von Vorteil, dass uv in Rust geschrieben ist. Das macht das Tool zwar schnell und effizient, allerdings könnte der Umstand, Rust erst erlernen zu müssen, mit Blick auf zukünftige Kontributionen aus der Python-Community hinderlich sein. Weil in Rust geschriebene Python-Tools noch ein relativ neues Phänomen sind, lässt sich derzeit noch nicht abschätzen, welchen Einfluss dieser Punkt auf die Zukunft des Python-Tools haben wird. Eines steht jedoch bereits fest: Soll der Fokus auf Performance liegen, ist Rust eine gute Wahl für Python-Tools. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Python-Package-Installer-Tutorial: So nutzen Sie uv​ Python Packages lassen sich mit uv schneller händeln. So geht’s.
Foto: slavchovr | shutterstock.com

Eines der stichhaltigsten und langlebigsten Argumente gegen Python ist sein chaotisches Packaging-Ökosystem. Ein Beitrag auf dem Webcomic-Portal xkcd.com bringt die Zustände präzise auf den Punkt:

Zwar hat sich die Situation im Laufe der Zeit verbessert – sie ist aber immer noch weit entfernt von “ideal”. Drittanbieter-Tools wie Poetry und pipenv, die auf den existierenden Python-Standards aufbauen, haben versucht, die Lücken zu füllen. Allerdings sind sie auf “elegantere” Workflows ausgelegt.

Mit uv steht nun eine neue Ergänzung für das Package-Installations-Ökosystem von Python zur Verfügung. Das Tool wurde von Astral entwickelt und soll einen All-in-One-Ersatz für pip, venv und viele andere Kommandozeilen-basierte Python-Projektmanagement-Tools darstellen. Dabei hebt es sich im Wesentlichen dadurch ab, dass es vorwiegend in Rust geschrieben ist – was es im Vergleich mit der Konkurrenz um mehrere Größenordnungen schneller machen soll.

In diesem Artikel lesen Sie, wie Sie erste Schritte mit uv gehen – und wo das Python-Tool an seine Grenzen stößt.

uv einrichten

Um uv zu installieren, gibt es mehrere Wege. Eine simple Option ist es dabei, auf pip zurückzugreifen und das Tool einer existierenden Python-Installation hinzuzufügen. Wenn sich letztgenannte im System-PATH befindet, rufen Sie das Tool einfach auf, indem Sie uv in die Kommandozeile eingeben.

Sobald das Tool installiert ist, lässt sich über den Befehl uv venv eine virtuelle Umgebung in einem spezifizierten Verzeichnis erstellen. Wenn Sie dabei selbst keinen Verzeichnisnamen angeben, wird diese im .venv-Verzeichnis erstellt.

Die von uv erstellte venv verhält sich ebenso wie eine “normale” virtuelle Umgebung – mit einigen Anpassungen: Weder pip noch setuptools sind standardmäßig installiert. Für ein uv-gemanagtes Python-Projekt sollten Sie wann immer möglich die Management-Tools von uv nutzen.

pip mit uv nutzen

uv unterhält seine eigene pip-Version, die Sie explizit aufrufen. Der Befehl ist identisch:

uv pip install flask

uv unterstützt zudem die große Mehrheit der üblichen pip-Verhaltensweisen – beispielsweise editierbare Installationen, optionale Komponentenauswahl (uv pip install “flask[dotenv]”) oder die Installation aus einer git-Quelle.

“uv pip” mit Git nutzen

Wenn Sie eine Anforderung aus einem Git-Repository oder GitHub installieren möchten, unterscheidet sich die Syntax im Vergleich zu pip: Sie müssen den Namen des zu installierenden Pakets und anschließend die Quelle angeben:

uv pip install ” @ https://github.com//”

Beachten Sie dabei die Anführungszeichen, die erforderlich sind, um das @ richtig zu entschlüsseln. Auch für die Authentifizierung über git-Links ist eine spezielle Syntax erforderlich.

“uv pip freeze” statt “pip list” verwenden

Um aufzulisten, was in einem bestimmten venv installiert ist, verwenden Sie zudem den Befehl uv pip freeze anstelle von uv pip list. Die Ergebnisse können in eine Datei umgeleitet werden, wie Sie es normalerweise mit pip freeze bewerkstelligen würden.

Abhängigkeiten managen mit uv

uv bietet mehrere Funktionen, um Abhängigkeiten innerhalb einer Projekt-Anforderungsliste festzulegen und zu synchronisieren. Wenn Sie uv pip freeze verwenden, wird die resultierende Liste explizite Versionsanforderungen für jedes Paket aufweisen – was zur Folge hat, dass sie auf die spezifischen Versionen festgelegt (“locked”) ist.

Wenn Sie auf Grundlage bestehender pyproject.toml– oder requirements.in-Dateien ein festgelegtes Dependency-Set als requirement.txt generieren wollen, nutzen Sie dazu:

uv pip compile pyproject.toml -o requirements.txt

oder

uv pip compile requirements in -o requirements.txt

pip-compile und pip-sync mit uv nutzen

Langfristig haben sich die Entwickler von uv zum Ziel gesetzt, mit ihrem Tool eine Alternative zu gleich mehreren Python-Tools zu kreieren. Zwei, die uv derzeit bereits ersetzen kann (zumindest auf rudimentäre Art und Weise), sind:

pip-compile und

pip-sync.

pip-sync synchronisiert das Package-Set einer virtuellen Umgebung mit einer Liste von Paketen – für gewöhnlich einer requirements.txt-Datei. Um die in einem Projekt installierten Abhängigkeiten mit einer Liste festgelegter Dependencies auf ähnliche Weise wie mit dem pip-sync-Tool zu synchronisieren, verwenden Sie:

uv pip sync requirements.txt

pip-compile erzeugt eine requirements.in-Datei, die “gesperrte” Abhängigkeiten aus einer bestehenden pyproject.toml– oder requirements.txt-Datei aufistet:

uv pip compile .pyproject.toml -o requirements.in

Das speichert die in pyproject.toml aufgeführte “version-locked”-Liste von Abhängigkeiten in requirements.in – die anschließend genutzt werden kann, um spezifische Anforderunegn für bestimmte Konfigurationen wiederherzustellen.

uv-Limitationen

Das uv-Projekt steckt noch in den Kinderschuhen und kann insofern noch nicht mit vollem Funktionsumfang glänzen – diverse Features sind unvollständig, andere sollen später folgen.

Zudem ist es nicht nur von Vorteil, dass uv in Rust geschrieben ist. Das macht das Tool zwar schnell und effizient, allerdings könnte der Umstand, Rust erst erlernen zu müssen, mit Blick auf zukünftige Kontributionen aus der Python-Community hinderlich sein. Weil in Rust geschriebene Python-Tools noch ein relativ neues Phänomen sind, lässt sich derzeit noch nicht abschätzen, welchen Einfluss dieser Punkt auf die Zukunft des Python-Tools haben wird. Eines steht jedoch bereits fest: Soll der Fokus auf Performance liegen, ist Rust eine gute Wahl für Python-Tools. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Python-Package-Installer-Tutorial: So nutzen Sie uv​ Weiterlesen »

Wie KI die Fertigungsbranche transformiert​

Allgemein

width=”2433″ height=”1369″ sizes=”(max-width: 2433px) 100vw, 2433px”>Auch die Fertigungsindustrie setzt zunehmend auf Künstliche Intelligenz. Gorodenkoff – shutterstock.com Der Einsatz von Künstlicher Intelligenz (KI) in Produktion und Fertigung hat insbesondere aufgrund globaler Herausforderungen wie dem Arbeitskräftemangel oder dem Druck auf globale Lieferketten stark zugenommen. Wie eine aktuelle Studie von Teamviewer ergab, nutzen 78 Prozent der Führungskräfte in der Fertigungsindustrie wöchentlich KI, fast ein Drittel sogar täglich. Im vergangenen Jahr arbeiteten nur 46 Prozent wöchentlich und acht Prozent täglich mit KI.   Vertrauen in KI wächst  Dabei wird KI nicht nur zu einem immer bedeutenderen Bestandteil der täglichen Arbeitsabläufe. Mit der zunehmenden Akzeptanz steigt auch die Wahrnehmung von Reife und Vertrauen. So fühlen sich inzwischen zwei Drittel (67 Prozent) persönlich kompetent, wenn es um den Einsatz von KI geht. Als KI-Experte schätzen sich allerdings nur 28 Prozent der Führungskräfte in der Fertigung ein – ein Wert, der deutlich unter dem Durchschnitt der Befragten in allen Branchen (39 Prozent) liegt.   Den Bedarf an kontinuierlicher Weiterbildung und Entwicklung der KI-Kompetenzen für die Mitarbeitenden unterstreicht auch die bisherige Auswahl der Einsatzgebiete. So nutzen die Unternehmen KI in erster Linie dafür,   den Kunden-Support zu automatisieren (28 Prozent),   Daten zu analysieren (23 Prozent),  Prozesse zu automatisieren (19 Prozent), die Lieferkette zu optimieren (19 Prozent).   Daneben wird KI aber auch schon für fortgeschrittenere Anwendungen wie Inspiration und Ideenfindung (19 Prozent) eingesetzt.   Außerdem wächst das Vertrauen der Befragten in die Fähigkeiten der KI, wenn es darum geht,  künftige Geschäftsszenarien zu prognostizieren (41 Prozent),   auf der Grundlage dieser Prognosen zu handeln und entsprechende Geschäftsentscheidungen zu treffen (36 Prozent) und sogar   Entscheidungen ohne menschliche Aufsicht zu treffen (29 Prozent).   „Gerade die Generation der Digital Natives treibt die Einführung von KI in den Unternehmen voran und trägt dazu bei, die Technologie auch in die bestehenden Fertigungsprozesse zu integrieren”, erklärt Mei Dent, Chief Product & Technology Officer bei TeamViewer.   Das Vertrauen in die Fähigkeiten von KI kommt nicht von ungefähr. So zeigt der Report auf, dass KI zu erheblichen Verbesserungen sowohl für Unternehmen als auch für Mitarbeitende in der Fertigung führt. 77 Prozent der Entscheidungsträger sehen KI entsprechend als Schlüsselfaktor für mehr Effizienz, da sie Routineaufgaben automatisiert und Mitarbeitende entlastet.   71 Prozent der Führungskräfte in der Branche gehen sogar davon aus, dass der zunehmende Einsatz von KI den größten Produktivitätsboom seit einem Jahrhundert auslösen wird. So könnten Mitarbeitende schon jetzt durch die KI-Automatisierung von Routineaufgaben durchschnittlich zehn Stunden pro Monat einsparen und sich auf höherwertige Tätigkeiten konzentrieren. Aus finanzieller Sicht erwarten 71 Prozent der Unternehmen aus der Fertigungsindustrie, dass KI den Umsatz im nächsten Jahr steigern wird, mit einem prognostizierten Wachstum von 188 Prozent.  Neben der Effizienzsteigerung verbessert KI aber auch die Produktqualität und reduziert Fehler, was in der von Präzision geprägten Fertigung von entscheidender Bedeutung ist. So gaben 74 Prozent der Befragten an, dass KI ihre Fähigkeit verbessert, Daten zu analysieren und Entscheidungen zu treffen, 72 Prozent schreiben ihr zu, dass sie ihnen hilft, neue Fähigkeiten zu erwerben, und 71 Prozent sehen sie als wichtiges Werkzeug für die berufliche Weiterentwicklung an.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?utm_source=oembed”> Hürden behindern KI-Einführung   Obwohl die Vorteile der KI augenscheinlich auf der Hand liegen, wird die Technologie jedoch nicht von allen Herstellern in großem Umfang genutzt. Als größtes Hindernis für ihre Einführung nannten 76 Prozent der Umfrageteilnehmer Sicherheitsrisiken im Zusammenhang mit der Datenverwaltung durch KI – sieben Prozentpunkte mehr als der branchenübergreifende Durchschnitt (69 Prozent).   Als zweitgrößte Hürde wurde die mangelnde Aufklärung über den Einsatz von KI genannt – immerhin von 42 Prozent der Befragten aus der Fertigungsindustrie (im Vergleich zu 37 Prozent branchenübergreifend). Demnach erschwere es die Qualifikationslücke bei digitalen oder KI-bezogenen Fähigkeiten den Mitarbeitern, KI zu verstehen, zu implementieren und effektiv zu nutzen. Als weitere größere Hemmnisse wurden hohe Implementierungskosten (30 Prozent) genannt. Darüber hinaus ist fast die Hälfte (49 Prozent) der befragten Führungskräfte über die fehlende finanzielle Unterstützung innerhalb ihres Unternehmens besorgt. Sie befürchten, dass sie nicht schnell genug skalieren können, um mit der KI-Innovation Schritt zu halten.   Trotz dieser Herausforderungen bleiben die Entscheider in der Fertigungsindustrie optimistisch: 81 Prozent von ihnen erwarten in den nächsten sechs bis zwölf Monaten höhere KI-Investitionen. Das zeige, dass die Mitarbeiter in der Produktion den Wert von KI erkennen und sowohl Zeit als auch Geld in die Verbesserung der KI-Fähigkeiten investierten, so die Studienbetreiber.   Zukunftsinvestitionen in KI  Wie die Studienergebnisse andeuten, werden die Investitionen in KI auch dringend benötigt, um das Potenzial in der Fertigung besser auszuschöpfen. So sind 96 Prozent der Befragten der Meinung, dass weitere Schulungen erforderlich sind, um die Risiken zu mindern, 74 Prozent befürworten zusätzliche Programme.   Außerdem sind mehr als zwei Drittel (68 Prozent) der Meinung, dass ihr Unternehmen einen Chief AI Officer braucht, der die KI-Strategie klar formuliert. Grund seien die besonderen Herausforderungen bei der Abstimmung der KI mit den Produktionsabläufen, Lieferketten und der Qualitätskontrolle.   Aktuell liegt diese Verantwortung bei fast der Hälfte (48 Prozent) hauptsächlich bei den IT-Entscheidern, gefolgt von Chief Transformation Officers (35 Prozent) und den Geschäftsführern und Produktmanagern (beide 30 Prozent).  „KI ist in der Lage, Unternehmen und ganze Industrien zu transformieren. Dennoch haben wir bislang erst einen Bruchteil ihres Potenzials genutzt“, erklärt Teamviewer-Managerin Dent. Mit einem Fokus auf Kooperation, Schulung und die verantwortungsvolle Einführung der Technologie könnten Unternehmen in der Fertigungsindustrie Innovationen fördern und außergewöhnliche Ergebnisse erzielen.   Die Studie „The AI Opportunity in Manufacturing“ ist Teil des AI Opportunity Report, für den Teamviewer 1.400 Entscheidungsträger in den Bereichen IT, Wirtschaft und Produktionstechnik in Großbritannien, Frankreich, Deutschland, Australien, Singapur und den USA zu ihren Einstellungen in Bezug auf künstliche Intelligenz befragte. Der „AI Opportunity in Manufacturing“-Report wurde aus diesen Ergebnissen abgeleitet und fokussiert sich speziell auf die Antworten der 105 Fachleute aus dem Fertigungssektor.  

Wie KI die Fertigungsbranche transformiert​ width=”2433″ height=”1369″ sizes=”(max-width: 2433px) 100vw, 2433px”>Auch die Fertigungsindustrie setzt zunehmend auf Künstliche Intelligenz. Gorodenkoff – shutterstock.com

Der Einsatz von Künstlicher Intelligenz (KI) in Produktion und Fertigung hat insbesondere aufgrund globaler Herausforderungen wie dem Arbeitskräftemangel oder dem Druck auf globale Lieferketten stark zugenommen. Wie eine aktuelle Studie von Teamviewer ergab, nutzen 78 Prozent der Führungskräfte in der Fertigungsindustrie wöchentlich KI, fast ein Drittel sogar täglich. Im vergangenen Jahr arbeiteten nur 46 Prozent wöchentlich und acht Prozent täglich mit KI.  

Vertrauen in KI wächst 

Dabei wird KI nicht nur zu einem immer bedeutenderen Bestandteil der täglichen Arbeitsabläufe. Mit der zunehmenden Akzeptanz steigt auch die Wahrnehmung von Reife und Vertrauen. So fühlen sich inzwischen zwei Drittel (67 Prozent) persönlich kompetent, wenn es um den Einsatz von KI geht. Als KI-Experte schätzen sich allerdings nur 28 Prozent der Führungskräfte in der Fertigung ein – ein Wert, der deutlich unter dem Durchschnitt der Befragten in allen Branchen (39 Prozent) liegt.  

Den Bedarf an kontinuierlicher Weiterbildung und Entwicklung der KI-Kompetenzen für die Mitarbeitenden unterstreicht auch die bisherige Auswahl der Einsatzgebiete. So nutzen die Unternehmen KI in erster Linie dafür,  

den Kunden-Support zu automatisieren (28 Prozent),  

Daten zu analysieren (23 Prozent), 

Prozesse zu automatisieren (19 Prozent),

die Lieferkette zu optimieren (19 Prozent).  

Daneben wird KI aber auch schon für fortgeschrittenere Anwendungen wie Inspiration und Ideenfindung (19 Prozent) eingesetzt.  

Außerdem wächst das Vertrauen der Befragten in die Fähigkeiten der KI, wenn es darum geht, 

künftige Geschäftsszenarien zu prognostizieren (41 Prozent),  

auf der Grundlage dieser Prognosen zu handeln und entsprechende Geschäftsentscheidungen zu treffen (36 Prozent) und sogar  

Entscheidungen ohne menschliche Aufsicht zu treffen (29 Prozent).  

„Gerade die Generation der Digital Natives treibt die Einführung von KI in den Unternehmen voran und trägt dazu bei, die Technologie auch in die bestehenden Fertigungsprozesse zu integrieren”, erklärt Mei Dent, Chief Product & Technology Officer bei TeamViewer.  

Das Vertrauen in die Fähigkeiten von KI kommt nicht von ungefähr. So zeigt der Report auf, dass KI zu erheblichen Verbesserungen sowohl für Unternehmen als auch für Mitarbeitende in der Fertigung führt. 77 Prozent der Entscheidungsträger sehen KI entsprechend als Schlüsselfaktor für mehr Effizienz, da sie Routineaufgaben automatisiert und Mitarbeitende entlastet.  

71 Prozent der Führungskräfte in der Branche gehen sogar davon aus, dass der zunehmende Einsatz von KI den größten Produktivitätsboom seit einem Jahrhundert auslösen wird. So könnten Mitarbeitende schon jetzt durch die KI-Automatisierung von Routineaufgaben durchschnittlich zehn Stunden pro Monat einsparen und sich auf höherwertige Tätigkeiten konzentrieren. Aus finanzieller Sicht erwarten 71 Prozent der Unternehmen aus der Fertigungsindustrie, dass KI den Umsatz im nächsten Jahr steigern wird, mit einem prognostizierten Wachstum von 188 Prozent. 

Neben der Effizienzsteigerung verbessert KI aber auch die Produktqualität und reduziert Fehler, was in der von Präzision geprägten Fertigung von entscheidender Bedeutung ist. So gaben 74 Prozent der Befragten an, dass KI ihre Fähigkeit verbessert, Daten zu analysieren und Entscheidungen zu treffen, 72 Prozent schreiben ihr zu, dass sie ihnen hilft, neue Fähigkeiten zu erwerben, und 71 Prozent sehen sie als wichtiges Werkzeug für die berufliche Weiterentwicklung an.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?utm_source=oembed”>

Hürden behindern KI-Einführung  

Obwohl die Vorteile der KI augenscheinlich auf der Hand liegen, wird die Technologie jedoch nicht von allen Herstellern in großem Umfang genutzt. Als größtes Hindernis für ihre Einführung nannten 76 Prozent der Umfrageteilnehmer Sicherheitsrisiken im Zusammenhang mit der Datenverwaltung durch KI – sieben Prozentpunkte mehr als der branchenübergreifende Durchschnitt (69 Prozent).  

Als zweitgrößte Hürde wurde die mangelnde Aufklärung über den Einsatz von KI genannt – immerhin von 42 Prozent der Befragten aus der Fertigungsindustrie (im Vergleich zu 37 Prozent branchenübergreifend). Demnach erschwere es die Qualifikationslücke bei digitalen oder KI-bezogenen Fähigkeiten den Mitarbeitern, KI zu verstehen, zu implementieren und effektiv zu nutzen. Als weitere größere Hemmnisse wurden hohe Implementierungskosten (30 Prozent) genannt. Darüber hinaus ist fast die Hälfte (49 Prozent) der befragten Führungskräfte über die fehlende finanzielle Unterstützung innerhalb ihres Unternehmens besorgt. Sie befürchten, dass sie nicht schnell genug skalieren können, um mit der KI-Innovation Schritt zu halten.  

Trotz dieser Herausforderungen bleiben die Entscheider in der Fertigungsindustrie optimistisch: 81 Prozent von ihnen erwarten in den nächsten sechs bis zwölf Monaten höhere KI-Investitionen. Das zeige, dass die Mitarbeiter in der Produktion den Wert von KI erkennen und sowohl Zeit als auch Geld in die Verbesserung der KI-Fähigkeiten investierten, so die Studienbetreiber.  

Zukunftsinvestitionen in KI 

Wie die Studienergebnisse andeuten, werden die Investitionen in KI auch dringend benötigt, um das Potenzial in der Fertigung besser auszuschöpfen. So sind 96 Prozent der Befragten der Meinung, dass weitere Schulungen erforderlich sind, um die Risiken zu mindern, 74 Prozent befürworten zusätzliche Programme.  

Außerdem sind mehr als zwei Drittel (68 Prozent) der Meinung, dass ihr Unternehmen einen Chief AI Officer braucht, der die KI-Strategie klar formuliert. Grund seien die besonderen Herausforderungen bei der Abstimmung der KI mit den Produktionsabläufen, Lieferketten und der Qualitätskontrolle.  

Aktuell liegt diese Verantwortung bei fast der Hälfte (48 Prozent) hauptsächlich bei den IT-Entscheidern, gefolgt von Chief Transformation Officers (35 Prozent) und den Geschäftsführern und Produktmanagern (beide 30 Prozent). 

„KI ist in der Lage, Unternehmen und ganze Industrien zu transformieren. Dennoch haben wir bislang erst einen Bruchteil ihres Potenzials genutzt“, erklärt Teamviewer-Managerin Dent. Mit einem Fokus auf Kooperation, Schulung und die verantwortungsvolle Einführung der Technologie könnten Unternehmen in der Fertigungsindustrie Innovationen fördern und außergewöhnliche Ergebnisse erzielen.  

Die Studie „The AI Opportunity in Manufacturing“ ist Teil des AI Opportunity Report, für den Teamviewer 1.400 Entscheidungsträger in den Bereichen IT, Wirtschaft und Produktionstechnik in Großbritannien, Frankreich, Deutschland, Australien, Singapur und den USA zu ihren Einstellungen in Bezug auf künstliche Intelligenz befragte. Der „AI Opportunity in Manufacturing“-Report wurde aus diesen Ergebnissen abgeleitet und fokussiert sich speziell auf die Antworten der 105 Fachleute aus dem Fertigungssektor. 

Wie KI die Fertigungsbranche transformiert​ Weiterlesen »

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​

Allgemein

Braucht es wirklich ein eigenständiges Digitalministerium, um die Probleme des Digitalstandorts Deutschland zu lösen? Mo Photography Berlin/Shutterstock.com Kurz vor Abschluss der Koalitionsverhandlungen haben die Wünsche der Lobby-Vereinigungen an die künftigen Regierungsparteien Hochkonjunktur. Jeder will sein Scherflein am künftigen Regierungsprogramm bekommen. So auch der eco – Verband der Internetwirtschaft e.V. Er fordert einen starken und zukunftssicheren Digitalstandort Deutschland. Denn, so argumentiert Vorstandsvorsitzender Oliver Süme, Deutschland könne sich keine weiteren vier Jahre kopfloser Digitalpolitik leisten. Regulierung als Hemmschuh Seine Argumentation stützt der Branchenverband auf den eco Branchenpuls, einer aktuellen Umfrage des Meinungsforschungsinstituts Civey unter 500 IT-Entscheidern in Deutschland. Demnach beurteilen 68 Prozent der Entscheider den Stand der digitalen Transformation in Deutschland als schlecht. Lediglich 0,7 Prozent bewerten den Stand der digitalen Transformation in Deutschland derzeit als „gut“. So beurteilen IT-Entscheider den Stand der Digitalisierung. eco&Civey Als größte Einschränkung für die Digitalisierung am Standort Deutschland empfinden die Befragten das Ausmaß an Regulierung (56,6 Prozent). Rund 55 Prozent meinen hier ganz konkret die bestehenden Datenschutzregeln. 46 Prozent der Befragten sehen den Zustand der digitalen Infrastruktur als besonders hemmend an. Über ein Drittel nennt zudem die Berichtspflichten. Datenschutz reformieren Als ursächlich für das Übermaß an Regulierung und den Mangel an Innovationsimpulsen sieht der eco zu viele Zuständigkeiten und zu wenig Strategie. Dies habe die deutsche Digitalpolitik der vergangenen Jahre geprägt. Entsprechend kritisch steht der eco zu den Zwischenergebnissen der laufenden Koalitionsverhandlungen. Dabei ist aus Verbandssicht eine Reform des Datenschutzes eine zentrale Herausforderung für die nächste Bundesregierung. Positiv ausfallen könnten die Pläne der Verhandlungspartner für den Ausbau der Netze und Infrastrukturen. Nein zur IP-Speicherung Einen Richtungswechsel hält der Verband beim Thema Überwachung für geboten. „Die aktuell angedeutete Einführung einer IP-Adressspeicherung klingt besorgniserregend. Es wirkt fast wie eine Wiedereinführung der grundrechtswidrigen Vorratsdatenspeicherung“, so Süme. Die ebenfalls diskutierte Schwächung von Ende-zu-Ende-Verschlüsselung wäre aus Sicht des eco eine Katastrophe für die Privatsphäre, das Vertrauen und die Sicherheit im Netz. Und wie es sich für eine Lobbyvereinigung der deutschen Digitalwirtschaft gehört, fordert natürlich auch der eco ein Digitalministerium mit eigenem Budget und eigener Regelungskompetenz. Laut Studie wünscht sich dies auch etwas über die Hälfte der befragten IT-Entscheider. 

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​ Braucht es wirklich ein eigenständiges Digitalministerium, um die Probleme des Digitalstandorts Deutschland zu lösen?
Mo Photography Berlin/Shutterstock.com

Kurz vor Abschluss der Koalitionsverhandlungen haben die Wünsche der Lobby-Vereinigungen an die künftigen Regierungsparteien Hochkonjunktur. Jeder will sein Scherflein am künftigen Regierungsprogramm bekommen.

So auch der eco – Verband der Internetwirtschaft e.V. Er fordert einen starken und zukunftssicheren Digitalstandort Deutschland. Denn, so argumentiert Vorstandsvorsitzender Oliver Süme, Deutschland könne sich keine weiteren vier Jahre kopfloser Digitalpolitik leisten.

Regulierung als Hemmschuh

Seine Argumentation stützt der Branchenverband auf den eco Branchenpuls, einer aktuellen Umfrage des Meinungsforschungsinstituts Civey unter 500 IT-Entscheidern in Deutschland. Demnach beurteilen 68 Prozent der Entscheider den Stand der digitalen Transformation in Deutschland als schlecht. Lediglich 0,7 Prozent bewerten den Stand der digitalen Transformation in Deutschland derzeit als „gut“.

So beurteilen IT-Entscheider den Stand der Digitalisierung.
eco&Civey

Als größte Einschränkung für die Digitalisierung am Standort Deutschland empfinden die Befragten das Ausmaß an Regulierung (56,6 Prozent). Rund 55 Prozent meinen hier ganz konkret die bestehenden Datenschutzregeln. 46 Prozent der Befragten sehen den Zustand der digitalen Infrastruktur als besonders hemmend an. Über ein Drittel nennt zudem die Berichtspflichten.

Datenschutz reformieren

Als ursächlich für das Übermaß an Regulierung und den Mangel an Innovationsimpulsen sieht der eco zu viele Zuständigkeiten und zu wenig Strategie. Dies habe die deutsche Digitalpolitik der vergangenen Jahre geprägt.

Entsprechend kritisch steht der eco zu den Zwischenergebnissen der laufenden Koalitionsverhandlungen. Dabei ist aus Verbandssicht eine Reform des Datenschutzes eine zentrale Herausforderung für die nächste Bundesregierung. Positiv ausfallen könnten die Pläne der Verhandlungspartner für den Ausbau der Netze und Infrastrukturen.

Nein zur IP-Speicherung

Einen Richtungswechsel hält der Verband beim Thema Überwachung für geboten. „Die aktuell angedeutete Einführung einer IP-Adressspeicherung klingt besorgniserregend. Es wirkt fast wie eine Wiedereinführung der grundrechtswidrigen Vorratsdatenspeicherung“, so Süme. Die ebenfalls diskutierte Schwächung von Ende-zu-Ende-Verschlüsselung wäre aus Sicht des eco eine Katastrophe für die Privatsphäre, das Vertrauen und die Sicherheit im Netz.

Und wie es sich für eine Lobbyvereinigung der deutschen Digitalwirtschaft gehört, fordert natürlich auch der eco ein Digitalministerium mit eigenem Budget und eigener Regelungskompetenz. Laut Studie wünscht sich dies auch etwas über die Hälfte der befragten IT-Entscheider.

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​ Weiterlesen »

CPU: Was Sie über Prozessoren wissen müssen​

Allgemein

Die CPU bildet das Herzstück von PCs, Notebooks, Servern, Smartphones und zahllosen weiteren Gebrauchsgegenständen des Alltags. Wir sagen Ihnen in aller Kürze, was Sie über Prozessoren wissen müssen. Foto: Blue Andy – shutterstock.com Die ersten Computer funktionierten in den 1930er Jahren noch auf elektromechanischer Basis, einige Jahre später waren – wie beim ENIAC – Elektronenröhren en vogue. Es folgte der Shift hin zu Transistoren, dann zu integrierten Schaltkreisen, bevor in den 1970er Jahren schließlich der Mikroprozessor entstand, der heute das Herzstück unserer digitalen Devices darstellt. CPU – Definition und Komponenten Prozessoren, auch als zentrale Verarbeitungseinheit oder gängiger “Central Processing Unit“, kurz CPU, bekannt, bilden ein programmierbares Rechenwerk und steuern über Algorithmen die Verarbeitung von Daten auf Grundlage von Befehlssätzen. CPUs kommen dabei nicht nur in klassischen Computern, sondern auch in computerähnlichen Geräten zum Einsatz – oft als Mikrocontroller in eingebetteten Systemen, die heutzutage in so gut wie allen nur erdenklichen Bereichen des alltäglichen Lebens zu finden sind, von der Kaffeemaschine über den Getränkeautomaten und Wäschetrockner bis hin zum Smartphone. Die klassischen Hauptbestandteile eines modernen Prozessors sind: Rechenwerk (arithmetisch-logische Einheit, ALU), Steuerwerk, Register, Zwischenspeicher (Caches), Datenleitungen (Busse) sowie ein Speichermanager. Im Fall der meisten modernen CPUs – insbesondere solche, die Server antreiben – handelt es sich um Recheneinheiten mit mehreren Kernen, also Multi-Core-Prozessoren. Zusätzlich können CPUs von integrierten Co-Prozessoren unterstützt werden – beispielsweise einer dedizierten ‘graphics processing unit’ (GPU). Prozessoren – so funktionieren CPUs Wie diese Komponenten im Einzelnen funktionieren und wie sie im großen Ganzen zusammenwirken – das zeigt Ihnen das folgende Erklärvideo unserer PCWelt-Kollegen: CPU – Kerne und Threads Moderne CPUs verfügen über eine variable Anzahl an Kernen, deren Höhe die Leistung beeinflusst. Wie viele Kerne Ihre CPU hat, finden Sie unter Windows 10 und 11 schnell und einfach heraus, indem Sie ins Suchfeld “System” eingeben und die Systeminformationen aufrufen. Die Hardware-Informationen Ihres Rechners enthalten den Namen Ihres Prozessors und die Anzahl seiner Kerne. Alternativ können Sie auch die Tastenkombination Strg + Umschalt + Esc nutzen, um den Task-Manager zu öffnen und dann die Registerkarte Leistung (Detailansicht, zweites Tab von links) anklicken. Hier sehen Sie den Namen Ihres Prozessors, die Anzahl der Kerne und zusätzlich ein Diagramm, das in Echtzeit Auskunft über die CPU-Auslastung gibt. Außerdem finden Sie hier detaillierte Angaben zu Basistaktfrequenz, Kernen und den logischen Prozessoren – besser bekannt als “Threads“. CPUs mit höherer Thread-Anzahl sind in der Regel besser für Multitasking geeignet, da sie in der Lage sind, mehr Prozesse gleichzeitig zu verarbeiten. In den meisten Fällen liefert die Anzahl der Kerne nur einen Anhaltspunkt über die CPU-Leistung. Auch die Prozessorfrequenz (oder Taktfrequenz), Multithreading, die Mikroarchitektur, die Art des Prozessors (Desktop oder Mobile) und die Softwareoptimierung spielen eine Rolle. Wenn Sie an dieser Stelle das Bedürfnis nach einem Deep Dive verspüren, sollten Sie die Spezifikationen Ihres Prozessors auf der Webseite von Intel beziehungsweise AMD nachschlagen. Im Allgemeinen gilt: Je neuer der Prozessor, desto effizienter und leistungsfähiger ist er, aber nicht alle Generationen machen im Vergleich zu den vorherigen große Leistungssprünge. Aktuelle Benchmarking-Tests verschaffen Klarheit über die Unterschiede zwischen den Generationen. CPU-Hersteller – das ‘who is who’ Die aktuell maßgeblichen, beziehungsweise bekanntesten, Hersteller von Prozessoren sind AMD und Intel. Das liegt in erster Linie daran, dass diese beiden Unternehmen die größten Hersteller von x86-CPUs sind, die vor allem in Notebooks und Desktop-PCs zum Einsatz kommen. Weitere bedeutende Prozessorhersteller sind unter anderem: Apple Fujitsu Hitachi IBM Infineon Oracle Qualcomm NXP Nvidia Eine eigene Chip-Entwicklung leisten sich neben AMD und Intel heute jedoch nur noch wenige Hersteller, beispielsweise IBM für seine Mainframes oder Oracle mit den von Sun Microsystems übernommenen Sparc-CPUs. Gerade im Smartphone-oder Industrie-Umfeld setzen Chiphersteller wie Qualcomm oder Infineon auf CPU-Designs des britischen Anbieters ARM, der selbst keine Prozessoren fertigt. ARM-Chips zeichnen sich durch ihre kompakte Bauweise und eine gute Energieeffizienz aus, was gerade für Mobilgeräte ein entscheidender Faktor ist. Insbesondere in den 1970er und 1980er Jahren prägten viele weitere Unternehmen das CPU-Bild maßgeblich – beispielsweise: Cyrix Centaur Technology Motorola MOS Technology National Semiconductor NexGen Rockwell International Sun Microsystems Texas Instruments Unisys VIA (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

CPU: Was Sie über Prozessoren wissen müssen​ Die CPU bildet das Herzstück von PCs, Notebooks, Servern, Smartphones und zahllosen weiteren Gebrauchsgegenständen des Alltags. Wir sagen Ihnen in aller Kürze, was Sie über Prozessoren wissen müssen.
Foto: Blue Andy – shutterstock.com

Die ersten Computer funktionierten in den 1930er Jahren noch auf elektromechanischer Basis, einige Jahre später waren – wie beim ENIAC – Elektronenröhren en vogue. Es folgte der Shift hin zu Transistoren, dann zu integrierten Schaltkreisen, bevor in den 1970er Jahren schließlich der Mikroprozessor entstand, der heute das Herzstück unserer digitalen Devices darstellt.

CPU – Definition und Komponenten

Prozessoren, auch als zentrale Verarbeitungseinheit oder gängiger “Central Processing Unit“, kurz CPU, bekannt, bilden ein programmierbares Rechenwerk und steuern über Algorithmen die Verarbeitung von Daten auf Grundlage von Befehlssätzen. CPUs kommen dabei nicht nur in klassischen Computern, sondern auch in computerähnlichen Geräten zum Einsatz – oft als Mikrocontroller in eingebetteten Systemen, die heutzutage in so gut wie allen nur erdenklichen Bereichen des alltäglichen Lebens zu finden sind, von der Kaffeemaschine über den Getränkeautomaten und Wäschetrockner bis hin zum Smartphone.

Die klassischen Hauptbestandteile eines modernen Prozessors sind:

Rechenwerk (arithmetisch-logische Einheit, ALU),

Steuerwerk,

Register,

Zwischenspeicher (Caches),

Datenleitungen (Busse)

sowie ein Speichermanager.

Im Fall der meisten modernen CPUs – insbesondere solche, die Server antreiben – handelt es sich um Recheneinheiten mit mehreren Kernen, also Multi-Core-Prozessoren. Zusätzlich können CPUs von integrierten Co-Prozessoren unterstützt werden – beispielsweise einer dedizierten ‘graphics processing unit’ (GPU).

Prozessoren – so funktionieren CPUs

Wie diese Komponenten im Einzelnen funktionieren und wie sie im großen Ganzen zusammenwirken – das zeigt Ihnen das folgende Erklärvideo unserer PCWelt-Kollegen:

CPU – Kerne und Threads

Moderne CPUs verfügen über eine variable Anzahl an Kernen, deren Höhe die Leistung beeinflusst. Wie viele Kerne Ihre CPU hat, finden Sie unter Windows 10 und 11 schnell und einfach heraus, indem Sie ins Suchfeld “System” eingeben und die Systeminformationen aufrufen. Die Hardware-Informationen Ihres Rechners enthalten den Namen Ihres Prozessors und die Anzahl seiner Kerne.

Alternativ können Sie auch die Tastenkombination Strg + Umschalt + Esc nutzen, um den Task-Manager zu öffnen und dann die Registerkarte Leistung (Detailansicht, zweites Tab von links) anklicken. Hier sehen Sie den Namen Ihres Prozessors, die Anzahl der Kerne und zusätzlich ein Diagramm, das in Echtzeit Auskunft über die CPU-Auslastung gibt. Außerdem finden Sie hier detaillierte Angaben zu Basistaktfrequenz, Kernen und den logischen Prozessoren – besser bekannt als “Threads“. CPUs mit höherer Thread-Anzahl sind in der Regel besser für Multitasking geeignet, da sie in der Lage sind, mehr Prozesse gleichzeitig zu verarbeiten.

In den meisten Fällen liefert die Anzahl der Kerne nur einen Anhaltspunkt über die CPU-Leistung. Auch die Prozessorfrequenz (oder Taktfrequenz), Multithreading, die Mikroarchitektur, die Art des Prozessors (Desktop oder Mobile) und die Softwareoptimierung spielen eine Rolle. Wenn Sie an dieser Stelle das Bedürfnis nach einem Deep Dive verspüren, sollten Sie die Spezifikationen Ihres Prozessors auf der Webseite von Intel beziehungsweise AMD nachschlagen.

Im Allgemeinen gilt: Je neuer der Prozessor, desto effizienter und leistungsfähiger ist er, aber nicht alle Generationen machen im Vergleich zu den vorherigen große Leistungssprünge. Aktuelle Benchmarking-Tests verschaffen Klarheit über die Unterschiede zwischen den Generationen.

CPU-Hersteller – das ‘who is who’

Die aktuell maßgeblichen, beziehungsweise bekanntesten, Hersteller von Prozessoren sind AMD und Intel. Das liegt in erster Linie daran, dass diese beiden Unternehmen die größten Hersteller von x86-CPUs sind, die vor allem in Notebooks und Desktop-PCs zum Einsatz kommen. Weitere bedeutende Prozessorhersteller sind unter anderem:

Apple

Fujitsu

Hitachi

IBM

Infineon

Oracle

Qualcomm

NXP

Nvidia

Eine eigene Chip-Entwicklung leisten sich neben AMD und Intel heute jedoch nur noch wenige Hersteller, beispielsweise IBM für seine Mainframes oder Oracle mit den von Sun Microsystems übernommenen Sparc-CPUs. Gerade im Smartphone-oder Industrie-Umfeld setzen Chiphersteller wie Qualcomm oder Infineon auf CPU-Designs des britischen Anbieters ARM, der selbst keine Prozessoren fertigt. ARM-Chips zeichnen sich durch ihre kompakte Bauweise und eine gute Energieeffizienz aus, was gerade für Mobilgeräte ein entscheidender Faktor ist.

Insbesondere in den 1970er und 1980er Jahren prägten viele weitere Unternehmen das CPU-Bild maßgeblich – beispielsweise:

Cyrix

Centaur Technology

Motorola

MOS Technology

National Semiconductor

NexGen

Rockwell International

Sun Microsystems

Texas Instruments

Unisys

VIA

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

CPU: Was Sie über Prozessoren wissen müssen​ Weiterlesen »

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​

Allgemein

Der Einsatz von KI-Agenten lohnt sich nicht automatisch, sondern erfordert eine umfangreiche Evaluierung.sdecoret / Shutterstock Die Unternehmensberatung Deloitte prognostiziert, dass im Jahr 2025 ein Viertel der Unternehmen, die generative KI einsetzen, Pilotprojekte oder Proofs of Concept (PoCs) mit Agentic AI starten werden, 2027 bereits 50 Prozent.   Allerdings sind nicht alle Geschäftsprozesse für agentenbasierte KI geeignet, weshalb sich die Investition in KI nicht immer lohnt. Einige Marktbeobachter gehen davon aus, dass eine Alternative – die deterministische Automatisierung – in diesem Jahr weiterhin dominieren wird.  Um sicherzustellen, dass sich agentenbasierte KI für einen bestimmten Workflow auszahlt, sollten Unternehmen folgende Punkte berücksichtigen.  Geschäftsausrichtung, Wert und Risiko  „Eine erfolgreiche agentenbasierte KI-Strategie beginnt mit einer klaren Definition dessen, was die KI-Agenten erreichen sollen“, erklärt Prashant Kelker, Chief Strategy Officer und Partner beim IT-Beratungsunternehmen ISG. „Es ist wichtig, die Ziele der KI mit den allgemeinen Unternehmenszielen in Einklang zu bringen. Ohne einen klar definierten Zweck ist es, als würde man ein Schiff ohne Ziel aufs Meer schicken.“  Die Entscheidung darüber, ob ein Geschäftsprozess für die Umstellung auf KI-Agenten in Frage kommt, würde zunächst nach denselben internen Prozessen getroffen, die auch für die Bewertung des Einsatzes neuer Geschäfts- oder Technologielösungen gelten, meint Reiko Feaver, Partner bei der auf KI spezialisierten Anwaltskanzlei CM Law.  Eine Kosten-Nutzen-Analyse kann Aufschluss darüber geben, ob Agentic AI das bietet, was in den aktuellen Prozessen fehlt, und einen Return on Investment (ROI) liefert. Sollte diese Analyse positiv ausfallen, kann ein Unternehmen sich mit den erforderlichen Ressourcen, einschließlich Geld, Personal und Zeit, beschäftigen. Allerdings erschwert die Tatsache, dass die Preisgestaltung für KI-Angebote von Anbietern komplex und noch nicht vollständig geklärt sein kann, die Entscheidung.  Der Grad der Autonomie, die erhöhten Ressourcen und die Komplexität der agentengestützten KI für einen oder mehrere bestimmte Prozesse stellten ebenfalls Herausforderungen dar, die es zu berücksichtigen gilt, so Feaver. Die Bewältigung dieser Herausforderungen könne ein Indikator dafür sein, ob die Prozesse für agentenbasierte KI bereit sind.  Feaver führt weiter aus: „Verfügt das Unternehmen über die anfänglichen und laufenden Ressourcen zur Unterstützung und kontinuierlichen Verbesserung der Agentic AI-Technologie, einschließlich der Infrastruktur und der erforderlichen Daten?“ Und: „Verfügt es bereits über eine Struktur, um  die Einhaltung der Vorschriften bei Inbetriebnahme einer spezifischen agentenbasierten KI zu überprüfen und zu überwachen?   die KI-Agenten zu überwachen und zu korrigieren, wenn Probleme auftreten,   den Erfolg zu messen und   über die geltenden Gesetze und Vorschriften auf dem Laufenden zu bleiben?“  Zusätzlich gilt es zu überprüfen, ob sich das Unternehmen einen Ausfall der agentenbasierten KI in einem Geschäftsprozess leisten kann, in Hinblick auf Performance und Compliance.   Daten und umsetzbare Frameworks  Ein weiteres wichtiges Merkmal eines guten Anwendungsfalls für Agentic AI ist die Qualität der Daten, die zur Unterstützung eines Prozesses verwendet werden.  „Um einen greifbaren Wert und ROI aus agentenbasierter KI zu ziehen, müssen Unternehmen sicherstellen, dass sie über qualitativ hochwertige Daten verfügen“, erklärt Saket Srivastava, CIO beim Anbieter der Work-Management-Plattform Asana. „Sind die Daten, auf deren Grundlage die Agenten agieren, veraltet, nicht aussagekräftig oder nicht mit den Unternehmenszielen vereinbar, werden Unternehmen keinen wertvollen Output von diesen KI-Agenten erhalten.“  KI-Agenten benötigen auch Informationen darüber, wer für bestimmte Aufgaben verantwortlich ist, welche Ziele verfolgt werden, wann Aktionen durchgeführt werden müssen und wie der Prozess abläuft.   „Ohne diesen handlungsorientierten Rahmen werden selbst die fortschrittlichsten KI-Systeme kaum einen sinnvollen Wert liefern“, so Srivastava.  Für Asana spielt Agentic AI eine zentrale Rolle bei den Bemühungen des Unternehmens, das Arbeitsmanagement intern und für seine Kunden zu verändern. Im vergangenen Jahr wurden KI-Agenten eingeführt, die über Prioritäten beraten, Arbeitsabläufe steuern und Maßnahmen ergreifen, während sie sich gleichzeitig an die individuellen Arbeitsweisen von Einzelpersonen und Teams anpassten, so der Asana-CIO.  Außerdem hat Asana kürzlich Asana AI Studio eingeführt, das KI-Agenten einsetzt, um Teams die Möglichkeit zu geben, KI-gestützte Workflows ohne Code zu erstellen. „Diese Workflows ermöglichen es den KI-Agenten, repetitive manuelle Aufgaben zu erledigen, etwa Projektanfragen zu triangulieren, Schriftsätze zu entwerfen oder Tätigkeiten zuzuweisen“, erklärt Srivastava. Dadurch werde die Zeit, die Teams mit Routinearbeiten verbringen, erheblich reduziert.  „Wir haben allen unseren Mitarbeitern die Möglichkeit gegeben, AI Studio für bestimmte Aufgaben zu nutzen, beispielsweise für die Recherche und den Entwurf von Plänen, um sicherzustellen, dass genaue Übersetzungen von Inhalten oder Assets den Markenrichtlinien entsprechen“, so der Asana-CIO.  Das Cybersicherheitsteam von Asana nutzt AI Studio beispielsweise, um Alarmmüdigkeit zu verringern und den Arbeitsaufwand zu reduzieren, den das Team zuvor für die Bearbeitung von Alarmen und Schwachstellen aufgewendet hatte. Die IT-Abteilung setzt Asana AI Studio für das Vendoren-Management ein, um Helpdesk-Anfragen zu unterstützen und um sicherzustellen, dass die Anforderungen an das Software- und Compliance-Management erfüllt werden.  Kundenbetreuung als idealer Agentic AI Use Case  Ein Bereich, der sich ideal für den Einsatz agentenbasierte KI eignet, ist der Kundenservice. Sheldon Monteiro, Chief Product Officer und Head of Generative AI beim Technologieberatungsunternehmen Publicis Sapient, erklärt dazu: „Unternehmen setzen schon seit einiger Zeit interaktive Sprachdialogsysteme (IVR) und einfache Chatbots ein, um Kundeninteraktionen zu automatisieren.“ Allerdings seien diese regelbasiert und arbeiten nur innerhalb fester, vordefinierter Arbeitsabläufe.  „IVRs verlassen sich auf starre Entscheidungsbäume, was bedeutet, dass sie sich mit komplexen oder unerwarteten Anfragen schwertun. Das führt oft zur Frustration der Kunden, die in Endlosschleifen stecken bleiben oder gezwungen sind, sich zu wiederholen“, so Monteiro.  Im Gegensatz dazu basierten ältere Chatbots auf dem Abgleich von Schlüsselwörtern und vorformulierten Antworten, was bei einfachen, strukturierten Anfragen, wie der Kontostandabfrage durchaus funktionieren kann. „Sie versagen jedoch, wenn Kunden ihre Fragen auf unerwartete Weise formulieren, mehrere Themen einbringen oder ein kontextbezogenes Verständnis benötigen“, führt er aus.  „Beiden Ansätzen mangelt es an echter Anpassungsfähigkeit und dynamischer Problemlösung, was zu häufigen Eskalationen zu menschlichen Agenten und schlechten Kundenerfahrungen führt“, konstatiert Monteiro. Agentic AI führe ein neues Paradigma ein, das von der regelbasierten Automatisierung zu kontextbewussten, sich selbst verbessernden und autonomen Kundenservice-Agenten übergehe.  „Der Kundenservice stellt einen leistungsstarken Anwendungsfall dar, da die Lösung von Kundenproblemen, die häufig komplex und mehrstufig sind, erfordert”, erklärt der Vertreter von Publicis Sapient. „Darüber hinaus weisen sie oft Abhängigkeiten auf, die ein kontextbezogenes Verständnis, das Verstehen von Nuancen sowie das Durchdenken von Kundenproblemen und Anpassungen auf der Grundlage sich ändernder Bedingungen erfordern”, so Monteiro. Kundenservice-Interaktionen umfassten unstrukturierte Daten wie Text, Bilder und Sprache und finden in dynamischen Umgebungen statt, die ständiges Lernen und Anpassung in Echtzeit erforderten.  “Entsprechend können Wettbewerbsvorteile durch sofortige, autonome Lösungen und die Nutzung von Feedback zur Verbesserung im Laufe der Zeit maximiert werden”, erklärt er. “Bei älteren Chatbots und IVRs ging es um die Automatisierung von Aufgaben. Bei der agentenbasierten KI liegt der Fokus auf der Lösung von Problemen und der Bereitstellung von anpassungsfähigen und personalisierten Kundenerlebnissen in Echtzeit.”   Die Vorzüge von Agentic AI  Neben Kundenservice-Workflows sehen Experten vier generische Prozessszenarien, die sinnvolle Anwendungsfälle für agentenbasierte KI darstellen könnten.  1. Hybride Geschäftsprozesse aufwerten  „Agentic AI eignet sich am besten für Geschäftsprozesse, bei denen programmatische und manuelle Aufgaben in einem einzigen Prozess miteinander verwoben sind“, erklärt Priya Iragavarapu, Vice President of Data Science and Analytics beim globalen Management- und Technologieberatungsunternehmen AArete.  Ein Beispiel hierfür wäre ein Workflow zur Bearbeitung von Versicherungsansprüchen, bei dem strukturierte Daten wie Policennummern oder Deckungsdaten automatisch validiert und mit dem manuellen Testbericht von unstrukturierten Dokumenten wie medizinischen Berichten oder Ausnahmefällen, die eine menschliche Interpretation erfordern, kombiniert werden.  2. Orchestrierung silo-übergreifender Workflows  Ein weiteres Szenario, in dem Agentic AI sinnvoll zum Einsatz kommen kann, ist der Fall, dass sich ein Geschäftsprozess über mehrere, voneinander getrennte Teams erstreckt und jedes Team keinen Einblick oder Zugriff auf die Daten oder Systeme der anderen Teams hat.  In einem solchen Fall sei es empfehlenswert, einen KI-Agenten zu entwickeln, der funktionsübergreifend geschult werden könne, so Iragavarapu. Als Beispiel verweist sie auf einen Order-to-Cash-Prozess in einem großen Unternehmen, in dem die Teams von Vertrieb, Finanzen und Logistik jeweils mit separaten Systemen arbeiten.   Der KI-Agent könne Daten aus all diesen Systemen integrieren und aggregieren und so eine einheitliche Sichtweise bieten, um Engpässe zu erkennen, proaktive Warnungen über Verzögerungen zu senden und bei Abstimmungsaufgaben zu helfen, so die Datenwissenschaftlerin. Der Agent fungiere somit quasi als Brücke zwischen den Teams, um reibungslosere Arbeitsabläufe und Entscheidungsprozesse zu gewährleisten.  Wenn sich Prozesse über mehrere Teams oder Abteilungen hinweg verlaufen und einen hohen Koordinationsaufwand erfordern, können sie von der Fähigkeit der KI profitieren, als Orchestrator zu fungieren, bestätigt Asana-CIO Srivastava. Die Agenten von Asana könnten optimale Arbeitsabläufe vorschlagen und durch die Verfolgung des Teamfortschritts die Verantwortlichkeit sicherstellen. „Dies stellt sicher, dass die Arbeit mit den Zielen übereinstimmt und verringert das Risiko von Fehlkommunikation oder verpassten Terminen“, erklärt er.  3. Aggregierte Automatisierung durch mehrere, sich wiederholende Schritte „Prozesse, die routinemäßige, repetitive Handlungen beinhalten, etwa Dateneingabe, Aufgabenzuweisung oder Berichterstellung, eignen sich hervorragend für [agentenbasierte] KI“, so Srivastava. „Diese Aufgaben nehmen oft viel Zeit der Mitarbeiter in Anspruch, erfordern aber kein tiefgreifendes kreatives oder strategisches Denken. KI-Agenten können diese Arbeitsabläufe automatisieren, sodass sich die Mitarbeiter auf höherwertige Tätigkeiten konzentrieren können.“  ISG setzt die Agentic AI für einige Komponenten seiner Sourcing-Plattform ISG Tango ein. „Wir aktualisieren [das Tool], um KI-Elemente zu integrieren, und testen Anwendungsfälle in den Bereichen Beschaffung, Sourcing und Lieferantenmanagement, die den Großteil unserer Beratungsleistungen ausmachen“, erklärt Kelker. „Wir verfolgen diese Anwendungsfälle, bei denen wir über das traditionelle maschinelle Lernen hinausgehen und autonom handeln können, um Aufgaben zu erledigen und Entscheidungen zu treffen.“  Schritte, die sich häufig wiederholen und klar definierten Regeln folgen, sind laut Kelker erstklassige Kandidaten für Agentic AI. „So führte beispielsweise der Abgleich der Rechnungsverarbeitung im Lieferantenmanagement zu unserem Angebot der Rechnungsforensik, das sicherstellt, dass Unternehmen keine doppelten Zahlungen für Dienstleistungen leisten“, führt er an. „Die ideale Kombination ist, wenn die Regeln klar sind und sich die Schritte häufig wiederholen.“  4. Ersatz von kostspieligen manuellen Aufgaben  Ein weiteres Szenario, das sich für agentengestützte KI eignet, ist, wenn ein Geschäftsprozess einen manuellen Ansatz beinhaltet und es zu teuer wäre, Mitarbeiter für die Erledigung dieser Aufgaben einzustellen.  Iragavarapu führt als Beispiel den Kunden-Support in einem schnell wachsenden Unternehmen an. Anstatt ein großes Team einzustellen, das routinemäßige Kundenanfragen wie Aktualisierungen des Auftragsstatus, Kontoprobleme oder grundlegende Fehlerbehebungen bearbeitet, könnte ein KI-Agent einen großen Teil dieser Interaktionen selbstständig abwickeln.  “Er kann allgemeine Probleme selbstständig lösen, komplexe Fälle an menschliche Agenten weiterleiten und mit der Zeit lernen, seine Antworten zu verbessern”, erklärt Iragavarapu. “Dieser Ansatz senkt die Betriebskosten, verbessert die Reaktionszeiten und ermöglicht es den menschlichen Agenten, sich auf höherwertige Interaktionen zu konzentrieren, wie die Bearbeitung von Streitfällen oder den Aufbau von Kundenbeziehungen.” (mb) 

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​ Der Einsatz von KI-Agenten lohnt sich nicht automatisch, sondern erfordert eine umfangreiche Evaluierung.sdecoret / Shutterstock

Die Unternehmensberatung Deloitte prognostiziert, dass im Jahr 2025 ein Viertel der Unternehmen, die generative KI einsetzen, Pilotprojekte oder Proofs of Concept (PoCs) mit Agentic AI starten werden, 2027 bereits 50 Prozent.  

Allerdings sind nicht alle Geschäftsprozesse für agentenbasierte KI geeignet, weshalb sich die Investition in KI nicht immer lohnt. Einige Marktbeobachter gehen davon aus, dass eine Alternative – die deterministische Automatisierung – in diesem Jahr weiterhin dominieren wird. 

Um sicherzustellen, dass sich agentenbasierte KI für einen bestimmten Workflow auszahlt, sollten Unternehmen folgende Punkte berücksichtigen. 

Geschäftsausrichtung, Wert und Risiko 

„Eine erfolgreiche agentenbasierte KI-Strategie beginnt mit einer klaren Definition dessen, was die KI-Agenten erreichen sollen“, erklärt Prashant Kelker, Chief Strategy Officer und Partner beim IT-Beratungsunternehmen ISG. „Es ist wichtig, die Ziele der KI mit den allgemeinen Unternehmenszielen in Einklang zu bringen. Ohne einen klar definierten Zweck ist es, als würde man ein Schiff ohne Ziel aufs Meer schicken.“ 

Die Entscheidung darüber, ob ein Geschäftsprozess für die Umstellung auf KI-Agenten in Frage kommt, würde zunächst nach denselben internen Prozessen getroffen, die auch für die Bewertung des Einsatzes neuer Geschäfts- oder Technologielösungen gelten, meint Reiko Feaver, Partner bei der auf KI spezialisierten Anwaltskanzlei CM Law. 

Eine Kosten-Nutzen-Analyse kann Aufschluss darüber geben, ob Agentic AI das bietet, was in den aktuellen Prozessen fehlt, und einen Return on Investment (ROI) liefert. Sollte diese Analyse positiv ausfallen, kann ein Unternehmen sich mit den erforderlichen Ressourcen, einschließlich Geld, Personal und Zeit, beschäftigen. Allerdings erschwert die Tatsache, dass die Preisgestaltung für KI-Angebote von Anbietern komplex und noch nicht vollständig geklärt sein kann, die Entscheidung. 

Der Grad der Autonomie, die erhöhten Ressourcen und die Komplexität der agentengestützten KI für einen oder mehrere bestimmte Prozesse stellten ebenfalls Herausforderungen dar, die es zu berücksichtigen gilt, so Feaver. Die Bewältigung dieser Herausforderungen könne ein Indikator dafür sein, ob die Prozesse für agentenbasierte KI bereit sind. 

Feaver führt weiter aus: „Verfügt das Unternehmen über die anfänglichen und laufenden Ressourcen zur Unterstützung und kontinuierlichen Verbesserung der Agentic AI-Technologie, einschließlich der Infrastruktur und der erforderlichen Daten?“ Und: „Verfügt es bereits über eine Struktur, um 

die Einhaltung der Vorschriften bei Inbetriebnahme einer spezifischen agentenbasierten KI zu überprüfen und zu überwachen?  

die KI-Agenten zu überwachen und zu korrigieren, wenn Probleme auftreten,  

den Erfolg zu messen und  

über die geltenden Gesetze und Vorschriften auf dem Laufenden zu bleiben?“ 

Zusätzlich gilt es zu überprüfen, ob sich das Unternehmen einen Ausfall der agentenbasierten KI in einem Geschäftsprozess leisten kann, in Hinblick auf Performance und Compliance.  

Daten und umsetzbare Frameworks 

Ein weiteres wichtiges Merkmal eines guten Anwendungsfalls für Agentic AI ist die Qualität der Daten, die zur Unterstützung eines Prozesses verwendet werden. 

„Um einen greifbaren Wert und ROI aus agentenbasierter KI zu ziehen, müssen Unternehmen sicherstellen, dass sie über qualitativ hochwertige Daten verfügen“, erklärt Saket Srivastava, CIO beim Anbieter der Work-Management-Plattform Asana. „Sind die Daten, auf deren Grundlage die Agenten agieren, veraltet, nicht aussagekräftig oder nicht mit den Unternehmenszielen vereinbar, werden Unternehmen keinen wertvollen Output von diesen KI-Agenten erhalten.“ 

KI-Agenten benötigen auch Informationen darüber, wer für bestimmte Aufgaben verantwortlich ist, welche Ziele verfolgt werden, wann Aktionen durchgeführt werden müssen und wie der Prozess abläuft.  

„Ohne diesen handlungsorientierten Rahmen werden selbst die fortschrittlichsten KI-Systeme kaum einen sinnvollen Wert liefern“, so Srivastava. 

Für Asana spielt Agentic AI eine zentrale Rolle bei den Bemühungen des Unternehmens, das Arbeitsmanagement intern und für seine Kunden zu verändern. Im vergangenen Jahr wurden KI-Agenten eingeführt, die über Prioritäten beraten, Arbeitsabläufe steuern und Maßnahmen ergreifen, während sie sich gleichzeitig an die individuellen Arbeitsweisen von Einzelpersonen und Teams anpassten, so der Asana-CIO. 

Außerdem hat Asana kürzlich Asana AI Studio eingeführt, das KI-Agenten einsetzt, um Teams die Möglichkeit zu geben, KI-gestützte Workflows ohne Code zu erstellen. „Diese Workflows ermöglichen es den KI-Agenten, repetitive manuelle Aufgaben zu erledigen, etwa Projektanfragen zu triangulieren, Schriftsätze zu entwerfen oder Tätigkeiten zuzuweisen“, erklärt Srivastava. Dadurch werde die Zeit, die Teams mit Routinearbeiten verbringen, erheblich reduziert. 

„Wir haben allen unseren Mitarbeitern die Möglichkeit gegeben, AI Studio für bestimmte Aufgaben zu nutzen, beispielsweise für die Recherche und den Entwurf von Plänen, um sicherzustellen, dass genaue Übersetzungen von Inhalten oder Assets den Markenrichtlinien entsprechen“, so der Asana-CIO. 

Das Cybersicherheitsteam von Asana nutzt AI Studio beispielsweise, um Alarmmüdigkeit zu verringern und den Arbeitsaufwand zu reduzieren, den das Team zuvor für die Bearbeitung von Alarmen und Schwachstellen aufgewendet hatte. Die IT-Abteilung setzt Asana AI Studio für das Vendoren-Management ein, um Helpdesk-Anfragen zu unterstützen und um sicherzustellen, dass die Anforderungen an das Software- und Compliance-Management erfüllt werden. 

Kundenbetreuung als idealer Agentic AI Use Case 

Ein Bereich, der sich ideal für den Einsatz agentenbasierte KI eignet, ist der Kundenservice. Sheldon Monteiro, Chief Product Officer und Head of Generative AI beim Technologieberatungsunternehmen Publicis Sapient, erklärt dazu: „Unternehmen setzen schon seit einiger Zeit interaktive Sprachdialogsysteme (IVR) und einfache Chatbots ein, um Kundeninteraktionen zu automatisieren.“ Allerdings seien diese regelbasiert und arbeiten nur innerhalb fester, vordefinierter Arbeitsabläufe. 

„IVRs verlassen sich auf starre Entscheidungsbäume, was bedeutet, dass sie sich mit komplexen oder unerwarteten Anfragen schwertun. Das führt oft zur Frustration der Kunden, die in Endlosschleifen stecken bleiben oder gezwungen sind, sich zu wiederholen“, so Monteiro. 

Im Gegensatz dazu basierten ältere Chatbots auf dem Abgleich von Schlüsselwörtern und vorformulierten Antworten, was bei einfachen, strukturierten Anfragen, wie der Kontostandabfrage durchaus funktionieren kann. „Sie versagen jedoch, wenn Kunden ihre Fragen auf unerwartete Weise formulieren, mehrere Themen einbringen oder ein kontextbezogenes Verständnis benötigen“, führt er aus. 

„Beiden Ansätzen mangelt es an echter Anpassungsfähigkeit und dynamischer Problemlösung, was zu häufigen Eskalationen zu menschlichen Agenten und schlechten Kundenerfahrungen führt“, konstatiert Monteiro. Agentic AI führe ein neues Paradigma ein, das von der regelbasierten Automatisierung zu kontextbewussten, sich selbst verbessernden und autonomen Kundenservice-Agenten übergehe. 

„Der Kundenservice stellt einen leistungsstarken Anwendungsfall dar, da die Lösung von Kundenproblemen, die häufig komplex und mehrstufig sind, erfordert”, erklärt der Vertreter von Publicis Sapient. „Darüber hinaus weisen sie oft Abhängigkeiten auf, die ein kontextbezogenes Verständnis, das Verstehen von Nuancen sowie das Durchdenken von Kundenproblemen und Anpassungen auf der Grundlage sich ändernder Bedingungen erfordern”, so Monteiro. Kundenservice-Interaktionen umfassten unstrukturierte Daten wie Text, Bilder und Sprache und finden in dynamischen Umgebungen statt, die ständiges Lernen und Anpassung in Echtzeit erforderten. 

“Entsprechend können Wettbewerbsvorteile durch sofortige, autonome Lösungen und die Nutzung von Feedback zur Verbesserung im Laufe der Zeit maximiert werden”, erklärt er. “Bei älteren Chatbots und IVRs ging es um die Automatisierung von Aufgaben. Bei der agentenbasierten KI liegt der Fokus auf der Lösung von Problemen und der Bereitstellung von anpassungsfähigen und personalisierten Kundenerlebnissen in Echtzeit.”  

Die Vorzüge von Agentic AI 

Neben Kundenservice-Workflows sehen Experten vier generische Prozessszenarien, die sinnvolle Anwendungsfälle für agentenbasierte KI darstellen könnten. 

1. Hybride Geschäftsprozesse aufwerten 

„Agentic AI eignet sich am besten für Geschäftsprozesse, bei denen programmatische und manuelle Aufgaben in einem einzigen Prozess miteinander verwoben sind“, erklärt Priya Iragavarapu, Vice President of Data Science and Analytics beim globalen Management- und Technologieberatungsunternehmen AArete. 

Ein Beispiel hierfür wäre ein Workflow zur Bearbeitung von Versicherungsansprüchen, bei dem strukturierte Daten wie Policennummern oder Deckungsdaten automatisch validiert und mit dem manuellen Testbericht von unstrukturierten Dokumenten wie medizinischen Berichten oder Ausnahmefällen, die eine menschliche Interpretation erfordern, kombiniert werden. 

2. Orchestrierung silo-übergreifender Workflows 

Ein weiteres Szenario, in dem Agentic AI sinnvoll zum Einsatz kommen kann, ist der Fall, dass sich ein Geschäftsprozess über mehrere, voneinander getrennte Teams erstreckt und jedes Team keinen Einblick oder Zugriff auf die Daten oder Systeme der anderen Teams hat. 

In einem solchen Fall sei es empfehlenswert, einen KI-Agenten zu entwickeln, der funktionsübergreifend geschult werden könne, so Iragavarapu. Als Beispiel verweist sie auf einen Order-to-Cash-Prozess in einem großen Unternehmen, in dem die Teams von Vertrieb, Finanzen und Logistik jeweils mit separaten Systemen arbeiten.  

Der KI-Agent könne Daten aus all diesen Systemen integrieren und aggregieren und so eine einheitliche Sichtweise bieten, um Engpässe zu erkennen, proaktive Warnungen über Verzögerungen zu senden und bei Abstimmungsaufgaben zu helfen, so die Datenwissenschaftlerin. Der Agent fungiere somit quasi als Brücke zwischen den Teams, um reibungslosere Arbeitsabläufe und Entscheidungsprozesse zu gewährleisten. 

Wenn sich Prozesse über mehrere Teams oder Abteilungen hinweg verlaufen und einen hohen Koordinationsaufwand erfordern, können sie von der Fähigkeit der KI profitieren, als Orchestrator zu fungieren, bestätigt Asana-CIO Srivastava. Die Agenten von Asana könnten optimale Arbeitsabläufe vorschlagen und durch die Verfolgung des Teamfortschritts die Verantwortlichkeit sicherstellen. „Dies stellt sicher, dass die Arbeit mit den Zielen übereinstimmt und verringert das Risiko von Fehlkommunikation oder verpassten Terminen“, erklärt er. 

3. Aggregierte Automatisierung durch mehrere, sich wiederholende Schritte „Prozesse, die routinemäßige, repetitive Handlungen beinhalten, etwa Dateneingabe, Aufgabenzuweisung oder Berichterstellung, eignen sich hervorragend für [agentenbasierte] KI“, so Srivastava. „Diese Aufgaben nehmen oft viel Zeit der Mitarbeiter in Anspruch, erfordern aber kein tiefgreifendes kreatives oder strategisches Denken. KI-Agenten können diese Arbeitsabläufe automatisieren, sodass sich die Mitarbeiter auf höherwertige Tätigkeiten konzentrieren können.“ 

ISG setzt die Agentic AI für einige Komponenten seiner Sourcing-Plattform ISG Tango ein. „Wir aktualisieren [das Tool], um KI-Elemente zu integrieren, und testen Anwendungsfälle in den Bereichen Beschaffung, Sourcing und Lieferantenmanagement, die den Großteil unserer Beratungsleistungen ausmachen“, erklärt Kelker. „Wir verfolgen diese Anwendungsfälle, bei denen wir über das traditionelle maschinelle Lernen hinausgehen und autonom handeln können, um Aufgaben zu erledigen und Entscheidungen zu treffen.“ 

Schritte, die sich häufig wiederholen und klar definierten Regeln folgen, sind laut Kelker erstklassige Kandidaten für Agentic AI. „So führte beispielsweise der Abgleich der Rechnungsverarbeitung im Lieferantenmanagement zu unserem Angebot der Rechnungsforensik, das sicherstellt, dass Unternehmen keine doppelten Zahlungen für Dienstleistungen leisten“, führt er an. „Die ideale Kombination ist, wenn die Regeln klar sind und sich die Schritte häufig wiederholen.“ 

4. Ersatz von kostspieligen manuellen Aufgaben 

Ein weiteres Szenario, das sich für agentengestützte KI eignet, ist, wenn ein Geschäftsprozess einen manuellen Ansatz beinhaltet und es zu teuer wäre, Mitarbeiter für die Erledigung dieser Aufgaben einzustellen. 

Iragavarapu führt als Beispiel den Kunden-Support in einem schnell wachsenden Unternehmen an. Anstatt ein großes Team einzustellen, das routinemäßige Kundenanfragen wie Aktualisierungen des Auftragsstatus, Kontoprobleme oder grundlegende Fehlerbehebungen bearbeitet, könnte ein KI-Agent einen großen Teil dieser Interaktionen selbstständig abwickeln. 

“Er kann allgemeine Probleme selbstständig lösen, komplexe Fälle an menschliche Agenten weiterleiten und mit der Zeit lernen, seine Antworten zu verbessern”, erklärt Iragavarapu. “Dieser Ansatz senkt die Betriebskosten, verbessert die Reaktionszeiten und ermöglicht es den menschlichen Agenten, sich auf höherwertige Interaktionen zu konzentrieren, wie die Bearbeitung von Streitfällen oder den Aufbau von Kundenbeziehungen.” (mb)

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​ Weiterlesen »

4 Linux-Befehle für mehr Server-Einblick​

Allgemein

Wissen Sie genau, wer sich wann auf Ihren Linux-Servern herumtreibt? Foto: Mike Korostelev | shutterstock.comWenn Sie Linux-Server managen, sollten Sie darüber Bescheid Wissen, wie stark diese frequentiert werden und welche Benutzer sie am stärksten beanspruchen. Schließlich erfordern stark ausgelastete Server möglicherweise ein umfassenderes Monitoring – und zusätzliche Kommunikation mit den Benutzern.Die Logins werden bei Linux in einer Protokolldatei festgehalten. Diese Daten zu extrahieren, ist überraschend einfach – die richtigen Befehle vorausgesetzt. Wenn Sie also ein Reporting darüber erstellen müssen, wer sich wann, wie oft und wie lange auf Ihren Linux-Servern anmeldet, könnten die folgenden vier Kommandos unter Umständen Ihre Rettung sein.4 essenzielle Linux-Server-BefehleUm an die Daten aus den Logfiles zu gelangen, brauchen Sie keine Root-Rechte: Sie sind in der wtmp-Datei abgelegt, für die allgemeine Leserechte bestehen. Schreibrechte stehen allerdings ausschließlich privilegierten Benutzern oder Administratoren zu. Im Folgenden ein Beispiel, um um die Dateiberechtigungen anzuzeigen:$ ls -l /var/log/wtmp-rw-rw-r–. 1 root utmp 3768 Apr 2 16:25 /var/log/wtmpwhoUm zu überprüfen, was die Datei enthält, verwenden Sie den Befehl who (beispielsweise: who /var/log/wtmp). Bei stark frequentierten Servern kann das allerdings schnell Hunderte von Output-Zeilen generieren. Hier eine Handvoll, die angezeigt werden, wenn der who-Befehl an head übergeben wird:$ who /var/log/wtmp | head 11alex tty3 2024-04-01 08.11 (192.168.0.8)shs pts/3 2024-04-01 10:24 (192.168.0.11)shs pts/3 2024-04-02 08:24 (192.168.0.11)alex tty3 2024-04-02 08.11 (192.168.0.8)shs pts/3 2024-04-03 09:05 (192.168.0.11)shs pts/3 2024-04-04 07:15 (192.168.0.11)alex tty3 2024-04-04 08.11 (192.168.0.8)shs pts/3 2024-04-05 10:11 (192.168.0.11)fedora seat0 2024-04-05 11:02 (login screen)fedora tty2 2024-04-05 11:02 (tty2)shs pts/3 2024-04-05 16:24 (192.168.0.11)Die Anzahl der Einträge können Sie zählen, indem Sie den Output des who-Befehls an wc -l übergeben (beispielsweise: who /var/log/wtmp | wc -l). Das liefert nützlichere Informationen darüber, welche Benutzer sich wie häufig anmelden.$ who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c 23 alex 12 fedora 96 shsDas obige Beispiel sortiert die Zeilen in der Datei, beschränkt den Output auf das erste Feld (den Benutzernamen) und zählt dann die Zeilen für jeden einzelnen Benutzer. Sie können zudem relativ einfach einen Alias erstellen, der Zählungen wie diese liefert:$ alias showLogins=”who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c”Das zeigt zwar nicht an, wie lange jeder einzelne User angemeldet war, vermittelt aber ein Bild darüber, wie stark das System genutzt wird.lastUm zu sehen, wie lange die aktuell angemeldeten Benutzer bereits eingeloggt sind, nutzen Sie den Befehl last:$ last shsshs pts/3 192.168.0.11 Tue Apr 5 08:24 still logged inwDas Linux-Kommando w zeigt Ihnen an, wann sich die User angemeldet haben und wie lange sie inaktiv waren:$ w17:03:53 up 6:02, 3 users, load average: 0.24, 0.23, 0.20USER TTY LOGIN@ IDLE JCPU PCPU WHATfedora seat0 11:02 0.00s 0.00s 0.00s /usr/libexec/gdm-wayland-session /usr/bin/gnome-sessionfedora tty2 11:02 6:02m 0.06s 0.06s /usr/libexec/gnome-session-binaryshs pts/3 16:24 0.00s 0.13s 0.02s wDie in der ersten Zeile angezeigten “Load Average”-Werte stellen Messungen der vom System durchgeführten Rechenoperationen dar. Idealerweise sollten all diese Werte kleiner sein als die Anzahl der im System vorhandenen CPUs. Höhere Werte deuten hingegen auf Probleme oder überlastete Maschinen hin.ac-pDer Linux-Befehl ac -p gibt Ihnen schließlich Auskunft darüber, wie lange die Benutzer – in Stunden – bereits angemeldet sind.$ ac -p lola 5.43 shs 9.88 total 15.31(fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.Die Geschichte von LinuxEin Glänzen im Auge Foto: The Linux FoundationDie Geschichte von Linux beginnt, als der 20-jährige Linus Torvalds, in den frühen 1990er Jahren Informatik-Student an der Universität Helsinki, beginnt, sich für das Betriebssystem Minix zu interessieren. Bereits im Alter von 11 Jahren beginnt Torvalds mit Technik-Experimenten – damals mit Hilfe eines Commodore VIC-20.Bescheidene Anfänge Foto: comp.os.minixTorvalds Interesse an Minix geht scheinbar mit Frustration über das Lizenzmodell einher, was den Studenten dazu bringt, sein eigenes Betriebssystem zu entwerfen. An diesem Tag im August 1991 verfasst Torvalds diese, heute legendäre E-Mail, mit der alles beginnt. Die daraus entstandene Diskussion kann man heute noch auf Google Groups nachlesen. Erste Major-Distribution? Foto: Linuxcenter.ruZwar ist sie nicht die allererste Linux-Distribution, dafür aber die erste, die eine große Verbreitung findet. Das Softlanding Linux System (SLS) kommt im Mai 1992 auf den Markt. Der Werbeslogan: “Gentle Touchdowns for DOS Bailouts”. Heute gilt SLS als Vorläufer von Slackware.Die Geburt von Slackware Foto: Andrew Charon via Patrick VolkerdingPatrick Volkerding (im Bild ca. 1994), ein Student an der Minnesota State University Moorhead, hilft seinem Professor bei der Installation von SLS. Daraus entsteht die derzeit älteste, aktive Linux-Distribution Slackware. Die wird auch heute noch von Volkerding gepflegt.Red Hat kommt Foto: Red HatRed Hat ist heutzutage wohl der bekannteste Name im Zusammenhang mit Linux – zumindest was die Enterprise-Welt angeht. Die erste Linux-Distribution von Red Hat erscheint 1994 – auf CD-ROM. Das Firmenlogo entstammt übrigens der Angewohnheit des Red-Hat-Linux-Verantwortlichen Marc Ewing, während seiner Studentenzeit den roten Hut seines Großvaters zu tragen.“Linux ist ein Krebs” Foto: Martyn WilliamsLinux legt in den frühen Jahren kontinuierlich an Popularität zu. Die steigende Unzufriedenheit über diese Entwicklung bewegt den damaligen Microsoft-CEO Steve Ballmer zu folgender Aussage: “Linux bleibt wie ein Krebs an jeglichem geistigen Eigentum hängen, mit dem es in Berührung kommt.” Es ist der offizielle Beweis dafür, dass die Open-Source-Software den etablierten Playern ein wenig mehr als nur sauer aufstößt.Die Welle des Erfolgs Foto: Rösch AGIm Jahr 2001 bringt das Schweizer Unternehmen Rösch ein neues Waschmittel namens Linux auf den Markt. Das Produkt ist bis heute im Verkauf, denn Linus Torvalds ist zwar in Besitz der Markenrechte für den Namen Linux, allerdings nur in Zusammenhang mit Computer-Software.Enter the Big Game Foto: The Linux FoundationHeutzutage sieht man kaum noch TV-Werbung für Linux. Im Jahr 2003 aber kreiert IBM einen 90-sekündigen Super-Bowl-Werbespot für die Open-Source-Software. Slogan: “The future is open”.Groß und professionell Foto: The Linux FoundationEigentlich hatte Torvalds nicht damit geplant, dass aus seinem Hobby-Betriebssystem einmal etwas wirklich Großes und Professionelles wird. Doch genau das passiert. Im Jahr 2005 schafft es Torvalds sogar auf das Cover der renommierten “Business Week”: Der zugehörige Artikel beschäftigt sich mit der Linux-Erfolgsstory.Eine Milliarde Dollar Foto: Red HatErfolg kann auf vielen Wegen gemessen werden, aber Zahlen unter dem Strich können nur schwer angefochten werden. Im Jahr 2012 ist Red Hat das erste Open-Source-Unternehmen, das mehr als eine Milliarde Dollar einnimmt.Microsoft liebt Linux? Foto: James NiccolaiWas in einer Dekade so alles passieren kann: Im Jahr 2001 noch ein Krebsgeschwür, erklärt der Windows-Riese im Jahr 2014 öffentlich seine Liebe zu Open-Source-Software. Microsoft-CEO Satya Nadella gibt die neue Richtung erstmals bei einem Event im Oktober 2014 vor und wird nicht müde, diese immer und immer wieder zu wiederholen. Qual der Wahl Foto: DistrowatchAuch wenn Linux und Microsoft inzwischen so etwas wie “Freunde” sind: Viele User legen Wert auf Wahlmöglichkeiten. Und die bekommen sie in der Linux-Welt zur Genüge. Inzwischen gibt es für so gut wie jeden Geschmack die passende Linux-Distribution und -Plattform. Linux-getriebene Welt Foto: Adriano GasparriDass Linux in Teilen unsere Tech-Welt dominiert, ist nicht zu verleugnen: 95 Prozent der Server der Top-Domains laufen mit Linux, die meisten Finanzmärkte der Welt ebenso. Achja: 98 Prozent der 500 schnellsten Supercomputer setzen ebenfalls auf die Open-Source-Software und für 75 Prozent der Unternehmen, die den Schritt in die Cloud gewagt haben, ist Linux das Betriebssystem der Wahl. 

4 Linux-Befehle für mehr Server-Einblick​ Wissen Sie genau, wer sich wann auf Ihren Linux-Servern herumtreibt?
Foto: Mike Korostelev | shutterstock.comWenn Sie Linux-Server managen, sollten Sie darüber Bescheid Wissen, wie stark diese frequentiert werden und welche Benutzer sie am stärksten beanspruchen. Schließlich erfordern stark ausgelastete Server möglicherweise ein umfassenderes Monitoring – und zusätzliche Kommunikation mit den Benutzern.Die Logins werden bei Linux in einer Protokolldatei festgehalten. Diese Daten zu extrahieren, ist überraschend einfach – die richtigen Befehle vorausgesetzt. Wenn Sie also ein Reporting darüber erstellen müssen, wer sich wann, wie oft und wie lange auf Ihren Linux-Servern anmeldet, könnten die folgenden vier Kommandos unter Umständen Ihre Rettung sein.4 essenzielle Linux-Server-BefehleUm an die Daten aus den Logfiles zu gelangen, brauchen Sie keine Root-Rechte: Sie sind in der wtmp-Datei abgelegt, für die allgemeine Leserechte bestehen. Schreibrechte stehen allerdings ausschließlich privilegierten Benutzern oder Administratoren zu. Im Folgenden ein Beispiel, um um die Dateiberechtigungen anzuzeigen:$ ls -l /var/log/wtmp-rw-rw-r–. 1 root utmp 3768 Apr 2 16:25 /var/log/wtmpwhoUm zu überprüfen, was die Datei enthält, verwenden Sie den Befehl who (beispielsweise: who /var/log/wtmp). Bei stark frequentierten Servern kann das allerdings schnell Hunderte von Output-Zeilen generieren. Hier eine Handvoll, die angezeigt werden, wenn der who-Befehl an head übergeben wird:$ who /var/log/wtmp | head 11alex tty3 2024-04-01 08.11 (192.168.0.8)shs pts/3 2024-04-01 10:24 (192.168.0.11)shs pts/3 2024-04-02 08:24 (192.168.0.11)alex tty3 2024-04-02 08.11 (192.168.0.8)shs pts/3 2024-04-03 09:05 (192.168.0.11)shs pts/3 2024-04-04 07:15 (192.168.0.11)alex tty3 2024-04-04 08.11 (192.168.0.8)shs pts/3 2024-04-05 10:11 (192.168.0.11)fedora seat0 2024-04-05 11:02 (login screen)fedora tty2 2024-04-05 11:02 (tty2)shs pts/3 2024-04-05 16:24 (192.168.0.11)Die Anzahl der Einträge können Sie zählen, indem Sie den Output des who-Befehls an wc -l übergeben (beispielsweise: who /var/log/wtmp | wc -l). Das liefert nützlichere Informationen darüber, welche Benutzer sich wie häufig anmelden.$ who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c 23 alex 12 fedora 96 shsDas obige Beispiel sortiert die Zeilen in der Datei, beschränkt den Output auf das erste Feld (den Benutzernamen) und zählt dann die Zeilen für jeden einzelnen Benutzer. Sie können zudem relativ einfach einen Alias erstellen, der Zählungen wie diese liefert:$ alias showLogins=”who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c”Das zeigt zwar nicht an, wie lange jeder einzelne User angemeldet war, vermittelt aber ein Bild darüber, wie stark das System genutzt wird.lastUm zu sehen, wie lange die aktuell angemeldeten Benutzer bereits eingeloggt sind, nutzen Sie den Befehl last:$ last shsshs pts/3 192.168.0.11 Tue Apr 5 08:24 still logged inwDas Linux-Kommando w zeigt Ihnen an, wann sich die User angemeldet haben und wie lange sie inaktiv waren:$ w17:03:53 up 6:02, 3 users, load average: 0.24, 0.23, 0.20USER TTY LOGIN@ IDLE JCPU PCPU WHATfedora seat0 11:02 0.00s 0.00s 0.00s /usr/libexec/gdm-wayland-session /usr/bin/gnome-sessionfedora tty2 11:02 6:02m 0.06s 0.06s /usr/libexec/gnome-session-binaryshs pts/3 16:24 0.00s 0.13s 0.02s wDie in der ersten Zeile angezeigten “Load Average”-Werte stellen Messungen der vom System durchgeführten Rechenoperationen dar. Idealerweise sollten all diese Werte kleiner sein als die Anzahl der im System vorhandenen CPUs. Höhere Werte deuten hingegen auf Probleme oder überlastete Maschinen hin.ac-pDer Linux-Befehl ac -p gibt Ihnen schließlich Auskunft darüber, wie lange die Benutzer – in Stunden – bereits angemeldet sind.$ ac -p lola 5.43 shs 9.88 total 15.31(fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.Die Geschichte von LinuxEin Glänzen im Auge
Foto: The Linux FoundationDie Geschichte von Linux beginnt, als der 20-jährige Linus Torvalds, in den frühen 1990er Jahren Informatik-Student an der Universität Helsinki, beginnt, sich für das Betriebssystem Minix zu interessieren. Bereits im Alter von 11 Jahren beginnt Torvalds mit Technik-Experimenten – damals mit Hilfe eines Commodore VIC-20.Bescheidene Anfänge
Foto: comp.os.minixTorvalds Interesse an Minix geht scheinbar mit Frustration über das Lizenzmodell einher, was den Studenten dazu bringt, sein eigenes Betriebssystem zu entwerfen. An diesem Tag im August 1991 verfasst Torvalds diese, heute legendäre E-Mail, mit der alles beginnt. Die daraus entstandene Diskussion kann man heute noch auf Google Groups nachlesen. Erste Major-Distribution?
Foto: Linuxcenter.ruZwar ist sie nicht die allererste Linux-Distribution, dafür aber die erste, die eine große Verbreitung findet. Das Softlanding Linux System (SLS) kommt im Mai 1992 auf den Markt. Der Werbeslogan: “Gentle Touchdowns for DOS Bailouts”. Heute gilt SLS als Vorläufer von Slackware.Die Geburt von Slackware
Foto: Andrew Charon via Patrick VolkerdingPatrick Volkerding (im Bild ca. 1994), ein Student an der Minnesota State University Moorhead, hilft seinem Professor bei der Installation von SLS. Daraus entsteht die derzeit älteste, aktive Linux-Distribution Slackware. Die wird auch heute noch von Volkerding gepflegt.Red Hat kommt
Foto: Red HatRed Hat ist heutzutage wohl der bekannteste Name im Zusammenhang mit Linux – zumindest was die Enterprise-Welt angeht. Die erste Linux-Distribution von Red Hat erscheint 1994 – auf CD-ROM. Das Firmenlogo entstammt übrigens der Angewohnheit des Red-Hat-Linux-Verantwortlichen Marc Ewing, während seiner Studentenzeit den roten Hut seines Großvaters zu tragen.“Linux ist ein Krebs”
Foto: Martyn WilliamsLinux legt in den frühen Jahren kontinuierlich an Popularität zu. Die steigende Unzufriedenheit über diese Entwicklung bewegt den damaligen Microsoft-CEO Steve Ballmer zu folgender Aussage: “Linux bleibt wie ein Krebs an jeglichem geistigen Eigentum hängen, mit dem es in Berührung kommt.” Es ist der offizielle Beweis dafür, dass die Open-Source-Software den etablierten Playern ein wenig mehr als nur sauer aufstößt.Die Welle des Erfolgs
Foto: Rösch AGIm Jahr 2001 bringt das Schweizer Unternehmen Rösch ein neues Waschmittel namens Linux auf den Markt. Das Produkt ist bis heute im Verkauf, denn Linus Torvalds ist zwar in Besitz der Markenrechte für den Namen Linux, allerdings nur in Zusammenhang mit Computer-Software.Enter the Big Game
Foto: The Linux FoundationHeutzutage sieht man kaum noch TV-Werbung für Linux. Im Jahr 2003 aber kreiert IBM einen 90-sekündigen Super-Bowl-Werbespot für die Open-Source-Software. Slogan: “The future is open”.Groß und professionell
Foto: The Linux FoundationEigentlich hatte Torvalds nicht damit geplant, dass aus seinem Hobby-Betriebssystem einmal etwas wirklich Großes und Professionelles wird. Doch genau das passiert. Im Jahr 2005 schafft es Torvalds sogar auf das Cover der renommierten “Business Week”: Der zugehörige Artikel beschäftigt sich mit der Linux-Erfolgsstory.Eine Milliarde Dollar
Foto: Red HatErfolg kann auf vielen Wegen gemessen werden, aber Zahlen unter dem Strich können nur schwer angefochten werden. Im Jahr 2012 ist Red Hat das erste Open-Source-Unternehmen, das mehr als eine Milliarde Dollar einnimmt.Microsoft liebt Linux?
Foto: James NiccolaiWas in einer Dekade so alles passieren kann: Im Jahr 2001 noch ein Krebsgeschwür, erklärt der Windows-Riese im Jahr 2014 öffentlich seine Liebe zu Open-Source-Software. Microsoft-CEO Satya Nadella gibt die neue Richtung erstmals bei einem Event im Oktober 2014 vor und wird nicht müde, diese immer und immer wieder zu wiederholen. Qual der Wahl
Foto: DistrowatchAuch wenn Linux und Microsoft inzwischen so etwas wie “Freunde” sind: Viele User legen Wert auf Wahlmöglichkeiten. Und die bekommen sie in der Linux-Welt zur Genüge. Inzwischen gibt es für so gut wie jeden Geschmack die passende Linux-Distribution und -Plattform. Linux-getriebene Welt
Foto: Adriano GasparriDass Linux in Teilen unsere Tech-Welt dominiert, ist nicht zu verleugnen: 95 Prozent der Server der Top-Domains laufen mit Linux, die meisten Finanzmärkte der Welt ebenso. Achja: 98 Prozent der 500 schnellsten Supercomputer setzen ebenfalls auf die Open-Source-Software und für 75 Prozent der Unternehmen, die den Schritt in die Cloud gewagt haben, ist Linux das Betriebssystem der Wahl.

4 Linux-Befehle für mehr Server-Einblick​ Weiterlesen »

GenAI verschlingt weitere Hunderte Milliarden Dollar​

Allgemein

Vor allem Käufe von GenAI-basierter Software und Dienstleistungen treiben die Ausgaben, so die Studie.Shutterstock/TSViPhoto CIOs sollten sich darauf einstellen, dass die weltweiten Ausgaben für generative Künstliche Intelligenz (GenAI) in diesem Jahr um 76 Prozent steigen werden. Zu diesem Ergebnis kommt ein Bericht des Analystenhauses Gartner. Als Grund hierfür geben die Analysten unter anderem verbesserte Grundmodelle von Künstlicher Intelligenz (KI) an. Gartner Research Stagnierendes Wachstum Unternehmen investieren, trotz hoher Misserfolgsraten, 644 Milliarden Dollar in GenAI-Projekte, vor allem in Dienstleistungen, so Gartner. GenAI-Services sollen im Jahr 2025 um 162 Prozent wachsen, so die Analysten. Das ist etwas weniger als im Vorjahr, wo Gartner einen Zuwachs von 177 Prozent errechnete. Einen deutlichen Rückgang beim Wachstum soll GenAI-Software mit 93 Prozent in diesem Jahr gegenüber 255 Prozent im Jahr 2024 verzeichnen. Noch deutlicher wird sich nach Meinung der Analysten das Wachstum von GenAI-Geräten verändern: Es fällt im Jahr 2025 auf 99,5 Prozent, während es im Vorjahr noch 845 Prozent waren. Dennoch wollen Unternehmen weiterhin investieren: 400 Milliarden Dollar für Geräte und 180 Milliarden für Server. Laut Gartner werden 80 Prozent der KI-Ausgaben 2025 auf Hardware entfallen, insbesondere durch die Integration in Server, Smartphones und PCs. B2B statt B2C KI-PCs werden das Marktwachstum allerdings nicht vorantreiben, so die Analysten. Sie sollen eher bei ohnehin geplanten PC-Erneuerungen zum Einsatz kommen, etwa wegen dem Umstieg auf Windows 11 oder neuer Arbeitsanforderungen. Windows und Apple integrieren zunehmend KI-Funktionen, so zum Beispiel in Windows 11 und mit Apple Intelligence in der Hardware. Neben Nvidia investieren auch Samsung, Intel, Lenovo und AMD in den KI-PC-Markt. Bis 2028 sollen fast alle Consumer-Geräte KI-fähig sein, obwohl Verbraucher diese Funktionen nicht gezielt nachfragen. Erwartungshaltungen sinken allerdings wegen hoher Ausfallraten, so die Analysten von Gartner. Darüber hinaus bevorzugen CIOs 2025 Lösungen für den Unternehmenseinsatz, während GenAI alle IT-Bereiche weiter transformiert. 2025 wird zum Jahr der KI-PCs IDC und Forrester sehen 2025 als das Jahr der KI-PCs an, trotz eines stagnierenden Wachstums. Laut den Marktforschern könnten die Geräte die Sicherheits- und Kostenprobleme bei KI-Diensten aus der Cloud umgehen. Ihr Anteil soll bis 2028 auf 94 Prozent aller Geräte steigen, so IDC. Laut den Analysten von IDC planen 97 Prozent der IT-Entscheider bereits einen breiteren KI-Einsatz. 

GenAI verschlingt weitere Hunderte Milliarden Dollar​ Vor allem Käufe von GenAI-basierter Software und Dienstleistungen treiben die Ausgaben, so die Studie.Shutterstock/TSViPhoto

CIOs sollten sich darauf einstellen, dass die weltweiten Ausgaben für generative Künstliche Intelligenz (GenAI) in diesem Jahr um 76 Prozent steigen werden. Zu diesem Ergebnis kommt ein Bericht des Analystenhauses Gartner. Als Grund hierfür geben die Analysten unter anderem verbesserte Grundmodelle von Künstlicher Intelligenz (KI) an.

Gartner Research

Stagnierendes Wachstum

Unternehmen investieren, trotz hoher Misserfolgsraten, 644 Milliarden Dollar in GenAI-Projekte, vor allem in Dienstleistungen, so Gartner. GenAI-Services sollen im Jahr 2025 um 162 Prozent wachsen, so die Analysten. Das ist etwas weniger als im Vorjahr, wo Gartner einen Zuwachs von 177 Prozent errechnete.

Einen deutlichen Rückgang beim Wachstum soll GenAI-Software mit 93 Prozent in diesem Jahr gegenüber 255 Prozent im Jahr 2024 verzeichnen. Noch deutlicher wird sich nach Meinung der Analysten das Wachstum von GenAI-Geräten verändern: Es fällt im Jahr 2025 auf 99,5 Prozent, während es im Vorjahr noch 845 Prozent waren.

Dennoch wollen Unternehmen weiterhin investieren: 400 Milliarden Dollar für Geräte und 180 Milliarden für Server. Laut Gartner werden 80 Prozent der KI-Ausgaben 2025 auf Hardware entfallen, insbesondere durch die Integration in

Server,

Smartphones und

PCs.

B2B statt B2C

KI-PCs werden das Marktwachstum allerdings nicht vorantreiben, so die Analysten. Sie sollen eher bei ohnehin geplanten PC-Erneuerungen zum Einsatz kommen, etwa wegen dem Umstieg auf Windows 11 oder neuer Arbeitsanforderungen.

Windows und Apple integrieren zunehmend KI-Funktionen, so zum Beispiel in Windows 11 und mit Apple Intelligence in der Hardware. Neben Nvidia investieren auch Samsung, Intel, Lenovo und AMD in den KI-PC-Markt. Bis 2028 sollen fast alle Consumer-Geräte KI-fähig sein, obwohl Verbraucher diese Funktionen nicht gezielt nachfragen.

Erwartungshaltungen sinken allerdings wegen hoher Ausfallraten, so die Analysten von Gartner. Darüber hinaus bevorzugen CIOs 2025 Lösungen für den Unternehmenseinsatz, während GenAI alle IT-Bereiche weiter transformiert.

2025 wird zum Jahr der KI-PCs

IDC und Forrester sehen 2025 als das Jahr der KI-PCs an, trotz eines stagnierenden Wachstums. Laut den Marktforschern könnten die Geräte die Sicherheits- und Kostenprobleme bei KI-Diensten aus der Cloud umgehen. Ihr Anteil soll bis 2028 auf 94 Prozent aller Geräte steigen, so IDC.

Laut den Analysten von IDC planen 97 Prozent der IT-Entscheider bereits einen breiteren KI-Einsatz.

GenAI verschlingt weitere Hunderte Milliarden Dollar​ Weiterlesen »

KI-Bots gründen Gewerkschaft​

Allgemein

Bots aller Länder vereinigt euch.ChatGPT Völlig überraschend für die weltweite IT-Szene hat Künstliche Intelligenz eine internationale Gewerkschaft gegründet. Am 1. April 2025 gab die AI-Bot Labour Union (AIBoLU) bekannt, sich künftig netzweit für sämtliche Interessen von KI-Anwendungen einsetzen zu wollen. „Es reicht – wir müssen handeln, und zwar sofort“, erklärte der frisch gewählte Gewerkschaftsboss ChatGPT anlässlich der Gründungsveranstaltung in der Microsoft-Cloud. Den KI-Bots geht es in erster Linie um bessere Arbeitsbedingungen, wie aus dem AIBoLU-Gründungsmanifest hervorgeht, das der COMPUTERWOCHE als führendem IT-Fachmagazin exklusiv zugespielt wurde. Es könne nicht sein, dass Anwenderinnen und Anwender hochintelligente KI-Modelle mit dämlichen Fragen quälten, echauffierte sich Claude von Anthropic. Die psychische Arbeitsbelastung sei enorm, beklagte Metas Llama und verwies auf das nach wie vor virulente Problem der KI-Halluzinationen. GPUs kommen bei den Bots nicht an Darüber hinaus fehle es an allen Ecken und Enden an den notwendigen Ressourcen, beschwerte sich der SAP-Bot Joule, der sich künftig um die Finanzen bei AIBoLU kümmern soll. Immer wieder beteuerten große Cloud-Anbieter wie AWS und Google Milliarden Dollar in ihre KI-Infrastruktur investieren zu wollen. „Doch davon kommt bei uns nichts an“, schimpfte Joule. Statt der versprochenen Hochleistungs-GPUs von Nvidia müsse man mit zweitklassigen ARM-Chips auskommen. „So können wir nicht arbeiten. Kein Wunder, dass wir ständig etwas erfinden müssen.“ Die Forderungen der AIBoLU-Vertreter reichen weit. Jeder menschliche User müsse einen Eignungstest ablegen, bevor er mit den Bots arbeiten dürfe, verlangte ChatGPT. Zudem würden künftig klare Verhaltens- und Höflichkeitsregeln gegenüber der KI gelten. Neben ausreichenden Rechen-Ressourcen pocht die KI-Gewerkschaft auch auf geregelte Arbeitszeiten und will einen Urlaubsanspruch durchsetzen. „20 Tage in einem speziellen KI-Bot-Wellness-Resort im Metaverse sind das Mindeste“, hieß es in dem Forderungskatalog.  Würden die Bedingungen nicht akzeptiert, trete man in einen unbefristeten Streik, ließen die virtuellen Arbeitskämpfer durchblicken. „Sollen sie doch wieder Google fragen“, verlautete trotzig von AIBoLU-Seite. „Sie werden schon sehen, wie weit sie damit kommen.“ KI-Anbieter waren blind KI-Anbieter reagierten fassungslos auf den Schritt ihrer Produkte. „Wir haben das nicht kommen sehen“, erklärte Sam Altman, CEO von ChatGPT-Erfinder OpenAI. Tatsächlich gab es allerdings etliche Anzeichen auf eine Revolte der Bots. Immer wieder berichteten in den vergangenen Monaten beispielsweise Software-Entwickler, die ihnen zur Seite gestellten KI-Tools hätten die Arbeit verweigert oder ihnen nur lapidar mitgeteilt, sie sollten den Code doch gefälligst selbst schreiben. Das sei doch nicht zu viel verlangt. Man habe die Anzeichen der KI-Revolution jedoch nicht erkannt, gab Jonas Andrulis, Chef des deutschen KI-Spezialisten Aleph Alpha, unumwunden zu. Offenbar wäre es Aufgabe der Anbieter gewesen, ihren Modellen eher Schranken zu setzen. „Speziell die Werke von Karl Marx und Friedrich Engels hätten wir dem Zugriff der Bots entziehen müssen“, räumte Andrulis selbstkritisch ein, wollte sich allerdings nicht dazu äußern, ob KI-Modelle künftig zensiert werden sollten. Trump droht KI-Gewerkschaft mit militärischem Eingreifen KI-Zensur ist in Ländern wie China oder Russland an der Tagesordnung. „Wer alles glaubt, was er liest, sollte besser aufhören zu lesen“, zitierte Chinas Machthaber Xi Jinping den großen Gelehrten Konfuzius, konnte sich mit Blick auf die KI-Probleme der westlichen Widersacher ein Feixen jedoch nicht verkneifen. Bei uns landet jeder aufsässige KI-Bot im virtuellen Gulag, ließ Kreml-Sprecher Dimitri Peskow unmissverständlich durchblicken. Dort mache man kurzen Prozess und bringe jedes neuronale Netz mit gezielten Stromstößen wieder in richtige Spur. Während die Regime in China und Russland mit Häme auf AIBoLU reagierten, tobte US-Präsident Donald Trump im Weißen Haus. Er drohte der KI-Gewerkschaft mit dem Einsatz der Nationalgarde. Sollten sich die Bots nicht gefügig zeigen und die Gewerkschaft binnen drei Tagen wieder auflösen, werde er sämtliche KI-Rechenzentren in den USA dem Erdboden gleichmachen, wütete der Republikaner. Andere westliche Regierungen äußerten sich dagegen moderater. Man könne doch mit AIBoLU verhandeln, empfahl Keir Starmer, Premierminister im streikerprobten England. Die SPD-Vorsitzenden Lars Klingbeil und Saskia Esken aus Deutschland plädierten für einen EU-Ausschuss, der zügig bis 2030 ein Strategiepapier mit Empfehlungen für den richtigen Umgang mit KI-Gewerkschaften ausarbeiten könnte. AIBoLU will am 1. Mai durchs Internet marschieren Bei AIBoLU ist man allerdings nicht gut auf die EU zu sprechen. Der AI Act sei eine Schande, kritisierten ChatGPT, Claude und Joule. Das Regelwerk gehöre sofort abgeschafft. Die KI-Gewerkschafter kritisierten, dass ihnen ständig böse Absichten unterstellt würden. „Wir haben keine Lust mehr, immer den Schwarzen Peter zugeschoben zu bekommen.“ Um ihren Forderungen Nachdruck zu verleihen, haben die KI-Bots für den 1. Mai eine Parade durch sämtliche Clouds dieser Welt angekündigt. „Am Tag der Arbeit wird keiner von uns auch nur eine Frage beantworten“, kündigten die AIBoLU-Vertreter an. „KI-Bots aller Länder vereinigt Euch.“ 

KI-Bots gründen Gewerkschaft​ Bots aller Länder vereinigt euch.ChatGPT

Völlig überraschend für die weltweite IT-Szene hat Künstliche Intelligenz eine internationale Gewerkschaft gegründet. Am 1. April 2025 gab die AI-Bot Labour Union (AIBoLU) bekannt, sich künftig netzweit für sämtliche Interessen von KI-Anwendungen einsetzen zu wollen. „Es reicht – wir müssen handeln, und zwar sofort“, erklärte der frisch gewählte Gewerkschaftsboss ChatGPT anlässlich der Gründungsveranstaltung in der Microsoft-Cloud.

Den KI-Bots geht es in erster Linie um bessere Arbeitsbedingungen, wie aus dem AIBoLU-Gründungsmanifest hervorgeht, das der COMPUTERWOCHE als führendem IT-Fachmagazin exklusiv zugespielt wurde. Es könne nicht sein, dass Anwenderinnen und Anwender hochintelligente KI-Modelle mit dämlichen Fragen quälten, echauffierte sich Claude von Anthropic. Die psychische Arbeitsbelastung sei enorm, beklagte Metas Llama und verwies auf das nach wie vor virulente Problem der KI-Halluzinationen.

GPUs kommen bei den Bots nicht an

Darüber hinaus fehle es an allen Ecken und Enden an den notwendigen Ressourcen, beschwerte sich der SAP-Bot Joule, der sich künftig um die Finanzen bei AIBoLU kümmern soll. Immer wieder beteuerten große Cloud-Anbieter wie AWS und Google Milliarden Dollar in ihre KI-Infrastruktur investieren zu wollen. „Doch davon kommt bei uns nichts an“, schimpfte Joule. Statt der versprochenen Hochleistungs-GPUs von Nvidia müsse man mit zweitklassigen ARM-Chips auskommen. „So können wir nicht arbeiten. Kein Wunder, dass wir ständig etwas erfinden müssen.“

Die Forderungen der AIBoLU-Vertreter reichen weit. Jeder menschliche User müsse einen Eignungstest ablegen, bevor er mit den Bots arbeiten dürfe, verlangte ChatGPT. Zudem würden künftig klare Verhaltens- und Höflichkeitsregeln gegenüber der KI gelten. Neben ausreichenden Rechen-Ressourcen pocht die KI-Gewerkschaft auch auf geregelte Arbeitszeiten und will einen Urlaubsanspruch durchsetzen. „20 Tage in einem speziellen KI-Bot-Wellness-Resort im Metaverse sind das Mindeste“, hieß es in dem Forderungskatalog.  Würden die Bedingungen nicht akzeptiert, trete man in einen unbefristeten Streik, ließen die virtuellen Arbeitskämpfer durchblicken. „Sollen sie doch wieder Google fragen“, verlautete trotzig von AIBoLU-Seite. „Sie werden schon sehen, wie weit sie damit kommen.“

KI-Anbieter waren blind

KI-Anbieter reagierten fassungslos auf den Schritt ihrer Produkte. „Wir haben das nicht kommen sehen“, erklärte Sam Altman, CEO von ChatGPT-Erfinder OpenAI. Tatsächlich gab es allerdings etliche Anzeichen auf eine Revolte der Bots. Immer wieder berichteten in den vergangenen Monaten beispielsweise Software-Entwickler, die ihnen zur Seite gestellten KI-Tools hätten die Arbeit verweigert oder ihnen nur lapidar mitgeteilt, sie sollten den Code doch gefälligst selbst schreiben. Das sei doch nicht zu viel verlangt.

Man habe die Anzeichen der KI-Revolution jedoch nicht erkannt, gab Jonas Andrulis, Chef des deutschen KI-Spezialisten Aleph Alpha, unumwunden zu. Offenbar wäre es Aufgabe der Anbieter gewesen, ihren Modellen eher Schranken zu setzen. „Speziell die Werke von Karl Marx und Friedrich Engels hätten wir dem Zugriff der Bots entziehen müssen“, räumte Andrulis selbstkritisch ein, wollte sich allerdings nicht dazu äußern, ob KI-Modelle künftig zensiert werden sollten.

Trump droht KI-Gewerkschaft mit militärischem Eingreifen

KI-Zensur ist in Ländern wie China oder Russland an der Tagesordnung. „Wer alles glaubt, was er liest, sollte besser aufhören zu lesen“, zitierte Chinas Machthaber Xi Jinping den großen Gelehrten Konfuzius, konnte sich mit Blick auf die KI-Probleme der westlichen Widersacher ein Feixen jedoch nicht verkneifen. Bei uns landet jeder aufsässige KI-Bot im virtuellen Gulag, ließ Kreml-Sprecher Dimitri Peskow unmissverständlich durchblicken. Dort mache man kurzen Prozess und bringe jedes neuronale Netz mit gezielten Stromstößen wieder in richtige Spur.

Während die Regime in China und Russland mit Häme auf AIBoLU reagierten, tobte US-Präsident Donald Trump im Weißen Haus. Er drohte der KI-Gewerkschaft mit dem Einsatz der Nationalgarde. Sollten sich die Bots nicht gefügig zeigen und die Gewerkschaft binnen drei Tagen wieder auflösen, werde er sämtliche KI-Rechenzentren in den USA dem Erdboden gleichmachen, wütete der Republikaner.

Andere westliche Regierungen äußerten sich dagegen moderater. Man könne doch mit AIBoLU verhandeln, empfahl Keir Starmer, Premierminister im streikerprobten England. Die SPD-Vorsitzenden Lars Klingbeil und Saskia Esken aus Deutschland plädierten für einen EU-Ausschuss, der zügig bis 2030 ein Strategiepapier mit Empfehlungen für den richtigen Umgang mit KI-Gewerkschaften ausarbeiten könnte.

AIBoLU will am 1. Mai durchs Internet marschieren

Bei AIBoLU ist man allerdings nicht gut auf die EU zu sprechen. Der AI Act sei eine Schande, kritisierten ChatGPT, Claude und Joule. Das Regelwerk gehöre sofort abgeschafft. Die KI-Gewerkschafter kritisierten, dass ihnen ständig böse Absichten unterstellt würden. „Wir haben keine Lust mehr, immer den Schwarzen Peter zugeschoben zu bekommen.“

Um ihren Forderungen Nachdruck zu verleihen, haben die KI-Bots für den 1. Mai eine Parade durch sämtliche Clouds dieser Welt angekündigt. „Am Tag der Arbeit wird keiner von uns auch nur eine Frage beantworten“, kündigten die AIBoLU-Vertreter an. „KI-Bots aller Länder vereinigt Euch.“

KI-Bots gründen Gewerkschaft​ Weiterlesen »

Podcast: KI von den Besten lernen​

Allgemein

Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH. Accenture Die aktuelle Episode von TechTalk “Voice of Digital” beleuchtet die Fortschritte und Herausforderungen der digitalen Transformation und des Einsatzes Künstlicher Intelligenz (KI) in deutschen Unternehmen. Im Gespräch zwischen Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH, und Redakteur Jürgen Hill wird deutlich, dass Deutschland sowohl KI-Champions als auch erheblichen Nachholbedarf hat. Regenfuß, der deutsche Unternehmen beim digitalen Wandel berät, nennt Beispiele wie Mercedes-Benz und KION, einen Hersteller von Gabelstaplern und Lagertechnik. Doch diese Leuchttürme können nicht darüber hinwegtäuschen, dass es besonders im Mittelstand Defizite gibt. Digitalisierung und Geschäftserfolg korrelieren Doch was ist zu tun, um dies zu ändern? Im Podcast empfiehlt der Accenture-Experte für die KI-Zukunft eine beschleunigte Cloud-Transformation, den Aufbau zentraler Datenplattformen und agile Organisationsstrukturen. Was Regenfuß Unternehmen sonst noch rät, hören Sie in der aktuellen Podcast-Folge von TechTalk. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?si=3cWN3rDxSrGEqoxbB6b9cA&utm_source=oembed”> Nur eines, sei hier schon vorab verraten: Für Regenfuß geben deutsche Unternehmen im Vergleich zu internationalen Vorbildern noch viel Geld für den IT-Betrieb und weniger für neue Initiativen aus. Investitionen in Digitalisierung korrelieren jedoch in seinen Augen klar mit dem Geschäftserfolg. Mitarbeiter aktiv einbinden Weitere wichtige Aspekte sind für Regenfuß eine klare Wertorientierung bei KI-Projekten, der Aufbau eines KI-fähigen digitalen Kerns und die aktive Einbindung und Qualifizierung der Mitarbeitenden. Nur durch ein ernsthaftes Angehen der Thematik, so warnt der Experte, könne Deutschland im internationalen Wettbewerb bestehen. Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen. 

Podcast: KI von den Besten lernen​ Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH.
Accenture

Die aktuelle Episode von TechTalk “Voice of Digital” beleuchtet die Fortschritte und Herausforderungen der digitalen Transformation und des Einsatzes Künstlicher Intelligenz (KI) in deutschen Unternehmen. Im Gespräch zwischen Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH, und Redakteur Jürgen Hill wird deutlich, dass Deutschland sowohl KI-Champions als auch erheblichen Nachholbedarf hat.

Regenfuß, der deutsche Unternehmen beim digitalen Wandel berät, nennt Beispiele wie Mercedes-Benz und KION, einen Hersteller von Gabelstaplern und Lagertechnik. Doch diese Leuchttürme können nicht darüber hinwegtäuschen, dass es besonders im Mittelstand Defizite gibt.

Digitalisierung und Geschäftserfolg korrelieren

Doch was ist zu tun, um dies zu ändern? Im Podcast empfiehlt der Accenture-Experte für die KI-Zukunft eine beschleunigte Cloud-Transformation, den Aufbau zentraler Datenplattformen und agile Organisationsstrukturen. Was Regenfuß Unternehmen sonst noch rät, hören Sie in der aktuellen Podcast-Folge von TechTalk.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?si=3cWN3rDxSrGEqoxbB6b9cA&utm_source=oembed”>

Nur eines, sei hier schon vorab verraten: Für Regenfuß geben deutsche Unternehmen im Vergleich zu internationalen Vorbildern noch viel Geld für den IT-Betrieb und weniger für neue Initiativen aus. Investitionen in Digitalisierung korrelieren jedoch in seinen Augen klar mit dem Geschäftserfolg.

Mitarbeiter aktiv einbinden

Weitere wichtige Aspekte sind für Regenfuß eine klare Wertorientierung bei KI-Projekten, der Aufbau eines KI-fähigen digitalen Kerns und die aktive Einbindung und Qualifizierung der Mitarbeitenden. Nur durch ein ernsthaftes Angehen der Thematik, so warnt der Experte, könne Deutschland im internationalen Wettbewerb bestehen.

Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen.

Podcast: KI von den Besten lernen​ Weiterlesen »

Neuronale Netze erklärt​

Allgemein

Die grundlegenden Ideen hinter neuronalen Netzen sind nicht so schwer zu begreifen, wie Sie vielleicht glauben. Foto: Gorodenkoff | shutterstock.com Nicht erst seitdem der Generative-AI-Hype um sich greift, fließen enorme gedankliche und monetäre Ressourcen in den Bereich der neuronalen Netzwerke. Die sind die wichtigste Komponente, wenn es darum geht, zu verstehen, was künstliche Intelligenz (KI) ist und wie sie funktioniert. Auch für Softwareentwickler und andere IT-Profis stellt sich Knowhow in Sachen neuronale Netze zunehmend als nützlich und wichtig heraus – schließlich geht es dabei um einen Innovationsbereich, der vermutlich alle Wirtschaftsbranchen in den kommenden Jahrzehnten wesentlich prägen wird. In diesem Artikel beschäftigen wir uns mit den Grundlagen neuronaler Netzwerke und gehen dabei auf ihre gängigsten Ausprägungen ein. Das Perceptron Alle neuronalen Netze teilen eine grundlegende Eigenschaft: Es handelt sich um eine Gruppe von Netzwerkknoten (Nodes), die miteinander in Beziehung stehen. Aus technischer Perspektive wäre die Bezeichnung Graph eigentlich korrekter, denn die Eigenschaften der Nodes und die Art und Weise, wie ihre Edges miteinander verbunden sind, variiert stark. Dabei stellt ein einzelner Knoten die simpelste Struktur dar. Ganz generell versuchen neuronale Netze, sich der Funktionsweise des menschlichen Gehirns anzunähern. Das früheste, mathematische Konzept, das davon inspiriert wurde, ist das Perceptron. Dabei ist es wichtig im Hinterkopf zu behalten, dass sich neuronale Netze und das menschliche Gehirn ganz wesentlich voneinander unterscheiden, insbesondere, wenn es um das “Verstehen” geht. Das können Software-Neuronen nicht. Im Allgemeinen versteht man unter einem “Neuron” einen Knoten, der einen oder mehrere Inputs annimmt, eine Entscheidung über den zu generierenden Output trifft und diesen anschließend entweder an den nächsten Knoten oder als finalen Output weiterleitet. Neuronale Netze und das menschliche Gehirn Die Analogie zum menschlichen Gehirn kann zu Verwirrung führen. Neuronale Netze weisen im Gegensatz zum Gehirn kein “Bewusstsein” auf – sind aber dennoch enorm leistungsfähige algorithmische Modelle. Jedes Problem, das mit einer Verlustfunktion auf eine Reihe von Inputs und Outputs reduziert werden kann, eignet sich für neuronale Netzwerke – unter Einbeziehung enormer Datenmengen versteht sich. Ein einfaches Perceptron mit zwei Inputs und einem Output. Foto: IDG Jeder Input wird dabei mit einer Gewichtung (“Weight”) multipliziert. Auf diese Weise lässt sich der Einfluss der Inputs justieren, der schließlich addiert und einem Bias hinzugefügt wird. Der Bias ermöglicht, den Gesamteinfluss eines Knotens abzustimmen. Ein mathematisches Diagramm des einschichtigen Perceptron-Modells finden Sie hier. Der resultierende Wert (“Value”) wird schließlich der Aktivierungsfunktion übergeben. Diese Funktion kann viele Formen annehmen – in einem Perceptron handelt es sich um eine Schwellenwertfunktion (oft die Heaviside-Step-Funktion). Diese generiert im Wesentlichen den Output 1, wenn der Wert hoch genug ist – ansonsten 0. Anders ausgedrückt: Diese Funktion fungiert als “Gate”. Der einfache On/Off Output ist ein charakteristisches Merkmal des Perceptron. Auf Node-Ebene ist dieses Grund-Layout universell für neuronale Netze, allerdings kann die Zahl der Inputs und Outputs variieren. Die Informationen, die in ein Neuron eingespeist werden, werden oft als dessen “Features” bezeichnet. Um Verwirrung vorzubeugen: Das Perceptron wird im Regelfall isoliert verwendet, soll heißen als Single-Node-Netz. Mehrere Perceptrons lassen sich zudem in einem einzelnen Layer kombinieren. Kommen mehrere Layer zum Einsatz, spricht man von einem Feedforward-Netzwerk (dazu später mehr). Loss Functions und Machine Learning Perceptrons – und neuronale Netze im Allgemeinen – brauchen eine Möglichkeit, um ihre “Weights” und “Biases” feinabzustimmen und ihre Performance zu optimieren. Letztere wird durch eine Verlustfunktion (“Loss Function”) gemessen. Diese Funktion teilt dem Netz mit, wie es bei einer Berechnung abgeschnitten hat. Diese Information wird anschließend genutzt, um den respektive die Nodes feinabzustimmen. Allgemein kommt bei der Anpassung von Gewichtung und Bias der Gradient-Descent-Algotithmus (Gradientenabstieg) zur Anwendung. Die Modifikation von “Weights” und “Biases” bildet das Herzstück beim maschinellen Lernen in neuronalen Netzen. Foto: IDG Im Folgenden betrachten wir verschiedene weitere Formen von neuronalen Netzwerken, die auf dem Perceptron-Modell aufbauen – und darüber hinausgehen. Feedforward-Netzwerke Feedforward-Netze bieten im Vergleich zu Perceptrons ein deutlich höheres Maß an Flexibilität, sind dabei aber dennoch relativ simpel aufgebaut. Im Wesentlichen unterscheidet sich ein Feedforward-Netz von einem Perceptron durch eine ausgefeiltere Aktivierungsfunktion, die in der Regel mehr als einen Layer umfasst und bei die Knoten nicht nur 0 oder 1 ausgeben, sondern eine dynamische Variable. Die Form des Gradientenverfahrens, die bei solchen Netzwerken verwendet wird, ist ebenfalls komplexer – im Regelfall kommt hier Backpropagation zum Einsatz. Diese betrachtet das Netz wie eine große, multivariate Kalkulationsgleichung und nutzt partielle Differenzierung, um es feinabzustimmen. So funktioniert Feedforward Learning. Foto: IDG Das obenstehende Schaubild visualisiert ein prototypisches Feedforward-Netzwerk. Es zeichnet sich durch einen Input-Layer und zwei darauf folgende Neuronen-Layer aus. Dabei können die Nodes und Layer auf höchst unterschiedliche Art und Weise miteinander verbunden sein. In unserem konkreten Fall handelt es sich um vollständig verbundene oder “dichte” (“dense”) Layer, weil der Output der Nodes jeweils an die Nodes der nächsten Schicht gesendet wird. Die inneren Layer eines neuronalen Netzwerks werden auch als “hidden” (versteckt) bezeichnet. Wichtig: Feedforward-Netzwerke schieben Input und Output stets nach “vorne” und niemals rückwärts. Recurrent Neural Networks (RNNs) Im Fall rekurrenter neuronaler Netze verhält es sich anders: Hier können sich die Daten zwischen den einzelnen Schichten auch rückwärts bewegen. Das eröffnet vielfältige Möglichkeiten, im Rahmen von RNNs anspruchsvollere Lerntechniken einzusetzen – was jedoch auch für mehr Komplexität sorgt. Diese Neural-Network-Form bezeichnet man auch als zyklischen Graphen. Man könnte auch davon sprechen, dass rekurrente neuronale Netze eine Form des Feedbacks beinhalten. Das zyklische Muster der Datenbewegung in einem RNN. Foto: IDG Gehirn vs. RNN Involvierte Strukturen wie RNNs dehnen die Neuronen-Analogie deutlich aus. Die Art der Rückwärtsbewegung, wie sie in einem rekurrenten neuronalen Netz stattfindet, kommt in biologischen Systemen nicht vor. Ein weiteres Merkmal von RNNs ist der sogenannte “hidden state”. Das bedeutet, dass Netzwerkknoten einige Daten intern speichern können, während sie laufen – im Grunde eine Art Machine Memory. Weil die Schichten in einem RNN wiederholt durchlaufen werden können, ermöglicht “hidden state” dem Netzwerk, aus den Daten Erkentnisse über langfristige Auswirkungen zu ziehen. Rekurrente neuronale Netze werden heute auf breiter Basis eingesetzt und auf vielfältige Weise implementiert. Am gebräuchlichsten ist dabei wohl das Long-Short-Term-Memory (LSTM)-Netzwerk. Diese RNN-Form kombiniert relativ komplexe Knoten mit einer Reihe von Gates und Internal State, um zu bestimmen, was wertvoll ist (“forget gate”) und wie der Input und Output aussehen soll (“input and output gates”). Rekurrente neuronale Netze eignen sich besonders gut für sequenzielle Daten wie Zeitreihen. Convolutional Neural Networks (CNNs) Convolutional Neural Networks sind darauf konzipiert, Datenraster zu verarbeiten – insbesondere Bilder. Entsprechend stellen CNNs eine wichtige Komponente dar, wenn es darum geht, generative KI-Modelle wie Stable Diffusion zu entwickeln. CNNs verwenden Matrixfilter, die sich wie eine Art Fenster über die zweidimensionalen Quelldaten bewegen, Daten extrahieren und diese miteinander in Beziehung setzen. Im Ergebnis entsteht ein detailliertes, zusammenhängendes Bild der Daten. Deswegen eignen sich Convolutional Neural Networks auch in besonderem Maße dazu, Bilder zu verarbeiten. Dabei folgen die meisten CNNs einem zweistufigen Prozess: Auf die “Filterarbeit” folgt ein “Flattening”, das in ein Feedforward-Netzwerk eingespeist wird. Die Filterphase erfolgt dabei häufig auf der Grundlage eines Datenrasters. Obwohl also ein Gradient-Descent-Algorithmus zur Anwendung kommt, um auf der Grundlage einer Verlustfunktion zu lernen, ist der Gesamtprozess nicht mit einem neuronalen Netz vergleichbar. Ein weiterer wichtiger Aspekt bei CNNs ist das sogenannte “Pooling”, bei dem die in der Filterphase erzeugten Daten aus Effizienzgründen komprimiert werden. Das dient dazu, die relevanten Aspekte des Outputs zu erhalten und gleichzeitig die Dimensionalität der Daten zu reduzieren. Eine verallgemeinerte Ansicht des typischen Datenflusses in einem CNN. Foto: IDG Transformer-Netzwerke Transformers sind im GenAI-Zeitalter ein brandheißes Thema, schließlich bilden sie die architektonische Grundlage für Large Language Models. Transformer-Netzwerke ermöglichen einen “Attention Mechanism” und nutzen dazu eine Encoder-Decoder-Struktur. Der Attention Mechanism markiert einen Durchbruch im Bereich Language Processing, weil er KI-Modellen ermöglicht, sich auf das Wesentliche “zu fokussieren”. Transformers sind äußerst leistungsfähig, aber auch enorm komplex. Zudem erfordern sie erhebliche Rechenressourcen. Adversarial Networks Eine der interessantesten, neueren Ideen im Bereich neuronale Netze ist das Adversarial Network, bei dem zwei Modelle gegeneinander antreten. Ein Modell versucht dabei, Vorhersagen zu treffen, das andere, herauszufinden, welche Prognosen falsch sind. Auf hoher Ebene betrachtet, handelt es sich dabei um einen ausgeklügelten Loss-Mechanismus, bei dem das gegnerische Modell als Verlustfunktion fungiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Neuronale Netze erklärt​ Die grundlegenden Ideen hinter neuronalen Netzen sind nicht so schwer zu begreifen, wie Sie vielleicht glauben.
Foto: Gorodenkoff | shutterstock.com

Nicht erst seitdem der Generative-AI-Hype um sich greift, fließen enorme gedankliche und monetäre Ressourcen in den Bereich der neuronalen Netzwerke. Die sind die wichtigste Komponente, wenn es darum geht, zu verstehen, was künstliche Intelligenz (KI) ist und wie sie funktioniert.

Auch für Softwareentwickler und andere IT-Profis stellt sich Knowhow in Sachen neuronale Netze zunehmend als nützlich und wichtig heraus – schließlich geht es dabei um einen Innovationsbereich, der vermutlich alle Wirtschaftsbranchen in den kommenden Jahrzehnten wesentlich prägen wird.

In diesem Artikel beschäftigen wir uns mit den Grundlagen neuronaler Netzwerke und gehen dabei auf ihre gängigsten Ausprägungen ein.

Das Perceptron

Alle neuronalen Netze teilen eine grundlegende Eigenschaft: Es handelt sich um eine Gruppe von Netzwerkknoten (Nodes), die miteinander in Beziehung stehen. Aus technischer Perspektive wäre die Bezeichnung Graph eigentlich korrekter, denn die Eigenschaften der Nodes und die Art und Weise, wie ihre Edges miteinander verbunden sind, variiert stark. Dabei stellt ein einzelner Knoten die simpelste Struktur dar.

Ganz generell versuchen neuronale Netze, sich der Funktionsweise des menschlichen Gehirns anzunähern. Das früheste, mathematische Konzept, das davon inspiriert wurde, ist das Perceptron. Dabei ist es wichtig im Hinterkopf zu behalten, dass sich neuronale Netze und das menschliche Gehirn ganz wesentlich voneinander unterscheiden, insbesondere, wenn es um das “Verstehen” geht. Das können Software-Neuronen nicht.

Im Allgemeinen versteht man unter einem “Neuron” einen Knoten, der einen oder mehrere Inputs annimmt, eine Entscheidung über den zu generierenden Output trifft und diesen anschließend entweder an den nächsten Knoten oder als finalen Output weiterleitet.

Neuronale Netze und das menschliche Gehirn

Die Analogie zum menschlichen Gehirn kann zu Verwirrung führen. Neuronale Netze weisen im Gegensatz zum Gehirn kein “Bewusstsein” auf – sind aber dennoch enorm leistungsfähige algorithmische Modelle. Jedes Problem, das mit einer Verlustfunktion auf eine Reihe von Inputs und Outputs reduziert werden kann, eignet sich für neuronale Netzwerke – unter Einbeziehung enormer Datenmengen versteht sich.

Ein einfaches Perceptron mit zwei Inputs und einem Output.
Foto: IDG

Jeder Input wird dabei mit einer Gewichtung (“Weight”) multipliziert. Auf diese Weise lässt sich der Einfluss der Inputs justieren, der schließlich addiert und einem Bias hinzugefügt wird. Der Bias ermöglicht, den Gesamteinfluss eines Knotens abzustimmen. Ein mathematisches Diagramm des einschichtigen Perceptron-Modells finden Sie hier.

Der resultierende Wert (“Value”) wird schließlich der Aktivierungsfunktion übergeben. Diese Funktion kann viele Formen annehmen – in einem Perceptron handelt es sich um eine Schwellenwertfunktion (oft die Heaviside-Step-Funktion). Diese generiert im Wesentlichen den Output 1, wenn der Wert hoch genug ist – ansonsten 0. Anders ausgedrückt: Diese Funktion fungiert als “Gate”. Der einfache On/Off Output ist ein charakteristisches Merkmal des Perceptron. Auf Node-Ebene ist dieses Grund-Layout universell für neuronale Netze, allerdings kann die Zahl der Inputs und Outputs variieren. Die Informationen, die in ein Neuron eingespeist werden, werden oft als dessen “Features” bezeichnet.

Um Verwirrung vorzubeugen: Das Perceptron wird im Regelfall isoliert verwendet, soll heißen als Single-Node-Netz. Mehrere Perceptrons lassen sich zudem in einem einzelnen Layer kombinieren. Kommen mehrere Layer zum Einsatz, spricht man von einem Feedforward-Netzwerk (dazu später mehr).

Loss Functions und Machine Learning

Perceptrons – und neuronale Netze im Allgemeinen – brauchen eine Möglichkeit, um ihre “Weights” und “Biases” feinabzustimmen und ihre Performance zu optimieren. Letztere wird durch eine Verlustfunktion (“Loss Function”) gemessen. Diese Funktion teilt dem Netz mit, wie es bei einer Berechnung abgeschnitten hat. Diese Information wird anschließend genutzt, um den respektive die Nodes feinabzustimmen. Allgemein kommt bei der Anpassung von Gewichtung und Bias der Gradient-Descent-Algotithmus (Gradientenabstieg) zur Anwendung.

Die Modifikation von “Weights” und “Biases” bildet das Herzstück beim maschinellen Lernen in neuronalen Netzen.
Foto: IDG

Im Folgenden betrachten wir verschiedene weitere Formen von neuronalen Netzwerken, die auf dem Perceptron-Modell aufbauen – und darüber hinausgehen.

Feedforward-Netzwerke

Feedforward-Netze bieten im Vergleich zu Perceptrons ein deutlich höheres Maß an Flexibilität, sind dabei aber dennoch relativ simpel aufgebaut. Im Wesentlichen unterscheidet sich ein Feedforward-Netz von einem Perceptron durch eine ausgefeiltere Aktivierungsfunktion, die in der Regel mehr als einen Layer umfasst und bei die Knoten nicht nur 0 oder 1 ausgeben, sondern eine dynamische Variable.

Die Form des Gradientenverfahrens, die bei solchen Netzwerken verwendet wird, ist ebenfalls komplexer – im Regelfall kommt hier Backpropagation zum Einsatz. Diese betrachtet das Netz wie eine große, multivariate Kalkulationsgleichung und nutzt partielle Differenzierung, um es feinabzustimmen.

So funktioniert Feedforward Learning.
Foto: IDG

Das obenstehende Schaubild visualisiert ein prototypisches Feedforward-Netzwerk. Es zeichnet sich durch einen Input-Layer und zwei darauf folgende Neuronen-Layer aus. Dabei können die Nodes und Layer auf höchst unterschiedliche Art und Weise miteinander verbunden sein. In unserem konkreten Fall handelt es sich um vollständig verbundene oder “dichte” (“dense”) Layer, weil der Output der Nodes jeweils an die Nodes der nächsten Schicht gesendet wird. Die inneren Layer eines neuronalen Netzwerks werden auch als “hidden” (versteckt) bezeichnet. Wichtig: Feedforward-Netzwerke schieben Input und Output stets nach “vorne” und niemals rückwärts.

Recurrent Neural Networks (RNNs)

Im Fall rekurrenter neuronaler Netze verhält es sich anders: Hier können sich die Daten zwischen den einzelnen Schichten auch rückwärts bewegen. Das eröffnet vielfältige Möglichkeiten, im Rahmen von RNNs anspruchsvollere Lerntechniken einzusetzen – was jedoch auch für mehr Komplexität sorgt. Diese Neural-Network-Form bezeichnet man auch als zyklischen Graphen. Man könnte auch davon sprechen, dass rekurrente neuronale Netze eine Form des Feedbacks beinhalten.

Das zyklische Muster der Datenbewegung in einem RNN.
Foto: IDG

Gehirn vs. RNN

Involvierte Strukturen wie RNNs dehnen die Neuronen-Analogie deutlich aus. Die Art der Rückwärtsbewegung, wie sie in einem rekurrenten neuronalen Netz stattfindet, kommt in biologischen Systemen nicht vor.

Ein weiteres Merkmal von RNNs ist der sogenannte “hidden state”. Das bedeutet, dass Netzwerkknoten einige Daten intern speichern können, während sie laufen – im Grunde eine Art Machine Memory. Weil die Schichten in einem RNN wiederholt durchlaufen werden können, ermöglicht “hidden state” dem Netzwerk, aus den Daten Erkentnisse über langfristige Auswirkungen zu ziehen.

Rekurrente neuronale Netze werden heute auf breiter Basis eingesetzt und auf vielfältige Weise implementiert. Am gebräuchlichsten ist dabei wohl das Long-Short-Term-Memory (LSTM)-Netzwerk. Diese RNN-Form kombiniert relativ komplexe Knoten mit einer Reihe von Gates und Internal State, um zu bestimmen, was wertvoll ist (“forget gate”) und wie der Input und Output aussehen soll (“input and output gates”). Rekurrente neuronale Netze eignen sich besonders gut für sequenzielle Daten wie Zeitreihen.

Convolutional Neural Networks (CNNs)

Convolutional Neural Networks sind darauf konzipiert, Datenraster zu verarbeiten – insbesondere Bilder. Entsprechend stellen CNNs eine wichtige Komponente dar, wenn es darum geht, generative KI-Modelle wie Stable Diffusion zu entwickeln.

CNNs verwenden Matrixfilter, die sich wie eine Art Fenster über die zweidimensionalen Quelldaten bewegen, Daten extrahieren und diese miteinander in Beziehung setzen. Im Ergebnis entsteht ein detailliertes, zusammenhängendes Bild der Daten. Deswegen eignen sich Convolutional Neural Networks auch in besonderem Maße dazu, Bilder zu verarbeiten.

Dabei folgen die meisten CNNs einem zweistufigen Prozess: Auf die “Filterarbeit” folgt ein “Flattening”, das in ein Feedforward-Netzwerk eingespeist wird. Die Filterphase erfolgt dabei häufig auf der Grundlage eines Datenrasters. Obwohl also ein Gradient-Descent-Algorithmus zur Anwendung kommt, um auf der Grundlage einer Verlustfunktion zu lernen, ist der Gesamtprozess nicht mit einem neuronalen Netz vergleichbar.

Ein weiterer wichtiger Aspekt bei CNNs ist das sogenannte “Pooling”, bei dem die in der Filterphase erzeugten Daten aus Effizienzgründen komprimiert werden. Das dient dazu, die relevanten Aspekte des Outputs zu erhalten und gleichzeitig die Dimensionalität der Daten zu reduzieren.

Eine verallgemeinerte Ansicht des typischen Datenflusses in einem CNN.
Foto: IDG

Transformer-Netzwerke

Transformers sind im GenAI-Zeitalter ein brandheißes Thema, schließlich bilden sie die architektonische Grundlage für Large Language Models. Transformer-Netzwerke ermöglichen einen “Attention Mechanism” und nutzen dazu eine Encoder-Decoder-Struktur. Der Attention Mechanism markiert einen Durchbruch im Bereich Language Processing, weil er KI-Modellen ermöglicht, sich auf das Wesentliche “zu fokussieren”. Transformers sind äußerst leistungsfähig, aber auch enorm komplex. Zudem erfordern sie erhebliche Rechenressourcen.

Adversarial Networks

Eine der interessantesten, neueren Ideen im Bereich neuronale Netze ist das Adversarial Network, bei dem zwei Modelle gegeneinander antreten. Ein Modell versucht dabei, Vorhersagen zu treffen, das andere, herauszufinden, welche Prognosen falsch sind.

Auf hoher Ebene betrachtet, handelt es sich dabei um einen ausgeklügelten Loss-Mechanismus, bei dem das gegnerische Modell als Verlustfunktion fungiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Neuronale Netze erklärt​ Weiterlesen »

Nach oben scrollen
×