Computerhaus Quickborn

Allgemein

E-Rezept: Apotheken kritisieren Zuverlässigkeit der Gematik​

Allgemein

Das E-Rezept – ein Quell ständiger „Freuden“, denn Ausfälle trüben den Umgang damit. Inside Creative House – Shutterstock.com „Das E-Rezept läuft der Deutschen Bahn in Sachen Unzuverlässigkeit inzwischen leider den Rang ab“, mit diesen harten Worten echauffierte sich Thomas Preis, Präsident der Bundesvereinigung Deutscher Apothekerverbände (ABDA), gegenüber den Medien des Redaktionsnetzwerks Deutschland (RND) über die Zuverlässigkeit des elektronischen Rezepts. Stein des Anstoßes: Allein in den vergangen zwei Wochen kam es wohl an fünf Tagen zu Komplettausfällen oder erheblichen Beeinträchtigungen des Systems. Wieder ein Beispiel dafür, dass Deutschland Digitalisierung doch nicht kann? Im Zentrum der Kritik der Apotheken steht dabei die hinter dem E-Rezept liegende Telematikinfrastruktur (TI). Sie soll eigentlich eine sichere Vernetzung der medizinischen Versorgung innerhalb Deutschlands ermöglichen – also Arztpraxen, Krankenhäuser und Apotheken digital miteinander verbinden. Zuständig dafür ist die Gematik GmbH, an der das Bundesministerium für Gesundheit 51 Prozent hält. Der IT-Dienstleister für das Gesundheitswesen ist auch für die elektronische Patientenakte (ePA) zuständig. Gematik in der Kritik Allerdings hat sich die Gematik bereits in Vergangenheit nicht mit Ruhm bekleckert. So schrieb die COMPUTERWOCHE bereits 2019 angesichts der Kritik des Bundesrechnungshofes mit Blick auf die Gematik von „mehr als 20 Jahre Pleiten Pech und Pannen“. Und auch die Einführung der ePA war alles andere als eine Erfolgsstory. So kam es etwa bei der Einführung zu endlosen Verzögerungen. Und der Chaos Computer Club (CCC) bemängelte technische Schwachstellen in Sachen Sicherheit. Datenschützer kritisieren zudem eine mangelnde Transparenz. Damit reiht sich die Kritik der Apotheken nahtlos in die pannenreiche Geschichte der Gematik ein. Frustriert fordert Preis, „die Gematik müsse dafür sorgen, dass Apotheken und Arztpraxen in einem stabilen System arbeiten können“. Zudem bräuchten die Apotheken mehr Handlungsfreiheiten, um Patienten trotzdem schnell und unbürokratisch mit notwendigen Medikamenten zu versorgen. Schließlich seien jedes Mal Zehntausende von den Ausfällen betroffen gewesen. Aber auch die Ärzte kommen bei Preis nicht ungeschoren davon. Sie müssen in seinen Augen den Umgang mit dem E-Rezept ändern. „Viele Medizinerinnen und Mediziner signieren die während des Arbeitstags ausgestellten Rezepte erst zum Feierabend in einem Rutsch“, kritisiert der Verbandschef gegenüber RND. Die Folge: Patienten gingen nach einem Arztbesuch vergeblich in die Apotheke und müssten nochmals kommen. Ein Umstand, der die Therapiesicherheit gefährde. 

E-Rezept: Apotheken kritisieren Zuverlässigkeit der Gematik​ Das E-Rezept – ein Quell ständiger „Freuden“, denn Ausfälle trüben den Umgang damit.
Inside Creative House – Shutterstock.com

„Das E-Rezept läuft der Deutschen Bahn in Sachen Unzuverlässigkeit inzwischen leider den Rang ab“, mit diesen harten Worten echauffierte sich Thomas Preis, Präsident der Bundesvereinigung Deutscher Apothekerverbände (ABDA), gegenüber den Medien des Redaktionsnetzwerks Deutschland (RND) über die Zuverlässigkeit des elektronischen Rezepts. Stein des Anstoßes: Allein in den vergangen zwei Wochen kam es wohl an fünf Tagen zu Komplettausfällen oder erheblichen Beeinträchtigungen des Systems. Wieder ein Beispiel dafür, dass Deutschland Digitalisierung doch nicht kann?

Im Zentrum der Kritik der Apotheken steht dabei die hinter dem E-Rezept liegende Telematikinfrastruktur (TI). Sie soll eigentlich eine sichere Vernetzung der medizinischen Versorgung innerhalb Deutschlands ermöglichen – also Arztpraxen, Krankenhäuser und Apotheken digital miteinander verbinden. Zuständig dafür ist die Gematik GmbH, an der das Bundesministerium für Gesundheit 51 Prozent hält. Der IT-Dienstleister für das Gesundheitswesen ist auch für die elektronische Patientenakte (ePA) zuständig.

Gematik in der Kritik

Allerdings hat sich die Gematik bereits in Vergangenheit nicht mit Ruhm bekleckert. So schrieb die COMPUTERWOCHE bereits 2019 angesichts der Kritik des Bundesrechnungshofes mit Blick auf die Gematik von „mehr als 20 Jahre Pleiten Pech und Pannen“. Und auch die Einführung der ePA war alles andere als eine Erfolgsstory. So kam es etwa bei der Einführung zu endlosen Verzögerungen. Und der Chaos Computer Club (CCC) bemängelte technische Schwachstellen in Sachen Sicherheit. Datenschützer kritisieren zudem eine mangelnde Transparenz.

Damit reiht sich die Kritik der Apotheken nahtlos in die pannenreiche Geschichte der Gematik ein. Frustriert fordert Preis, „die Gematik müsse dafür sorgen, dass Apotheken und Arztpraxen in einem stabilen System arbeiten können“. Zudem bräuchten die Apotheken mehr Handlungsfreiheiten, um Patienten trotzdem schnell und unbürokratisch mit notwendigen Medikamenten zu versorgen. Schließlich seien jedes Mal Zehntausende von den Ausfällen betroffen gewesen.

Aber auch die Ärzte kommen bei Preis nicht ungeschoren davon. Sie müssen in seinen Augen den Umgang mit dem E-Rezept ändern. „Viele Medizinerinnen und Mediziner signieren die während des Arbeitstags ausgestellten Rezepte erst zum Feierabend in einem Rutsch“, kritisiert der Verbandschef gegenüber RND. Die Folge: Patienten gingen nach einem Arztbesuch vergeblich in die Apotheke und müssten nochmals kommen. Ein Umstand, der die Therapiesicherheit gefährde.

E-Rezept: Apotheken kritisieren Zuverlässigkeit der Gematik​ Weiterlesen »

GPT-5 ist da​

Allgemein

Mit GPT-5 legt OpenAI die GenAI-Messlatte höher.Shutterstock/Melnikov Dmitriy Mehr als zwei Jahre nach der Veröffentlichung von GPT-4 hat OpenAI GPT-5 vorgestellt. Das Large Language Model (LLM), das jetzt schrittweise für ChatGPT-Nutzer ausgerollt und über die API verfügbar gemacht wird, sei „intelligenter, stabiler und vielseitiger“ und dafür konzipiert, reale Aufgaben stärker wie ein menschlicher Experte zu bewältigen, erklärt OpenAI. Höhere Genauigkeit und weniger Fehler Für Entwickler ist GPT-5 laut OpenAI das bisher leistungsstärkste Coding-Modell und übertrifft GPT-o3 sowohl in Benchmarks als auch bei realen Aufgaben. Das Modell ist „feinabgestimmt für agentische Tools“ wie Cursor, Windsurf, Copilot und Codex CLI und habe in Tests neue Bestwerte erzielt, schreibt das Unternehmen in einem Blogbeitrag. Laut OpenAI liefert GPT-5 schärfere Schlussfolgerungen und kann komplexe Probleme und mehrstufige Anweisungen mit größerer Genauigkeit und Konzentration bewältigen. Es bleibe beim Thema, folge Anweisungen präziser und liefere nützlichere, verlässlichere Ergebnisse, so das KI-Unternehmen. Nutzer könnten zudem mit weniger Halluzinationen rechnen und hätten bessere Anpassungswerkzeuge, was GPT-5 verlässlicher mache und die Anpassung an bestimmte Branchen und Anforderungen erleichtere. Darüber hinaus baut das Modell auf den multimodalen Fähigkeiten von GPT-4o auf und ermöglicht flüssigere Interaktionen über Text, Bilder und Audio hinweg, so OpenAI. Nathaniel Whittemore, CEO von Superintelligent, einer in New York ansässigen KI-Bildungsplattform, bezeichnet GPT-5 als den „bedeutendsten Moment in der Geschichte von OpenAI“. „Seit der Einführung von ChatGPT gelten die OpenAI-Modelle als das Maß aller Dinge. Während Konkurrenten wie Google und Meta von Hunderten Millionen bestehender Nutzer profitieren können, um ihre KI-Produkte zu vermarkten, ist OpenAI darauf angewiesen, neue Nutzer zu gewinnen, indem es den anderen KI-Labors weit voraus ist“, so Whittemore. Schnellere und hochwertigere Ergebnisse als GPT-4 Sean Bruich, Senior Vice President für KI und Daten bei Amgen, einem der ersten Anwender von GPT-5, bestätigt das. Der Einsatz von KI in der Wissenschaft funktioniere nur dann, wenn sie höchsten Anforderungen gerecht wird, erklärt er. GPT-5 erfülle diese, indem es höhere Genauigkeit, besseren Kontext und schnellere Ergebnisse in den Arbeitsabläufen von Amgen liefere. „GPT-5 navigiert besser durch Mehrdeutigkeiten, bei denen Kontext eine Rolle spielt. Wir sehen vielversprechende erste Ergebnisse aus dem Einsatz von GPT-5 in verschiedenen Arbeitsabläufen“, führt der Datenwissenschaftler aus. Gleichzeitig liefere das Modell schnellere, zuverlässigere und qualitativ hochwertigere Ergebnisse als GPT-4 und andere frühere Modelle. Auch Ethan Mollick, Associate Professor an der Wharton School, der frühzeitig Zugang zu GPT-5 hatte, ist positiv überrascht. „Das ist eine große Sache“, schreibt er in einem Blogbeitrag. Er bat das Modell, etwas Dramatisches zu tun, um seine Fähigkeiten unter Beweis zu stellen. Das Modell dachte 24 Sekunden lang nach und lieferte dann ein poetisches Manifest der KI-Fähigkeiten – genauer gesagt eine rhetorische, alliterative Präsentation eines „multifunktionalen Intelligenzsystems“. Nach vielen Gesprächen mit der KI habe er zwei große Probleme festgestellt, die den Erfolg bei der Nutzung von KI-Modellen einschränken, wie er schreibt: Erstens wüssten die meisten Menschen nicht, welches Modell sie verwenden sollten – und bekämen deshalb schnelle, schlechtere Ergebnisse, statt vollständigere Antworten von den leistungsstarken Reasoning-Modellen. Zweitens wüssten die meisten Menschen auch nicht, was KI leisten kann oder wie man richtig fragt – insbesondere bei neueren agentenbasierten KIs. GPT-5 löse beide Probleme, indem es die Modelle gut auswähle und Handlungen vorschlage, so Mollick. „Es ist sehr proaktiv und schlägt ständig Dinge vor, die man tun kann.“ GPT-5 wird derzeit schrittweise für ChatGPT-Plus-, Pro-, Team- und kostenlose Nutzer eingeführt. Der Zugang für Enterprise- und Edu-Kunden folgt nächste Woche. „Sobald kostenlose Nutzer ihre GPT-5-Nutzungsgrenzen erreicht haben, wechseln sie zu GPT-5 mini“, so OpenAI. (mb) 

GPT-5 ist da​ Mit GPT-5 legt OpenAI die GenAI-Messlatte höher.Shutterstock/Melnikov Dmitriy

Mehr als zwei Jahre nach der Veröffentlichung von GPT-4 hat OpenAI GPT-5 vorgestellt. Das Large Language Model (LLM), das jetzt schrittweise für ChatGPT-Nutzer ausgerollt und über die API verfügbar gemacht wird, sei „intelligenter, stabiler und vielseitiger“ und dafür konzipiert, reale Aufgaben stärker wie ein menschlicher Experte zu bewältigen, erklärt OpenAI.

Höhere Genauigkeit und weniger Fehler

Für Entwickler ist GPT-5 laut OpenAI das bisher leistungsstärkste Coding-Modell und übertrifft GPT-o3 sowohl in Benchmarks als auch bei realen Aufgaben. Das Modell ist „feinabgestimmt für agentische Tools“ wie Cursor, Windsurf, Copilot und Codex CLI und habe in Tests neue Bestwerte erzielt, schreibt das Unternehmen in einem Blogbeitrag.

Laut OpenAI liefert GPT-5 schärfere Schlussfolgerungen und kann komplexe Probleme und mehrstufige Anweisungen mit größerer Genauigkeit und Konzentration bewältigen. Es bleibe beim Thema, folge Anweisungen präziser und liefere nützlichere, verlässlichere Ergebnisse, so das KI-Unternehmen.

Nutzer könnten zudem mit weniger Halluzinationen rechnen und hätten bessere Anpassungswerkzeuge, was GPT-5 verlässlicher mache und die Anpassung an bestimmte Branchen und Anforderungen erleichtere.

Darüber hinaus baut das Modell auf den multimodalen Fähigkeiten von GPT-4o auf und ermöglicht flüssigere Interaktionen über Text, Bilder und Audio hinweg, so OpenAI.

Nathaniel Whittemore, CEO von Superintelligent, einer in New York ansässigen KI-Bildungsplattform, bezeichnet GPT-5 als den „bedeutendsten Moment in der Geschichte von OpenAI“. „Seit der Einführung von ChatGPT gelten die OpenAI-Modelle als das Maß aller Dinge. Während Konkurrenten wie Google und Meta von Hunderten Millionen bestehender Nutzer profitieren können, um ihre KI-Produkte zu vermarkten, ist OpenAI darauf angewiesen, neue Nutzer zu gewinnen, indem es den anderen KI-Labors weit voraus ist“, so Whittemore.

Schnellere und hochwertigere Ergebnisse als GPT-4

Sean Bruich, Senior Vice President für KI und Daten bei Amgen, einem der ersten Anwender von GPT-5, bestätigt das. Der Einsatz von KI in der Wissenschaft funktioniere nur dann, wenn sie höchsten Anforderungen gerecht wird, erklärt er. GPT-5 erfülle diese, indem es höhere Genauigkeit, besseren Kontext und schnellere Ergebnisse in den Arbeitsabläufen von Amgen liefere. „GPT-5 navigiert besser durch Mehrdeutigkeiten, bei denen Kontext eine Rolle spielt. Wir sehen vielversprechende erste Ergebnisse aus dem Einsatz von GPT-5 in verschiedenen Arbeitsabläufen“, führt der Datenwissenschaftler aus. Gleichzeitig liefere das Modell schnellere, zuverlässigere und qualitativ hochwertigere Ergebnisse als GPT-4 und andere frühere Modelle.

Auch Ethan Mollick, Associate Professor an der Wharton School, der frühzeitig Zugang zu GPT-5 hatte, ist positiv überrascht. „Das ist eine große Sache“, schreibt er in einem Blogbeitrag. Er bat das Modell, etwas Dramatisches zu tun, um seine Fähigkeiten unter Beweis zu stellen. Das Modell dachte 24 Sekunden lang nach und lieferte dann ein poetisches Manifest der KI-Fähigkeiten – genauer gesagt eine rhetorische, alliterative Präsentation eines „multifunktionalen Intelligenzsystems“.

Nach vielen Gesprächen mit der KI habe er zwei große Probleme festgestellt, die den Erfolg bei der Nutzung von KI-Modellen einschränken, wie er schreibt:

Erstens wüssten die meisten Menschen nicht, welches Modell sie verwenden sollten – und bekämen deshalb schnelle, schlechtere Ergebnisse, statt vollständigere Antworten von den leistungsstarken Reasoning-Modellen.

Zweitens wüssten die meisten Menschen auch nicht, was KI leisten kann oder wie man richtig fragt – insbesondere bei neueren agentenbasierten KIs. GPT-5 löse beide Probleme, indem es die Modelle gut auswähle und Handlungen vorschlage, so Mollick. „Es ist sehr proaktiv und schlägt ständig Dinge vor, die man tun kann.“

GPT-5 wird derzeit schrittweise für ChatGPT-Plus-, Pro-, Team- und kostenlose Nutzer eingeführt. Der Zugang für Enterprise- und Edu-Kunden folgt nächste Woche. „Sobald kostenlose Nutzer ihre GPT-5-Nutzungsgrenzen erreicht haben, wechseln sie zu GPT-5 mini“, so OpenAI. (mb)

GPT-5 ist da​ Weiterlesen »

Arbeitszeugnis selbst schreiben: Was im Zeugnis stehen sollte​

Allgemein

Ein Master-Absolvent arbeitete nur ein halbes Jahr bei einem IT-Dienstleister. Als er kündigte, bot ihm der Arbeitgeber an, sein Zeugnis selbst zu entwerfen. Was soll nun im Zeugnis stehen? Wie Ihr Arbeitszeugnis auszusehen hat, welches Sie sich selbst schreiben, erklärt Cornelia Riechers, Karriereexpertin und Autorin von Karriereratgebern. Foto: Gajus – shutterstock.com Cornelia Riechers, Karriereexpertin und Autorin von Karriereratgebern empfiehlt: “Das Angebot Ihres Ex-Arbeitgebers, Ihren Zeugnisentwurf selbst zu erstellen, sollten Sie annehmen. Niemand weiß so genau wie Sie selbst, was Sie getan und geleistet haben. Niemand gibt sich mit Ihrem Zeugnis so viel Mühe wie Sie selbst. Auch wenn es oft heißt, Zeugnisse seien wenig glaubhaft, weil sie oft geschönt oder vom Mitarbeiter selbst verfasst werden, so können Sie sich doch darauf verlassen, dass Recruiter Arbeitszeugnisse sehr genau lesen. Ihr Zeugnis sollte folgende sieben Punkte enthalten: 1. Einleitung Die Einleitung enthält Ihren Namen, Ihr Geburtsdatum, Ihr Eintrittsdatum, Ihre Position im Unternehmen sowie den Unternehmensteil, in dem Sie beschäftigt waren. 2. Unternehmensbeschreibung Die Unternehmensbeschreibung erleichtert dem Leser das Verständnis Ihrer Aufgaben und die Einschätzung von deren Größenordnung und Bedeutung. 3. Aufgabenbeschreibung Die Aufgabenbeschreibung ist in Ihrem Fall besonders wichtig. Machen Sie deutlich, dass Sie trotz der kurzen Betriebszugehörigkeit die Verantwortung für anspruchsvolle Aufgaben hatten. Bleiben Sie nicht zu allgemein, etwa Projektarbeit, sondern schildern Sie konkret, um was es sich handelte, etwa so: (Teil-)Projektmanagement mit Budgets bis zu 200.000 Euro oder Koordination und Steuerung internationaler Softwareentwicklerteams (bis zu fünf Entwickler). Auch Ihre hierarchische Einordnung kann wichtig sein, etwa wenn Sie direkt der Geschäftsführung unterstellt waren. 4. Leistungsbeurteilung Für die Leistungsbeurteilung sind standardisierte Textbausteine verfügbar. Nutzen Sie diese aber nur als Anregung und werden Sie auch hier konkret, indem Sie die Beurteilung in Bezug zu Ihren Aufgaben setzen. Besser als die Bescheinigung von “ausgezeichnetem Fachwissen” ist eine spezifische Beschreibung dieses Wissens, etwa so: “Aufgrund seiner langjährigen Erfahrung in der Medienbranche verstand Herr K. es sehr gut, die Anforderungen der Medienproduktion in IT-Prozesse umzusetzen.” Bei der zusammenfassenden Leistungsbeurteilung, dem Satz mit der Zufriedenheit, sollten Sie sich an die vorgegebenen und durch Rechtsprechung abgesicherten Bausteine halten. 5. Sozialverhalten Bei der Beurteilung des Sozialverhaltens sollten Sie alle Personengruppen erwähnen, mit denen Sie zu tun hatten, also vergessen Sie die externen Gesprächspartner nicht! Interessant für Arbeitgeber ist hier die Frage, wie Sie sich bei der Steuerung von Teams angestellt haben, wo Sie nicht der Vorgesetzte waren. 6. Beendigungsformel Am Schluss kommt die Beendigungsformel, die aussagt, wann und warum das Arbeitsverhältnis endete. Die ist wichtiger als Sie denken, hier können Sie Vorurteilen entgegenwirken und dafür sorgen, dass Sie später nicht als verantwortungsloser Jobhopper dastehen. Da Sie ja bereits ein Anschlussarbeitsverhältnis gefunden haben, könnte diese Formel für Sie vielleicht so lauten: “Herr K. verlässt unser Unternehmen auf eigenen Wunsch, um in seinen ursprünglichen Bereich zurückzukehren.” 7. Bedauern Ihres Ausscheidens Zum Schluss sollte Ihr Ex-Arbeitgeber Ihr Ausscheiden bedauern, Ihnen danken und alles Gute für die Zukunft wünschen. Darauf haben Sie zwar kein Anrecht, jedoch könnte das Fehlen dieser Bestandteile sich negativ auswirken. Übertreiben Sie aber nicht! Das würde nicht glaubhaft wirken, denn die Firma ist bestimmt nicht glücklich über Ihren Fortgang nach so kurzer Zeit. Wer also sein Zeugnis selbst schreiben will oder auch nachbessern sollte, kann sich hier noch ausführlich informieren. 

Arbeitszeugnis selbst schreiben: Was im Zeugnis stehen sollte​ Ein Master-Absolvent arbeitete nur ein halbes Jahr bei einem IT-Dienstleister. Als er kündigte, bot ihm der Arbeitgeber an, sein Zeugnis selbst zu entwerfen. Was soll nun im Zeugnis stehen?

Wie Ihr Arbeitszeugnis auszusehen hat, welches Sie sich selbst schreiben, erklärt Cornelia Riechers, Karriereexpertin und Autorin von Karriereratgebern.
Foto: Gajus – shutterstock.com

Cornelia Riechers, Karriereexpertin und Autorin von Karriereratgebern empfiehlt: “Das Angebot Ihres Ex-Arbeitgebers, Ihren Zeugnisentwurf selbst zu erstellen, sollten Sie annehmen. Niemand weiß so genau wie Sie selbst, was Sie getan und geleistet haben. Niemand gibt sich mit Ihrem Zeugnis so viel Mühe wie Sie selbst. Auch wenn es oft heißt, Zeugnisse seien wenig glaubhaft, weil sie oft geschönt oder vom Mitarbeiter selbst verfasst werden, so können Sie sich doch darauf verlassen, dass Recruiter Arbeitszeugnisse sehr genau lesen.

Ihr Zeugnis sollte folgende sieben Punkte enthalten:

1. Einleitung

Die Einleitung enthält Ihren Namen, Ihr Geburtsdatum, Ihr Eintrittsdatum, Ihre Position im Unternehmen sowie den Unternehmensteil, in dem Sie beschäftigt waren.

2. Unternehmensbeschreibung

Die Unternehmensbeschreibung erleichtert dem Leser das Verständnis Ihrer Aufgaben und die Einschätzung von deren Größenordnung und Bedeutung.

3. Aufgabenbeschreibung

Die Aufgabenbeschreibung ist in Ihrem Fall besonders wichtig. Machen Sie deutlich, dass Sie trotz der kurzen Betriebszugehörigkeit die Verantwortung für anspruchsvolle Aufgaben hatten. Bleiben Sie nicht zu allgemein, etwa Projektarbeit, sondern schildern Sie konkret, um was es sich handelte, etwa so: (Teil-)Projektmanagement mit Budgets bis zu 200.000 Euro oder Koordination und Steuerung internationaler Softwareentwicklerteams (bis zu fünf Entwickler). Auch Ihre hierarchische Einordnung kann wichtig sein, etwa wenn Sie direkt der Geschäftsführung unterstellt waren.

4. Leistungsbeurteilung

Für die Leistungsbeurteilung sind standardisierte Textbausteine verfügbar. Nutzen Sie diese aber nur als Anregung und werden Sie auch hier konkret, indem Sie die Beurteilung in Bezug zu Ihren Aufgaben setzen. Besser als die Bescheinigung von “ausgezeichnetem Fachwissen” ist eine spezifische Beschreibung dieses Wissens, etwa so: “Aufgrund seiner langjährigen Erfahrung in der Medienbranche verstand Herr K. es sehr gut, die Anforderungen der Medienproduktion in IT-Prozesse umzusetzen.” Bei der zusammenfassenden Leistungsbeurteilung, dem Satz mit der Zufriedenheit, sollten Sie sich an die vorgegebenen und durch Rechtsprechung abgesicherten Bausteine halten.

5. Sozialverhalten

Bei der Beurteilung des Sozialverhaltens sollten Sie alle Personengruppen erwähnen, mit denen Sie zu tun hatten, also vergessen Sie die externen Gesprächspartner nicht! Interessant für Arbeitgeber ist hier die Frage, wie Sie sich bei der Steuerung von Teams angestellt haben, wo Sie nicht der Vorgesetzte waren.

6. Beendigungsformel

Am Schluss kommt die Beendigungsformel, die aussagt, wann und warum das Arbeitsverhältnis endete. Die ist wichtiger als Sie denken, hier können Sie Vorurteilen entgegenwirken und dafür sorgen, dass Sie später nicht als verantwortungsloser Jobhopper dastehen. Da Sie ja bereits ein Anschlussarbeitsverhältnis gefunden haben, könnte diese Formel für Sie vielleicht so lauten: “Herr K. verlässt unser Unternehmen auf eigenen Wunsch, um in seinen ursprünglichen Bereich zurückzukehren.”

7. Bedauern Ihres Ausscheidens

Zum Schluss sollte Ihr Ex-Arbeitgeber Ihr Ausscheiden bedauern, Ihnen danken und alles Gute für die Zukunft wünschen. Darauf haben Sie zwar kein Anrecht, jedoch könnte das Fehlen dieser Bestandteile sich negativ auswirken. Übertreiben Sie aber nicht! Das würde nicht glaubhaft wirken, denn die Firma ist bestimmt nicht glücklich über Ihren Fortgang nach so kurzer Zeit.

Wer also sein Zeugnis selbst schreiben will oder auch nachbessern sollte, kann sich hier noch ausführlich informieren.

Arbeitszeugnis selbst schreiben: Was im Zeugnis stehen sollte​ Weiterlesen »

Frugalismus-Tipps: So kommen Sie früher aus dem Job​

Allgemein

Frugalisten streben durch Verzicht und eisernes Sparen ihre finanzielle Unabhängigkeit an, um nur noch das zu tun, was sie wirklich möchten. Foto: Irina Strelnikova – shutterstock.comEs ist nichts dagegen einzuwenden, frugal zu leben, also genügsam oder sparsam. Frugalisten versuchen nämlich, möglichst viel ihres Einkommens zu sparen und anzulegen, um möglichst schnell finanziell unabhängig zu werden. Dazu verzichten sie auf unnötigen Konsum und schränken sich im Alltag ein. Beispielsweise verkneifen sich Frugalisten Restaurant- oder Theaterbesuche sowiedie neuesten Trends. Stattdessen kochen sie ihr Essen, das sie zur Arbeit mitnehmen, selbst, kaufen Second-Hand-Kleidung und reparieren Dinge. Der Frugalismus hat einige Berührungspunkte mit dem Minimalismus. Denn auch Minimalisten geht es darum, möglichst wenig Dinge anzuschaffen und möglichst wenig zu konsumieren und sich stattdessen auf diejenigen Dinge zu konzentrieren, die man wirklich im Leben braucht. Der Unterschied zwischen dem Frugalismus und dem Minimalismus besteht darin, dass der Konsumverzicht beim Frugalismus kein Selbstzweck ist. Frugalisten schränken sich zwar auch ganz bewusst ein, tun das aber, um einen Großteil ihres Einkommens zu sparen oder an der Börse anlegen zu können. Frugalisten möchten letztlich ein kleines Vermögen anhäufen. Der Ursprung des FrugalismusDer Frugalismus, wie wir ihn heute kennen, geht auf einen Finanzblogger und seine Idee zurück: FIRE. Das Akronym steht für “Financial Independence, Retire Early” also “Finanzielle Unabhängigkeit, frühe Rente” und das ist letztlich das erklärte Ziel der Frugalisten. Jedoch geht es ihnen nicht darum, möglichst früh nicht mehr arbeiten zu müssen. Ihre finanzielle Unabhängigkeit soll ihnen lediglich dabei helfen, das zu tun, was sie wirklich tun möchten. Wer eben nicht mehr Tag für Tag zur Arbeit gehen muss, weil er von seinem Ersparten leben kann, der kann frei entscheiden, was er mit seiner Zeit anfängt. Die wenigsten Frugalisten entscheiden sich dafür, einfach nichts zu tun. Auch wenn das Ziel erreicht ist, arbeiten sie weiter, engagieren sich ehrenamtlich oder machen sich selbstständig und widmen sich Aufgaben, die sie schon immer interessiert haben. Frugalismus hat nicht nur mit dem Minimalismus einige Berührungspunkte, sondern auch mit dem bedingungslosen Grundeinkommen. Denn auch die Idee dahinter lautet, dass Menschen dank des Grundeinkommens Zeit für Dinge in ihrem Leben haben, die sich ansonsten nur schwer mit der Erwerbsarbeit in Einklang bringen lassen würden. Wie zum Beispiel ein Ehrenamt oder aber eine nebenberufliche Selbstständigkeit. Frugalisten versprechen sich finanzielle Freiheit Für all diejenigen, die sich Morgen für Morgen zur Arbeit quälen, klingt der Frugalismus vielleicht nach einer Idee, die man sich einmal genauer ansehen sollte. Fairerweise sollte man jedoch dazu sagen, dass sich der Frugalismus nur für Besserverdienende eignet. Das klingt vielleicht paradox, lässt sich aber einfach nachvollziehen: Um schon mit 40 oder Mitte 40 in Rente gehen zu können, muss man während seines Erwerbslebens ein beachtliches finanzielles Polster aufgebaut haben. Frugalsten sparen dazu einen wirklich immensen Teil ihres Einkommens: Zwischen 70 und 80 Prozent ihres Verdienstes legen sie jeden Monat zurück. Nur so können sie es schaffen, in der kurzen Zeit ihrer Erwerbstätigkeit genügend Geld anzusparen, um mit 40 davon leben zu können. Frugalismus: Die 4-Prozent-Regel und die 25-er-Methode Frugalisten gehen ihr Vorhaben strategisch an. Dazu gehört auch, dass sie genau wissen, wie viel Geld sie gespart haben müssen, um in den Ruhestand gehen zu können. Dabei helfen ihnen zwei wichtige Regeln beziehungsweiseMethoden: Die 25-er-Regel: Frugalisten müssen das 25-Fache ihres durchschnittlichen jährlichen Verbrauchs gespart haben, um in Rente gehen zu können. Wenn Sie 45.000 Euro pro Jahr brauchen, müssen Sie 1.125.000 Euro gespart haben, um nicht mehr arbeiten zu müssen. Das Geld liegt bei Frugalisten natürlich nicht unverzinst auf dem Girokonto. Wer frugal leben möchte, der beschäftigt sich mit sämtlichen Formen der Geldanlage. Frugalisten investieren in Aktien, ETFs oder andere Finanzinstrumente und legen ihr Geld auch in Immobilien, Edelmetallen oder Rohstoffen an. Mit anderen Worten: Frugalisten investieren breit gestreut und gehen deshalb davon aus, dass sie eine schöne Rendite erwirtschaften. Das führt zur nächsten Regel.Die 4-Prozent-Regel: Da Frugalisten ihr Geld gewinnbringend angelegt haben, können sie einen gewissen Teil davon entnehmen, ohne das eigentliche Kapital anzugreifen. Frugalisten planen in der Regel mit jährlich vier Prozent, die sie von ihrer Anlage abzwacken können. Die Idee dahinter: Gut investiert können sie mit dem Geld am Kapitalmarkt eine höhere Rendite erwirtschaften, so dass vier Prozent Entnahme das ursprüngliche Investment nicht schmälern. Zum Vergleich: Anleger, die 1980 in den DAX investiert haben, haben bis Ende des Jahres 2021 im Durchschnitt eine Rendite von 8,9 Prozent erwirtschaftet. Wer jährlich vier Prozent aus seinem Aktienvermögen entnommen hätte, hätte in dieser Zeit sein Vermögen trotzdem noch vermehrt. Achtung: Bei Anlagen am Kapitalmarkt besteht die Gefahr eines Totalverlusts. Das sollten Sie als Anleger immer im Hinterkopf behalten. Die in diesem Artikel getroffen Aussagen stellen nur allgemeine Informationen und keine Haftung dar. Frugal leben: Die Tipps der Super-SparerBis zu seinem 40. Lebensjahr über eine Million Euro zur Seite legen zu können, ist für die meisten Normalbürger wohl mehr als utopisch. Frugalismus per se ist daher, wie schon gesagt, nur eine Option für Besserverdiener. Das heißt aber nicht, dass man sich von der Lebensweise der Super-Sparer nichts abschauen könnte. Selbst wer ein eher durchschnittliches Einkommen hat, kann Geld anlegen und im besten Fall von dem Zinseszinseffekt profitieren. Oder einfach genügend Rendite machen, um alle paar Jahre davon in Urlaub zu fahren. Und das könnte so gelingen:Überblick über Ihre Ausgaben verschaffen: Notieren Sie sich mindestens einen Monat lang, wie viel und vor allem, wofür Sie Geld ausgeben. Vermutlich fällt Ihnen dabei auf, dass der überteuerte Kaffee morgens auf dem Weg zur Arbeit gar nicht sein muss. Oder Sie entdecken andere Ausgaben, die Sie sich bei näherer Betrachtung sparen könnten. Um genau dieses Sparpotenzial ausfindig zu machen, müssen Sie zunächst einmal wissen, wofür Sie Geld ausgeben. Streichen Sie unnötige Kosten: Im nächsten Schritt gehen Sie diejenigen Ausgaben durch, die nicht unbedingt lebensnotwendig sind. Abhängig davon, wie viel Sie sparen möchten, kürzen Sie diese Ausgaben. Ist das Ziel eine möglichst hohe Sparquote, sollten Sie die Kosten auf das absolute Minimum beschränken. Wenn Sie sich etwas mehr Konsum gönnen, sollten Sie ganz bewusst entscheiden, wofür Sie Ihr Geld ausgeben. Nutzen Sie Vergleichsportale: Die Deutschen sind berühmt dafür, mehr Versicherungen zu haben, als sie brauchen. Hier lässt sich in der Regel einiges Geld sparen, das Sie im nächsten Schritt investieren oder anderweitig anlegen könnten. Auch bei den regelmäßigen Fixkosten wie Telefon, Strom oder Heizkosten gibt es häufig Sparpotenzial. Nutzen Sie beispielsweise Vergleichsportale, um günstigere Anbieter zu finden und kündigen Sie Verträge, die Sie nicht brauchen. Der Klassiker: Die Mitgliedschaft im Fitnessstudio. Definieren Sie Etappenziele: Sollte die Rente mit 40 für Sie in unerreichbarer Ferne liegen, sollten Sie sich andere Ziele setzen. Es ist nämlich kein Geheimnis, dass wir eher an unseren Vorhaben dranbleiben, wenn wir ein klar definiertes Ziel vor Augen haben. Das muss auch nicht gleich die nächste Fernreise oder eine eigene Immobilie sein. Auch kleinere Ziele, wie zum Beispiel jeden Monat einen festen Betrag in einen Sparplan zu investieren, eigenen sich hervorragend als Ansporn. Probieren Sie es aus! (pg/fm) 

Frugalismus-Tipps: So kommen Sie früher aus dem Job​ Frugalisten streben durch Verzicht und eisernes Sparen ihre finanzielle Unabhängigkeit an, um nur noch das zu tun, was sie wirklich möchten.
Foto: Irina Strelnikova – shutterstock.comEs ist nichts dagegen einzuwenden, frugal zu leben, also genügsam oder sparsam. Frugalisten versuchen nämlich, möglichst viel ihres Einkommens zu sparen und anzulegen, um möglichst schnell finanziell unabhängig zu werden. Dazu verzichten sie auf unnötigen Konsum und schränken sich im Alltag ein. Beispielsweise verkneifen sich Frugalisten Restaurant- oder Theaterbesuche sowiedie neuesten Trends. Stattdessen kochen sie ihr Essen, das sie zur Arbeit mitnehmen, selbst, kaufen Second-Hand-Kleidung und reparieren Dinge. Der Frugalismus hat einige Berührungspunkte mit dem Minimalismus. Denn auch Minimalisten geht es darum, möglichst wenig Dinge anzuschaffen und möglichst wenig zu konsumieren und sich stattdessen auf diejenigen Dinge zu konzentrieren, die man wirklich im Leben braucht. Der Unterschied zwischen dem Frugalismus und dem Minimalismus besteht darin, dass der Konsumverzicht beim Frugalismus kein Selbstzweck ist. Frugalisten schränken sich zwar auch ganz bewusst ein, tun das aber, um einen Großteil ihres Einkommens zu sparen oder an der Börse anlegen zu können. Frugalisten möchten letztlich ein kleines Vermögen anhäufen. Der Ursprung des FrugalismusDer Frugalismus, wie wir ihn heute kennen, geht auf einen Finanzblogger und seine Idee zurück: FIRE. Das Akronym steht für “Financial Independence, Retire Early” also “Finanzielle Unabhängigkeit, frühe Rente” und das ist letztlich das erklärte Ziel der Frugalisten. Jedoch geht es ihnen nicht darum, möglichst früh nicht mehr arbeiten zu müssen. Ihre finanzielle Unabhängigkeit soll ihnen lediglich dabei helfen, das zu tun, was sie wirklich tun möchten. Wer eben nicht mehr Tag für Tag zur Arbeit gehen muss, weil er von seinem Ersparten leben kann, der kann frei entscheiden, was er mit seiner Zeit anfängt. Die wenigsten Frugalisten entscheiden sich dafür, einfach nichts zu tun. Auch wenn das Ziel erreicht ist, arbeiten sie weiter, engagieren sich ehrenamtlich oder machen sich selbstständig und widmen sich Aufgaben, die sie schon immer interessiert haben. Frugalismus hat nicht nur mit dem Minimalismus einige Berührungspunkte, sondern auch mit dem bedingungslosen Grundeinkommen. Denn auch die Idee dahinter lautet, dass Menschen dank des Grundeinkommens Zeit für Dinge in ihrem Leben haben, die sich ansonsten nur schwer mit der Erwerbsarbeit in Einklang bringen lassen würden. Wie zum Beispiel ein Ehrenamt oder aber eine nebenberufliche Selbstständigkeit.

Frugalisten versprechen sich finanzielle Freiheit Für all diejenigen, die sich Morgen für Morgen zur Arbeit quälen, klingt der Frugalismus vielleicht nach einer Idee, die man sich einmal genauer ansehen sollte. Fairerweise sollte man jedoch dazu sagen, dass sich der Frugalismus nur für Besserverdienende eignet. Das klingt vielleicht paradox, lässt sich aber einfach nachvollziehen: Um schon mit 40 oder Mitte 40 in Rente gehen zu können, muss man während seines Erwerbslebens ein beachtliches finanzielles Polster aufgebaut haben. Frugalsten sparen dazu einen wirklich immensen Teil ihres Einkommens: Zwischen 70 und 80 Prozent ihres Verdienstes legen sie jeden Monat zurück. Nur so können sie es schaffen, in der kurzen Zeit ihrer Erwerbstätigkeit genügend Geld anzusparen, um mit 40 davon leben zu können. Frugalismus: Die 4-Prozent-Regel und die 25-er-Methode Frugalisten gehen ihr Vorhaben strategisch an. Dazu gehört auch, dass sie genau wissen, wie viel Geld sie gespart haben müssen, um in den Ruhestand gehen zu können. Dabei helfen ihnen zwei wichtige Regeln beziehungsweiseMethoden: Die 25-er-Regel: Frugalisten müssen das 25-Fache ihres durchschnittlichen jährlichen Verbrauchs gespart haben, um in Rente gehen zu können. Wenn Sie 45.000 Euro pro Jahr brauchen, müssen Sie 1.125.000 Euro gespart haben, um nicht mehr arbeiten zu müssen. Das Geld liegt bei Frugalisten natürlich nicht unverzinst auf dem Girokonto. Wer frugal leben möchte, der beschäftigt sich mit sämtlichen Formen der Geldanlage. Frugalisten investieren in Aktien, ETFs oder andere Finanzinstrumente und legen ihr Geld auch in Immobilien, Edelmetallen oder Rohstoffen an. Mit anderen Worten: Frugalisten investieren breit gestreut und gehen deshalb davon aus, dass sie eine schöne Rendite erwirtschaften. Das führt zur nächsten Regel.Die 4-Prozent-Regel: Da Frugalisten ihr Geld gewinnbringend angelegt haben, können sie einen gewissen Teil davon entnehmen, ohne das eigentliche Kapital anzugreifen. Frugalisten planen in der Regel mit jährlich vier Prozent, die sie von ihrer Anlage abzwacken können. Die Idee dahinter: Gut investiert können sie mit dem Geld am Kapitalmarkt eine höhere Rendite erwirtschaften, so dass vier Prozent Entnahme das ursprüngliche Investment nicht schmälern. Zum Vergleich: Anleger, die 1980 in den DAX investiert haben, haben bis Ende des Jahres 2021 im Durchschnitt eine Rendite von 8,9 Prozent erwirtschaftet. Wer jährlich vier Prozent aus seinem Aktienvermögen entnommen hätte, hätte in dieser Zeit sein Vermögen trotzdem noch vermehrt. Achtung: Bei Anlagen am Kapitalmarkt besteht die Gefahr eines Totalverlusts. Das sollten Sie als Anleger immer im Hinterkopf behalten. Die in diesem Artikel getroffen Aussagen stellen nur allgemeine Informationen und keine Haftung dar. Frugal leben: Die Tipps der Super-SparerBis zu seinem 40. Lebensjahr über eine Million Euro zur Seite legen zu können, ist für die meisten Normalbürger wohl mehr als utopisch. Frugalismus per se ist daher, wie schon gesagt, nur eine Option für Besserverdiener. Das heißt aber nicht, dass man sich von der Lebensweise der Super-Sparer nichts abschauen könnte. Selbst wer ein eher durchschnittliches Einkommen hat, kann Geld anlegen und im besten Fall von dem Zinseszinseffekt profitieren. Oder einfach genügend Rendite machen, um alle paar Jahre davon in Urlaub zu fahren. Und das könnte so gelingen:Überblick über Ihre Ausgaben verschaffen: Notieren Sie sich mindestens einen Monat lang, wie viel und vor allem, wofür Sie Geld ausgeben. Vermutlich fällt Ihnen dabei auf, dass der überteuerte Kaffee morgens auf dem Weg zur Arbeit gar nicht sein muss. Oder Sie entdecken andere Ausgaben, die Sie sich bei näherer Betrachtung sparen könnten. Um genau dieses Sparpotenzial ausfindig zu machen, müssen Sie zunächst einmal wissen, wofür Sie Geld ausgeben. Streichen Sie unnötige Kosten: Im nächsten Schritt gehen Sie diejenigen Ausgaben durch, die nicht unbedingt lebensnotwendig sind. Abhängig davon, wie viel Sie sparen möchten, kürzen Sie diese Ausgaben. Ist das Ziel eine möglichst hohe Sparquote, sollten Sie die Kosten auf das absolute Minimum beschränken. Wenn Sie sich etwas mehr Konsum gönnen, sollten Sie ganz bewusst entscheiden, wofür Sie Ihr Geld ausgeben. Nutzen Sie Vergleichsportale: Die Deutschen sind berühmt dafür, mehr Versicherungen zu haben, als sie brauchen. Hier lässt sich in der Regel einiges Geld sparen, das Sie im nächsten Schritt investieren oder anderweitig anlegen könnten. Auch bei den regelmäßigen Fixkosten wie Telefon, Strom oder Heizkosten gibt es häufig Sparpotenzial. Nutzen Sie beispielsweise Vergleichsportale, um günstigere Anbieter zu finden und kündigen Sie Verträge, die Sie nicht brauchen. Der Klassiker: Die Mitgliedschaft im Fitnessstudio. Definieren Sie Etappenziele: Sollte die Rente mit 40 für Sie in unerreichbarer Ferne liegen, sollten Sie sich andere Ziele setzen. Es ist nämlich kein Geheimnis, dass wir eher an unseren Vorhaben dranbleiben, wenn wir ein klar definiertes Ziel vor Augen haben. Das muss auch nicht gleich die nächste Fernreise oder eine eigene Immobilie sein. Auch kleinere Ziele, wie zum Beispiel jeden Monat einen festen Betrag in einen Sparplan zu investieren, eigenen sich hervorragend als Ansporn. Probieren Sie es aus! (pg/fm)

Frugalismus-Tipps: So kommen Sie früher aus dem Job​ Weiterlesen »

Strategie statt Stückwerk: KI erfolgreich einführen​

Allgemein

Punktuelle Erfolge reichen nicht, KI benötigt eine tragfähige Strategie. Ton Wanniwat– Shutterstock.com Generative KI (GenAI) hat ihren Weg in den Unternehmensalltag gefunden. In vielen Bereichen unterstützen Textassistenten, Wissensbots oder Automatisierungshilfen bereits bei der täglichen Arbeit. Doch die eigentliche Herausforderung beginnt jenseits dieser ersten Erfolge, wenn es darum geht, aus punktuellen Anwendungen eine tragfähige Strategie zu formen. Die Ziele dabei lauten: Effizienz steigern, Kosten senken, Innovation beschleunigen, Wettbewerbsfähigkeit stärken und die Unternehmenskultur nachhaltig zu verändern. Kurzum, es gilt echte, organisationsweite Mehrwerte zu schaffen. Viele Unternehmen verfügen mittlerweile über einen gut gefüllten Werkzeugkasten an KI-Tools, aber noch nicht über den Bauplan, der den Weg zur strategischen Nutzung von KI vorgibt. Zentrale Prinzipien für KI-Projekte Ein international tätiger Industriekonzern aus einer hochregulierten Branche hat diesen Übergang konsequent gestaltet. Was mit dezentralen Einzelinitiativen begann, entwickelte sich unternehmensweit zu einem strategisch geführten Transformationsprogramm. Auf der Vorstandsebene verankert, mit klarer Zielarchitektur und zentraler Steuerung, wurden technologische Innovation, organisatorische Klarheit und kultureller Wandel zusammengeführt. Im Verlauf der Umsetzung kristallisierten sich zentrale Prinzipien heraus, die den Erfolg des Programms maßgeblich geprägt haben: Organisation mit Haltung: Verantwortung statt Einzelprojekte Lernen mit Wirkung: Rollenspezifisch statt Gießkanne Use Cases mit Relevanz: Fachlich statt technikgetrieben Architektur und Datenstrategie: Fundament für Skalierung Führung und Kultur: Veränderung braucht Vorbilder Organisation mit Haltung Damit KI langfristig wirksam werden kann, braucht es mehr als ein Projektteam. Entscheidend ist eine organisatorische Struktur, die das Thema nicht isoliert behandelt, sondern bereichsübergreifend integriert, strategisch steuert und operativ ermöglicht. Wer KI als kontinuierliche Transformationsaufgabe versteht, muss klare Rollen definieren, Prozesse festlegen und Governance verbindlich verankern – mit direkter Anbindung an das Top-Management. KI muss als unternehmensweites Programm verstanden werden. OATZ To Go FACTORY – Shutterstock.com Im betrachteten Industriekonzern ist dieser Anspruch gelebte Praxis. KI wird nicht als technisches Einzelprojekt geführt, sondern als unternehmensweites Programm, das Geschäftsbereiche, Zentralfunktionen und Serviceeinheiten gleichermaßen einbindet. Eine zentrale Steuerungseinheit trägt die Gesamtverantwortung, entwickelt verbindliche Leitplanken. Zudem informiert sie transparent über Fortschritte und Risiken. Gleichzeitig übernehmen feste Ansprechpersonen in den Fachbereichen innerhalb klar definierter Rahmenbedingungen die Verantwortung für die dezentrale Umsetzung. Der Mehrwert: So lässt sich ein ausgewogenes Zusammenspiel aus Steuerung und Eigenverantwortung realisieren. Dies ermöglicht nicht nur eine schnelle Umsetzung, sondern gegenseitiges Lernen und schafft ein gemeinsames Verständnis für die übergeordnete Zielsetzung. Lernen mit Wirkung Die Einführung von KI verändert nicht nur Prozesse, sondern auch Rollenbilder, Entscheidungswege und die tägliche Zusammenarbeit. Damit dieser Wandel gelingt, braucht es mehr als klassische Schulungsformate. Erfolgreiches Enablement verbindet technisches Grundlagenwissen mit konkreten Aufgaben und Prozessen, abgestimmt auf die Realität der Mitarbeitenden. Im betrachteten Industriekonzern setzt man auf rollenbasierte Lernpfade, die sich nicht an Technologien, sondern an konkreten Aufgaben und realen Herausforderungen orientieren. In interaktiven Formaten reflektieren Teams gemeinsam mit Experten und Expertinnen ihre tägliche Arbeit. Dabei identifizieren sie Potenziale für den Einsatz von generativer KI und entwickeln Qualifizierungsformate. Die Palette reicht von interaktiven Workshops bis hin zu praxisnahen Hands-on-Trainings. Der Mehrwert: So entsteht nicht nur Wissen, sondern echte Handlungskompetenz. Die Mitarbeitenden gewinnen Sicherheit im Umgang mit neuen Technologien und stärken ihr Rollenverständnis. Zugleich entwickeln sie das Selbstvertrauen, generative KI aktiv und reflektiert in ihre Arbeit zu integrieren. Use Cases Technologie allein bringt keinen Mehrwert. Entscheidend ist, wo und wie sie eingesetzt wird. Wer KI im Unternehmen verankern will, braucht Anwendungsfälle mit fachlicher Relevanz und strategischem Bezug. Es geht nicht darum, Prozesse einfach zu automatisieren, sondern darum, bestehende Arbeitsweisen zu hinterfragen und den tatsächlichen Nutzen in den Mittelpunkt zu stellen – und auch mögliche überflüssige Schritte zu vereinfachen. Nicht die Technik, sondern der Use Case entscheidet über den Erfolg der KI-Nutzung. Andrey_Popov – Shutterstock.com In unserem Beispiel steht deshalb die fachliche Perspektive im Fokus. Use Cases werden nicht zentral vorgegeben, sondern gemeinsam mit den Fachbereichen identifiziert und priorisiert. Die Auswahl erfolgt entlang definierter Kriterien wie Relevanz für den Geschäftsalltag, technische Machbarkeit, erwarteter Mehrwert und mit Blick auf die strategischen Zielbilder. Ein weiterer Bewertungsfaktor ist die Prozessreife, denn KI kann ihre Stärken nur entfalten, wenn auch die zugrundeliegenden Abläufe dafür geeignet sind. In interdisziplinären Workshops analysieren die Teams konkrete Prozesse. Sie entwickeln Ideen für KI-Unterstützung und prüfen, welche Hebel sich durch Automatisierung oder Generierung ergeben. Anhand von Zielgrößen und KPIs lässt sich die Wirkung von KI in Kombination mit neuen Arbeitsweisen auf Prozess- und Abteilungsebene messen – und geht somit über eine reine Zeitersparnis auf persönlicher Ebene hinaus. Die Verantwortung liegt bewusst in den Fachbereichen, denn dort entsteht der Bedarf, dort liegt das Prozesswissen und dort zeigt sich auch der tatsächliche Mehrwert. Der Mehrwert: Dieser Ansatz fördert nicht nur passgenaue Lösungen, sondern auch das Verständnis dafür, wo KI sinnvoll eingesetzt werden kann und wo nicht. Die entstehenden Anwendungen sind somit praxisnah und entfalten ihren Nutzen dort, wo er wirklich zählt: Im realen Arbeitskontext der Fachbereiche. Architektur und Datenstrategie Eine tragfähige KI-Strategie braucht eine technische Grundlage, auf der sich Anwendungen stabil, sicher und skalierbar umsetzen lassen. Dazu zählen nicht nur geeignete Plattformen und Werkzeuge, sondern auch der bewusste Umgang mit Daten. Verfügbarkeit, Qualität und Governance entscheiden mit darüber, ob KI in der Praxis funktioniert – und ob sie vertrauenswürdig eingesetzt werden kann. Ein zentrales Augenmerk bei KI-Projekten sollte auf Datensicherheit und Governance liegen – es gilt ein Oversharing zu vermeiden. Gorodenkoff – Shutterstock.com Im angesprochenen Unternehmen basiert das Programm auf einer klaren Plattform-strategie. Die Integration von KI in bestehende IT-Strukturen steht im Vordergrund. Ergänzend kommen ausgewählte Speziallösungen dort zum Einsatz, wo sie fachlich oder funktional notwendig sind. Ein zentrales Augenmerk liegt dabei auf Datensicherheit und Governance. In einem regulierten Umfeld spielt der Schutz sensibler Informationen eine zentrale Rolle. Um unbeabsichtigtes Oversharing zu vermeiden, wurden technische Leitplanken gesetzt, klare Nutzungsrichtlinien formuliert und die datenschutzrechtliche Begleitung eng eingebunden. Ziel ist es zudem, wiederverwendbare technische Bausteine zu schaffen, die eine zügige Skalierung neuer Anwendungsfälle ermöglichen und gleichzeitig die technologische Komplexität reduzieren. Der Mehrwert: Auf diese Weise entsteht ein tragfähiges Fundament, das technologische Innovation beschleunigt. Ferner bringt es neue KI-Anwendungen effizient in die Fläche bringt. Gleichzeitig werden höchste Anforderungen an Sicherheit, Compliance und Skalierbarkeit erfüllt. Firmen profitieren so von geringerer Komplexität, schnelleren Entwicklungszyklen – und einer zuverlässigen Grundlage für nachhaltiges KI-Wachstum im gesamten Unternehmen. Führung und Kultur Technologischer Wandel gelingt nur, wenn er mit der richtigen Haltung verbunden ist. Führungskräfte spielen dabei eine zentrale Rolle. Sie tragen nicht nur Verantwortung für Entscheidungen, sondern geben auch Impulse für die kulturelle Entwicklung. Wer GenAI in seinem Unternehmen etablieren will, muss Vertrauen schaffen, Orientierung geben und Veränderung aktiv vorleben. Das gilt besonders in Phasen der Unsicherheit, in denen Fragen zu Verantwortung, Ethik oder Auswirkungen auf Arbeitsprozesse noch nicht abschließend geklärt sind. Ohne Vertrauen lassen sich GenAI-Projekte kaum erfolgreich realisieren. Andrey_Popov – Shutterstock.com In unserem Beispiel ist Führung deshalb von Beginn an ein integraler Bestandteil der KI-Strategie. Führungskräfte sind strategisch eingebunden und übernehmen eine aktive Rolle in der Umsetzung. In speziell konzipierten Formaten sowohl für Führungskräfte als auch für Mitarbeitende reflektieren sie den KI-Einsatz in ihrem Verantwortungsbereich. Sie entwickeln neue Formen der Zusammenarbeit und begleiten ihre Teams im Umgang mit der Technologie. Ergänzend wurden Coaching- und Austauschformate etabliert, die die individuelle Entwicklung stärken und ein gemeinsames Verständnis im Umgang mit KI fördern. Der Mehrwert: Diese Haltung schafft Raum für Dialog, Offenheit und Fortschritt. Dort, wo Führung sichtbar vorangeht, entsteht Vertrauen. Und genau dieses Vertrauen ist entscheidend dafür, dass neue Technologien nicht nur akzeptiert, sondern in der Arbeitsrealität sinnvoll genutzt und weiterentwickelt werden. Fazit: Von der Technik zur Transformation GenAI entfaltet ihren echten Mehrwert nicht durch punktuelle Innovation, sondern durch strategische Verankerung. Es braucht mehr als Technologien und Methoden – gefragt ist ein Zusammenspiel aus klarer Steuerung, kultureller Entwicklung und zielgerichtetem Enablement. Nur wenn Organisation, Struktur und Haltung zusammenwirken, entsteht der Raum, in dem KI nicht nur genutzt, sondern wirksam gestaltet wird. Der Weg zur erfolgreichen KI-Integration führt über Führung, Verantwortung und das Bewusstsein, dass Transformation immer ganzheitlich gedacht werden muss.  

Strategie statt Stückwerk: KI erfolgreich einführen​ Punktuelle Erfolge reichen nicht, KI benötigt eine tragfähige Strategie.
Ton Wanniwat– Shutterstock.com

Generative KI (GenAI) hat ihren Weg in den Unternehmensalltag gefunden. In vielen Bereichen unterstützen Textassistenten, Wissensbots oder Automatisierungshilfen bereits bei der täglichen Arbeit. Doch die eigentliche Herausforderung beginnt jenseits dieser ersten Erfolge, wenn es darum geht, aus punktuellen Anwendungen eine tragfähige Strategie zu formen.

Die Ziele dabei lauten: Effizienz steigern, Kosten senken, Innovation beschleunigen, Wettbewerbsfähigkeit stärken und die Unternehmenskultur nachhaltig zu verändern. Kurzum, es gilt echte, organisationsweite Mehrwerte zu schaffen. Viele Unternehmen verfügen mittlerweile über einen gut gefüllten Werkzeugkasten an KI-Tools, aber noch nicht über den Bauplan, der den Weg zur strategischen Nutzung von KI vorgibt.

Zentrale Prinzipien für KI-Projekte

Ein international tätiger Industriekonzern aus einer hochregulierten Branche hat diesen Übergang konsequent gestaltet. Was mit dezentralen Einzelinitiativen begann, entwickelte sich unternehmensweit zu einem strategisch geführten Transformationsprogramm.

Auf der Vorstandsebene verankert, mit klarer Zielarchitektur und zentraler Steuerung, wurden technologische Innovation, organisatorische Klarheit und kultureller Wandel zusammengeführt. Im Verlauf der Umsetzung kristallisierten sich zentrale Prinzipien heraus, die den Erfolg des Programms maßgeblich geprägt haben:

Organisation mit Haltung: Verantwortung statt Einzelprojekte

Lernen mit Wirkung: Rollenspezifisch statt Gießkanne

Use Cases mit Relevanz: Fachlich statt technikgetrieben

Architektur und Datenstrategie: Fundament für Skalierung

Führung und Kultur: Veränderung braucht Vorbilder

Organisation mit Haltung

Damit KI langfristig wirksam werden kann, braucht es mehr als ein Projektteam. Entscheidend ist eine organisatorische Struktur, die das Thema nicht isoliert behandelt, sondern bereichsübergreifend integriert, strategisch steuert und operativ ermöglicht. Wer KI als kontinuierliche Transformationsaufgabe versteht, muss klare Rollen definieren, Prozesse festlegen und Governance verbindlich verankern – mit direkter Anbindung an das Top-Management.

KI muss als unternehmensweites Programm verstanden werden.
OATZ To Go FACTORY – Shutterstock.com

Im betrachteten Industriekonzern ist dieser Anspruch gelebte Praxis. KI wird nicht als technisches Einzelprojekt geführt, sondern als unternehmensweites Programm, das Geschäftsbereiche, Zentralfunktionen und Serviceeinheiten gleichermaßen einbindet. Eine zentrale Steuerungseinheit trägt die Gesamtverantwortung, entwickelt verbindliche Leitplanken. Zudem informiert sie transparent über Fortschritte und Risiken. Gleichzeitig übernehmen feste Ansprechpersonen in den Fachbereichen innerhalb klar definierter Rahmenbedingungen die Verantwortung für die dezentrale Umsetzung.

Der Mehrwert:

So lässt sich ein ausgewogenes Zusammenspiel aus Steuerung und Eigenverantwortung realisieren. Dies ermöglicht nicht nur eine schnelle Umsetzung, sondern gegenseitiges Lernen und schafft ein gemeinsames Verständnis für die übergeordnete Zielsetzung.

Lernen mit Wirkung

Die Einführung von KI verändert nicht nur Prozesse, sondern auch Rollenbilder, Entscheidungswege und die tägliche Zusammenarbeit. Damit dieser Wandel gelingt, braucht es mehr als klassische Schulungsformate. Erfolgreiches Enablement verbindet technisches Grundlagenwissen mit konkreten Aufgaben und Prozessen, abgestimmt auf die Realität der Mitarbeitenden.

Im betrachteten Industriekonzern setzt man auf rollenbasierte Lernpfade, die sich nicht an Technologien, sondern an konkreten Aufgaben und realen Herausforderungen orientieren. In interaktiven Formaten reflektieren Teams gemeinsam mit Experten und Expertinnen ihre tägliche Arbeit. Dabei identifizieren sie Potenziale für den Einsatz von generativer KI und entwickeln Qualifizierungsformate. Die Palette reicht von interaktiven Workshops bis hin zu praxisnahen Hands-on-Trainings.

Der Mehrwert:

So entsteht nicht nur Wissen, sondern echte Handlungskompetenz. Die Mitarbeitenden gewinnen Sicherheit im Umgang mit neuen Technologien und stärken ihr Rollenverständnis. Zugleich entwickeln sie das Selbstvertrauen, generative KI aktiv und reflektiert in ihre Arbeit zu integrieren.

Use Cases

Technologie allein bringt keinen Mehrwert. Entscheidend ist, wo und wie sie eingesetzt wird. Wer KI im Unternehmen verankern will, braucht Anwendungsfälle mit fachlicher Relevanz und strategischem Bezug. Es geht nicht darum, Prozesse einfach zu automatisieren, sondern darum, bestehende Arbeitsweisen zu hinterfragen und den tatsächlichen Nutzen in den Mittelpunkt zu stellen – und auch mögliche überflüssige Schritte zu vereinfachen.

Nicht die Technik, sondern der Use Case entscheidet über den Erfolg der KI-Nutzung.
Andrey_Popov – Shutterstock.com

In unserem Beispiel steht deshalb die fachliche Perspektive im Fokus. Use Cases werden nicht zentral vorgegeben, sondern gemeinsam mit den Fachbereichen identifiziert und priorisiert. Die Auswahl erfolgt entlang definierter Kriterien wie Relevanz für den Geschäftsalltag, technische Machbarkeit, erwarteter Mehrwert und mit Blick auf die strategischen Zielbilder. Ein weiterer Bewertungsfaktor ist die Prozessreife, denn KI kann ihre Stärken nur entfalten, wenn auch die zugrundeliegenden Abläufe dafür geeignet sind.

In interdisziplinären Workshops analysieren die Teams konkrete Prozesse. Sie entwickeln Ideen für KI-Unterstützung und prüfen, welche Hebel sich durch Automatisierung oder Generierung ergeben. Anhand von Zielgrößen und KPIs lässt sich die Wirkung von KI in Kombination mit neuen Arbeitsweisen auf Prozess- und Abteilungsebene messen – und geht somit über eine reine Zeitersparnis auf persönlicher Ebene hinaus. Die Verantwortung liegt bewusst in den Fachbereichen, denn dort entsteht der Bedarf, dort liegt das Prozesswissen und dort zeigt sich auch der tatsächliche Mehrwert.

Der Mehrwert:

Dieser Ansatz fördert nicht nur passgenaue Lösungen, sondern auch das Verständnis dafür, wo KI sinnvoll eingesetzt werden kann und wo nicht. Die entstehenden Anwendungen sind somit praxisnah und entfalten ihren Nutzen dort, wo er wirklich zählt: Im realen Arbeitskontext der Fachbereiche.

Architektur und Datenstrategie

Eine tragfähige KI-Strategie braucht eine technische Grundlage, auf der sich Anwendungen stabil, sicher und skalierbar umsetzen lassen. Dazu zählen nicht nur geeignete Plattformen und Werkzeuge, sondern auch der bewusste Umgang mit Daten. Verfügbarkeit, Qualität und Governance entscheiden mit darüber, ob KI in der Praxis funktioniert – und ob sie vertrauenswürdig eingesetzt werden kann.

Ein zentrales Augenmerk bei KI-Projekten sollte auf Datensicherheit und Governance liegen – es gilt ein Oversharing zu vermeiden.
Gorodenkoff – Shutterstock.com

Im angesprochenen Unternehmen basiert das Programm auf einer klaren Plattform-strategie. Die Integration von KI in bestehende IT-Strukturen steht im Vordergrund. Ergänzend kommen ausgewählte Speziallösungen dort zum Einsatz, wo sie fachlich oder funktional notwendig sind. Ein zentrales Augenmerk liegt dabei auf Datensicherheit und Governance. In einem regulierten Umfeld spielt der Schutz sensibler Informationen eine zentrale Rolle. Um unbeabsichtigtes Oversharing zu vermeiden, wurden technische Leitplanken gesetzt, klare Nutzungsrichtlinien formuliert und die datenschutzrechtliche Begleitung eng eingebunden.

Ziel ist es zudem, wiederverwendbare technische Bausteine zu schaffen, die eine zügige Skalierung neuer Anwendungsfälle ermöglichen und gleichzeitig die technologische Komplexität reduzieren.

Der Mehrwert:

Auf diese Weise entsteht ein tragfähiges Fundament, das technologische Innovation beschleunigt. Ferner bringt es neue KI-Anwendungen effizient in die Fläche bringt. Gleichzeitig werden höchste Anforderungen an Sicherheit, Compliance und Skalierbarkeit erfüllt. Firmen profitieren so von geringerer Komplexität, schnelleren Entwicklungszyklen – und einer zuverlässigen Grundlage für nachhaltiges KI-Wachstum im gesamten Unternehmen.

Führung und Kultur

Technologischer Wandel gelingt nur, wenn er mit der richtigen Haltung verbunden ist. Führungskräfte spielen dabei eine zentrale Rolle. Sie tragen nicht nur Verantwortung für Entscheidungen, sondern geben auch Impulse für die kulturelle Entwicklung. Wer GenAI in seinem Unternehmen etablieren will, muss Vertrauen schaffen, Orientierung geben und Veränderung aktiv vorleben. Das gilt besonders in Phasen der Unsicherheit, in denen Fragen zu Verantwortung, Ethik oder Auswirkungen auf Arbeitsprozesse noch nicht abschließend geklärt sind.

Ohne Vertrauen lassen sich GenAI-Projekte kaum erfolgreich realisieren.
Andrey_Popov – Shutterstock.com

In unserem Beispiel ist Führung deshalb von Beginn an ein integraler Bestandteil der KI-Strategie. Führungskräfte sind strategisch eingebunden und übernehmen eine aktive Rolle in der Umsetzung. In speziell konzipierten Formaten sowohl für Führungskräfte als auch für Mitarbeitende reflektieren sie den KI-Einsatz in ihrem Verantwortungsbereich. Sie entwickeln neue Formen der Zusammenarbeit und begleiten ihre Teams im Umgang mit der Technologie. Ergänzend wurden Coaching- und Austauschformate etabliert, die die individuelle Entwicklung stärken und ein gemeinsames Verständnis im Umgang mit KI fördern.

Der Mehrwert:

Diese Haltung schafft Raum für Dialog, Offenheit und Fortschritt. Dort, wo Führung sichtbar vorangeht, entsteht Vertrauen. Und genau dieses Vertrauen ist entscheidend dafür, dass neue Technologien nicht nur akzeptiert, sondern in der Arbeitsrealität sinnvoll genutzt und weiterentwickelt werden.

Fazit: Von der Technik zur Transformation

GenAI entfaltet ihren echten Mehrwert nicht durch punktuelle Innovation, sondern durch strategische Verankerung. Es braucht mehr als Technologien und Methoden – gefragt ist ein Zusammenspiel aus klarer Steuerung, kultureller Entwicklung und zielgerichtetem Enablement. Nur wenn Organisation, Struktur und Haltung zusammenwirken, entsteht der Raum, in dem KI nicht nur genutzt, sondern wirksam gestaltet wird. Der Weg zur erfolgreichen KI-Integration führt über Führung, Verantwortung und das Bewusstsein, dass Transformation immer ganzheitlich gedacht werden muss. 

Strategie statt Stückwerk: KI erfolgreich einführen​ Weiterlesen »

Schwarz Digits erweitert datensouveräne Cloud​

Allgemein

Schwarz Digits und Dell entwickeln gemeinsam den Pharia Government Assistant für moderne Behördenarbeit und gegen Fachkräftemangel. Schwarz Digits Die Digitalsparte der Schwarz Gruppe, Schwarz Digits, hat mit dem Pharia Government Assistant eine KI-Lösung speziell für den Einsatz in Behörden entwickelt. Aufgabe der Künstlichen Intelligenz soll es sein, administrative Prozesse zu automatisieren und so dem zunehmenden Fachkräftemangel im öffentlichen Dienst entgegenzuwirken. Der Assistent bietet dazu eine leistungsfähige, skalierbare und schlüsselfertige KI-Infrastruktur, die wissensintensive Aufgaben mithilfe eines Large Language Models (LLM) des deutschen KI-Unternehmens Aleph Alpha lösen kann. Die öffentliche Hand entlasten Laut Schwarz Digits ist der KI-Assistant dabei in der Lage, umfangreiche Formulare auszufüllen, lange Dokumente zusammenzufassen, relevante Informationen zu recherchieren, Texten wie Berichte und Protokolle zu erstellen oder öffentlicher Informationen für eine vielsprachige Bevölkerung zu übersetzen. Behörden und Ämter sollen so einen Großteil ihrer repetitiven Verwaltungsarbeit automatisch erledigen lassen können, heißt es. Dadurch würden aufgrund des Fachkräftemangels unterbesetzte Teams entlastet und Freiräume für strategische Tätigkeiten geschaffen. Bereitgestellt wird der Pharia Government Assistant auf der datensouveränen STACKIT-Cloud. Da sich der Firmensitz der Gruppe in Deutschland befindet und sämtliche Daten in Deutschland und Österreich erhoben, gespeichert und verarbeitet werden, können die Nutzer der Cloud sämtliche Datenschutzvorgaben der EU einhalten, betont Schwarz Digits. Außerdem seien sie vor unautorisierten Zugriffen sicher und auch in Krisenzeiten verfügbar, da der Datenverkehr nicht durch Sanktionen oder Abschaltungen beeinträchtigt werden könne. Da STACKIT auf Open Source und offenen Standards basiere, vermieden Unternehmen einen Vendor-Lock-in und könnten ihre Daten jederzeit flexibel und kostengünstig auf alternative Cloud- oder On-Premises-Umgebungen migrieren. „Unsere europäische Cloud-Alternative macht uns und unsere Kunden unabhängig und sichert die Datenhoheit“, erklärt Walter Wolf, Vorstand bei Schwarz Digits. „Mit ihr bieten wir einen geschützten Rahmen für Unternehmensdaten und gewährleisten Zukunftsfähigkeit.“ Die technologische Basis des neuen Service bilden Dell PowerEdge XE9680 Server, die bis zu acht hochleistungsfähige GPUs unterstützen. Schwarz Digits und Dell pflegen bereits seit langem eine enge Technologie-Partnerschaft. So kommen Systeme von Dell auch für andere Services von Stackit zum Einsatz. 

Schwarz Digits erweitert datensouveräne Cloud​ Schwarz Digits und Dell entwickeln gemeinsam den Pharia Government Assistant für moderne Behördenarbeit und gegen Fachkräftemangel.
Schwarz Digits

Die Digitalsparte der Schwarz Gruppe, Schwarz Digits, hat mit dem Pharia Government Assistant eine KI-Lösung speziell für den Einsatz in Behörden entwickelt. Aufgabe der Künstlichen Intelligenz soll es sein, administrative Prozesse zu automatisieren und so dem zunehmenden Fachkräftemangel im öffentlichen Dienst entgegenzuwirken.

Der Assistent bietet dazu eine leistungsfähige, skalierbare und schlüsselfertige KI-Infrastruktur, die wissensintensive Aufgaben mithilfe eines Large Language Models (LLM) des deutschen KI-Unternehmens Aleph Alpha lösen kann.

Die öffentliche Hand entlasten

Laut Schwarz Digits ist der KI-Assistant dabei in der Lage,

umfangreiche Formulare auszufüllen,

lange Dokumente zusammenzufassen,

relevante Informationen zu recherchieren,

Texten wie Berichte und Protokolle zu erstellen oder

öffentlicher Informationen für eine vielsprachige Bevölkerung zu übersetzen.

Behörden und Ämter sollen so einen Großteil ihrer repetitiven Verwaltungsarbeit automatisch erledigen lassen können, heißt es. Dadurch würden aufgrund des Fachkräftemangels unterbesetzte Teams entlastet und Freiräume für strategische Tätigkeiten geschaffen.

Bereitgestellt wird der Pharia Government Assistant auf der datensouveränen STACKIT-Cloud. Da sich der Firmensitz der Gruppe in Deutschland befindet und sämtliche Daten in Deutschland und Österreich erhoben, gespeichert und verarbeitet werden, können die Nutzer der Cloud sämtliche Datenschutzvorgaben der EU einhalten, betont Schwarz Digits.

Außerdem seien sie vor unautorisierten Zugriffen sicher und auch in Krisenzeiten verfügbar, da der Datenverkehr nicht durch Sanktionen oder Abschaltungen beeinträchtigt werden könne. Da STACKIT auf Open Source und offenen Standards basiere, vermieden Unternehmen einen Vendor-Lock-in und könnten ihre Daten jederzeit flexibel und kostengünstig auf alternative Cloud- oder On-Premises-Umgebungen migrieren.

„Unsere europäische Cloud-Alternative macht uns und unsere Kunden unabhängig und sichert die Datenhoheit“, erklärt Walter Wolf, Vorstand bei Schwarz Digits. „Mit ihr bieten wir einen geschützten Rahmen für Unternehmensdaten und gewährleisten Zukunftsfähigkeit.“

Die technologische Basis des neuen Service bilden Dell PowerEdge XE9680 Server, die bis zu acht hochleistungsfähige GPUs unterstützen. Schwarz Digits und Dell pflegen bereits seit langem eine enge Technologie-Partnerschaft. So kommen Systeme von Dell auch für andere Services von Stackit zum Einsatz.

Schwarz Digits erweitert datensouveräne Cloud​ Weiterlesen »

Umgeht Perplexity gezielt Web-Sperren?​

Allgemein

Bots scheinen Schwierigkeiten zu haben, zwischen hilfreichen Assistenten und schädlichen Scrapern zu unterscheiden. One Time – shutterstock.com Zwischen dem Anbieter von Cloud-Infrastruktur Cloudflare und dem KI-Suchunternehmen Perplexity kam es zu einem öffentlichen Schlagabtausch: Beide Seiten erheben gegeneinander schwere Vorwürfe hinsichtlich ihrer technischen Kompetenz. Der Streit begann damit, dass Cloudflare Perplexity in einen technischen Bericht „Stealth Crawling” vorwarf – also den Einsatz von getarnten Webbrowsern, um Website-Sperren zu umgehen. Ziel ist es, Inhalte zu scrapen, die Website-Betreiber ausdrücklich von KI-Trainings fernhalten wollten. Perplexity reagierte umgehend und warf Cloudflare vor, einen „Publicity Stunt” zu inszenieren: Das Unternehmen, das damit wirbt, KI-Crawler auf Kunden-Websites zu blockieren, habe Millionen von Webanfragen nicht verwandter Services falsch zugeordnet, um seine eigenen Marketingbemühungen zu verstärken. Crawler-Wissen trotz Crawler-Block Cloudflares hatte die Untersuchung gestartet, nachdem sich Kunden beschwerten. Dabei habe man festgestellt, dass Perplexity weiterhin auf ihre Inhalte zugreifen konnte – obwohl sie seinen bekannten Crawler durch robots.txt-Dateien und Firewall-Regeln blockierten. Um dies zu überprüfen, erstellte Cloudflare brandneue Domains, blockierte alle KI-Crawler und befragte dann Perplexity zu diesen Websites. „Wir stellten fest, dass Perplexity weiterhin detaillierte Informationen über die genauen Inhalte bereitstellte, die auf jeder dieser eingeschränkten Domains gehostet wurden“, berichtete Cloudflare in einem Blogbeitrag. Dabei habe man alle notwendigen Vorkehrungen getroffen, um die Daten vor dem Zugriff der Crawler zu schützen. Cloudflare zufolge wechselte Perplexity dazu auf einen generischen Browser-User-Agent, nachdem sein dedizierter Crawler blockiert wurde. Dieser soll so gestaltet gewesen sein, dass er wie Chrome auf macOS aussieht. Dieser mutmaßliche Stealth-Crawler generierte laut Cloudflare täglich drei bis sechs Millionen Anfragen auf Zehntausenden von Websites, während Perplexitys offiziell deklarierter Crawler täglich 20 bis 25 Millionen Anfragen verarbeitete. Verstoß gegen gute Internet-Praktiken Cloudflare betonte, dass dieses Verhalten gegen das grundlegende Web-Prinzip Vertrauen verstoße. „Es gibt klare Erwartungen, dass Crawler transparent sein sollten, einem klaren Zweck dienen, eine bestimmte Aktivität ausführen und vor allem die Richtlinien und Präferenzen der Website befolgen sollten“, so das Unternehmen. Im Gegensatz dazu habe OpenAIs ChatGPT-User die Robots-Datei abgerufen und das Crawling beendet, als es nicht mehr erlaubt war. „Wir haben keine weiteren Crawls von anderen User Agents oder Bots von Drittanbietern beobachtet“, bekräftigte Cloudflare. Ein angeblicher PR-Gag Perplexity wiederum warf Cloudflare in einem LinkedIn-Post vor, bewusst seinen eigenen Kunden aus Marketinggründen anzugreifen. Das KI-Unternehmen schlug hierfür zwei mögliche Erklärungen vor: Entweder brauche Cloudflare einen „cleveren Werbegag“ und Perplexity sei als Kunde mit bekanntem Namen gut dafür geeignet oder „Cloudflare hat drei bis sechs Millionen tägliche Anfragen vom automatisierten Browserdienst BrowserBase fälschlicherweise Perplexity zugeschrieben“. Perplexity räumte ein, dass der umstrittene Traffic tatsächlich von BrowserBase stammt, einem Cloud-Browser-Dienst eines Drittanbieters, den Perplexity nur in geringem Umfang nutze. Dieser sei aber für weniger als 45.000 der täglichen Anfragen verantwortlich, also deutlich weniger als die Anfragen, die Cloudflare dem heimlichen Crawling zuschreibt. Ein so grundliegender Fehler bei der Traffic-Analyse sei für ein Unternehmen, dessen Kerngeschäft das Verstehen und Kategorisieren von Web-Traffic ist, besonders peinlich ist, stellte Perplexity fest. Mangel and Verständnis und Kompetenz Das Unternehmen argumentierte außerdem, dass Cloudflare nicht versteht, wie moderne KI-Assistenten funktionieren: „Wenn Sie Perplexity eine Frage stellen, die aktuelle Informationen erfordert, verfügt die KI nicht bereits über diese Informationen. Stattdessen ruft sie die relevanten Websites auf, liest den Inhalt und liefert eine auf Ihre spezifische Frage zugeschnittene Zusammenfassung.“ Segen im Streit Aus Sicht von Branchenanalysten deckt der Streit umfassendere Schwachstellen in den Strategien zum Schutz von Unternehmensinhalten auf. Diese würden weit über diese einzelne Kontroverse hinausgehen. „Einige Bot-Erkennungs-Tools weisen erhebliche Zuverlässigkeitsprobleme auf, darunter eine hohe Anzahl von Fehlalarmen und eine Anfälligkeit für Umgehungstaktiken, was sich in einer inkonsistenten Leistung bei der Unterscheidung zwischen legitimen KI-Diensten und bösartigen Crawlern zeigt“, erklärt Charlie Dai, Vice President und Principal Analyst bei Forrester. Sanchit Vir Gogia, Chefanalyst und CEO bei Greyhound Research, argumentiert, dass der Streit „einen dringenden Wendepunkt für Sicherheitsteams in Unternehmen signalisiert: Herkömmliche Tools zur Bot-Erkennung, die für statische Webcrawler und volumetrische Automatisierung entwickelt wurden, sind nicht mehr in der Lage, die Feinheiten von KI-gestützten Agenten zu bewältigen, die im Auftrag von Benutzern agieren.“ Zugleich erklärte der Experte, dass die technische Herausforderung vielschichtig sei: „Während fortschrittliche KI-Assistenten häufig Inhalte in Echtzeit für die Anfrage eines Benutzers abrufen – ohne diese Daten zu speichern oder zu trainieren –, tun sie dies mithilfe von Automatisierungs-Frameworks wie Puppeteer oder Playwright, die eine frappierende Ähnlichkeit mit Scraping-Tools aufweisen.“ Dies führe dazu, dass Bot-Erkennungssysteme zwischen Hilfe und Schaden unterscheiden müssten, so Gogia. Unterschiedliche Lösungsansätze Lösungen wie Branchen-Frameworks entstehen bereits, allerdings nur langsam. Ausgereifte Standards sind laut Forrester-Analyst Dai frühestens 2026 zu erwarten. Vorher müssten Unternehmen sich mit „möglicherweise weiterhin auf individuelle Verträge, robots.txt und sich entwickelnde Rechtsprechungen verlassen.“ An einer eigenen Lösung arbeitet bereits OpenAI. Die ChatGPT-Macher testen die Identitätsprüfung durch Web Bot Auth, wodurch Websites Agentenanfragen kryptografisch bestätigen können. (tf/mb) 

Umgeht Perplexity gezielt Web-Sperren?​ Bots scheinen Schwierigkeiten zu haben, zwischen hilfreichen Assistenten und schädlichen Scrapern zu unterscheiden.
One Time – shutterstock.com

Zwischen dem Anbieter von Cloud-Infrastruktur Cloudflare und dem KI-Suchunternehmen Perplexity kam es zu einem öffentlichen Schlagabtausch: Beide Seiten erheben gegeneinander schwere Vorwürfe hinsichtlich ihrer technischen Kompetenz.

Der Streit begann damit, dass Cloudflare Perplexity in einen technischen Bericht „Stealth Crawling” vorwarf – also den Einsatz von getarnten Webbrowsern, um Website-Sperren zu umgehen. Ziel ist es, Inhalte zu scrapen, die Website-Betreiber ausdrücklich von KI-Trainings fernhalten wollten.

Perplexity reagierte umgehend und warf Cloudflare vor, einen „Publicity Stunt” zu inszenieren: Das Unternehmen, das damit wirbt, KI-Crawler auf Kunden-Websites zu blockieren, habe Millionen von Webanfragen nicht verwandter Services falsch zugeordnet, um seine eigenen Marketingbemühungen zu verstärken.

Crawler-Wissen trotz Crawler-Block

Cloudflares hatte die Untersuchung gestartet, nachdem sich Kunden beschwerten. Dabei habe man festgestellt, dass Perplexity weiterhin auf ihre Inhalte zugreifen konnte – obwohl sie seinen bekannten Crawler durch robots.txt-Dateien und Firewall-Regeln blockierten. Um dies zu überprüfen, erstellte Cloudflare brandneue Domains, blockierte alle KI-Crawler und befragte dann Perplexity zu diesen Websites.

„Wir stellten fest, dass Perplexity weiterhin detaillierte Informationen über die genauen Inhalte bereitstellte, die auf jeder dieser eingeschränkten Domains gehostet wurden“, berichtete Cloudflare in einem Blogbeitrag. Dabei habe man alle notwendigen Vorkehrungen getroffen, um die Daten vor dem Zugriff der Crawler zu schützen.

Cloudflare zufolge wechselte Perplexity dazu auf einen generischen Browser-User-Agent, nachdem sein dedizierter Crawler blockiert wurde. Dieser soll so gestaltet gewesen sein, dass er wie Chrome auf macOS aussieht. Dieser mutmaßliche Stealth-Crawler generierte laut Cloudflare täglich drei bis sechs Millionen Anfragen auf Zehntausenden von Websites, während Perplexitys offiziell deklarierter Crawler täglich 20 bis 25 Millionen Anfragen verarbeitete.

Verstoß gegen gute Internet-Praktiken

Cloudflare betonte, dass dieses Verhalten gegen das grundlegende Web-Prinzip Vertrauen verstoße. „Es gibt klare Erwartungen, dass Crawler transparent sein sollten, einem klaren Zweck dienen, eine bestimmte Aktivität ausführen und vor allem die Richtlinien und Präferenzen der Website befolgen sollten“, so das Unternehmen.

Im Gegensatz dazu habe OpenAIs ChatGPT-User die Robots-Datei abgerufen und das Crawling beendet, als es nicht mehr erlaubt war. „Wir haben keine weiteren Crawls von anderen User Agents oder Bots von Drittanbietern beobachtet“, bekräftigte Cloudflare.

Ein angeblicher PR-Gag

Perplexity wiederum warf Cloudflare in einem LinkedIn-Post vor, bewusst seinen eigenen Kunden aus Marketinggründen anzugreifen. Das KI-Unternehmen schlug hierfür zwei mögliche Erklärungen vor:

Entweder brauche Cloudflare einen „cleveren Werbegag“ und Perplexity sei als Kunde mit bekanntem Namen gut dafür geeignet oder „Cloudflare hat drei bis sechs Millionen tägliche Anfragen vom automatisierten Browserdienst BrowserBase fälschlicherweise Perplexity zugeschrieben“.

Perplexity räumte ein, dass der umstrittene Traffic tatsächlich von BrowserBase stammt, einem Cloud-Browser-Dienst eines Drittanbieters, den Perplexity nur in geringem Umfang nutze. Dieser sei aber für weniger als 45.000 der täglichen Anfragen verantwortlich, also deutlich weniger als die Anfragen, die Cloudflare dem heimlichen Crawling zuschreibt.

Ein so grundliegender Fehler bei der Traffic-Analyse sei für ein Unternehmen, dessen Kerngeschäft das Verstehen und Kategorisieren von Web-Traffic ist, besonders peinlich ist, stellte Perplexity fest.

Mangel and Verständnis und Kompetenz

Das Unternehmen argumentierte außerdem, dass Cloudflare nicht versteht, wie moderne KI-Assistenten funktionieren: „Wenn Sie Perplexity eine Frage stellen, die aktuelle Informationen erfordert, verfügt die KI nicht bereits über diese Informationen. Stattdessen ruft sie die relevanten Websites auf, liest den Inhalt und liefert eine auf Ihre spezifische Frage zugeschnittene Zusammenfassung.“

Segen im Streit

Aus Sicht von Branchenanalysten deckt der Streit umfassendere Schwachstellen in den Strategien zum Schutz von Unternehmensinhalten auf. Diese würden weit über diese einzelne Kontroverse hinausgehen.

„Einige Bot-Erkennungs-Tools weisen erhebliche Zuverlässigkeitsprobleme auf, darunter eine hohe Anzahl von Fehlalarmen und eine Anfälligkeit für Umgehungstaktiken, was sich in einer inkonsistenten Leistung bei der Unterscheidung zwischen legitimen KI-Diensten und bösartigen Crawlern zeigt“, erklärt Charlie Dai, Vice President und Principal Analyst bei Forrester. Sanchit Vir Gogia, Chefanalyst und CEO bei Greyhound Research, argumentiert, dass der Streit „einen dringenden Wendepunkt für Sicherheitsteams in Unternehmen signalisiert: Herkömmliche Tools zur Bot-Erkennung, die für statische Webcrawler und volumetrische Automatisierung entwickelt wurden, sind nicht mehr in der Lage, die Feinheiten von KI-gestützten Agenten zu bewältigen, die im Auftrag von Benutzern agieren.“

Zugleich erklärte der Experte, dass die technische Herausforderung vielschichtig sei: „Während fortschrittliche KI-Assistenten häufig Inhalte in Echtzeit für die Anfrage eines Benutzers abrufen – ohne diese Daten zu speichern oder zu trainieren –, tun sie dies mithilfe von Automatisierungs-Frameworks wie Puppeteer oder Playwright, die eine frappierende Ähnlichkeit mit Scraping-Tools aufweisen.“ Dies führe dazu, dass Bot-Erkennungssysteme zwischen Hilfe und Schaden unterscheiden müssten, so Gogia.

Unterschiedliche Lösungsansätze

Lösungen wie Branchen-Frameworks entstehen bereits, allerdings nur langsam. Ausgereifte Standards sind laut Forrester-Analyst Dai frühestens 2026 zu erwarten. Vorher müssten Unternehmen sich mit „möglicherweise weiterhin auf individuelle Verträge, robots.txt und sich entwickelnde Rechtsprechungen verlassen.“

An einer eigenen Lösung arbeitet bereits OpenAI. Die ChatGPT-Macher testen die Identitätsprüfung durch Web Bot Auth, wodurch Websites Agentenanfragen kryptografisch bestätigen können. (tf/mb)

Umgeht Perplexity gezielt Web-Sperren?​ Weiterlesen »

IT-Fachkräftemangel bleibt akut​

Allgemein

Trotz wirtschaftlicher Flaute und Errungenschaften wie KI haben Unternehmen Schwierigkeiten, offene IT-Stellen zu besetzen. DC Studio/Shutterstock.com Auch wenn der Bedarf an IT-Fachkräften in Deutschland leicht abgenommen hat und einige Unternehmern aufgrund der wirtschaftlichen Lage IT-Stellen abbauen mussten oder dies befürchten – viele Betriebe rechnen damit, dass sich der Mangel künftig weiter verschärft. Das sind die Ergebnisse der neuen Bitkom-Studie zum Arbeitsmarkt für IT-Fachkräfte, für die 855 Unternehmen aller Branchen repräsentativ befragt wurden. Laut Bitkom liegt die Zahl der offenen IT-Stellen mit aktuell 109.000 zwar deutlich unter dem Wert von vor zwei Jahren (149.000), allerdings sehen die Unternehmen keine wirkliche Abmilderung des Fachkräftemangels. So beklagen derzeit 85 Prozent einen Mangel an IT-Fachkräften auf dem deutschen Arbeitsmarkt, nur vier Prozent sprechen von einem Überangebot, während zehn Prozent der Ansicht sind, dass ausreichend IT-Fachkräfte gibt. 79 Prozent erwarten, dass sich der IT-Fachkräftemangel in Zukunft weiter verschärfen wird, nur vier Prozent rechnen damit, dass er sich abschwächt und 16 Prozent erwarten keine Veränderung. Bedarf an IT-Spezialisten lässt nach „Die konjunkturelle Eintrübung und geopolitische Unsicherheiten haben dazu geführt, dass Unternehmen bei Neueinstellungen zurückhaltend sind oder sogar IT-Stellen abgebaut haben. Zugleich schreitet die Digitalisierung der Unternehmen, aber auch in Verwaltungen und Behörden, voran, so dass dort eher mehr als weniger IT-Expertinnen und -Experten benötigt werden“, erklärt Bitkom-Präsident Ralf Wintergerst. „Wir müssen mehr Anstrengungen unternehmen, die IT-Fachkräftelücke zu schließen. Der Fachkräftemangel darf nicht zur Digitalisierungsbremse werden“, appelliert Wintergerst. Wie ein Blick in die Studie zeigt, ist das allerdings bereits seit zwei Jahren bei einigen Unternehmen der Fall. So dauert es im Schnitt fast acht Monate, eine freie IT-Stelle zu besetzen. Schuld daran ist meist das liebe Geld: Knapp zwei Drittel der befragten Unternehmen (63 Prozent) gaben an, dass sich die Gehaltsvorstellungen der Bewerberinnen und Bewerber nicht mit deren Qualifikation decken. Bei mehr als der Hälfte (56 Prozent) passten die Gehaltswünsche nicht in das Gehaltsgefüge des Unternehmens. Weitere Schwierigkeiten bei der Besetzung von IT-Jobs sind fehlende Soft-Skills der Kandidatinnen und Kandidaten (38 Prozent), mangelnde Deutsch- (35 Prozent) oder Fremdsprachenkenntnisse (28 Prozent). Umgekehrt scheitert es aber auch an der fehlenden Flexibilität der Unternehmen, etwa was Wünsche wie mobiles Arbeiten (43 Prozent) oder flexible Arbeitszeiten (29 Prozent) betrifft. Unter dem Strich haben nur drei Prozent der Unternehmen keine Schwierigkeiten, offene Stellen für IT-Fachkräfte zu besetzen. Ein Viertel (25 Prozent) gibt an, dass sie praktisch keine Bewerbungen erhalten. Der IT-Fachkräftemangel in Deutschland hält aus Sicht der Studienteilnehmer weiter an. Bitkom Research KI ersetzt und schafft IT-Jobs Um dem IT-Fachkräftemangel entgegenzuwirken, setzt jedes zwölfte Unternehmen (acht Prozent) vermehrt Künstliche Intelligenz ein, Dabei lässt sich laut Bitkom noch nicht sagen, welche Auswirkungen KI unter dem Strich auf den IT-Arbeitsmarkt haben wird. So rechnet rund jedes vierte Unternehmen (27 Prozent) damit, dass es durch KI Stellen abbauen wird, 16 Prozent erwarten, dass aufgrund von KI Stellen verzichtbar werden, die ohnehin nicht besetzt werden können. Gleichzeitig gehen jedoch 42 Prozent davon aus, dass KI für einen zusätzlichen Bedarf an IT-Fachkräften im Unternehmen sorgen wird. „KI kann heute in der IT bereits eine Vielzahl von Aufgaben erfüllen, von Support-Anfragen bis hin zur Code-Erstellung“, erklärt Bitkom-Präsident Wintergerst dazu. Allerdings werde auch der Bedarf an KI-Spezialistinnen und -Spezialisten steigen, wenn mehr Unternehmen künstliche Intelligenz einsetzen und in ihre Systeme integrieren wollen. Neben KI setzen die Unternehmen beim Kampf gegen den IT-Fachkräftemangel auf altbewährte Mittel. Dazu zählen vor allem: Weiterbildungsprogramme (31 Prozent), spezielle Programme für den Quereinstieg (22 Prozent), Programme, um ältere Beschäftigte länger im Job zu halten (19 Prozent), Fördermaßnahmen für Frauen (14 Prozent), Diversitäts- und Inklusionsprogramme (sieben Prozent), und externe IT-Fachkräfte (zwölf Prozent). Drei von zehn Unternehmen (29 Prozent) tun indes derzeit gar nichts gegen den IT-Fachkräftemangel. US-Politik als Chance Auch wenn bislang erst 14 Prozent der Unternehmen IT-Fachkräfte aus dem Ausland rekrutiert haben – laut Umfrage eröffnet die politische Entwicklung in den USA hier Chancen, mehr IT-Spezialisten nach Deutschland zu holen. So befinden 45 Prozent der befragten Unternehmen, durch die Politik von US-Präsident Donald Trump hätten die USA an Anziehungskraft für ausländische IT-Fachkräfte verloren. 27 Prozent meinen, dass es nun leichter sei, IT-Fachkräfte aus Nicht-EU-Ländern nach Deutschland, statt in die USA zu routen. 

IT-Fachkräftemangel bleibt akut​ Trotz wirtschaftlicher Flaute und Errungenschaften wie KI haben Unternehmen Schwierigkeiten, offene IT-Stellen zu besetzen. DC Studio/Shutterstock.com

Auch wenn der Bedarf an IT-Fachkräften in Deutschland leicht abgenommen hat und einige Unternehmern aufgrund der wirtschaftlichen Lage IT-Stellen abbauen mussten oder dies befürchten – viele Betriebe rechnen damit, dass sich der Mangel künftig weiter verschärft. Das sind die Ergebnisse der neuen Bitkom-Studie zum Arbeitsmarkt für IT-Fachkräfte, für die 855 Unternehmen aller Branchen repräsentativ befragt wurden.

Laut Bitkom liegt die Zahl der offenen IT-Stellen mit aktuell 109.000 zwar deutlich unter dem Wert von vor zwei Jahren (149.000), allerdings sehen die Unternehmen keine wirkliche Abmilderung des Fachkräftemangels. So beklagen derzeit 85 Prozent einen Mangel an IT-Fachkräften auf dem deutschen Arbeitsmarkt, nur vier Prozent sprechen von einem Überangebot, während zehn Prozent der Ansicht sind, dass ausreichend IT-Fachkräfte gibt.

79 Prozent erwarten, dass sich der IT-Fachkräftemangel in Zukunft weiter verschärfen wird, nur vier Prozent rechnen damit, dass er sich abschwächt und 16 Prozent erwarten keine Veränderung.

Bedarf an IT-Spezialisten lässt nach

„Die konjunkturelle Eintrübung und geopolitische Unsicherheiten haben dazu geführt, dass Unternehmen bei Neueinstellungen zurückhaltend sind oder sogar IT-Stellen abgebaut haben. Zugleich schreitet die Digitalisierung der Unternehmen, aber auch in Verwaltungen und Behörden, voran, so dass dort eher mehr als weniger IT-Expertinnen und -Experten benötigt werden“, erklärt Bitkom-Präsident Ralf Wintergerst. „Wir müssen mehr Anstrengungen unternehmen, die IT-Fachkräftelücke zu schließen. Der Fachkräftemangel darf nicht zur Digitalisierungsbremse werden“, appelliert Wintergerst.

Wie ein Blick in die Studie zeigt, ist das allerdings bereits seit zwei Jahren bei einigen Unternehmen der Fall. So dauert es im Schnitt fast acht Monate, eine freie IT-Stelle zu besetzen. Schuld daran ist meist das liebe Geld: Knapp zwei Drittel der befragten Unternehmen (63 Prozent) gaben an, dass sich die Gehaltsvorstellungen der Bewerberinnen und Bewerber nicht mit deren Qualifikation decken. Bei mehr als der Hälfte (56 Prozent) passten die Gehaltswünsche nicht in das Gehaltsgefüge des Unternehmens.

Weitere Schwierigkeiten bei der Besetzung von IT-Jobs sind fehlende Soft-Skills der Kandidatinnen und Kandidaten (38 Prozent), mangelnde Deutsch- (35 Prozent) oder Fremdsprachenkenntnisse (28 Prozent). Umgekehrt scheitert es aber auch an der fehlenden Flexibilität der Unternehmen, etwa was Wünsche wie mobiles Arbeiten (43 Prozent) oder flexible Arbeitszeiten (29 Prozent) betrifft.

Unter dem Strich haben nur drei Prozent der Unternehmen keine Schwierigkeiten, offene Stellen für IT-Fachkräfte zu besetzen. Ein Viertel (25 Prozent) gibt an, dass sie praktisch keine Bewerbungen erhalten.

Der IT-Fachkräftemangel in Deutschland hält aus Sicht der Studienteilnehmer weiter an. Bitkom Research

KI ersetzt und schafft IT-Jobs

Um dem IT-Fachkräftemangel entgegenzuwirken, setzt jedes zwölfte Unternehmen (acht Prozent) vermehrt Künstliche Intelligenz ein, Dabei lässt sich laut Bitkom noch nicht sagen, welche Auswirkungen KI unter dem Strich auf den IT-Arbeitsmarkt haben wird. So rechnet rund jedes vierte Unternehmen (27 Prozent) damit, dass es durch KI Stellen abbauen wird, 16 Prozent erwarten, dass aufgrund von KI Stellen verzichtbar werden, die ohnehin nicht besetzt werden können.

Gleichzeitig gehen jedoch 42 Prozent davon aus, dass KI für einen zusätzlichen Bedarf an IT-Fachkräften im Unternehmen sorgen wird. „KI kann heute in der IT bereits eine Vielzahl von Aufgaben erfüllen, von Support-Anfragen bis hin zur Code-Erstellung“, erklärt Bitkom-Präsident Wintergerst dazu. Allerdings werde auch der Bedarf an KI-Spezialistinnen und -Spezialisten steigen, wenn mehr Unternehmen künstliche Intelligenz einsetzen und in ihre Systeme integrieren wollen.

Neben KI setzen die Unternehmen beim Kampf gegen den IT-Fachkräftemangel auf altbewährte Mittel. Dazu zählen vor allem:

Weiterbildungsprogramme (31 Prozent),

spezielle Programme für den Quereinstieg (22 Prozent),

Programme, um ältere Beschäftigte länger im Job zu halten (19 Prozent),

Fördermaßnahmen für Frauen (14 Prozent),

Diversitäts- und Inklusionsprogramme (sieben Prozent), und

externe IT-Fachkräfte (zwölf Prozent).

Drei von zehn Unternehmen (29 Prozent) tun indes derzeit gar nichts gegen den IT-Fachkräftemangel.

US-Politik als Chance

Auch wenn bislang erst 14 Prozent der Unternehmen IT-Fachkräfte aus dem Ausland rekrutiert haben – laut Umfrage eröffnet die politische Entwicklung in den USA hier Chancen, mehr IT-Spezialisten nach Deutschland zu holen. So befinden 45 Prozent der befragten Unternehmen, durch die Politik von US-Präsident Donald Trump hätten die USA an Anziehungskraft für ausländische IT-Fachkräfte verloren. 27 Prozent meinen, dass es nun leichter sei, IT-Fachkräfte aus Nicht-EU-Ländern nach Deutschland, statt in die USA zu routen.

IT-Fachkräftemangel bleibt akut​ Weiterlesen »

10 Tipps zur Cloud-Rückführung​

Allgemein

Immer mehr Unternehmen liebäugeln damit, Workloads aus der Cloud zurückzuverlagern. Doch was ist dabei zu beachten? Ar_TH – Shutterstock.com Die Cloud-Euphorie scheint ihren Höhepunkt überschritten zu haben. Aufgrund der jüngsten geopolitischen Verwerfungen sowie neuer rechtlicher und regulatorischer Fragen stellen sich immer mehr Unternehmen die Frage, welche Workloads in der Public Cloud noch sinnvoll sind und welche besser On-Premises im eigenen Rechenzentrum betrieben werden? Zudem wird der Wunsch nach digitaler Souveränität immer lauter. Erschwerend kommt hinzu, dass die Cloud-Kosten angesichts des Siegeszugs der KI-Anwendungen zunehmend unkalkulierbar und damit zum Risiko werden. Doch wie sieht eine erfolgsversprechende Repatriierungs-Strategie aus? Was ist in Sachen Infrastruktur zu berücksichtigen? Was ist mit Blick auf den Business Case zu beachten? 10 Empfehlungen Stefan Maier, Geschäftsführer bei Prior1, gibt hierzu zehn Empfehlungen aus Sicht der Rechenzentrumsplanung. Sein Unternehmen unterstützt Organisationen bei der Planung und Umsetzung hybrider Rechenzentrumsinfrastrukturen. Die Palette reicht dabei vom energieeffizienten Neubau bis zur Co-Location. 1. Workloads differenziert analysieren Der erste Schritt jeder Rückführungs-Strategie sollte eine detaillierte Analyse aller Workloads im Unternehmen sein. Dabei geht es nicht nur um technische Kriterien, sondern auch um wirtschaftliche, regulatorische und sicherheitsrelevante Aspekte. Welche Anwendungen verursachen in der Cloud überproportional hohe Betriebskosten? Welche sind datenschutzrechtlich sensibel oder erfordern geringe Latenzzeiten? Besonders bei KI-gestützten Prozessen, großen Datenmengen oder Business-Critical-Applikationen lohnt sich ein genauer Blick auf Betriebskosten, Datenflüsse und Abhängigkeiten. Diese Analyse sollte das Fundament jeder Architekturentscheidung bilden. 2. Strategische Standortwahl Die Wahl des richtigen Standorts für das eigene Rechenzentrum hat weitreichende Konsequenzen: für Energieeffizienz, Betriebsstabilität, Nachhaltigkeit und Expansion. So sollten Aspekte wie Netzanschluss, Platzangebot und Erreichbarkeit berücksichtigt werden. Stefan Maier, Geschäftsführer bei Prior1, gibt Empfehlungen zur Cloud-Rückführung. Prior1 Darüber hinaus sind Punkte wie regionale Förderprogramme, die Nähe zu Ökostromquellen oder Potenziale für die Abwärmenutzung in die Überlegungen einzubeziehen. Eine gute Standortentscheidung kann nicht nur langfristige Betriebskosten senken, sondern auch die Investitionssicherheit und Flexibilität erhöhen. 3. Energieeffizienz einplanen Moderne Rechenzentren müssen deutlich mehr Rechenleistung auf engerem Raum erbringen und dabei im Verhältnis zur verarbeiteten IT-Last immer weniger Energie verbrauchen. Die Herausforderung: Neue Workloads wie KI oder Machine Learning erhöhen die Leistungsdichte erheblich. Eine klassische Luftkühlung stößt hier teilweise an ihre Grenzen. Stattdessen setzen fortschrittliche Betreiber auf Konzepte wie Direct-Liquid-Cooling, Warmwasser-Kreisläufe oder modulare Kühlzonen. Wer diese Technologien von Anfang an einplant, reduziert nicht nur Energiekosten und CO₂-Ausstoß, sondern hilft dabei, gesetzliche Vorgaben wie das Energieeffizienzgesetz (EnEfG) zu erreichen. 4. Nachhaltigkeit als Business Case Nachhaltigkeit ist heute mehr als nur eine Pflicht. Sie wird zunehmend ein Mittel zur strategischen Differenzierung. Rechenzentren mit eigener Photovoltaik-Anlage, Ökostromverträgen, Holzmodulbauweise oder intelligenter Abwärmenutzung setzen ein Zeichen für Verantwortung. Zudem erzielen sie auch ökonomische Vorteile durch langfristige Energiepreisstabilität, Imageeffekte und regulatorische Bonuspunkte. Nachhaltigkeit lässt sich heute planen, nicht nur aus Überzeugung, sondern auch aus wirtschaftlicher Klugheit. 5. Compliance technisch abbilden Regulatorische Vorgaben wie DSGVO, NIS2 oder das EnEfG beeinflussen die RZ-Planung tiefgreifend. Eigene Rechenzentren bieten die Möglichkeit, Compliance von Grund auf mitzudenken. Dazu zählen klar definierte Zugriffsrechte, verschlüsselte Datenräume, nachvollziehbare Log-Ketten oder dedizierte Sicherheitszonen. Gerade mittelständische Unternehmen profitieren von dieser Transparenz und vermeiden langfristige Risiken bei Audits, Zertifizierungen oder Lieferkettenverantwortung. 6. Hybride Architekturen gezielt planen Ein Rechenzentrum ersetzt nicht automatisch die Cloud. Vielmehr geht es um das richtige Zusammenspiel beider Welten. Hybride IT-Architekturen ermöglichen es, sensible oder kostenintensive Anwendungen lokal zu betreiben, während andere Dienste weiterhin in der Cloud bleiben. Voraussetzung hierfür ist eine durchdachte Architektur mit klaren Schnittstellen, einheitlichen Monitoring-Lösungen und gut dokumentierten Übergabepunkten. Wer hybride Strategien frühzeitig einplant, bleibt langfristig flexibel. 7. Kosten realistisch kalkulieren Viele Repatriierungsprojekte scheitern an einer zu optimistischen Kostenplanung. Neben Investitionskosten für Bau, Hardware und Ausstattung müssen auch die laufenden Betriebskosten realistisch abgebildet werden. So sind etwa Energie-, Flächenbedarf, Wartung, Personal, Software-Lizenzen, IT-Sicherheit oder Notfallvorsorge zu berücksichtigen. Eine Total-Cost-of-Ownership-(TCO-)Betrachtung über fünf bis zehn Jahre gibt realistische Entscheidungsgrundlagen und zeigt oft, dass On-Premises-Modelle wirtschaftlicher sind als erwartet. 8. Personalressourcen gezielt einsetzen Der Betrieb eines Rechenzentrums ist anspruchsvoll und Fachpersonal in der IT-Infrastruktur ist knapp. Wer dennoch eigene Infrastrukturen betreiben will, sollte frühzeitig über Betriebsmodelle nachdenken. Insite-Co-Location, Managed-Services oder Fully-Serviced-RZs ermöglichen eine Entlastung interner Ressourcen, ohne Kontrollverlust. So lassen sich Betriebssicherheit, Verfügbarkeit und Know-how kombinieren, ganz im Sinne eines souveränen, aber wirtschaftlichen RZ-Betriebs. 9. Flexible Finanzierungsmodelle nutzen Der Bau oder Umbau eines Rechenzentrums muss nicht automatisch hohe Einmalkosten bedeuten. Moderne Anbieter bieten flexible Finanzierungsmodelle, etwa nutzungsbasierte Abrechnung (Consumption-Based), Leasing-Optionen oder hybride Modelle, die CAPEX- und OPEX-Anteile kombinieren. Gerade für Unternehmen mit begrenztem Investitionsspielraum eröffnen sich so Wege zur digitalen Eigenständigkeit, ohne auf Skalierbarkeit, Nachhaltigkeit oder Sicherheit zu verzichten. 10. Expertise einbinden Eine Cloud-Rückführung ist kein rein technisches Projekt. Sie betrifft Strategie, Finanzen, Organisation, Nachhaltigkeit und Compliance. Deshalb lohnt es sich, bereits früh im Planungsprozess auf externe Erfahrung zu setzen. Rechenzentrumsplaner bringen nicht nur bauliches und technisches Know-how ein, sondern auch Erfahrung mit hybriden Szenarien, regulatorischer Integration und nachhaltigen Betriebskonzepten. Das spart nicht nur Zeit und Kosten, sondern sorgt für zukunftssichere Entscheidungen. 

10 Tipps zur Cloud-Rückführung​ Immer mehr Unternehmen liebäugeln damit, Workloads aus der Cloud zurückzuverlagern. Doch was ist dabei zu beachten?
Ar_TH – Shutterstock.com

Die Cloud-Euphorie scheint ihren Höhepunkt überschritten zu haben. Aufgrund der jüngsten geopolitischen Verwerfungen sowie neuer rechtlicher und regulatorischer Fragen stellen sich immer mehr Unternehmen die Frage, welche Workloads in der Public Cloud noch sinnvoll sind und welche besser On-Premises im eigenen Rechenzentrum betrieben werden? Zudem wird der Wunsch nach digitaler Souveränität immer lauter. Erschwerend kommt hinzu, dass die Cloud-Kosten angesichts des Siegeszugs der KI-Anwendungen zunehmend unkalkulierbar und damit zum Risiko werden.

Doch wie sieht eine erfolgsversprechende Repatriierungs-Strategie aus? Was ist in Sachen Infrastruktur zu berücksichtigen? Was ist mit Blick auf den Business Case zu beachten?

10 Empfehlungen

Stefan Maier, Geschäftsführer bei Prior1, gibt hierzu zehn Empfehlungen aus Sicht der Rechenzentrumsplanung. Sein Unternehmen unterstützt Organisationen bei der Planung und Umsetzung hybrider Rechenzentrumsinfrastrukturen. Die Palette reicht dabei vom energieeffizienten Neubau bis zur Co-Location.

1. Workloads differenziert analysieren

Der erste Schritt jeder Rückführungs-Strategie sollte eine detaillierte Analyse aller Workloads im Unternehmen sein. Dabei geht es nicht nur um technische Kriterien, sondern auch um wirtschaftliche, regulatorische und sicherheitsrelevante Aspekte.

Welche Anwendungen verursachen in der Cloud überproportional hohe Betriebskosten? Welche sind datenschutzrechtlich sensibel oder erfordern geringe Latenzzeiten? Besonders bei KI-gestützten Prozessen, großen Datenmengen oder Business-Critical-Applikationen lohnt sich ein genauer Blick auf Betriebskosten, Datenflüsse und Abhängigkeiten. Diese Analyse sollte das Fundament jeder Architekturentscheidung bilden.

2. Strategische Standortwahl

Die Wahl des richtigen Standorts für das eigene Rechenzentrum hat weitreichende Konsequenzen: für Energieeffizienz, Betriebsstabilität, Nachhaltigkeit und Expansion. So sollten Aspekte wie Netzanschluss, Platzangebot und Erreichbarkeit berücksichtigt werden.

Stefan Maier, Geschäftsführer bei Prior1, gibt Empfehlungen zur Cloud-Rückführung.
Prior1

Darüber hinaus sind Punkte wie regionale Förderprogramme, die Nähe zu Ökostromquellen oder Potenziale für die Abwärmenutzung in die Überlegungen einzubeziehen. Eine gute Standortentscheidung kann nicht nur langfristige Betriebskosten senken, sondern auch die Investitionssicherheit und Flexibilität erhöhen.

3. Energieeffizienz einplanen

Moderne Rechenzentren müssen deutlich mehr Rechenleistung auf engerem Raum erbringen und dabei im Verhältnis zur verarbeiteten IT-Last immer weniger Energie verbrauchen. Die Herausforderung: Neue Workloads wie KI oder Machine Learning erhöhen die Leistungsdichte erheblich.

Eine klassische Luftkühlung stößt hier teilweise an ihre Grenzen. Stattdessen setzen fortschrittliche Betreiber auf Konzepte wie Direct-Liquid-Cooling, Warmwasser-Kreisläufe oder modulare Kühlzonen. Wer diese Technologien von Anfang an einplant, reduziert nicht nur Energiekosten und CO₂-Ausstoß, sondern hilft dabei, gesetzliche Vorgaben wie das Energieeffizienzgesetz (EnEfG) zu erreichen.

4. Nachhaltigkeit als Business Case

Nachhaltigkeit ist heute mehr als nur eine Pflicht. Sie wird zunehmend ein Mittel zur strategischen Differenzierung. Rechenzentren mit eigener Photovoltaik-Anlage, Ökostromverträgen, Holzmodulbauweise oder intelligenter Abwärmenutzung setzen ein Zeichen für Verantwortung.

Zudem erzielen sie auch ökonomische Vorteile durch langfristige Energiepreisstabilität, Imageeffekte und regulatorische Bonuspunkte. Nachhaltigkeit lässt sich heute planen, nicht nur aus Überzeugung, sondern auch aus wirtschaftlicher Klugheit.

5. Compliance technisch abbilden

Regulatorische Vorgaben wie DSGVO, NIS2 oder das EnEfG beeinflussen die RZ-Planung tiefgreifend. Eigene Rechenzentren bieten die Möglichkeit, Compliance von Grund auf mitzudenken.

Dazu zählen klar definierte Zugriffsrechte, verschlüsselte Datenräume, nachvollziehbare Log-Ketten oder dedizierte Sicherheitszonen. Gerade mittelständische Unternehmen profitieren von dieser Transparenz und vermeiden langfristige Risiken bei Audits, Zertifizierungen oder Lieferkettenverantwortung.

6. Hybride Architekturen gezielt planen

Ein Rechenzentrum ersetzt nicht automatisch die Cloud. Vielmehr geht es um das richtige Zusammenspiel beider Welten. Hybride IT-Architekturen ermöglichen es, sensible oder kostenintensive Anwendungen lokal zu betreiben, während andere Dienste weiterhin in der Cloud bleiben.

Voraussetzung hierfür ist eine durchdachte Architektur mit klaren Schnittstellen, einheitlichen Monitoring-Lösungen und gut dokumentierten Übergabepunkten. Wer hybride Strategien frühzeitig einplant, bleibt langfristig flexibel.

7. Kosten realistisch kalkulieren

Viele Repatriierungsprojekte scheitern an einer zu optimistischen Kostenplanung. Neben Investitionskosten für Bau, Hardware und Ausstattung müssen auch die laufenden Betriebskosten realistisch abgebildet werden.

So sind etwa Energie-, Flächenbedarf, Wartung, Personal, Software-Lizenzen, IT-Sicherheit oder Notfallvorsorge zu berücksichtigen. Eine Total-Cost-of-Ownership-(TCO-)Betrachtung über fünf bis zehn Jahre gibt realistische Entscheidungsgrundlagen und zeigt oft, dass On-Premises-Modelle wirtschaftlicher sind als erwartet.

8. Personalressourcen gezielt einsetzen

Der Betrieb eines Rechenzentrums ist anspruchsvoll und Fachpersonal in der IT-Infrastruktur ist knapp. Wer dennoch eigene Infrastrukturen betreiben will, sollte frühzeitig über Betriebsmodelle nachdenken.

Insite-Co-Location, Managed-Services oder Fully-Serviced-RZs ermöglichen eine Entlastung interner Ressourcen, ohne Kontrollverlust. So lassen sich Betriebssicherheit, Verfügbarkeit und Know-how kombinieren, ganz im Sinne eines souveränen, aber wirtschaftlichen RZ-Betriebs.

9. Flexible Finanzierungsmodelle nutzen

Der Bau oder Umbau eines Rechenzentrums muss nicht automatisch hohe Einmalkosten bedeuten. Moderne Anbieter bieten flexible Finanzierungsmodelle, etwa nutzungsbasierte Abrechnung (Consumption-Based), Leasing-Optionen oder hybride Modelle, die CAPEX- und OPEX-Anteile kombinieren. Gerade für Unternehmen mit begrenztem Investitionsspielraum eröffnen sich so Wege zur digitalen Eigenständigkeit, ohne auf Skalierbarkeit, Nachhaltigkeit oder Sicherheit zu verzichten.

10. Expertise einbinden

Eine Cloud-Rückführung ist kein rein technisches Projekt. Sie betrifft Strategie, Finanzen, Organisation, Nachhaltigkeit und Compliance. Deshalb lohnt es sich, bereits früh im Planungsprozess auf externe Erfahrung zu setzen.

Rechenzentrumsplaner bringen nicht nur bauliches und technisches Know-how ein, sondern auch Erfahrung mit hybriden Szenarien, regulatorischer Integration und nachhaltigen Betriebskonzepten. Das spart nicht nur Zeit und Kosten, sondern sorgt für zukunftssichere Entscheidungen.

10 Tipps zur Cloud-Rückführung​ Weiterlesen »

Vertragsmodelle: So rechnen Sie agile Projekte ab​

Allgemein

Grundsätzlich geht es bei der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird. Foto: CrizzyStudio – shutterstock.com Keine fixen Projektpläne, unzureichende Steuerung und hohes Fehleraufkommen: Hartnäckig hält sich das Vorurteil, dass in agilen Projekten Chaos und Laisser-faire-Haltung herrschen. Aus Controlling-Sicht führt dies häufig zu einer gefühlten Budget-Unsicherheit. Um dieser bei einem Kunden oder im eigenen Unternehmen entgegenzuwirken, gilt es zunächst, den Finanzexperten die Logik der neuen Form des agilen Projektmanagements nahezubringen – am besten in einer Gegenüberstellung mit der ihnen vertrauten Wasserfallmethode. Als wesentlicher Unterschied kristallisiert sich dabei heraus, dass klassische Werkverträge darauf basieren, zu Beginn des Projektes den Liefergegenstand möglichst genau zu beschreiben. Das heißt: Der Inhalt steht fest, Zeit und Budget sind typischerweise geschätzt. Bei einem agilen Projekt hingegen sind bei den gängigen Abrechnungsformen Zeit und Budget fix, während der Inhalt oder Scope geschätzt wird. Aufgrund dieser Tatsache entsteht bei den Finanzexperten im Unternehmen ein Unsicherheitsgefühl. Beschäftigten sie sich jedoch näher mit den jeweiligen Besonderheiten der beiden Abrechnungsmethoden, relativiert sich dieses erfahrungsgemäß deutlich. Vermeintliche Budget-Sicherheit in Wasserfallprojekten So hat bei einem klassischen Wasserfallprojekt der Projektleiter ein detailliertes Pflichten- und Lastenheft, das er abarbeitet. Erfahrungsgemäß gibt es dazu aber im Laufe des Projekts zahlreiche Change Requests, die am Ende in Summe häufig sogar teurer kommen als der ursprünglich kalkulierte Preis. Oder anders formuliert: Es ist eine Illusion, dass ein komplett dokumentiertes Projekt so läuft, wie im Vorhinein geplant. Oftmals sind nach einer langen Planungsphase die Pflichten- und Lastenhefte an dem Tag, an dem sie abgeliefert werden, bereits veraltet. Und so bergen gerade Vertragswerke, die auf der Wasserfallmethode beruhen und vermeintlich Budget-Sicherheit bieten, hohe Risiken. Auf der anderen Seite werden agile Projekte sehr wohl gesteuert – allerdings in dem Wissen, dass es in einer schnelllebigen Wirtschaftswelt immer Unsicherheiten gibt und sich die Rahmenbedingungen und Anforderungen zum Beispiel an eine zu entwickelnde Software permanent verändern. Konkret heißt das: Im sogenannten Projekt-Backlog werden zunächst lediglich die Headlines für das gesamte Projekt aufgeschrieben. Erst wenn das Team die betreffenden Themen bearbeitet, werden sie detailliert ausgearbeitet. Für den nächsten Sprint wird jeweils das Thema ausgewählt, das die höchste Wertschöpfung für den Kunden verspricht. Auch das Backlog wird permanent angepasst. Dies führt jedoch keineswegs zu Chaos, da die Teams bewährten Frameworks wie zum Beispiel Scrum folgen, durch die auch der Erfolg engmaschig kontrolliert wird. So wird in jedem Sprint überprüft, ob die Inhalte wertschöpfend sind oder nicht. Hinzu kommt außerdem, dass die Steuerung der Wertschöpfung beim Product Owner liegt, der in der Regel von Kundenseite eingesetzt wird. Er entscheidet, an welchen Themen gearbeitet wird. Auf diese Weise ist der Projektfortschritt für den Kunden zu jedem Zeitpunkt transparent. Run-Rate: Häufig angeboten, aber nicht ideal Diese Gegenüberstellung zeigt, dass der Kunde bei gut gesteuerten agilen Projekten grundsätzlich sogar eine höhere Transparenz und Kostenkontrolle hat als bei klassischen Wasserfallprojekten. Doch was bedeuten die Besonderheiten agiler Projekte nun genau für deren Abrechnung? Aufbauend auf der Logik der agilen Projekte – der Scope ist geschätzt beziehungsweise flexibel und der Kunde steuert die Wertschöpfung selbst – rechnen Beratungsunternehmen häufig über eine sogenannte Run-Rate ab. Das bedeutet: Das Beratungsunternehmen stellt ein Team zur Verfügung und der Kunde zahlt pro Zeit. Als Product Owner ist der Kunde selbst für den Inhalt verantwortlich. Das ist aus Auftragnehmersicht das einfachste Modell, aus Sicht des Auftraggebers jedoch das riskanteste, weil er das komplette Risiko einer Fehlentwicklung trägt. Fairer ist es daher, gerade auch nach der Philosophie der agilen Methoden, die auf ein vertrauensvolles Miteinander und kontinuierliche Kommunikation und Abstimmung setzen, das Risiko zu teilen. Eine Möglichkeit ist, ein niedrigeres Fixum für die eingesetzten Ressourcen zu vereinbaren und eine Prämie für erreichte Ziele – zum Beispiel für so genannte Releases oder gelieferte Story Points. Ebenfalls fair ist es, Exit-Möglichkeiten für beide Seiten zu schaffen. Das Unternehmen beauftragt zum Beispiel zunächst fünf Sprints und schaut danach, wie sich die Leistung des Teams entwickelt hat. Dann kann es entscheiden, ob es in dieser Konstellation weitergehen soll. Königsweg: Agiler Festpreis plus Risikoteilung Der Königsweg bei der Abrechnung agiler Projekte ist jedoch der sogenannte agile Festpreis. Dieser bedeutet zwar mehr Aufwand bei der Vertragsausgestaltung und ist deshalb oft noch die Ausnahme. Dem Kunden bietet er aber über die aufgezeigten Steuerungs- und Kontrollmechanismen hinaus eine höhere Planungssicherheit. Das grundsätzliche Problem, das hier im Unterschied zur Wasserfallmethode entsteht, ist die Beschreibung dessen, was geliefert werden soll. Denn es gibt zwar eine Idee und Vision vom Nutzen der zu liefernden Features, aber noch keinen konkreten Plan für deren Umsetzung. Dies ist eine Stärke der agilen Projektarbeit, weil keine Leistungen festgeschrieben werden, die zum Zeitpunkt der Umsetzung womöglich nicht mehr wertschöpfend sind. Es erschwert jedoch die Beschreibung des Vertragsgegenstands. Um dennoch auch für agile Projekte einen Festpreis zu ermitteln, setzten sich Unternehmen und Lieferant zusammen und definieren gemeinsam die Ziele für das Projekt. Im Fokus stehen dabei der Business Value für den Kunden und die Vision davon, was mit dem Projekt genau erreicht werden soll. Um auch das “Wie” zumindest grob zu spezifizieren, wird ein initiales Backlog erarbeitet – also die Liste von Inhalten, die nach heutigem Kenntnisstand zu diesem Projekt zu liefern sind. Für dieses Backlog wird der Aufwand geschätzt. Dazu herangezogen werden Referenzarbeiten, für die man eine bestimmte Anzahl von Leuten und Tagen oder eine bestimmte Anzahl von Story Points benötigt hat. Auf diese Weise wird anhand verschiedenster Vergleichsobjekte der Aufwand des aktuellen Projekts geschätzt. In der Logik der agilen Formate weitergedacht, gibt das Backlog nun den Rahmen vor. Von vornherein ist aber klar, dass es zu Änderungen kommen wird. Erfahrungsgemäß werden im Laufe der Zeit sogar ganze Themenkomplexe ausgetauscht, was für beide Vertragspartner in Ordnung ist, solange sich dadurch der Aufwand nicht gravierend ändert. Für den Fall, dass dies dennoch geschieht, gilt es, sich auch in Bezug auf den ermittelten Festpreis Gedanken zur Risikoverteilung und möglichen Exit-Optionen zu machen. Möglich ist zum Beispiel: Nach Erreichen eines vereinbarten Budget-Limits werden die Kosten so weit heruntergefahren, dass der Lieferant nur noch kostendeckend arbeitet. Man teilt sich das Risiko des Überziehens des Projektrahmens zu mehr oder weniger gleichen Teilen. Zudem sind auch bei einem agilen Festpreis Vereinbarungen wie die Abrechnung nach dem Erreichen bestimmter Meilensteine realisierbar. Möglich im Sinne einer höheren Budget-Sicherheit ist jedoch gerade auch bei agilen Projekten die Abrechnung beziehungsweise Vertragsgestaltung nach dem Prinzip “Design to Cost”. Bei diesem gibt das Unternehmen für ein Feature oder einen Liefergegenstand ein gewisses Budget vor, zum Beispiel 50.000 Euro. Dann kann man nach der Logik agiler Projekte fragen: Was können wir für 50.000 Euro liefern? Nach dem Iterationsprinzip werden zum Beispiel die wichtigsten Funktionalitäten für eine Software zuerst programmiert. Was nicht mehr in den Rahmen passt, wird gestrichen. Gemeinschaftliche Schaffung eines Mehrwerts Grundsätzlich geht es bei der Frage nach der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird – was für den Kunden in der Regel auch Vorteile gegenüber der üblichen Vertragsgestaltung bei der Wasserfallmethode bietet. So ist beispielsweise ein klarer Risikosplit ein Ansatz, der hier eher selten gewählt wird. Dasselbe gilt für den Design-to-Cost-Ansatz, der jedoch dem Bedürfnis vieler Unternehmen nach Budget-Sicherheit entspricht. Insgesamt zeigt die Erfahrung, dass in agilen Projekten aufgrund der deutlich höheren Kommunikationsdichte und tieferen Einbindung der Stakeholder am Ende die Zufriedenheit größer ist. Auch durch die tagtägliche Kommunikation über den Projektfortschritt, die durch die agilen Frameworks vorgegeben ist, entstehen keine größeren Black Boxes, bei denen der Kunde nicht weiß, was der Lieferant gerade tut. Die extreme Transparenz in einem agilen Projekt sorgt zudem dafür, dass Dinge, die nicht gut laufen, sehr schnell erkannt werden und im Sinne des Kunden nachgebessert werden kann. Auch die Controller, die sich mit der agilen Projektarbeit näher beschäftigen, erkennen in der Regel, dass die Steuerung des zu erreichenden Mehrwertes hier deutlich besser gelingt und lassen sich auch von den Vorteilen passender Abrechnungsmodelle überzeugen. (pg) Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen. 

Vertragsmodelle: So rechnen Sie agile Projekte ab​ Grundsätzlich geht es bei der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird.
Foto: CrizzyStudio – shutterstock.com

Keine fixen Projektpläne, unzureichende Steuerung und hohes Fehleraufkommen: Hartnäckig hält sich das Vorurteil, dass in agilen Projekten Chaos und Laisser-faire-Haltung herrschen. Aus Controlling-Sicht führt dies häufig zu einer gefühlten Budget-Unsicherheit. Um dieser bei einem Kunden oder im eigenen Unternehmen entgegenzuwirken, gilt es zunächst, den Finanzexperten die Logik der neuen Form des agilen Projektmanagements nahezubringen – am besten in einer Gegenüberstellung mit der ihnen vertrauten Wasserfallmethode.

Als wesentlicher Unterschied kristallisiert sich dabei heraus, dass klassische Werkverträge darauf basieren, zu Beginn des Projektes den Liefergegenstand möglichst genau zu beschreiben. Das heißt: Der Inhalt steht fest, Zeit und Budget sind typischerweise geschätzt. Bei einem agilen Projekt hingegen sind bei den gängigen Abrechnungsformen Zeit und Budget fix, während der Inhalt oder Scope geschätzt wird. Aufgrund dieser Tatsache entsteht bei den Finanzexperten im Unternehmen ein Unsicherheitsgefühl. Beschäftigten sie sich jedoch näher mit den jeweiligen Besonderheiten der beiden Abrechnungsmethoden, relativiert sich dieses erfahrungsgemäß deutlich.

Vermeintliche Budget-Sicherheit in Wasserfallprojekten

So hat bei einem klassischen Wasserfallprojekt der Projektleiter ein detailliertes Pflichten- und Lastenheft, das er abarbeitet. Erfahrungsgemäß gibt es dazu aber im Laufe des Projekts zahlreiche Change Requests, die am Ende in Summe häufig sogar teurer kommen als der ursprünglich kalkulierte Preis. Oder anders formuliert: Es ist eine Illusion, dass ein komplett dokumentiertes Projekt so läuft, wie im Vorhinein geplant. Oftmals sind nach einer langen Planungsphase die Pflichten- und Lastenhefte an dem Tag, an dem sie abgeliefert werden, bereits veraltet. Und so bergen gerade Vertragswerke, die auf der Wasserfallmethode beruhen und vermeintlich Budget-Sicherheit bieten, hohe Risiken.

Auf der anderen Seite werden agile Projekte sehr wohl gesteuert – allerdings in dem Wissen, dass es in einer schnelllebigen Wirtschaftswelt immer Unsicherheiten gibt und sich die Rahmenbedingungen und Anforderungen zum Beispiel an eine zu entwickelnde Software permanent verändern. Konkret heißt das: Im sogenannten Projekt-Backlog werden zunächst lediglich die Headlines für das gesamte Projekt aufgeschrieben.

Erst wenn das Team die betreffenden Themen bearbeitet, werden sie detailliert ausgearbeitet. Für den nächsten Sprint wird jeweils das Thema ausgewählt, das die höchste Wertschöpfung für den Kunden verspricht. Auch das Backlog wird permanent angepasst. Dies führt jedoch keineswegs zu Chaos, da die Teams bewährten Frameworks wie zum Beispiel Scrum folgen, durch die auch der Erfolg engmaschig kontrolliert wird. So wird in jedem Sprint überprüft, ob die Inhalte wertschöpfend sind oder nicht. Hinzu kommt außerdem, dass die Steuerung der Wertschöpfung beim Product Owner liegt, der in der Regel von Kundenseite eingesetzt wird. Er entscheidet, an welchen Themen gearbeitet wird. Auf diese Weise ist der Projektfortschritt für den Kunden zu jedem Zeitpunkt transparent.

Run-Rate: Häufig angeboten, aber nicht ideal

Diese Gegenüberstellung zeigt, dass der Kunde bei gut gesteuerten agilen Projekten grundsätzlich sogar eine höhere Transparenz und Kostenkontrolle hat als bei klassischen Wasserfallprojekten. Doch was bedeuten die Besonderheiten agiler Projekte nun genau für deren Abrechnung? Aufbauend auf der Logik der agilen Projekte – der Scope ist geschätzt beziehungsweise flexibel und der Kunde steuert die Wertschöpfung selbst – rechnen Beratungsunternehmen häufig über eine sogenannte Run-Rate ab.

Das bedeutet: Das Beratungsunternehmen stellt ein Team zur Verfügung und der Kunde zahlt pro Zeit. Als Product Owner ist der Kunde selbst für den Inhalt verantwortlich. Das ist aus Auftragnehmersicht das einfachste Modell, aus Sicht des Auftraggebers jedoch das riskanteste, weil er das komplette Risiko einer Fehlentwicklung trägt. Fairer ist es daher, gerade auch nach der Philosophie der agilen Methoden, die auf ein vertrauensvolles Miteinander und kontinuierliche Kommunikation und Abstimmung setzen, das Risiko zu teilen.

Eine Möglichkeit ist, ein niedrigeres Fixum für die eingesetzten Ressourcen zu vereinbaren und eine Prämie für erreichte Ziele – zum Beispiel für so genannte Releases oder gelieferte Story Points. Ebenfalls fair ist es, Exit-Möglichkeiten für beide Seiten zu schaffen. Das Unternehmen beauftragt zum Beispiel zunächst fünf Sprints und schaut danach, wie sich die Leistung des Teams entwickelt hat. Dann kann es entscheiden, ob es in dieser Konstellation weitergehen soll.

Königsweg: Agiler Festpreis plus Risikoteilung

Der Königsweg bei der Abrechnung agiler Projekte ist jedoch der sogenannte agile Festpreis. Dieser bedeutet zwar mehr Aufwand bei der Vertragsausgestaltung und ist deshalb oft noch die Ausnahme. Dem Kunden bietet er aber über die aufgezeigten Steuerungs- und Kontrollmechanismen hinaus eine höhere Planungssicherheit.

Das grundsätzliche Problem, das hier im Unterschied zur Wasserfallmethode entsteht, ist die Beschreibung dessen, was geliefert werden soll. Denn es gibt zwar eine Idee und Vision vom Nutzen der zu liefernden Features, aber noch keinen konkreten Plan für deren Umsetzung. Dies ist eine Stärke der agilen Projektarbeit, weil keine Leistungen festgeschrieben werden, die zum Zeitpunkt der Umsetzung womöglich nicht mehr wertschöpfend sind. Es erschwert jedoch die Beschreibung des Vertragsgegenstands.

Um dennoch auch für agile Projekte einen Festpreis zu ermitteln, setzten sich Unternehmen und Lieferant zusammen und definieren gemeinsam die Ziele für das Projekt. Im Fokus stehen dabei der Business Value für den Kunden und die Vision davon, was mit dem Projekt genau erreicht werden soll. Um auch das “Wie” zumindest grob zu spezifizieren, wird ein initiales Backlog erarbeitet – also die Liste von Inhalten, die nach heutigem Kenntnisstand zu diesem Projekt zu liefern sind.

Für dieses Backlog wird der Aufwand geschätzt. Dazu herangezogen werden Referenzarbeiten, für die man eine bestimmte Anzahl von Leuten und Tagen oder eine bestimmte Anzahl von Story Points benötigt hat. Auf diese Weise wird anhand verschiedenster Vergleichsobjekte der Aufwand des aktuellen Projekts geschätzt.

In der Logik der agilen Formate weitergedacht, gibt das Backlog nun den Rahmen vor. Von vornherein ist aber klar, dass es zu Änderungen kommen wird. Erfahrungsgemäß werden im Laufe der Zeit sogar ganze Themenkomplexe ausgetauscht, was für beide Vertragspartner in Ordnung ist, solange sich dadurch der Aufwand nicht gravierend ändert. Für den Fall, dass dies dennoch geschieht, gilt es, sich auch in Bezug auf den ermittelten Festpreis Gedanken zur Risikoverteilung und möglichen Exit-Optionen zu machen.

Möglich ist zum Beispiel: Nach Erreichen eines vereinbarten Budget-Limits werden die Kosten so weit heruntergefahren, dass der Lieferant nur noch kostendeckend arbeitet. Man teilt sich das Risiko des Überziehens des Projektrahmens zu mehr oder weniger gleichen Teilen. Zudem sind auch bei einem agilen Festpreis Vereinbarungen wie die Abrechnung nach dem Erreichen bestimmter Meilensteine realisierbar.

Möglich im Sinne einer höheren Budget-Sicherheit ist jedoch gerade auch bei agilen Projekten die Abrechnung beziehungsweise Vertragsgestaltung nach dem Prinzip “Design to Cost”. Bei diesem gibt das Unternehmen für ein Feature oder einen Liefergegenstand ein gewisses Budget vor, zum Beispiel 50.000 Euro. Dann kann man nach der Logik agiler Projekte fragen: Was können wir für 50.000 Euro liefern? Nach dem Iterationsprinzip werden zum Beispiel die wichtigsten Funktionalitäten für eine Software zuerst programmiert. Was nicht mehr in den Rahmen passt, wird gestrichen.

Gemeinschaftliche Schaffung eines Mehrwerts

Grundsätzlich geht es bei der Frage nach der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird – was für den Kunden in der Regel auch Vorteile gegenüber der üblichen Vertragsgestaltung bei der Wasserfallmethode bietet. So ist beispielsweise ein klarer Risikosplit ein Ansatz, der hier eher selten gewählt wird. Dasselbe gilt für den Design-to-Cost-Ansatz, der jedoch dem Bedürfnis vieler Unternehmen nach Budget-Sicherheit entspricht.

Insgesamt zeigt die Erfahrung, dass in agilen Projekten aufgrund der deutlich höheren Kommunikationsdichte und tieferen Einbindung der Stakeholder am Ende die Zufriedenheit größer ist. Auch durch die tagtägliche Kommunikation über den Projektfortschritt, die durch die agilen Frameworks vorgegeben ist, entstehen keine größeren Black Boxes, bei denen der Kunde nicht weiß, was der Lieferant gerade tut.

Die extreme Transparenz in einem agilen Projekt sorgt zudem dafür, dass Dinge, die nicht gut laufen, sehr schnell erkannt werden und im Sinne des Kunden nachgebessert werden kann. Auch die Controller, die sich mit der agilen Projektarbeit näher beschäftigen, erkennen in der Regel, dass die Steuerung des zu erreichenden Mehrwertes hier deutlich besser gelingt und lassen sich auch von den Vorteilen passender Abrechnungsmodelle überzeugen. (pg)

Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern
Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse
Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik
Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur
Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad
Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit
Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit
Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork
Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil
Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft
Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen.

Vertragsmodelle: So rechnen Sie agile Projekte ab​ Weiterlesen »

Gates and DOS and Rock’n’Roll: Die 20 schäbigsten Microsoft-Witze​

Allgemein

Früher war alles besser: Man konnte über Bill Gates lachen, über Microsoft und über Windows. Und über die Software-Firma aus Seattle, deren Betriebssysteme auf jedem PC der Welt installiert waren. Und über Windows-Anwender. Weil sie Betriebssysteme nutzten, die nie funktionierten.Microsoft-Witze waren einst das IT-Pendant zu Blondinenwitzen – die Opfer konnten sich nicht wirklich wehren, denn häufig trafen die humoristisch verbrämten Behauptungen auf den Punkt. Windows war stellenweise unglücklich entwickelt worden, es musste Idioten sowie Genies gehorchen, und dann war der Chef der Firma auch noch reichster Mann der Welt! Doch diese Zeitern sind lange vorbei und mit ihnen sind auch die schlechten Microsoft-Witze ausgestorben. Und davon gab es mehr als genug. Nach Jahren lässt sich nur noch schwer nachvollziehen, wie stark der Griff einst war, mit dem Microsoft die Branche unter Druck gesetzt hat. Die 20 schäbigsten Microsoft-Scherze sind daher auch ein Dokument der Zeitgeschichte. Zeit also, die alten Kalauer wieder auszugraben:20 schäbige Microsoft-WitzeGott Foto: Pakhnyushchy – shutterstock.comVobis-Chef Theo Lieven, Marc Andreessen von Netscape und Bill Gates sind mit dem Flugzeug abgestürzt. Gott empfängt die drei: “Was habt ihr geleistet?” Lieven drängt sich vor: “Ich war der erste, der Billig-PCs verkauft hat. Jeder kann sich jetzt einen PC leisten.” “Gut”, sagt Gott, “Petrus wird die einen Platz zuweisen.” Marc Andreessen hebt den Finger: “Netscape hat dafür gesorgt, dass man sich im Internet zurechtfindet.” Gott spricht: “Petrus wird dir einen Platz zuweisen.“ Er wendet sich an Bill Gates: “Nun, mein Sohn, was hast du auf Erden geleistet?” Bill Gates: “Erstens bin ich nicht dein Sohn, und zweitens – runter von meinem Platz!” Reifenpanne Foto: StefanieB./Fotolia.comVier Microsoft-Leute fahren im Auto, als ein Reifen platzt. Der Programmierer: „Mist! Also dann lasst uns aussteigen und den Reifen wechseln.“ Der Mann von der Hotline: „Ach was. Wir rufen einfach den ADAC an, der soll den Reifen wechseln.“ Der Systemanalytiker: „Nein! Wir machen einfach alle Türen auf und wieder zu. Dann funktioniert es schon wieder.“ Der PR-Leiter: „Ruhe bewahren. Wir fahren jetzt einfach ganz normal weiter. Es wird schon keiner was merken.“ Klo Foto: Jürgen Effner/Fotolia.comTreffen sich drei Programmierer auf der Toilette. Nach dem Pinkeln tritt der erste ans Waschbecken, spült sich flüchtig die Hände ab und trocknet sie grob mit einem Papierhandtuch: “Wir bei Windows sind die Schnellsten”, sagt er. Der Zweite tritt ans Waschbecken, seift sich sorgfältig die Hände ein und trocknet sie mit vier Papierhandtüchern ab: “Wir bei IBM sind nicht nur schnell, sondern auch gründlich”, erwidert dieser. Der Dritte kommt vom Klo, und sie erkennen Linus Torvalds. Sie treten beiseite, damit er ans Waschbecken kann, doch er geht zielstrebig vorbei und erklärt “Wir bei Linux pinkeln uns nicht auf die Hände …”Ventilator Foto: Firma V – shutterstock.comBill Gates, Steve Jobs und Linus Torvalds kommen in den Himmel. Petrus führt sie in einen Raum, in dem viele Uhren stehen, und erklärt ihnen, dass die Uhren immer, wenn jemand einen Fehler programmiert, um eine Sekunde weiter laufen. Steve Jobs findet die Apple-Uhr, die ziemlich langsam läuft. Linus findet die Linux-Uhr, die fast steht. Nur Bill Gates findet die Microsoft-Uhr nicht und fragt Petrus, wo sie ist. Petrus: “Die hängt in der Hölle… als Ventilator!”Windows NT Foto: Syda Productions – shutterstock.comSchon etwas länger her: Bill Gates und Jim Cannavino von IBM streiten sich über die Zukunft der 32-Bit Betriebssysteme. Schließlich einigen sie sich darauf, eine Münze zu werfen. Sagt der IBM-Manager: „Liegt die Zahl oben, soll sich OS/2 durchsetzen, bei Kopf wird Windows 95 der Standard.“ „Hey, Du hast Windows NT vergessen“, wirft Bill Gates ein. „Habe ich nicht“, antwortet Cannavino. „Wenn die Münze hochkant stehen bleibt, gehört die Zukunft NT…“ Kantine Foto: Ollyy – shutterstock.comBei der Firma Microsoft wird ein Austauschprogramm gestartet. Es werden vier Mitarbeiter gegen vier Kannibalen ausgetauscht. Bei der Begrüßung der Kannibalen sagt der Chef: „Ihr arbeitet jetzt hier, verdient gutes Geld und könnt zum Essen in unsere Kantine gehen. Aber lasst die anderen Mitarbeiter in Ruhe!“ Die Kannibalen geloben, keine Kollegen zu belästigen. Nach einem Monat kommt der Chef wieder und sagt: „Ihr arbeitet sehr gut. Nur uns fehlt eine Putzfrau, wisst Ihr was aus der geworden ist?“ Die Kannibalen antworten alle mit nein und schwören, mit der Sache nichts zu tun haben. Als der Chef wieder weg ist, fragt der oberste Kannibale: „Wer von Euch Idioten hat die Putzfrau gefressen?“ Meldet sich hinten der Letzte ganz kleinlaut: „Ich war es.“ Sagt der Boss: „Du Trottel! Wir ernähren uns seit vier Wochen von Teamleitern, Administratoren und Personalreferenten, damit niemand etwas merkt. Und Du Depp musst eine Putzfrau fressen…“Bill Gates Foto: MicrosoftWas ist der Unterschied zwischen Bill Gates und Gott? Gott weiß, dass er nicht Bill Gates ist! Glühbirne 1 Wieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Keinen. Microsoft erklärt die Dunkelheit zum Standard. Glühbirne 2 Foto: Sergey Nivens – shutterstock.comWieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Keinen. Sie rufen bei Intel an, weil es ein Hardware-Problem ist. Glühbirne 3Wieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Vier. Der erste ersetzt die Birne, der zweite ändert die Fassung so, dass Netscape-Glühbirnen nicht reinpassen. Der Dritte baut eine Kurzschluss-Automatik ein, die ausgelöst wird, wenn jemand eine Glühbirne von Sun einsetzen will. Und der vierte überzeugt das amerikanische Justizministerium, dass das fairer Wettbewerb ist. Hölle Foto: TravnikovStudio – shutterstock.comBill Gates stirbt bei einem Autounfall und findet sich im Fegefeuer wieder. Nach einer Weile kommt Gott und sagt: “Bill, ich weiß wirklich nicht, ob ich dich in den Himmel oder die Hölle schicken soll. Einerseits hast du der Gesellschaft in der ganzen Welt geholfen, indem nun fast jeder einen Computer zu Hause hat. Andererseits hast du das fürchterliche Windows erfunden. Ich erlaube dir deshalb, was ich noch nie vorher gemacht habe, nämlich selbst zu entscheiden, wo du die Ewigkeit verbringen willst.” Bill erwidert: “Danke, Gott. Aber was ist der Unterschied zwischen Himmel und Hölle?” Gott sagt: “Ich bin bereit, dir zu erlauben, beide Plätze kurz zu besuchen, was dir die Entscheidung leichter macht.” Bill: “OK, dann zuerst die Hölle.” In der Hölle sieht Bill einen weißen Sandstrand und wunderbares, klares Wasser. Tausende junger Frauen laufen herum, spielen im Wasser und haben jede Menge Spaß. Die Sonne scheint, und die Temperatur ist perfekt. Bill ist sehr zufrieden. “Das ist großartig”, sagt er zu Gott, “jetzt bin ich mal gespannt, wie der Himmel aussieht.” Der Himmel ist hoch über den Wolken. Engel schweben herum, spielen Harfe und singen. Es ist nett, aber nicht so schön wie in der Hölle. Bill teilt Gott seine Entscheidung mit: “Ich denke, ich gehe lieber in die Hölle.” “In Ordnung”, sagt Gott, und Bill geht in die Hölle. Zwei Wochen später beschließt Gott, nachzuschauen, wie es dem ehemaligen Milliardär in der Hölle geht. Als er in dort ankommt, findet er Bill in einer dunklen Höhle an eine Wand gekettet. Flammen züngeln an ihm hoch, und Dämonen peitschen ihn pausenlos. Bill schreit. “Na, wie geht’s dir?”, fragt Gott. Bill sagt: “Dieser Ort ist schrecklich und eine riesige Enttäuschung. Das habe ich nicht erwartet. Was ist denn aus dem anderen Ort geworden, der mit dem Strand und den schönen Frauen, die im Wasser spielen?” Sagt Gott: “Das war der Bildschirmschoner”. GrünWas hatte ein geschichtsbewusster Informatiker auf seinem T-Shirt stehen? „Hiroshima ’45, Tschernobyl ’86, Windows ’98” Windows NT Foto: 3MWelche Hardwareplattform eignet sich am besten, um die Leistungsfähigkeit von Windows NT zu demonstrieren? Der Overhead-Projektor. Verkaufen Foto: Picture Alliance/DPA/MicrosoftDonald Trump trifft Bill Gates und sagt: “Bill, es geht mir so gut. Ich habe wieder viel Geld, so viel, dass ich die ganze Welt kaufen könnte.” Darauf Gates: “Schön für dich, ich verkaufe sie aber nicht.” Hölle Foto: MicrosoftBill Gates hat eine Audienz beim Papst und macht ihm ein Angebot: “Ich biete ihnen 100 Millionen Dollar, wenn sie das ‘Vaterunser’ ändern.” “Was haben sie sich denn vorgestellt?”, will der Papst wissen. “Es soll heißen: Unser tägliches Windows gib uns heute”, antwortet Bill. Der Papst überlegt kurz und greift zum Telefon: “Sofort den Vertrag mit den Bäckern kündigen.” Nachrichten Foto: MicrosoftBill Clinton, Saddam Hussein und Bill Gates treffen sich in der VIP-Lounge eines Flughafens. Gott erscheint und wendet sich an Clinton: “Ihnen will ich es sagen: In 14 Tagen geht die Welt unter.” Alle drei eilen sofort nach Hause. Clinton tritt vor den Senat: “Ich habe zwei Neuigkeiten für euch. Eine gute und eine schlechte. Zuerst die gute: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die schlechte: In zwei Wochen geht die Welt unter.” Zur selben Zeit hat Saddam Hussein seine Junta zusammengetrommelt: “Ich habe zwei Neuigkeiten für euch. Eine schlechte und eine ganz schlechte. Zuerst die schlechte: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die ganz schlechte: In zwei Wochen geht die Welt unter.” Bill Gates hat das Microsoft-Board einberufen: “Ich habe zwei Neuigkeiten für euch. Eine gute und eine sehr gute. Zuerst die gute: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die sehr gute: In zwei Wochen spricht niemand mehr über die Defizite von Windows 2000.” Landkarte Foto: James Steidl/Fotolia.comBill Gates geht am Privatstrand seiner Villa spazieren. Auf einmal wird eine alte Flasche an Land gespült. Er nimmt sie, öffnet sie und es erscheint ein Flaschengeist. “Danke für deine Rettung aus der Flasche, Bill. Du hast nun einen Wunsch frei. Was es auch sei, ich werde ihn dir erfüllen.” Gates überlegt und meint dann: “Hier ist eine Landkarte mit allen Krisen- und Kriegsgebieten der Erde. Ich möchte, dass dort überall Frieden herrscht.” Der Geist nimmt die Karte, stöhnt, und meint: “Das ist einfach zuviel. Hunderte von Kriegen, hassende Menschen, religiöse Fanatiker. Ich bin doch nur ein einfacher Flaschengeist, das kann ich nicht alles wieder geradebiegen. Hast du nicht noch irgendeinen anderen Wunsch?” “Ich hätte da noch einen. Ich möchte, dass alle gröberen Fehler aus Windows 95 verschwinden.” Darauf der Flaschengeist: “Zeig mir doch noch mal die Landkarte …” Hotline Foto: winhistory.deBei der Microsoft-Hotline: Anrufer: “Seit ich die Windows98-Beta installiert habe, stürzt Office ’97 laufend ab.” Hotline: “Wir hatten hier das gleiche Problem.” Anrufer: “Und was haben Sie gemacht?” Hotline: “Wir haben die Beta ein zweites Mal installiert.” Anrufer: “Gut, dann versuche ich das jetzt auch.” Eine Stunde später … Anrufer: “Jetzt läuft bei mir gar nichts mehr!” Hotline: “Bei uns auch nicht…” 

Gates and DOS and Rock’n’Roll: Die 20 schäbigsten Microsoft-Witze​ Früher war alles besser: Man konnte über Bill Gates lachen, über Microsoft und über Windows. Und über die Software-Firma aus Seattle, deren Betriebssysteme auf jedem PC der Welt installiert waren. Und über Windows-Anwender. Weil sie Betriebssysteme nutzten, die nie funktionierten.Microsoft-Witze waren einst das IT-Pendant zu Blondinenwitzen – die Opfer konnten sich nicht wirklich wehren, denn häufig trafen die humoristisch verbrämten Behauptungen auf den Punkt. Windows war stellenweise unglücklich entwickelt worden, es musste Idioten sowie Genies gehorchen, und dann war der Chef der Firma auch noch reichster Mann der Welt! Doch diese Zeitern sind lange vorbei und mit ihnen sind auch die schlechten Microsoft-Witze ausgestorben. Und davon gab es mehr als genug. Nach Jahren lässt sich nur noch schwer nachvollziehen, wie stark der Griff einst war, mit dem Microsoft die Branche unter Druck gesetzt hat. Die 20 schäbigsten Microsoft-Scherze sind daher auch ein Dokument der Zeitgeschichte. Zeit also, die alten Kalauer wieder auszugraben:20 schäbige Microsoft-WitzeGott
Foto: Pakhnyushchy – shutterstock.comVobis-Chef Theo Lieven, Marc Andreessen von Netscape und Bill Gates sind mit dem Flugzeug abgestürzt. Gott empfängt die drei: “Was habt ihr geleistet?” Lieven drängt sich vor: “Ich war der erste, der Billig-PCs verkauft hat. Jeder kann sich jetzt einen PC leisten.” “Gut”, sagt Gott, “Petrus wird die einen Platz zuweisen.” Marc Andreessen hebt den Finger: “Netscape hat dafür gesorgt, dass man sich im Internet zurechtfindet.” Gott spricht: “Petrus wird dir einen Platz zuweisen.“ Er wendet sich an Bill Gates: “Nun, mein Sohn, was hast du auf Erden geleistet?” Bill Gates: “Erstens bin ich nicht dein Sohn, und zweitens – runter von meinem Platz!” Reifenpanne
Foto: StefanieB./Fotolia.comVier Microsoft-Leute fahren im Auto, als ein Reifen platzt. Der Programmierer: „Mist! Also dann lasst uns aussteigen und den Reifen wechseln.“ Der Mann von der Hotline: „Ach was. Wir rufen einfach den ADAC an, der soll den Reifen wechseln.“ Der Systemanalytiker: „Nein! Wir machen einfach alle Türen auf und wieder zu. Dann funktioniert es schon wieder.“ Der PR-Leiter: „Ruhe bewahren. Wir fahren jetzt einfach ganz normal weiter. Es wird schon keiner was merken.“ Klo
Foto: Jürgen Effner/Fotolia.comTreffen sich drei Programmierer auf der Toilette. Nach dem Pinkeln tritt der erste ans Waschbecken, spült sich flüchtig die Hände ab und trocknet sie grob mit einem Papierhandtuch: “Wir bei Windows sind die Schnellsten”, sagt er. Der Zweite tritt ans Waschbecken, seift sich sorgfältig die Hände ein und trocknet sie mit vier Papierhandtüchern ab: “Wir bei IBM sind nicht nur schnell, sondern auch gründlich”, erwidert dieser. Der Dritte kommt vom Klo, und sie erkennen Linus Torvalds. Sie treten beiseite, damit er ans Waschbecken kann, doch er geht zielstrebig vorbei und erklärt “Wir bei Linux pinkeln uns nicht auf die Hände …”Ventilator
Foto: Firma V – shutterstock.comBill Gates, Steve Jobs und Linus Torvalds kommen in den Himmel. Petrus führt sie in einen Raum, in dem viele Uhren stehen, und erklärt ihnen, dass die Uhren immer, wenn jemand einen Fehler programmiert, um eine Sekunde weiter laufen. Steve Jobs findet die Apple-Uhr, die ziemlich langsam läuft. Linus findet die Linux-Uhr, die fast steht. Nur Bill Gates findet die Microsoft-Uhr nicht und fragt Petrus, wo sie ist. Petrus: “Die hängt in der Hölle… als Ventilator!”Windows NT
Foto: Syda Productions – shutterstock.comSchon etwas länger her: Bill Gates und Jim Cannavino von IBM streiten sich über die Zukunft der 32-Bit Betriebssysteme. Schließlich einigen sie sich darauf, eine Münze zu werfen. Sagt der IBM-Manager: „Liegt die Zahl oben, soll sich OS/2 durchsetzen, bei Kopf wird Windows 95 der Standard.“ „Hey, Du hast Windows NT vergessen“, wirft Bill Gates ein. „Habe ich nicht“, antwortet Cannavino. „Wenn die Münze hochkant stehen bleibt, gehört die Zukunft NT…“ Kantine
Foto: Ollyy – shutterstock.comBei der Firma Microsoft wird ein Austauschprogramm gestartet. Es werden vier Mitarbeiter gegen vier Kannibalen ausgetauscht. Bei der Begrüßung der Kannibalen sagt der Chef: „Ihr arbeitet jetzt hier, verdient gutes Geld und könnt zum Essen in unsere Kantine gehen. Aber lasst die anderen Mitarbeiter in Ruhe!“ Die Kannibalen geloben, keine Kollegen zu belästigen. Nach einem Monat kommt der Chef wieder und sagt: „Ihr arbeitet sehr gut. Nur uns fehlt eine Putzfrau, wisst Ihr was aus der geworden ist?“ Die Kannibalen antworten alle mit nein und schwören, mit der Sache nichts zu tun haben. Als der Chef wieder weg ist, fragt der oberste Kannibale: „Wer von Euch Idioten hat die Putzfrau gefressen?“ Meldet sich hinten der Letzte ganz kleinlaut: „Ich war es.“ Sagt der Boss: „Du Trottel! Wir ernähren uns seit vier Wochen von Teamleitern, Administratoren und Personalreferenten, damit niemand etwas merkt. Und Du Depp musst eine Putzfrau fressen…“Bill Gates
Foto: MicrosoftWas ist der Unterschied zwischen Bill Gates und Gott? Gott weiß, dass er nicht Bill Gates ist! Glühbirne 1 Wieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Keinen. Microsoft erklärt die Dunkelheit zum Standard. Glühbirne 2
Foto: Sergey Nivens – shutterstock.comWieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Keinen. Sie rufen bei Intel an, weil es ein Hardware-Problem ist. Glühbirne 3Wieviel Microsoft-Mitarbeiter braucht man, um eine Glühbirne zu wechseln? Vier. Der erste ersetzt die Birne, der zweite ändert die Fassung so, dass Netscape-Glühbirnen nicht reinpassen. Der Dritte baut eine Kurzschluss-Automatik ein, die ausgelöst wird, wenn jemand eine Glühbirne von Sun einsetzen will. Und der vierte überzeugt das amerikanische Justizministerium, dass das fairer Wettbewerb ist. Hölle
Foto: TravnikovStudio – shutterstock.comBill Gates stirbt bei einem Autounfall und findet sich im Fegefeuer wieder. Nach einer Weile kommt Gott und sagt: “Bill, ich weiß wirklich nicht, ob ich dich in den Himmel oder die Hölle schicken soll. Einerseits hast du der Gesellschaft in der ganzen Welt geholfen, indem nun fast jeder einen Computer zu Hause hat. Andererseits hast du das fürchterliche Windows erfunden. Ich erlaube dir deshalb, was ich noch nie vorher gemacht habe, nämlich selbst zu entscheiden, wo du die Ewigkeit verbringen willst.” Bill erwidert: “Danke, Gott. Aber was ist der Unterschied zwischen Himmel und Hölle?” Gott sagt: “Ich bin bereit, dir zu erlauben, beide Plätze kurz zu besuchen, was dir die Entscheidung leichter macht.” Bill: “OK, dann zuerst die Hölle.” In der Hölle sieht Bill einen weißen Sandstrand und wunderbares, klares Wasser. Tausende junger Frauen laufen herum, spielen im Wasser und haben jede Menge Spaß. Die Sonne scheint, und die Temperatur ist perfekt. Bill ist sehr zufrieden. “Das ist großartig”, sagt er zu Gott, “jetzt bin ich mal gespannt, wie der Himmel aussieht.” Der Himmel ist hoch über den Wolken. Engel schweben herum, spielen Harfe und singen. Es ist nett, aber nicht so schön wie in der Hölle. Bill teilt Gott seine Entscheidung mit: “Ich denke, ich gehe lieber in die Hölle.” “In Ordnung”, sagt Gott, und Bill geht in die Hölle. Zwei Wochen später beschließt Gott, nachzuschauen, wie es dem ehemaligen Milliardär in der Hölle geht. Als er in dort ankommt, findet er Bill in einer dunklen Höhle an eine Wand gekettet. Flammen züngeln an ihm hoch, und Dämonen peitschen ihn pausenlos. Bill schreit. “Na, wie geht’s dir?”, fragt Gott. Bill sagt: “Dieser Ort ist schrecklich und eine riesige Enttäuschung. Das habe ich nicht erwartet. Was ist denn aus dem anderen Ort geworden, der mit dem Strand und den schönen Frauen, die im Wasser spielen?” Sagt Gott: “Das war der Bildschirmschoner”. GrünWas hatte ein geschichtsbewusster Informatiker auf seinem T-Shirt stehen? „Hiroshima ’45, Tschernobyl ’86, Windows ’98” Windows NT
Foto: 3MWelche Hardwareplattform eignet sich am besten, um die Leistungsfähigkeit von Windows NT zu demonstrieren? Der Overhead-Projektor. Verkaufen
Foto: Picture Alliance/DPA/MicrosoftDonald Trump trifft Bill Gates und sagt: “Bill, es geht mir so gut. Ich habe wieder viel Geld, so viel, dass ich die ganze Welt kaufen könnte.” Darauf Gates: “Schön für dich, ich verkaufe sie aber nicht.” Hölle
Foto: MicrosoftBill Gates hat eine Audienz beim Papst und macht ihm ein Angebot: “Ich biete ihnen 100 Millionen Dollar, wenn sie das ‘Vaterunser’ ändern.” “Was haben sie sich denn vorgestellt?”, will der Papst wissen. “Es soll heißen: Unser tägliches Windows gib uns heute”, antwortet Bill. Der Papst überlegt kurz und greift zum Telefon: “Sofort den Vertrag mit den Bäckern kündigen.” Nachrichten
Foto: MicrosoftBill Clinton, Saddam Hussein und Bill Gates treffen sich in der VIP-Lounge eines Flughafens. Gott erscheint und wendet sich an Clinton: “Ihnen will ich es sagen: In 14 Tagen geht die Welt unter.” Alle drei eilen sofort nach Hause. Clinton tritt vor den Senat: “Ich habe zwei Neuigkeiten für euch. Eine gute und eine schlechte. Zuerst die gute: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die schlechte: In zwei Wochen geht die Welt unter.” Zur selben Zeit hat Saddam Hussein seine Junta zusammengetrommelt: “Ich habe zwei Neuigkeiten für euch. Eine schlechte und eine ganz schlechte. Zuerst die schlechte: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die ganz schlechte: In zwei Wochen geht die Welt unter.” Bill Gates hat das Microsoft-Board einberufen: “Ich habe zwei Neuigkeiten für euch. Eine gute und eine sehr gute. Zuerst die gute: Gott spricht zum Präsidenten der Vereinigten Staaten. Jetzt die sehr gute: In zwei Wochen spricht niemand mehr über die Defizite von Windows 2000.” Landkarte
Foto: James Steidl/Fotolia.comBill Gates geht am Privatstrand seiner Villa spazieren. Auf einmal wird eine alte Flasche an Land gespült. Er nimmt sie, öffnet sie und es erscheint ein Flaschengeist. “Danke für deine Rettung aus der Flasche, Bill. Du hast nun einen Wunsch frei. Was es auch sei, ich werde ihn dir erfüllen.” Gates überlegt und meint dann: “Hier ist eine Landkarte mit allen Krisen- und Kriegsgebieten der Erde. Ich möchte, dass dort überall Frieden herrscht.” Der Geist nimmt die Karte, stöhnt, und meint: “Das ist einfach zuviel. Hunderte von Kriegen, hassende Menschen, religiöse Fanatiker. Ich bin doch nur ein einfacher Flaschengeist, das kann ich nicht alles wieder geradebiegen. Hast du nicht noch irgendeinen anderen Wunsch?” “Ich hätte da noch einen. Ich möchte, dass alle gröberen Fehler aus Windows 95 verschwinden.” Darauf der Flaschengeist: “Zeig mir doch noch mal die Landkarte …” Hotline
Foto: winhistory.deBei der Microsoft-Hotline: Anrufer: “Seit ich die Windows98-Beta installiert habe, stürzt Office ’97 laufend ab.” Hotline: “Wir hatten hier das gleiche Problem.” Anrufer: “Und was haben Sie gemacht?” Hotline: “Wir haben die Beta ein zweites Mal installiert.” Anrufer: “Gut, dann versuche ich das jetzt auch.” Eine Stunde später … Anrufer: “Jetzt läuft bei mir gar nichts mehr!” Hotline: “Bei uns auch nicht…”

Gates and DOS and Rock’n’Roll: Die 20 schäbigsten Microsoft-Witze​ Weiterlesen »

5 Tipps für bessere Bug Reports​

Allgemein

Bug Reports schaffen die Grundlage dafür, Softwarefehler zuverlässig zu beheben – wenn sie gut gemacht sind.Andrii Yalanskyi | shutterstock.com Bugs zu beheben, ist für alle Softwareentwickler Alltag – egal, ob es um eine Greenfield-Anwendung geht oder ein Legacy-System. Wie schwierig es sich gestaltet, Bugs zu fixen, hängt dabei von diversen Faktoren ab. Die in den meisten Fällen außerhalb der Kontrolle der Entwickler liegen. Geht’s allerdings um die Qualität des Bug Reports, sieht die Sache anders aus. Das sollte jeder Entwickler oder QA-Tester, der etwas auf sich hält, beherrschen. Denn einen guten Fehlerbericht erstellen zu können, erleichtert es erheblich, Fehler zu reproduzieren. Und man kann nur beheben, was man auch reproduzieren kann. Die folgenden fünf Aspekte gehören deshalb meiner Meinung nach in jeden guten Bug Report. 1. Klarer und prägnanter Titel Dass der Titel des Bug Reports aussagekräftig ist, ist essenziell. Die meisten Issue-Tracker heben diesen Titel in allen Listen, die sie als Antwort auf Anfragen bereitstellen, deutlich hervor. Kann man daran ablesen, um welchen Bug es (genau) geht, ist das von unschätzbarem Wert, denn es spart Zeit und verhindert Unklarheiten. Nehmen Sie sich also einen Moment und stellen Sie sicher, dass Ihr Issue ordentlich betitelt ist. 2. Reproduktionsanleitung Der Fokus eines Bug Reports sollte darauf gerichtet sein, Fehler reproduzieren zu können. Nur so lassen diese sich anschließend auch beheben. Von entscheidender Bedeutung ist deshalb vor allem, wie der Bug entsteht. Deshalb sollte der Report die dazu nötigen Schritte auch detailliert beschreiben. “Detailliert” heißt in diesem Fall, jede einzelne Aktion auf dem Weg zum Bug zu erfassen – bis hin zu Mausklicks und Tastenanschlägen. Je detaillierter die einzelnen Schritte dabei beschrieben sind, desto besser. 3. Verhaltensanalyse Bugs treten auf, weil etwas passieren sollte, aber stattdessen etwas anderes passiert. Manchmal wird Output falsch ausgegeben, in anderen Fällen kommt es zum Absturz. Ein guter Fehlerbericht definiert, was normalerweise ablaufen sollte und beschreibt dann detailliert, was tatsächlich abläuft. Ist ersteres nicht der Fall, wird es schwierig, abzustellen, was schiefläuft. Schließlich weiß dann niemand, wie sich die Dinge richtig verhalten. 4. Kontext und Details Kein Bug existiert in einem Vakuum. Deshalb sollten die zugehörigen Reports auch relevante Kontext- oder Systeminformationen umfassen, die möglicherweise hilfreich sind. Dazu kann beispielsweise zählen: wie sich der Fehler auf Kundenseite auswirkt, bei welchen Betriebssystemen er auftritt, oder welche Browser-Typen dabei involviert sind. Ein wirklich guter Bug Report sollte zudem das Problem auch visualisieren – insbesondere, wenn dieses die Benutzeroberfläche betrifft. 5. Nützliche Zusatzinfos Eine nützliche Zusatzinformation wäre beispielsweise ein kurzes Video, in dem der Bug reproduziert wird. Das “live” mitzuverfolgen, kann zu besserem Durchblick beitragen. Eine weitere nützliche Hilfestellung könnte auch eine Datenbank darstellen, die es erleichtert, das Problem zu reproduzieren. Viele Anwendungen halten Einstellungen in einer Datenbank vor, deren Einzelheiten nützlich für Reproduktionszwecke sein können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Tipps für bessere Bug Reports​ Bug Reports schaffen die Grundlage dafür, Softwarefehler zuverlässig zu beheben – wenn sie gut gemacht sind.Andrii Yalanskyi | shutterstock.com

Bugs zu beheben, ist für alle Softwareentwickler Alltag – egal, ob es um eine Greenfield-Anwendung geht oder ein Legacy-System. Wie schwierig es sich gestaltet, Bugs zu fixen, hängt dabei von diversen Faktoren ab. Die in den meisten Fällen außerhalb der Kontrolle der Entwickler liegen.

Geht’s allerdings um die Qualität des Bug Reports, sieht die Sache anders aus. Das sollte jeder Entwickler oder QA-Tester, der etwas auf sich hält, beherrschen. Denn einen guten Fehlerbericht erstellen zu können, erleichtert es erheblich, Fehler zu reproduzieren. Und man kann nur beheben, was man auch reproduzieren kann. Die folgenden fünf Aspekte gehören deshalb meiner Meinung nach in jeden guten Bug Report.

1. Klarer und prägnanter Titel

Dass der Titel des Bug Reports aussagekräftig ist, ist essenziell. Die meisten Issue-Tracker heben diesen Titel in allen Listen, die sie als Antwort auf Anfragen bereitstellen, deutlich hervor. Kann man daran ablesen, um welchen Bug es (genau) geht, ist das von unschätzbarem Wert, denn es spart Zeit und verhindert Unklarheiten. Nehmen Sie sich also einen Moment und stellen Sie sicher, dass Ihr Issue ordentlich betitelt ist.

2. Reproduktionsanleitung

Der Fokus eines Bug Reports sollte darauf gerichtet sein, Fehler reproduzieren zu können. Nur so lassen diese sich anschließend auch beheben. Von entscheidender Bedeutung ist deshalb vor allem, wie der Bug entsteht. Deshalb sollte der Report die dazu nötigen Schritte auch detailliert beschreiben. “Detailliert” heißt in diesem Fall, jede einzelne Aktion auf dem Weg zum Bug zu erfassen – bis hin zu Mausklicks und Tastenanschlägen. Je detaillierter die einzelnen Schritte dabei beschrieben sind, desto besser.

3. Verhaltensanalyse

Bugs treten auf, weil etwas passieren sollte, aber stattdessen etwas anderes passiert. Manchmal wird Output falsch ausgegeben, in anderen Fällen kommt es zum Absturz. Ein guter Fehlerbericht definiert, was normalerweise ablaufen sollte und beschreibt dann detailliert, was tatsächlich abläuft. Ist ersteres nicht der Fall, wird es schwierig, abzustellen, was schiefläuft. Schließlich weiß dann niemand, wie sich die Dinge richtig verhalten.

4. Kontext und Details

Kein Bug existiert in einem Vakuum. Deshalb sollten die zugehörigen Reports auch relevante Kontext- oder Systeminformationen umfassen, die möglicherweise hilfreich sind. Dazu kann beispielsweise zählen:

wie sich der Fehler auf Kundenseite auswirkt,

bei welchen Betriebssystemen er auftritt, oder

welche Browser-Typen dabei involviert sind.

Ein wirklich guter Bug Report sollte zudem das Problem auch visualisieren – insbesondere, wenn dieses die Benutzeroberfläche betrifft.

5. Nützliche Zusatzinfos

Eine nützliche Zusatzinformation wäre beispielsweise ein kurzes Video, in dem der Bug reproduziert wird. Das “live” mitzuverfolgen, kann zu besserem Durchblick beitragen. Eine weitere nützliche Hilfestellung könnte auch eine Datenbank darstellen, die es erleichtert, das Problem zu reproduzieren. Viele Anwendungen halten Einstellungen in einer Datenbank vor, deren Einzelheiten nützlich für Reproduktionszwecke sein können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Tipps für bessere Bug Reports​ Weiterlesen »

So geht Urlaubsübergabe​

Allgemein

Eine gut geplante Urlaubsübergabe ist ein Garant für eine stressfreie(re) Zeit – während und auch nach dem Urlaub.panophotography | shutterstock.com Wenn bei der Übergabe an Kollegen Wissenslücken bestehen bleiben, wird es für die Nicht-Urlauber ungemütlich (und spätestens im Nachgang auch für die Urlauber). In diesem Fall müssen die Kollegen dann viel Zeit und Mühe investieren, um teils simple Aufgaben zu bearbeiten. Woran Urlaubsübergaben scheitern Laut einer aktuellen Umfrage des Softwareanbieters Lucid unter mehr als 2.000 Wissensarbeitenden verbringen 86 Prozent der Befragten bis zu zwei Stunden täglich damit, nach Prozessdokumentationen oder projektbezogenen Infos zu suchen. Mehr als ein Drittel findet dabei wichtige Unterlagen entweder gar nicht oder weiß nicht, wo diese abgelegt sind. Oft liegt das allerdings nicht an mangelnder Team-Kommunikation, sondern an unklaren Strukturen am Arbeitsplatz. Das kann nicht nur zu Stress führen, sondern auch dem Geschäftserfolg schaden: 35 Prozent halten Informationssilos für eine der größten Effizienzhürden in Unternehmen. Das eigene Wissen zu dokumentieren und mit anderen zu teilen, spart allen Beteilgten Zeit und Nerven – besonders in der Urlaubszeit. Denn zu den größten Hürden bei der Informationssuche zählen neben der generell schlechten Auffindbarkeit vor allem auch unzuverlässige Daten (21 Prozent) sowie fehlende Zugänge zu den richtigen Systemen (18 Prozent). Das sorgt verständlicherweise für Frust und bremst Arbeitsprozesse aus. Hinzu kommt: 76 Prozent der Umfrageteilnehmer berichten davon, Projektziele gelegentlich aufgrund von Kommunikationsproblemen nicht erfüllen zu können oder Fristen zu verpassen. Gerade in der Urlaubszeit kann sich das noch zuspitzen. Drei Punkte sind daher mit Blick auf Urlaubsübergaben entscheidend: einen aktuellen Überblick zu Projekten zu geben, Zugang zu Materialien zur Verfügung zu stellen, und Verantwortlichkeiten zu klären – damit die Vertretung auch bei längerer Abwesenheit Entscheidungen treffen oder sich mit den zuständigen Personen abstimmen kann. Um gut vorbereitet in den wohlverdienten Urlaub zu starten, hilft die nachfolgende Checkliste für Urlaubsübergaben. Urlaubsübergabe – die Checkliste Was steht an? ● alle laufenden Projekte auflisten; ● Projektstatus in ein bis zwei Sätzen (schriftlich) erfassen; ● Konkrete To-Dos auflisten; Wo ist was? ● Infos zu offenen Aufgaben bündeln (Links, Dokumente, Fristen); ● Tool- und Systemzugänge für die Vertretung testen; ● Ablageorte dokumentieren; ● falls nötig Zugangsdaten (sicher!) teilen; Wer macht was? ● Vertretung(en) benennen; ● Aufgaben direkt zuweisen; ● Deadlines und Prioritäten klar kommunizieren; ● Ansprechpartner für Rückfragen identifizieren; Wie wird’s klar? ● Übergabe-Call anberaumen oder alternativ ein kurzes Video aufnehmen; ● Mit Tools visualisieren (etwa mit einem virtuellen Whiteboard oder einem Kanban-Board); ● Prüfen, ob es noch ungeklärte Aspekte gibt; Letzter Check ●  Abwesenheit in Kalender und Mail eingetragen?; ● Team informiert, wer wann zuständig ist?; ● Übergabe an Vertretung erfolgt und bestätigt?; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht Urlaubsübergabe​ Eine gut geplante Urlaubsübergabe ist ein Garant für eine stressfreie(re) Zeit – während und auch nach dem Urlaub.panophotography | shutterstock.com

Wenn bei der Übergabe an Kollegen Wissenslücken bestehen bleiben, wird es für die Nicht-Urlauber ungemütlich (und spätestens im Nachgang auch für die Urlauber). In diesem Fall müssen die Kollegen dann viel Zeit und Mühe investieren, um teils simple Aufgaben zu bearbeiten.

Woran Urlaubsübergaben scheitern

Laut einer aktuellen Umfrage des Softwareanbieters Lucid unter mehr als 2.000 Wissensarbeitenden verbringen 86 Prozent der Befragten bis zu zwei Stunden täglich damit, nach Prozessdokumentationen oder projektbezogenen Infos zu suchen. Mehr als ein Drittel findet dabei wichtige Unterlagen entweder gar nicht oder weiß nicht, wo diese abgelegt sind. Oft liegt das allerdings nicht an mangelnder Team-Kommunikation, sondern an unklaren Strukturen am Arbeitsplatz. Das kann nicht nur zu Stress führen, sondern auch dem Geschäftserfolg schaden: 35 Prozent halten Informationssilos für eine der größten Effizienzhürden in Unternehmen.

Das eigene Wissen zu dokumentieren und mit anderen zu teilen, spart allen Beteilgten Zeit und Nerven – besonders in der Urlaubszeit. Denn zu den größten Hürden bei der Informationssuche zählen neben der generell schlechten Auffindbarkeit vor allem auch unzuverlässige Daten (21 Prozent) sowie fehlende Zugänge zu den richtigen Systemen (18 Prozent). Das sorgt verständlicherweise für Frust und bremst Arbeitsprozesse aus. Hinzu kommt: 76 Prozent der Umfrageteilnehmer berichten davon, Projektziele gelegentlich aufgrund von Kommunikationsproblemen nicht erfüllen zu können oder Fristen zu verpassen. Gerade in der Urlaubszeit kann sich das noch zuspitzen.

Drei Punkte sind daher mit Blick auf Urlaubsübergaben entscheidend:

einen aktuellen Überblick zu Projekten zu geben,

Zugang zu Materialien zur Verfügung zu stellen, und

Verantwortlichkeiten zu klären – damit die Vertretung auch bei längerer Abwesenheit Entscheidungen treffen oder sich mit den zuständigen Personen abstimmen kann.

Um gut vorbereitet in den wohlverdienten Urlaub zu starten, hilft die nachfolgende Checkliste für Urlaubsübergaben.

Urlaubsübergabe – die Checkliste

Was steht an?

● alle laufenden Projekte auflisten;

● Projektstatus in ein bis zwei Sätzen (schriftlich) erfassen;

● Konkrete To-Dos auflisten;

Wo ist was?

● Infos zu offenen Aufgaben bündeln (Links, Dokumente, Fristen);

● Tool- und Systemzugänge für die Vertretung testen;

● Ablageorte dokumentieren;

● falls nötig Zugangsdaten (sicher!) teilen;

Wer macht was?

● Vertretung(en) benennen;

● Aufgaben direkt zuweisen;

● Deadlines und Prioritäten klar kommunizieren;

● Ansprechpartner für Rückfragen identifizieren;

Wie wird’s klar?

● Übergabe-Call anberaumen oder alternativ ein kurzes Video aufnehmen;

● Mit Tools visualisieren (etwa mit einem virtuellen Whiteboard oder einem Kanban-Board);

● Prüfen, ob es noch ungeklärte Aspekte gibt;

Letzter Check

●  Abwesenheit in Kalender und Mail eingetragen?;

● Team informiert, wer wann zuständig ist?;

● Übergabe an Vertretung erfolgt und bestätigt?;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht Urlaubsübergabe​ Weiterlesen »

Gartner Hype Cycle KI 2025: Grundlagen statt GenAI​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?quality=50&strip=all 5360w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>KI entfaltet ihr Potenzial in vielen Facetten – von KI-Agenten über multimodale Modelle bis hin zu vertrauenswürdiger Governance durch AI TRiSM.Shutterstock/HighDispersion KI-Agenten und AI-ready Data (KI-fähige Daten) sind laut Gartner die am schnellsten voranschreitenden Technologien im Hype Cycle für künstliche Intelligenz 2025 ($). Diese Technologien erleben derzeit ein stark wachsendes Interesse, begleitet von ambitionierten Prognosen und spekulativen Versprechen – und befinden sich daher am Gipfel der überzogenen Erwartungen (Peak of Inflated Expectations). „Da die Investitionen in KI auch in diesem Jahr hoch bleiben, liegt der Fokus zunehmend auf der Nutzung von KI zur operativen Skalierung und für Echtzeit-Intelligenz“, erklärt Haritha Khandabattu, Senior Director Analyst bei Gartner. „Dies führt zu einer allmählichen Verschiebung weg von generativer KI (GenAI) als Hauptfokus hin zu den grundlegenden Voraussetzungen für eine nachhaltige KI-Nutzung – wie KI-bereite Daten und KI-Agenten.“ Zu den KI-Innovationen, die laut Gartner innerhalb der nächsten fünf Jahre den Massenmarkt erreichen werden, zählen multimodale KI sowie das Vertrauens-, Risiko- und Sicherheitsmanagement für KI (AI TRiSM). Diese Entwicklungen ermöglichten robustere, innovativere und verantwortungsvollere KI-Anwendungen – und werden die Arbeitsweise von Unternehmen und Organisationen grundlegend verändern, so die Marktforscher. Gartners Blick über den KI-Tellerrand: Hype Cycle für künstliche Intelligenz 2025Gartner „Trotz des enormen potenziellen Werts von KI für das Business ist das kein Selbstläufer“, warnt Khandabattu. „Der Erfolg wird davon abhängen, wie gut Pilotprojekte mit den Geschäftszielen abgestimmt sind, wie proaktiv Infrastruktur-Benchmarks gesetzt werden und wie eng KI- und Business-Teams zusammenarbeiten, um messbaren Nutzen zu schaffen.“ Kein KI-Agent gleicht dem anderen Dies gilt insbesondere für KI-Agenten. „Um die Vorteile von KI-Agenten nutzen zu können, müssen Unternehmen die relevantesten Geschäftskontexte und Anwendungsfälle identifizieren. Das ist eine Herausforderung, weil kein KI-Agent dem anderen gleicht und jede Situation individuell ist“, so Khandabattu. „Auch wenn KI-Agenten immer leistungsfähiger werden, sind sie nicht universell einsetzbar – ihre Nutzung hängt stark von den Anforderungen des jeweiligen Anwendungsfalls ab.“ Bei KI-fähigen Daten ist der Kontext wichtig Beim Thema KI-fähige Daten sind die Unternehmen gefordert, deren Verwendbarkeit für bestimmte KI-Anwendungsfälle nachzuweisen. Diese könne nur im Kontext des KI-Anwendungsfalls und der verwendeten KI-Technik bestimmt werden, führt Gartner an, was neue Ansätze für das Datenmanagement erfordere. Den Analysten zufolge müssen Unternehmen, die in großem Umfang in KI investieren, ihre Datenmanagement-Praktiken und -Fähigkeiten weiterentwickeln, um sie auf KI auszudehnen. So könnten sie aktuellen und zukünftigen Geschäftsanforderungen gerecht werden, Vertrauen schaffen, Risiken und Compliance-Verstöße vermeiden, geistiges Eigentum schützen und Verzerrungen sowie Halluzinationen reduzieren. Multimodale KI auf dem Vormarsch Multimodale KI-Modelle werden gleichzeitig mit verschiedenen Datentypen trainiert – beispielsweise Bildern, Videos, Audio und Text. Durch die Integration und Analyse dieser vielfältigen Datenquellen können sie komplexe Zusammenhänge besser erfassen als Modelle, die nur einen Datentyp nutzen. Dies hilft Anwendern, die Welt besser zu verstehen und eröffnet neue Einsatzmöglichkeiten für KI. Laut Gartner wird multimodale KI in den nächsten fünf Jahren zu einem zentralen Treiber für die Weiterentwicklung von Funktionen in nahezu allen Anwendungen und Softwareprodukten – über alle Branchen hinweg. AI TRiSM schafft Vertrauen und Sicherheit AI TRiSM spielt eine entscheidende Rolle, um KI auf ethischvertretbare und sichere Weise einzuführen. Es umfasst vier Ebenen technischer Fähigkeiten, die unternehmensweite Richtlinien für sämtliche KI-Anwendungsfälle unterstützen und dabei helfen, KI-Governance, Vertrauenswürdigkeit, Fairness, Sicherheit, Zuverlässigkeit, Datenschutz und Datensicherheit sicherzustellen. „KI bringt neue Herausforderungen in Bezug auf Vertrauen, Risiko- und Sicherheitsmanagement mit sich, die herkömmliche Kontrollmechanismen nicht abdecken“, erklärt Khandabattu. „Unternehmen müssen eine mehrschichtige AI-TRiSM-Technologie bewerten und implementieren, um Richtlinien über alle eingesetzten KI-Systeme hinweg kontinuierlich zu unterstützen und durchzusetzen.“ 

Gartner Hype Cycle KI 2025: Grundlagen statt GenAI​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?quality=50&strip=all 5360w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/11/shutterstock_2357970705_HighDispersion.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>KI entfaltet ihr Potenzial in vielen Facetten – von KI-Agenten über multimodale Modelle bis hin zu vertrauenswürdiger Governance durch AI TRiSM.Shutterstock/HighDispersion

KI-Agenten und AI-ready Data (KI-fähige Daten) sind laut Gartner die am schnellsten voranschreitenden Technologien im Hype Cycle für künstliche Intelligenz 2025 ($). Diese Technologien erleben derzeit ein stark wachsendes Interesse, begleitet von ambitionierten Prognosen und spekulativen Versprechen – und befinden sich daher am Gipfel der überzogenen Erwartungen (Peak of Inflated Expectations).

„Da die Investitionen in KI auch in diesem Jahr hoch bleiben, liegt der Fokus zunehmend auf der Nutzung von KI zur operativen Skalierung und für Echtzeit-Intelligenz“, erklärt Haritha Khandabattu, Senior Director Analyst bei Gartner. „Dies führt zu einer allmählichen Verschiebung weg von generativer KI (GenAI) als Hauptfokus hin zu den grundlegenden Voraussetzungen für eine nachhaltige KI-Nutzung – wie KI-bereite Daten und KI-Agenten.“

Zu den KI-Innovationen, die laut Gartner innerhalb der nächsten fünf Jahre den Massenmarkt erreichen werden, zählen multimodale KI sowie das Vertrauens-, Risiko- und Sicherheitsmanagement für KI (AI TRiSM). Diese Entwicklungen ermöglichten robustere, innovativere und verantwortungsvollere KI-Anwendungen – und werden die Arbeitsweise von Unternehmen und Organisationen grundlegend verändern, so die Marktforscher.

Gartners Blick über den KI-Tellerrand: Hype Cycle für künstliche Intelligenz 2025Gartner

„Trotz des enormen potenziellen Werts von KI für das Business ist das kein Selbstläufer“, warnt Khandabattu. „Der Erfolg wird davon abhängen, wie gut Pilotprojekte mit den Geschäftszielen abgestimmt sind, wie proaktiv Infrastruktur-Benchmarks gesetzt werden und wie eng KI- und Business-Teams zusammenarbeiten, um messbaren Nutzen zu schaffen.“

Kein KI-Agent gleicht dem anderen

Dies gilt insbesondere für KI-Agenten. „Um die Vorteile von KI-Agenten nutzen zu können, müssen Unternehmen die relevantesten Geschäftskontexte und Anwendungsfälle identifizieren. Das ist eine Herausforderung, weil kein KI-Agent dem anderen gleicht und jede Situation individuell ist“, so Khandabattu. „Auch wenn KI-Agenten immer leistungsfähiger werden, sind sie nicht universell einsetzbar – ihre Nutzung hängt stark von den Anforderungen des jeweiligen Anwendungsfalls ab.“

Bei KI-fähigen Daten ist der Kontext wichtig

Beim Thema KI-fähige Daten sind die Unternehmen gefordert, deren Verwendbarkeit für bestimmte KI-Anwendungsfälle nachzuweisen. Diese könne nur im Kontext des KI-Anwendungsfalls und der verwendeten KI-Technik bestimmt werden, führt Gartner an, was neue Ansätze für das Datenmanagement erfordere.

Den Analysten zufolge müssen Unternehmen, die in großem Umfang in KI investieren, ihre Datenmanagement-Praktiken und -Fähigkeiten weiterentwickeln, um sie auf KI auszudehnen. So könnten sie aktuellen und zukünftigen Geschäftsanforderungen gerecht werden, Vertrauen schaffen, Risiken und Compliance-Verstöße vermeiden, geistiges Eigentum schützen und Verzerrungen sowie Halluzinationen reduzieren.

Multimodale KI auf dem Vormarsch

Multimodale KI-Modelle werden gleichzeitig mit verschiedenen Datentypen trainiert – beispielsweise Bildern, Videos, Audio und Text. Durch die Integration und Analyse dieser vielfältigen Datenquellen können sie komplexe Zusammenhänge besser erfassen als Modelle, die nur einen Datentyp nutzen. Dies hilft Anwendern, die Welt besser zu verstehen und eröffnet neue Einsatzmöglichkeiten für KI.

Laut Gartner wird multimodale KI in den nächsten fünf Jahren zu einem zentralen Treiber für die Weiterentwicklung von Funktionen in nahezu allen Anwendungen und Softwareprodukten – über alle Branchen hinweg.

AI TRiSM schafft Vertrauen und Sicherheit

AI TRiSM spielt eine entscheidende Rolle, um KI auf ethischvertretbare und sichere Weise einzuführen. Es umfasst vier Ebenen technischer Fähigkeiten, die unternehmensweite Richtlinien für sämtliche KI-Anwendungsfälle unterstützen und dabei helfen, KI-Governance, Vertrauenswürdigkeit, Fairness, Sicherheit, Zuverlässigkeit, Datenschutz und Datensicherheit sicherzustellen.

„KI bringt neue Herausforderungen in Bezug auf Vertrauen, Risiko- und Sicherheitsmanagement mit sich, die herkömmliche Kontrollmechanismen nicht abdecken“, erklärt Khandabattu. „Unternehmen müssen eine mehrschichtige AI-TRiSM-Technologie bewerten und implementieren, um Richtlinien über alle eingesetzten KI-Systeme hinweg kontinuierlich zu unterstützen und durchzusetzen.“

Gartner Hype Cycle KI 2025: Grundlagen statt GenAI​ Weiterlesen »

DRV Hessen: KI-Voicebot bearbeitet 85.000 Anrufe im Monat​

Allgemein

Ein KI-gestützter Voicebot nimmt bei der DRV Hessen die Anliegen der Anrufer entgegen und strukturiert sie. Ole.CNX – Shutterstock.com Wer kennt das nicht? Endlos erscheinende Warteschlangen bei Anrufen beim Kundenservice. Und vorgefertigte Sprachmenüs, die zwar viele Anliegen erfassen, nur leider allzu oft nicht das eigene. Was folgt, ist dann eine Vermittlungsodyssee von Sachbearbeiter zu Sachbearbeiter, bis der Anrufer einen fachkundigen Gesprächspartner an der Leitung hat. Damit soll jetzt bei der Deutsche Rentenversicherung Hessen (DRV Hessen) Schluss sein. Mit einer KI-gestützte Voicebot-Lösung will man sowohl die Servicequalität gegenüber den Versicherten als auch die internen Serviceprozesse optimieren. Dazu wird der Voicebot im Kundenservice, der Rentenbearbeitung sowie der Rehabilitation zur Vorqualifizierung eingehender Anrufe eingesetzt. Aktuell qualifiziert er monatlich etwa 85.000 Anrufe automatisiert. Voicebot strukturiert Anrufe Hierzu nimmt der Voicebot die Anliegen der Anrufer automatisiert auf. Dabei strukturiert er sie durch gezielte Abfragen zu Anrufgrund, Versicherungs- oder Bearbeitungsnummer oder weiteren Identifikationsmerkmalen. Eine intelligente Weiterleitung, die sogenannte Automatic Call Distribution, leitet den Anruf an die zuständigen Mitarbeiter oder Teams weiter. Diese erhalten laut DRV Hessen alle relevanten Informationen aus dem vorherigen Bot-Dialog und können unmittelbar und gezielt in die Klärung des Anliegens einsteigen. Das beschleunige interne Arbeitsabläufe und entlaste die Beschäftigten, die sich auf komplexe Aufgaben konzentrieren können. Die Anrufer wiederum profitieren von einer erhöhten Erreichbarkeit, selbst in Spitzenzeiten, nahezu ohne Wartezeiten. Anpassung per Low Code Die Lösung kombiniert Natural Language Processing (NLP), maschinelles Lernen und generative KI. Die Mitarbeiter können die Schritte zur Lösung des Anliegens der Anrufenden maßgeschneidert selbst erstellen. Hierzu gibt es konfigurierbare Bausteine auf einer Low-Code-Oberfläche. Der grafische Dialogdesigner bietet eine intuitive Benutzeroberfläche mit Echtzeitvorschau. So lassen sich die Dialogverläufe stets visuell nachvollziehen und schon während der Erstellung testen sowie kontinuierlich optimieren. Auf diese Weise lässt sich der Voicebot ohne tiefere IT-Kenntnisse programmieren, Ein Intent-Trainer unterstützt beim Erkennen der Anrufgründe. Er liefert eine strukturierte Übersicht zu nicht erkannten Anliegen. Mit wenigen Klicks können die Beschäftigten diese bestehenden Intents zuweisen oder neue Intents anlegen. Sie erkennen mögliche Lücken in der bestehenden Intent-Struktur. Diese Funktionalitäten verbessern die Erkennungsgenauigkeit und Antwortqualität des Bots – basierend auf realen Nutzereingaben aus dem laufenden Betrieb. Bei der Realisierung des Projekts setzte die DRV Hessen auf die „Conversational AI Suite“ der Telekom. Dabei handelt es sich laut Telekom um eine KI Made in Germany, die auf der Open Telekom Cloud in zertifizierten und DSGVO-konformen Rechenzentren läuft. Damit erfülle die Lösung höchste Standards für Datenschutz, IT-Sicherheit, Verfügbarkeit und Compliance gemäß gesetzlichen und branchenspezifischen Vorgaben, heißt es. 

DRV Hessen: KI-Voicebot bearbeitet 85.000 Anrufe im Monat​ Ein KI-gestützter Voicebot nimmt bei der DRV Hessen die Anliegen der Anrufer entgegen und strukturiert sie.
Ole.CNX – Shutterstock.com

Wer kennt das nicht? Endlos erscheinende Warteschlangen bei Anrufen beim Kundenservice. Und vorgefertigte Sprachmenüs, die zwar viele Anliegen erfassen, nur leider allzu oft nicht das eigene. Was folgt, ist dann eine Vermittlungsodyssee von Sachbearbeiter zu Sachbearbeiter, bis der Anrufer einen fachkundigen Gesprächspartner an der Leitung hat.

Damit soll jetzt bei der Deutsche Rentenversicherung Hessen (DRV Hessen) Schluss sein. Mit einer KI-gestützte Voicebot-Lösung will man sowohl die Servicequalität gegenüber den Versicherten als auch die internen Serviceprozesse optimieren. Dazu wird der Voicebot im Kundenservice, der Rentenbearbeitung sowie der Rehabilitation zur Vorqualifizierung eingehender Anrufe eingesetzt. Aktuell qualifiziert er monatlich etwa 85.000 Anrufe automatisiert.

Voicebot strukturiert Anrufe

Hierzu nimmt der Voicebot die Anliegen der Anrufer automatisiert auf. Dabei strukturiert er sie durch gezielte Abfragen zu Anrufgrund, Versicherungs- oder Bearbeitungsnummer oder weiteren Identifikationsmerkmalen. Eine intelligente Weiterleitung, die sogenannte Automatic Call Distribution, leitet den Anruf an die zuständigen Mitarbeiter oder Teams weiter.

Diese erhalten laut DRV Hessen alle relevanten Informationen aus dem vorherigen Bot-Dialog und können unmittelbar und gezielt in die Klärung des Anliegens einsteigen. Das beschleunige interne Arbeitsabläufe und entlaste die Beschäftigten, die sich auf komplexe Aufgaben konzentrieren können. Die Anrufer wiederum profitieren von einer erhöhten Erreichbarkeit, selbst in Spitzenzeiten, nahezu ohne Wartezeiten.

Anpassung per Low Code

Die Lösung kombiniert Natural Language Processing (NLP), maschinelles Lernen und generative KI. Die Mitarbeiter können die Schritte zur Lösung des Anliegens der Anrufenden maßgeschneidert selbst erstellen. Hierzu gibt es konfigurierbare Bausteine auf einer Low-Code-Oberfläche. Der grafische Dialogdesigner bietet eine intuitive Benutzeroberfläche mit Echtzeitvorschau. So lassen sich die Dialogverläufe stets visuell nachvollziehen und schon während der Erstellung testen sowie kontinuierlich optimieren. Auf diese Weise lässt sich der Voicebot ohne tiefere IT-Kenntnisse programmieren,

Ein Intent-Trainer unterstützt beim Erkennen der Anrufgründe. Er liefert eine strukturierte Übersicht zu nicht erkannten Anliegen. Mit wenigen Klicks können die Beschäftigten diese bestehenden Intents zuweisen oder neue Intents anlegen. Sie erkennen mögliche Lücken in der bestehenden Intent-Struktur. Diese Funktionalitäten verbessern die Erkennungsgenauigkeit und Antwortqualität des Bots – basierend auf realen Nutzereingaben aus dem laufenden Betrieb.

Bei der Realisierung des Projekts setzte die DRV Hessen auf die „Conversational AI Suite“ der Telekom. Dabei handelt es sich laut Telekom um eine KI Made in Germany, die auf der Open Telekom Cloud in zertifizierten und DSGVO-konformen Rechenzentren läuft. Damit erfülle die Lösung höchste Standards für Datenschutz, IT-Sicherheit, Verfügbarkeit und Compliance gemäß gesetzlichen und branchenspezifischen Vorgaben, heißt es.

DRV Hessen: KI-Voicebot bearbeitet 85.000 Anrufe im Monat​ Weiterlesen »

5 Tipps für IT-Führungskräfte im Bewerbungsgespräch​

Allgemein

Führungskräfte dürfen das Vorstellungsgespräch durchaus als Bühne nutzen, um ihre Geschichte glaubwürdig zu erzählen – aber eben nicht als Show. Foto: stockfour – shutterstock.com Trotz Fachkräftemangel ist eine Zusage für den neuen Job kein Selbstläufer. Denn so manche Kandidaten bereiten sich nicht ausreichend auf die Bewerbungsgespräche vor. Auch Führungskräfte treten immer wieder in Stolperfallen. Doch es gibt ein paar nützliche Hinweise, um dies zu vermeiden: Entwickle deine eigene Story für die PositionierungFührungskräfte sollten das Gespräch als Bühne nutzen, um ihre Persönlichkeit und Motivation darzulegen: Wer bin ich? Was kann ich? Was sind meine Vorstellungen? Mit diesem Teil beginnen viele Gespräche, damit das Unternehmen feststellen kann, ob der Kandidat oder die Kandidatin in die Firmenkultur passt.Dabei darf sich der Bewerber weder zu sicher noch zu unsicher sein. Wer glaubt, den Job schon in der Tasche zu haben, gibt sich häufig zu wenig Mühe, die eigene Positionierung glaubwürdig darzulegen. Wer motiviert ist und gut darlegen kann, was ihn beziehungsweise sie auszeichnet, hat bessere Chancen.Eine gute Geschichte ist die halbe MieteBei klassischen Unternehmen kommt es oft gut an, dass man sich auf die Anzeige bezieht und erklärt, warum man der/die Richtige für diese Position ist. Der Spieß hat sich bei IT-Unternehmen umgedreht: Bewerber werden von Recruitern angesprochen und müssen zeigen: Warum orientiere ich mich um? Wie sieht meine Vision aus, was motiviert mich, wo ziehe ich meine Energie her? Ein interessanter Spannungsbogen ist hier schon die halbe Miete. Überlege dir, welche Kultur du brauchstUnd da sind wir schon beim wichtigsten Punkt: Vor der Bewerbung sollte man sich überlegen, ob die Firmenkultur wirklich passend ist. Wer gerne nach festen Regeln arbeitet und klare Vorgaben möchte, sollte sich klassische Unternehmen aussuchen. Wer Flexibilität und Selbstbestimmung braucht, ist bei Startups oder US-Firmen wahrscheinlich gut aufgehoben. Also: Brauchst du eine lange Leine oder präzise tägliche Check-Listen?Bei Führungskräften ist genauso wichtig aufzuzeigen, was für eine Kultur sie für ihr Team schaffen wollen und ob das zum Unternehmen passt. Wer mit Hybrid Work, vielen Videokonferenzen mit verteilten Teams und freier Zeiteinteilung arbeiten möchte, hat bei einem Unternehmen mit Anwesenheitspflicht im Büro und festen Arbeitszeiten nichts verloren. In der IT-Branche gibt es unter den Firmen viele Variationen, die man sich vor der Bewerbung genau ansehen sollte. IT-Zertifikate sind gut, People Skills sind besserSpätestens ab dem Management-Level wird in allen IT-Firmen das entsprechende technische Know-how vorausgesetzt. Ob man ein Zertifikat für IT-Security mitbringt oder IT-Netzwerke ist egal. Den Unterschied macht heute, wie man sein Team führt und motiviert. Einen autoritären Führungsstil mit strengen Hierarchien wollen sich die meisten IT-Unternehmen nicht mehr leisten. Bei vielen von ihnen stehen dagegen Konzepte wie “Servant Leadership” im Zentrum.Auch bei diesem Thema sollten die Kandidaten daher beim Gespräch das Ruder in die Hand nehmen, statt auf Fragen zu warten. Also proaktiv ansprechen: Wer bin ich als Mensch? Wie ist mein Führungsstil? Was will ich mit meinem Team erreichen? Hier können konkrete Best oder Worst Cases aus der Vergangenheit hilfreich sein.Nicht nur über Erfolge berichtenEs sollte nicht nur klar werden, was jemand bei erfolgreichen Projekten eingebracht hat, sondern auch, wie er mit schwierigen Situationen umgeht, ob im Berufs- oder Privatleben. Dies kann von interessanten Auslandsaufenthalten bis zu persönlichen Schicksalsschlägen reichen. Und vor allem: Wie habe ich bisher meinen Mitarbeitern in schweren Situationen geholfen: Firmen wie Cisco bieten zum Beispiel umfangreiche Hilfsangebote für alle Mitarbeiter – unter anderem “Emergency Time Off”, wenn es einen privaten Notfall gibt. Wenn das die Unternehmenskultur ist, dann müssen auch neue Führungskräfte die Haltung “Be in service of your employee” unterstützen. Welche Kultur passend ist, muss aber jeder selbst entscheiden. Beweise deine KommunikationsfähigkeitEin wichtiger Bestandteil des Führungsstils ist neben Empathie auch die Art der Kommunikation, insbesondere die Wortwahl. Im IT-Umfeld muss man viel Flexibilität mitbringen. Daher ist es wichtig, die Mitarbeiter stetig zu motivieren, zu loben und Visionen zuzulassen. Das zu verpacken ist zentrale Aufgabe einer IT-Führungskraft und erfordert gut ausgebildete Kommunikationsfähigkeiten.Gleichzeitig ist der tägliche Ton entscheidend: Von oben steuern oder erst einmal zuhören und auf andere zugehen, macht einen enormen Unterschied. Mitarbeiter einzubinden und eigene Ideen umsetzen lassen, erfordert viel Empathie und Kommunikationsstärke vom Chef. Hier ist es im Bewerbungsgespräch hilfreich, Fälle aus der eigenen Vergangenheit und den Umgang damit zu beschreiben. Sei authentisch und ehrlichEs ist immer noch wichtig, sich vorab über die Projekte, Ziele und Kultur des Unternehmens zu informieren. Doch dies wird bei Führungspositionen als selbstverständlich vorausgesetzt und ist nicht Gesprächsgegenstand. Entscheidend ist, dazu authentisch und ehrlich Stellung zu beziehen. Man sollte nicht versuchen, den Gesprächspartnern nach dem Mund zu reden, Fantasiegeschichten zu erzählen oder Probleme zu beschönigen. Das fällt sofort und vor allem negativ auf. Man sollte das Gespräch als Bühne nutzen, aber nicht zur Show werden lassen.Die Körpersprache verrät dabei nicht nur Märchen, sondern auch, wenn Fragen unangenehm werden. Falls Themen oder Beispiele dann doch zu privat werden, ist es völlig legitim dies dann auch zu benennen. Alternativ bieten sich Gegenfragen oder die Bitte um Umformulierung an, um das Gespräch auf elegante Weise am Laufen zu halten. Der Umgang mit unangenehmen Fragen ist dabei für Personalverantwortliche oft aufschlussreicher als die Antwort selbst. 

5 Tipps für IT-Führungskräfte im Bewerbungsgespräch​ Führungskräfte dürfen das Vorstellungsgespräch durchaus als Bühne nutzen, um ihre Geschichte glaubwürdig zu erzählen – aber eben nicht als Show.
Foto: stockfour – shutterstock.com Trotz Fachkräftemangel ist eine Zusage für den neuen Job kein Selbstläufer. Denn so manche Kandidaten bereiten sich nicht ausreichend auf die Bewerbungsgespräche vor. Auch Führungskräfte treten immer wieder in Stolperfallen. Doch es gibt ein paar nützliche Hinweise, um dies zu vermeiden: Entwickle deine eigene Story für die PositionierungFührungskräfte sollten das Gespräch als Bühne nutzen, um ihre Persönlichkeit und Motivation darzulegen: Wer bin ich? Was kann ich? Was sind meine Vorstellungen? Mit diesem Teil beginnen viele Gespräche, damit das Unternehmen feststellen kann, ob der Kandidat oder die Kandidatin in die Firmenkultur passt.Dabei darf sich der Bewerber weder zu sicher noch zu unsicher sein. Wer glaubt, den Job schon in der Tasche zu haben, gibt sich häufig zu wenig Mühe, die eigene Positionierung glaubwürdig darzulegen. Wer motiviert ist und gut darlegen kann, was ihn beziehungsweise sie auszeichnet, hat bessere Chancen.Eine gute Geschichte ist die halbe MieteBei klassischen Unternehmen kommt es oft gut an, dass man sich auf die Anzeige bezieht und erklärt, warum man der/die Richtige für diese Position ist. Der Spieß hat sich bei IT-Unternehmen umgedreht: Bewerber werden von Recruitern angesprochen und müssen zeigen: Warum orientiere ich mich um? Wie sieht meine Vision aus, was motiviert mich, wo ziehe ich meine Energie her? Ein interessanter Spannungsbogen ist hier schon die halbe Miete. Überlege dir, welche Kultur du brauchstUnd da sind wir schon beim wichtigsten Punkt: Vor der Bewerbung sollte man sich überlegen, ob die Firmenkultur wirklich passend ist. Wer gerne nach festen Regeln arbeitet und klare Vorgaben möchte, sollte sich klassische Unternehmen aussuchen. Wer Flexibilität und Selbstbestimmung braucht, ist bei Startups oder US-Firmen wahrscheinlich gut aufgehoben. Also: Brauchst du eine lange Leine oder präzise tägliche Check-Listen?Bei Führungskräften ist genauso wichtig aufzuzeigen, was für eine Kultur sie für ihr Team schaffen wollen und ob das zum Unternehmen passt. Wer mit Hybrid Work, vielen Videokonferenzen mit verteilten Teams und freier Zeiteinteilung arbeiten möchte, hat bei einem Unternehmen mit Anwesenheitspflicht im Büro und festen Arbeitszeiten nichts verloren. In der IT-Branche gibt es unter den Firmen viele Variationen, die man sich vor der Bewerbung genau ansehen sollte. IT-Zertifikate sind gut, People Skills sind besserSpätestens ab dem Management-Level wird in allen IT-Firmen das entsprechende technische Know-how vorausgesetzt. Ob man ein Zertifikat für IT-Security mitbringt oder IT-Netzwerke ist egal. Den Unterschied macht heute, wie man sein Team führt und motiviert. Einen autoritären Führungsstil mit strengen Hierarchien wollen sich die meisten IT-Unternehmen nicht mehr leisten. Bei vielen von ihnen stehen dagegen Konzepte wie “Servant Leadership” im Zentrum.Auch bei diesem Thema sollten die Kandidaten daher beim Gespräch das Ruder in die Hand nehmen, statt auf Fragen zu warten. Also proaktiv ansprechen: Wer bin ich als Mensch? Wie ist mein Führungsstil? Was will ich mit meinem Team erreichen? Hier können konkrete Best oder Worst Cases aus der Vergangenheit hilfreich sein.Nicht nur über Erfolge berichtenEs sollte nicht nur klar werden, was jemand bei erfolgreichen Projekten eingebracht hat, sondern auch, wie er mit schwierigen Situationen umgeht, ob im Berufs- oder Privatleben. Dies kann von interessanten Auslandsaufenthalten bis zu persönlichen Schicksalsschlägen reichen. Und vor allem: Wie habe ich bisher meinen Mitarbeitern in schweren Situationen geholfen: Firmen wie Cisco bieten zum Beispiel umfangreiche Hilfsangebote für alle Mitarbeiter – unter anderem “Emergency Time Off”, wenn es einen privaten Notfall gibt. Wenn das die Unternehmenskultur ist, dann müssen auch neue Führungskräfte die Haltung “Be in service of your employee” unterstützen. Welche Kultur passend ist, muss aber jeder selbst entscheiden. Beweise deine KommunikationsfähigkeitEin wichtiger Bestandteil des Führungsstils ist neben Empathie auch die Art der Kommunikation, insbesondere die Wortwahl. Im IT-Umfeld muss man viel Flexibilität mitbringen. Daher ist es wichtig, die Mitarbeiter stetig zu motivieren, zu loben und Visionen zuzulassen. Das zu verpacken ist zentrale Aufgabe einer IT-Führungskraft und erfordert gut ausgebildete Kommunikationsfähigkeiten.Gleichzeitig ist der tägliche Ton entscheidend: Von oben steuern oder erst einmal zuhören und auf andere zugehen, macht einen enormen Unterschied. Mitarbeiter einzubinden und eigene Ideen umsetzen lassen, erfordert viel Empathie und Kommunikationsstärke vom Chef. Hier ist es im Bewerbungsgespräch hilfreich, Fälle aus der eigenen Vergangenheit und den Umgang damit zu beschreiben. Sei authentisch und ehrlichEs ist immer noch wichtig, sich vorab über die Projekte, Ziele und Kultur des Unternehmens zu informieren. Doch dies wird bei Führungspositionen als selbstverständlich vorausgesetzt und ist nicht Gesprächsgegenstand. Entscheidend ist, dazu authentisch und ehrlich Stellung zu beziehen. Man sollte nicht versuchen, den Gesprächspartnern nach dem Mund zu reden, Fantasiegeschichten zu erzählen oder Probleme zu beschönigen. Das fällt sofort und vor allem negativ auf. Man sollte das Gespräch als Bühne nutzen, aber nicht zur Show werden lassen.Die Körpersprache verrät dabei nicht nur Märchen, sondern auch, wenn Fragen unangenehm werden. Falls Themen oder Beispiele dann doch zu privat werden, ist es völlig legitim dies dann auch zu benennen. Alternativ bieten sich Gegenfragen oder die Bitte um Umformulierung an, um das Gespräch auf elegante Weise am Laufen zu halten. Der Umgang mit unangenehmen Fragen ist dabei für Personalverantwortliche oft aufschlussreicher als die Antwort selbst.

5 Tipps für IT-Führungskräfte im Bewerbungsgespräch​ Weiterlesen »

Gemini CLI im Praxistest​

Allgemein

Google preist Gemini CLI als “persönlichen Open-Source-KI-Agent”, der sich direkt in Entwickler-Terminals integrieren lässt.Google Packages, die macOS und Linux Terminal sowie Windows cmd um intelligente Coding-Funktionen ergänzen, liegen im Trend. Neben zahlreichen Open-Source-Projekten bieten unter anderem auch Anthropic, GitHub, Amazon und OpenAI entsprechende Produkte mit Kommandozeilen-Fokus an. Und seit Ende Juni 2025 auch Google: Gemini CLI ist ein (weitgehend) kostenloses, quelloffenes KI-Tool für die Befehlszeile, das verspricht, sich mit anderen Dev-Tools integrieren zu lassen, Code zu “verstehen” und Workflows zu beschleunigen. Wie Google in seinem Blogbeitrag zu dem Tool darlegt, lässt sich Gemini CLI für diverse Aufgaben einsetzen – beispielsweise, um (im Zusammenspiel mit Veo und Imagen) Cat Content zu produzieren: class=”wp-video”> https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/GenMedia_demo_keyword.mp4 Wir haben das Tool einem ausführlichen Test unterzogen und verraten Ihnen, was es sonst noch kann. Gemini CLI installieren Bevor Sie die Gemini CLI installieren, sollten Sie unbedingt Ihre Node.js-Version überprüfen (node –version). Handelt es sich dabei um eine ältere Version als v20, ist ein Update zwingend erforderlich. Die neueste Version von Node.js können Sie hier direkt herunterladen. Anschließend können Sie Gemini CLI direkt aus dem Repository ausführen: npx https://github.com/google-gemini/gemini-cli Oder Sie installieren das Tool global und führen es aus: npm install -g @google/gemini-cli gemini In unserem Test auf macOS haben beide Methoden problemlos funktioniert. Die npx-Methode verursachte zwar eine merkliche Unterbrechung während der Build heruntergeladen wurde, bei den folgenden Durchläufen ging aber alles in angemessener Geschwindigkeit vonstatten. Weil Gemini CLI zudem aktiv weiterentwickelt wird, empfiehlt es sich auch, das Repository auf Ihrem lokalen Rechner zu klonen und regelmäßig zu aktualisieren. Unter macOS lässt sich das Executable mit dem Befehl [sudo] npm update -g @google/gemini-cli auf den aktuellen Stand bringen. Wenn Sie Gemini CLI erstmals über die Befehlszeile ausführen, müssen Sie zunächst ein Farbschema auswählen (das sich jederzeit mit dem Befehl /theme ändern lässt) und sich authentifizieren. Dazu empfiehlt sich die kostenlose Option, mit der 60 Modellanfragen pro Minute und 1.000 pro Tag möglich sind. Das sollte für den Anfang erst einmal ausreichen. Sollten Sie im weiteren Verlauf bemerken, dass Sie höhere Rate Limits oder zusätzliche Modelle benötigen, ändern Sie die Authentifizierungsmethode mit /auth. Apropos Modelle: Gemini CLI nutzt aktuell standardmäßig gemini-2.5-pro, das über ein Kontextfenster von einer Million Token verfügt und im Allgemeinen gute Ergebnisse liefert. Als Fallback-Lösung greift das Tool auf gemini-2.5-flash zurück, das zwar schneller und kleiner, aber auch weniger leistungsfähig ist. Das verwendete Modell können Sie auf zweierlei Arten festlegen: entweder mit dem Flag -m (wahlweise auch –model), oder indem Sie die Umgebungsvariable GEMINI_MODEL definieren. Das gewählte Modell muss dabei der Gemini-Familie angehören. Gemini CLI – Sandboxing & Checkpointing Sandboxing isoliert potenziell gefährliche Shell-Befehle und andere Prozesse von Ihrem Host-System. Um diese Funktion zu aktivieren, können Sie: Gemini CLI mit dem Flag -s (oder –sandbox) starten, settings.json um “sandbox”: true ergänzen, oder Umgebungsvariablen verwenden. Unter macOS können Sie die native Seatbelt-Sandbox dafür nutzen oder Container verwenden. Das Standardprofil für Seatbelt ist permissive-open, was Write-Beschränkungen mit sich bringt und es erlaubt, das Netzwerk zu nutzen. In der Praxis heißt das, dass Gemini nicht außerhalb des Verzeichnisses schreiben kann, in dem es gestartet wurde. Das schützt beispielsweise davor, dass das System überschrieben, ein anderes Projekt beschädigt oder Dokumente gelöscht werden. Möchten Sie mit Gemini CLI in der Sandbox parallel an mehreren Projekten arbeiten, können Sie dazu mehrere Shell-Sitzungen in separaten Terminal-Tabs oder -Fenstern starten. Auf Linux-Systemen können Sie eine Sandbox auf Container-Basis nutzen, beispielsweise Docker, Podman – oder andere Tools. Checkpointing speichert automatisch einen Snapshot des Projektstatus, bevor Dateien von Gemini oder anderen KI-gestützten Tools geändert werden. So können Sie sicher experimentieren und Änderungen am Code vornehmen, bei Fehlern jedoch zum vorherigen Zustand zurückkehren. Dieses Feature aktivieren Sie, indem Sie beim Start von Gemini CLI das –checkpointing-Flag verwenden oder Ihre settings.json-Datei entsprechend bearbeiten. Mit dem /restore-Befehl können Sie Checkpoints auflisten und auswählen, um sie wiederherzustellen. Gemini CLI – Befehle & Tools Gemini CLI unterstützt aktuell (Juli 2025) 17 Befehle und elf Tools. Tendenziell dürfte diese Anzahl in beiden Fällen mit jedem neuen Release wachsen. Um die jeweils aktuellen Listen einzusehen, nutzen Sie: /help (Befehle, Grundlagen und Shortcuts) und /tools (Tools). Wenn Sie Zugriff auf Inhalte aus einer Datenbank benötigen, können Sie das über einen Model-Context-Protocol (MCP)-Server (dazu gleich mehr) bewerkstelligen. Der Help-Screen von Gemini CLI (v0.1.12)Foundry Gemini CLI – MCP-Server Um MCP Server zu finden und sich mit ihnen zu verbinden, verwendet Gemini CLI die mcpServers-Konfiguration in Ihrer settings.json-Datei. Diese Konfiguration unterstützt mehrere Server mit unterschiedlichen Transportmechanismen. Sie können MCP-Server auf globaler Ebene in der Datei ~/.gemini/settings.json und für einzelne Projekte über deren lokale .gemini/settings.json-Datei konfigurieren. Die Konfiguration sieht in etwa so aus: { …file contains other config objects “mcpServers”: { “serverName”: { “command”: “path/to/server”, “args”: [“–arg1”, “value1”], “env”: { “API_KEY”: “$MY_API_TOKEN” }, “cwd”: “./server-directory”, “timeout”: 30000, “trust”: false } } } Das ist zwar sehr flexibel, erweist sich aber als ein wenig mühsam. Sollte Ihr erster Versuch scheitern, können Sie Gemini CLI auch um Hilfe bitten, um die lokale Datei .gemini/settings.json zu bearbeiten. Wenn Sie MCP-Server für Gemini CLI suchen, funktioniert eine einfache Suche nach “mcp servers” gut. Eine zuverlässigere Lösung bietet allerdings diese Liste auf GitHub. Gemini CLI im Test – Experimente Am Tag vor der Veröffentlichung von Gemini CLI haben wir gcloud installiert, damit Gemini mit Google Cloud funktionieren kann. Leider gab es bei der Installation Probleme. Deshalb haben wir Gemini CLI die Fehlermeldungen von gcloud übermittelt, woraufhin das Tool mitteilte, eine Lösung zu haben. Wie sich herausstellte, war das nicht halluziniert: Die Korrekturen funktionierten einwandfrei. Außerdem haben wir Gemini CLI damit beauftragt, die Cline-Codebasis zu erklären. Erwartungsgemäß war das Tool etwas beschäftigt – bevor es dann lange Antwortzeiten detektierte und einen Wechsel zu gemini-2.5-flash vorschlug. Gesagt, getan – und funktioniert hat es auch. Bei einem erneuten Test mit dem Pro-Modell lief es dann auch dort flüssig. Im nächsten Schritt wechselten wir in unser ~/Code-Verzeichnis und haben Gemini CLI gebeten, einen neuen Ordner zu erstellen, was ebenfalls funktionierte. Anschließend folgte der Prompt: Schreibe eine C++-CLI-App, um Pi zu berechnen und auszugeben. Verwende eine Befehlszeilenvariable, um die Anzahl der Stellen festzulegen. Die Anzahl der Stellen muss mindestens eins sein. Stelle sicher, dass der Wert auf 100 Stellen genau ist. Speichere das Programm im Gemini-Ordner unter dem Namen pi_value. Gemini entschied sich daraufhin, willkürliche Genauigkeitsberechnungen zu vermeiden und einen Spigot-Algorithmus zu implementieren. Als es den generierten Code für 50 Stellen ausführte, war der Output fünfzig Nullen – allerdings behauptete die KI das würde funktionieren. Entsprechend lautete der nächste Prompt: Diese Antwort ist nicht einmal annähernd richtig. Die Rückmeldung von Gemini: Sie haben vollkommen Recht. Ich bitte um Entschuldigung, der von mir verwendete Algorithmus war fehlerhaft und lieferte ein falsches Ergebnis. Ich habe die Implementierung des Spigot-Algorithmus korrigiert, um sicherzustellen, dass er die Ziffern von Pi korrekt berechnet. Anschließend drehte sich Gemini ein wenig im Kreis, gab aber schließlich den Spigot-Algorithmus auf und entschied sich für die Boost C++-Bibliothek. Diese erzeugte Code, der vernünftig aussah – aber wir mussten Boost mit Homebrew installieren und Gemini mitteilen, wo es sich befindet. Zudem musste Gemini seine Kompilierungs-Flags ändern, um C++ 14 zu unterstützen. Der Code funktionierte, aber wir waren uns bewusst, dass es bessere Möglichkeiten gibt, um dieses spezielle Problem zu lösen. Versuch es noch einmal mit mpfr, das bereits installiert ist. Nutze für die Bennenung pi_value_mpfr. Diese Aufgabe hat Gemini auf Anhieb richtig gelöst. Was allerdings keine große Überraschung ist, da MPFR eine integrierte Konstantenfunktion für Pi enthält. Gemini wies außerdem darauf hin, dass die MPFR-Implementierung etwas langsamer ist als Boost. Versuch es noch einmal mit dem bestmöglichen Algorithmus. Benenne das Programm als pi_value. Gemini wählte mit MPFR korrekt den Chudnovsky-Algorithmus, vermasselte dann aber die Implementierung ein paar Mal, bevor es schließlich doch noch klappte. Anschließend ließ ich Gemini die drei Ergebniswerte miteinander und mit dem in der Encyclopedia Britannica angegebenen 39-stelligen Referenzwert vergleichen. Alles in Ordnung. Die letzte, etwas weniger triviale Aufgabe: Wir wechselten in das Verzeichnis, das die aktuelle Kopie des Gemini CLI Repository enthielt und baten das Tool, dieses zunächst zu erklären und anschließend bestehende Probleme aufzulisten. Das klappte anstandslos. Als es jedoch darum ging, eines der Problem auszuwählen und dafür eine Implementierung vorzuschlagen, hatte das Tool zunächst einen Plan, stieß dann bei der Implementierung auf Probleme, erstellte einen überarbeiteten Plan, stieß auch dabei auf Probleme, und geriet schließlich in einen Loop, bei dem es am Ende versuchte, die Klammern in TypeScript auszugleichen. An diesem Punkt haben wir die Aufgabe abgebrochen. Gemini CLI – Testfazit Gemini CLI funktioniert mit dem gemini-2.5-pro-Modell schon ganz gut, kann aber nicht durchgängig begeistern. Um das in Relation zu setzen: Die einzigen besseren Systeme, die wir in diesem Bereich bislang getestet haben, sind Claude Code und Solver. Auf der anderen Seite bietet Gemini CLI in seiner kostenlosen Version schon genug, um ziemlich weit zu kommen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox 

Gemini CLI im Praxistest​ Google preist Gemini CLI als “persönlichen Open-Source-KI-Agent”, der sich direkt in Entwickler-Terminals integrieren lässt.Google

Packages, die macOS und Linux Terminal sowie Windows cmd um intelligente Coding-Funktionen ergänzen, liegen im Trend. Neben zahlreichen Open-Source-Projekten bieten unter anderem auch Anthropic, GitHub, Amazon und OpenAI entsprechende Produkte mit Kommandozeilen-Fokus an. Und seit Ende Juni 2025 auch Google: Gemini CLI ist ein (weitgehend) kostenloses, quelloffenes KI-Tool für die Befehlszeile, das verspricht,

sich mit anderen Dev-Tools integrieren zu lassen,

Code zu “verstehen” und

Workflows zu beschleunigen.

Wie Google in seinem Blogbeitrag zu dem Tool darlegt, lässt sich Gemini CLI für diverse Aufgaben einsetzen – beispielsweise, um (im Zusammenspiel mit Veo und Imagen) Cat Content zu produzieren:

class=”wp-video”>
https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/GenMedia_demo_keyword.mp4

Wir haben das Tool einem ausführlichen Test unterzogen und verraten Ihnen, was es sonst noch kann.

Gemini CLI installieren

Bevor Sie die Gemini CLI installieren, sollten Sie unbedingt Ihre Node.js-Version überprüfen (node –version). Handelt es sich dabei um eine ältere Version als v20, ist ein Update zwingend erforderlich. Die neueste Version von Node.js können Sie hier direkt herunterladen. Anschließend können Sie Gemini CLI direkt aus dem Repository ausführen:

npx https://github.com/google-gemini/gemini-cli

Oder Sie installieren das Tool global und führen es aus:

npm install -g @google/gemini-cli
gemini

In unserem Test auf macOS haben beide Methoden problemlos funktioniert. Die npx-Methode verursachte zwar eine merkliche Unterbrechung während der Build heruntergeladen wurde, bei den folgenden Durchläufen ging aber alles in angemessener Geschwindigkeit vonstatten. Weil Gemini CLI zudem aktiv weiterentwickelt wird, empfiehlt es sich auch, das Repository auf Ihrem lokalen Rechner zu klonen und regelmäßig zu aktualisieren. Unter macOS lässt sich das Executable mit dem Befehl [sudo] npm update -g @google/gemini-cli auf den aktuellen Stand bringen.

Wenn Sie Gemini CLI erstmals über die Befehlszeile ausführen, müssen Sie zunächst ein Farbschema auswählen (das sich jederzeit mit dem Befehl /theme ändern lässt) und sich authentifizieren. Dazu empfiehlt sich die kostenlose Option, mit der 60 Modellanfragen pro Minute und 1.000 pro Tag möglich sind. Das sollte für den Anfang erst einmal ausreichen. Sollten Sie im weiteren Verlauf bemerken, dass Sie höhere Rate Limits oder zusätzliche Modelle benötigen, ändern Sie die Authentifizierungsmethode mit /auth.

Apropos Modelle: Gemini CLI nutzt aktuell standardmäßig gemini-2.5-pro, das über ein Kontextfenster von einer Million Token verfügt und im Allgemeinen gute Ergebnisse liefert. Als Fallback-Lösung greift das Tool auf gemini-2.5-flash zurück, das zwar schneller und kleiner, aber auch weniger leistungsfähig ist. Das verwendete Modell können Sie auf zweierlei Arten festlegen:

entweder mit dem Flag -m (wahlweise auch –model), oder

indem Sie die Umgebungsvariable GEMINI_MODEL definieren.

Das gewählte Modell muss dabei der Gemini-Familie angehören.

Gemini CLI – Sandboxing & Checkpointing

Sandboxing isoliert potenziell gefährliche Shell-Befehle und andere Prozesse von Ihrem Host-System. Um diese Funktion zu aktivieren, können Sie:

Gemini CLI mit dem Flag -s (oder –sandbox) starten,

settings.json um “sandbox”: true ergänzen,

oder Umgebungsvariablen verwenden.

Unter macOS können Sie die native Seatbelt-Sandbox dafür nutzen oder Container verwenden. Das Standardprofil für Seatbelt ist permissive-open, was Write-Beschränkungen mit sich bringt und es erlaubt, das Netzwerk zu nutzen. In der Praxis heißt das, dass Gemini nicht außerhalb des Verzeichnisses schreiben kann, in dem es gestartet wurde. Das schützt beispielsweise davor, dass das System überschrieben, ein anderes Projekt beschädigt oder Dokumente gelöscht werden. Möchten Sie mit Gemini CLI in der Sandbox parallel an mehreren Projekten arbeiten, können Sie dazu mehrere Shell-Sitzungen in separaten Terminal-Tabs oder -Fenstern starten. Auf Linux-Systemen können Sie eine Sandbox auf Container-Basis nutzen, beispielsweise Docker, Podman – oder andere Tools.

Checkpointing speichert automatisch einen Snapshot des Projektstatus, bevor Dateien von Gemini oder anderen KI-gestützten Tools geändert werden. So können Sie sicher experimentieren und Änderungen am Code vornehmen, bei Fehlern jedoch zum vorherigen Zustand zurückkehren. Dieses Feature aktivieren Sie, indem Sie beim Start von Gemini CLI das –checkpointing-Flag verwenden oder Ihre settings.json-Datei entsprechend bearbeiten. Mit dem /restore-Befehl können Sie Checkpoints auflisten und auswählen, um sie wiederherzustellen.

Gemini CLI – Befehle & Tools

Gemini CLI unterstützt aktuell (Juli 2025) 17 Befehle und elf Tools. Tendenziell dürfte diese Anzahl in beiden Fällen mit jedem neuen Release wachsen. Um die jeweils aktuellen Listen einzusehen, nutzen Sie:

/help (Befehle, Grundlagen und Shortcuts) und

/tools (Tools).

Wenn Sie Zugriff auf Inhalte aus einer Datenbank benötigen, können Sie das über einen Model-Context-Protocol (MCP)-Server (dazu gleich mehr) bewerkstelligen.

Der Help-Screen von Gemini CLI (v0.1.12)Foundry

Gemini CLI – MCP-Server

Um MCP Server zu finden und sich mit ihnen zu verbinden, verwendet Gemini CLI die mcpServers-Konfiguration in Ihrer settings.json-Datei. Diese Konfiguration unterstützt mehrere Server mit unterschiedlichen Transportmechanismen. Sie können MCP-Server auf globaler Ebene in der Datei ~/.gemini/settings.json und für einzelne Projekte über deren lokale .gemini/settings.json-Datei konfigurieren.

Die Konfiguration sieht in etwa so aus:

{ …file contains other config objects
“mcpServers”: {
“serverName”: {
“command”: “path/to/server”,
“args”: [“–arg1”, “value1”],
“env”: {
“API_KEY”: “$MY_API_TOKEN”
},
“cwd”: “./server-directory”,
“timeout”: 30000,
“trust”: false
}
}
}

Das ist zwar sehr flexibel, erweist sich aber als ein wenig mühsam. Sollte Ihr erster Versuch scheitern, können Sie Gemini CLI auch um Hilfe bitten, um die lokale Datei .gemini/settings.json zu bearbeiten.

Wenn Sie MCP-Server für Gemini CLI suchen, funktioniert eine einfache Suche nach “mcp servers” gut. Eine zuverlässigere Lösung bietet allerdings diese Liste auf GitHub.

Gemini CLI im Test – Experimente

Am Tag vor der Veröffentlichung von Gemini CLI haben wir gcloud installiert, damit Gemini mit Google Cloud funktionieren kann. Leider gab es bei der Installation Probleme. Deshalb haben wir Gemini CLI die Fehlermeldungen von gcloud übermittelt, woraufhin das Tool mitteilte, eine Lösung zu haben. Wie sich herausstellte, war das nicht halluziniert: Die Korrekturen funktionierten einwandfrei. Außerdem haben wir Gemini CLI damit beauftragt, die Cline-Codebasis zu erklären. Erwartungsgemäß war das Tool etwas beschäftigt – bevor es dann lange Antwortzeiten detektierte und einen Wechsel zu gemini-2.5-flash vorschlug. Gesagt, getan – und funktioniert hat es auch. Bei einem erneuten Test mit dem Pro-Modell lief es dann auch dort flüssig.

Im nächsten Schritt wechselten wir in unser ~/Code-Verzeichnis und haben Gemini CLI gebeten, einen neuen Ordner zu erstellen, was ebenfalls funktionierte. Anschließend folgte der Prompt:

Schreibe eine C++-CLI-App, um Pi zu berechnen und auszugeben. Verwende eine Befehlszeilenvariable, um die Anzahl der Stellen festzulegen. Die Anzahl der Stellen muss mindestens eins sein. Stelle sicher, dass der Wert auf 100 Stellen genau ist. Speichere das Programm im Gemini-Ordner unter dem Namen pi_value.

Gemini entschied sich daraufhin, willkürliche Genauigkeitsberechnungen zu vermeiden und einen Spigot-Algorithmus zu implementieren. Als es den generierten Code für 50 Stellen ausführte, war der Output fünfzig Nullen – allerdings behauptete die KI das würde funktionieren. Entsprechend lautete der nächste Prompt:

Diese Antwort ist nicht einmal annähernd richtig.

Die Rückmeldung von Gemini:

Sie haben vollkommen Recht. Ich bitte um Entschuldigung, der von mir verwendete Algorithmus war fehlerhaft und lieferte ein falsches Ergebnis. Ich habe die Implementierung des Spigot-Algorithmus korrigiert, um sicherzustellen, dass er die Ziffern von Pi korrekt berechnet.

Anschließend drehte sich Gemini ein wenig im Kreis, gab aber schließlich den Spigot-Algorithmus auf und entschied sich für die Boost C++-Bibliothek. Diese erzeugte Code, der vernünftig aussah – aber wir mussten Boost mit Homebrew installieren und Gemini mitteilen, wo es sich befindet. Zudem musste Gemini seine Kompilierungs-Flags ändern, um C++ 14 zu unterstützen. Der Code funktionierte, aber wir waren uns bewusst, dass es bessere Möglichkeiten gibt, um dieses spezielle Problem zu lösen.

Versuch es noch einmal mit mpfr, das bereits installiert ist. Nutze für die Bennenung pi_value_mpfr.

Diese Aufgabe hat Gemini auf Anhieb richtig gelöst. Was allerdings keine große Überraschung ist, da MPFR eine integrierte Konstantenfunktion für Pi enthält. Gemini wies außerdem darauf hin, dass die MPFR-Implementierung etwas langsamer ist als Boost.

Versuch es noch einmal mit dem bestmöglichen Algorithmus. Benenne das Programm als pi_value.

Gemini wählte mit MPFR korrekt den Chudnovsky-Algorithmus, vermasselte dann aber die Implementierung ein paar Mal, bevor es schließlich doch noch klappte. Anschließend ließ ich Gemini die drei Ergebniswerte miteinander und mit dem in der Encyclopedia Britannica angegebenen 39-stelligen Referenzwert vergleichen. Alles in Ordnung.

Die letzte, etwas weniger triviale Aufgabe: Wir wechselten in das Verzeichnis, das die aktuelle Kopie des Gemini CLI Repository enthielt und baten das Tool, dieses zunächst zu erklären und anschließend bestehende Probleme aufzulisten. Das klappte anstandslos. Als es jedoch darum ging, eines der Problem auszuwählen und dafür eine Implementierung vorzuschlagen,

hatte das Tool zunächst einen Plan,

stieß dann bei der Implementierung auf Probleme,

erstellte einen überarbeiteten Plan,

stieß auch dabei auf Probleme, und

geriet schließlich in einen Loop, bei dem es am Ende versuchte, die Klammern in TypeScript auszugleichen.

An diesem Punkt haben wir die Aufgabe abgebrochen.

Gemini CLI – Testfazit

Gemini CLI funktioniert mit dem gemini-2.5-pro-Modell schon ganz gut, kann aber nicht durchgängig begeistern. Um das in Relation zu setzen: Die einzigen besseren Systeme, die wir in diesem Bereich bislang getestet haben, sind Claude Code und Solver. Auf der anderen Seite bietet Gemini CLI in seiner kostenlosen Version schon genug, um ziemlich weit zu kommen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox

Gemini CLI im Praxistest​ Weiterlesen »

KI im Unternehmen: Vom Hype zur Realität​

Allgemein

Foundry Der KI-Einsatz in Unternehmen ist erfolgreich – und zugleich auch wieder nicht. Denn einige Organisationen stecken noch zwischen Pilotprojekten und produktiven Anwendungen regelrecht fest. Andere wiederum können sich schon an absolut erfolgreichen Anwendungsfällen erfreuen. Aber wo genau steckt hier der Teufel im Detail? Der Podcast mit Florian Beiter und Sven Hansel klärt auf. Grundlage des Talks ist eine gemeinsame Studie von HP und FOUNDRY. Diese kommt etwa zu dem Ergebnis, dass viele Entscheider beim KI-Einsatz zeitnah Fortschritte erwarten, sie rechnen sozusagen mit dem „Summer of AI“. Aber um diesen KI-Sommer genießen zu können, braucht es eben notwendige Verbesserungen in der IT-Infrastruktur, mehr Zugang zu besseren Tools, KI-Roadmaps und auch Fachkompetenz. Welche Optimierungen das konkret sind, darüber bringt Talkgast Florian Beiter Licht ins Dunkel. Er weiß, wie Unternehmen interne Bedenken abbauen und im Umkehrschluss Kompetenzen aufbauen können. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6rzcOn0fPKcVJ2nhBSxpOI?si=25ed3bacdce647e7&utm_source=oembed”> 

KI im Unternehmen: Vom Hype zur Realität​ Foundry

Der KI-Einsatz in Unternehmen ist erfolgreich – und zugleich auch wieder nicht. Denn einige Organisationen stecken noch zwischen Pilotprojekten und produktiven Anwendungen regelrecht fest. Andere wiederum können sich schon an absolut erfolgreichen Anwendungsfällen erfreuen. Aber wo genau steckt hier der Teufel im Detail? Der Podcast mit Florian Beiter und Sven Hansel klärt auf.

Grundlage des Talks ist eine gemeinsame Studie von HP und FOUNDRY. Diese kommt etwa zu dem Ergebnis, dass viele Entscheider beim KI-Einsatz zeitnah Fortschritte erwarten, sie rechnen sozusagen mit dem „Summer of AI“. Aber um diesen KI-Sommer genießen zu können, braucht es eben notwendige Verbesserungen in der IT-Infrastruktur, mehr Zugang zu besseren Tools, KI-Roadmaps und auch Fachkompetenz.

Welche Optimierungen das konkret sind, darüber bringt Talkgast Florian Beiter Licht ins Dunkel. Er weiß, wie Unternehmen interne Bedenken abbauen und im Umkehrschluss Kompetenzen aufbauen können.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6rzcOn0fPKcVJ2nhBSxpOI?si=25ed3bacdce647e7&utm_source=oembed”>

KI im Unternehmen: Vom Hype zur Realität​ Weiterlesen »

Hybrid Cloud in Deutschland auf dem Vormarsch​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Früher sehr beliebt, suchen deutsche Unternehmen nun verstärkt Alternativen zur Public Cloud.JLStock – Shutterstock Aufgrund von Vorschriften, Datenschutzbedenken und dem Wunsch nach mehr Kontrolle über IT-Ressourcen wechseln deutschen Unternehmen zunehmend von Public-Cloud-Diensten auf private und hybride Cloud-Lösungen. Diese Umgebungen böten die Flexibilität, Skalierbarkeit und Agilität, die Unternehmen benötigen, heißt es im neuen Research-Bericht der Information Services Group (ISG). Gleichzeitig ermöglichten sie es ihnen, die Kosten zu kontrollieren und die Hoheit über ihre Daten zu gewährleisten. Chief Technology Officers (CTOs) stünden vor immer größeren Herausforderungen, wenn es darum geht, Ausgaben zu rechtfertigen und die Komplexität hybrider Modelle zu bewältigen, schreiben die Autoren der Studie „2025 ISG Provider Lens Private/Hybrid Cloud – Data Center Services” für Deutschland ($). „Unternehmen in Deutschland überprüfen ihre bestehenden IT-Infrastrukturen”, erklärt Matthias Paletta, Director und Technology Modernization Lead bei ISG in Europa. Viele kämen dabei zu dem Schluss, dass sie von der Implementierung von Hybrid Cloud Computing in Verbindung mit Automatisierung und Outsourcing profitieren könnten. Infrastruktur auf dem Prüfstand Laut dem Bericht überdenken deutsche Unternehmen in diesem Zusammenhang derzeit auch ihre Rechenzentrumsstrategien: Viele reduzieren die physische Fläche ihrer eigenen Einrichtungen und setzen verstärkt auf Colocation-Services. Das Ziel dabei sei es, Kosten zu senken, bessere Skalierbarkeit zu erreichen und durch externe Expertise sowie Infrastruktur die betriebliche Effizienz zu steigern. Zugleich beschäftigten sich Unternehmen in Deutschland zunehmend mit dem Potenzial von generativer KI, um Geschäftsprozesse zu transformieren und Innovationen voranzutreiben, so ISG. Viele prüfen dabei sorgfältig Kosten und Nutzen von GenAI, um überzogene Erwartungen von realistischen Geschäftsergebnissen zu unterscheiden. Mit wachsendem Interesse an GenAI würden die Firmen dann gezielte Investitionen in Infrastruktur und Werkzeuge tätigen, die prädiktive Analysen, umsetzbare Erkenntnisse und intelligente Automatisierung ermöglichen sollen. Auf diese Weise, so die Analysten, wollten sie neue Einnahmequellen erschließen und die transformative Kraft der KI effektiv nutzen. Die Verbreitung von IoT-Devices und der Bedarf an Anwendungen mit geringer Latenz fördere wiederum den Trend zu Rechenzentrumslösungen, die Edge Computing unterstützen, heißt es in der Studie. Um eine schnellere Datenverarbeitung und Echtzeit-Einblicke für kritische Sektoren wie Fertigung, Gesundheitswesen und Smart Cities zu ermöglichen, würden viele Unternehmen dabei mit Colocation- und Rechenzentrumsanbietern zusammenarbeiten, die Edge-Einrichtungen in der Nähe der Endnutzer positionieren können. Der Wechsel von der Public Cloud zu privaten und hybriden Cloud-Lösungen ist allerdings nicht trivial. „Neue Cloud-Modelle und KI-gestützte Tools bieten zwar klare Vorteile, bringen aber auch komplexe Integrations- und Compliance-Risiken mit sich“, erklärt Wolfgang Heinhaus, Senior Analyst bei ISG Provider Lens Research und Hauptautor des Berichts. Dienstleister ermöglichten deutschen Unternehmen, eine standardisierte Infrastruktur zu implementieren, die den Anforderungen von KI und neuen Technologien gerecht werde. Diese Anbieter empfiehlt ISG Um Unternehmen dabei zu unterstützen, geeignete Partner für eine Private- oder Hybrid-Cloud-Migration zu finden, bewertet ISG in seinem Bericht die Leistungen von 101 Anbietern in sieben Marktsegmenten: Managed Services – Großkunden Managed Services – Mittelstand Managed Hosting – Großkunden Managed Hosting – Mittelstand Colocation Services – Großkunden Colocation Services – Mittelstand AI-Ready Infrastructure Consulting Als Leader in drei Segmenten wurden dabei Arvato Systems, Deutsche Telekom (T Business), Kyndryl und q.beyond ausgezeichnet. Accenture, Atos, Axians, CANCOM, Capgemini, Claranet, DATAGROUP, HCLTech, Infosys, NTT DATA, plusserver, Rackspace Technology, Syntax und T-Systems bewertete ISG jeweils in zwei Segmenten als Leader. Jeweils in einem Segment als Leader gelistet sind: All for One Group, AtlasEdge, akquinet, Cognizant, CyrusOne, Digital Realty, Equinix, IONOS, ITENOS, KAMP, maincubes, Materna, noris network, PFALZKOM, STACKIT, TCS, Telehouse, TelemaxX, WIIT und Wipro. Um welche Segmente es sich jeweils handelt, verrät ISG wie üblich nicht. 

Hybrid Cloud in Deutschland auf dem Vormarsch​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2331332763_16_9_e1d7f7.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Früher sehr beliebt, suchen deutsche Unternehmen nun verstärkt Alternativen zur Public Cloud.JLStock – Shutterstock

Aufgrund von Vorschriften, Datenschutzbedenken und dem Wunsch nach mehr Kontrolle über IT-Ressourcen wechseln deutschen Unternehmen zunehmend von Public-Cloud-Diensten auf private und hybride Cloud-Lösungen. Diese Umgebungen böten die Flexibilität, Skalierbarkeit und Agilität, die Unternehmen benötigen, heißt es im neuen Research-Bericht der Information Services Group (ISG). Gleichzeitig ermöglichten sie es ihnen, die Kosten zu kontrollieren und die Hoheit über ihre Daten zu gewährleisten.

Chief Technology Officers (CTOs) stünden vor immer größeren Herausforderungen, wenn es darum geht, Ausgaben zu rechtfertigen und die Komplexität hybrider Modelle zu bewältigen, schreiben die Autoren der Studie „2025 ISG Provider Lens Private/Hybrid Cloud – Data Center Services” für Deutschland ($). „Unternehmen in Deutschland überprüfen ihre bestehenden IT-Infrastrukturen”, erklärt Matthias Paletta, Director und Technology Modernization Lead bei ISG in Europa. Viele kämen dabei zu dem Schluss, dass sie von der Implementierung von Hybrid Cloud Computing in Verbindung mit Automatisierung und Outsourcing profitieren könnten.

Infrastruktur auf dem Prüfstand

Laut dem Bericht überdenken deutsche Unternehmen in diesem Zusammenhang derzeit auch ihre Rechenzentrumsstrategien: Viele reduzieren die physische Fläche ihrer eigenen Einrichtungen und setzen verstärkt auf Colocation-Services. Das Ziel dabei sei es, Kosten zu senken, bessere Skalierbarkeit zu erreichen und durch externe Expertise sowie Infrastruktur die betriebliche Effizienz zu steigern.

Zugleich beschäftigten sich Unternehmen in Deutschland zunehmend mit dem Potenzial von generativer KI, um Geschäftsprozesse zu transformieren und Innovationen voranzutreiben, so ISG. Viele prüfen dabei sorgfältig Kosten und Nutzen von GenAI, um überzogene Erwartungen von realistischen Geschäftsergebnissen zu unterscheiden.

Mit wachsendem Interesse an GenAI würden die Firmen dann gezielte Investitionen in Infrastruktur und Werkzeuge tätigen, die prädiktive Analysen, umsetzbare Erkenntnisse und intelligente Automatisierung ermöglichen sollen. Auf diese Weise, so die Analysten, wollten sie neue Einnahmequellen erschließen und die transformative Kraft der KI effektiv nutzen.

Die Verbreitung von IoT-Devices und der Bedarf an Anwendungen mit geringer Latenz fördere wiederum den Trend zu Rechenzentrumslösungen, die Edge Computing unterstützen, heißt es in der Studie. Um eine schnellere Datenverarbeitung und Echtzeit-Einblicke für kritische Sektoren wie Fertigung, Gesundheitswesen und Smart Cities zu ermöglichen, würden viele Unternehmen dabei mit Colocation- und Rechenzentrumsanbietern zusammenarbeiten, die Edge-Einrichtungen in der Nähe der Endnutzer positionieren können.

Der Wechsel von der Public Cloud zu privaten und hybriden Cloud-Lösungen ist allerdings nicht trivial. „Neue Cloud-Modelle und KI-gestützte Tools bieten zwar klare Vorteile, bringen aber auch komplexe Integrations- und Compliance-Risiken mit sich“, erklärt Wolfgang Heinhaus, Senior Analyst bei ISG Provider Lens Research und Hauptautor des Berichts. Dienstleister ermöglichten deutschen Unternehmen, eine standardisierte Infrastruktur zu implementieren, die den Anforderungen von KI und neuen Technologien gerecht werde.

Diese Anbieter empfiehlt ISG

Um Unternehmen dabei zu unterstützen, geeignete Partner für eine Private- oder Hybrid-Cloud-Migration zu finden, bewertet ISG in seinem Bericht die Leistungen von 101 Anbietern in sieben Marktsegmenten:

Managed Services – Großkunden

Managed Services – Mittelstand

Managed Hosting – Großkunden

Managed Hosting – Mittelstand

Colocation Services – Großkunden

Colocation Services – Mittelstand

AI-Ready Infrastructure Consulting

Als Leader in drei Segmenten wurden dabei Arvato Systems, Deutsche Telekom (T Business), Kyndryl und q.beyond ausgezeichnet.

Accenture, Atos, Axians, CANCOM, Capgemini, Claranet, DATAGROUP, HCLTech, Infosys, NTT DATA, plusserver, Rackspace Technology, Syntax und T-Systems bewertete ISG jeweils in zwei Segmenten als Leader.

Jeweils in einem Segment als Leader gelistet sind: All for One Group, AtlasEdge, akquinet, Cognizant, CyrusOne, Digital Realty, Equinix, IONOS, ITENOS, KAMP, maincubes, Materna, noris network, PFALZKOM, STACKIT, TCS, Telehouse, TelemaxX, WIIT und Wipro.

Um welche Segmente es sich jeweils handelt, verrät ISG wie üblich nicht.

Hybrid Cloud in Deutschland auf dem Vormarsch​ Weiterlesen »

Podcast: Wege in die Souveränität – mit René Büst, Gartner​

Allgemein

René Büst, Senior Research Director bei Gartner. Gartner Das Thema digitale Souveränität brennt Unternehmen und Organisationen derzeit unter den Nägeln. Das zeigt etwa das Beispiel Schleswig-Holstein. Das Bundesland trennt sich von US-amerikanischen Cloud- und Softwareanbietern, um digital souverän zu werden. Doch was bedeutet der Begriff wirklich? Und wie können Unternehmen durch das komplexe Geflecht aus Kontrolle, technologischem Fortschritt und Budget navigieren? Die neue Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online, widmet sich dieser Thematik. Unser Gast René Büst, Senior Research Director bei Gartner, spricht dabei die entscheidenden Fragen an. Gartner-Experte im Podcast Der Experte für Cloud-Architekturen sowie digitale und technologische Souveränität beleuchtet die drei Facetten der digitalen Souveränität – Daten-, Betriebs- und technologische Souveränität. Ferner erklärt er, warum eine fundierte Risikoanalyse und nicht Emotionen die Entscheidungen eines Unternehmens leiten sollten. Und in Sachen Kosten wartet der Podcast mit überraschenden Erkenntnissen auf.  Während bestimmte „souveräne“ Angebote der Hyperscaler teurer werden können (bis zu 20 Prozent), zeigt Büst auf, dass der Weg zu lokalen oder regionalen Anbietern in vielen Fällen sogar günstiger sein kann. Muss dafür die Innovationsfähigkeit leiden? Oder gibt es einen Mittelweg, der beides vereint? Zwischen Kontrolle und Innovation Unser Gast erörtert zudem das Spannungsfeld zwischen Kontrolle und Innovation und beleuchtet, welche Rolle Open-Source-Technologien in dieser Debatte spielen. Erfahren Sie, warum Open Source eine Renaissance erlebt. Und was geschieht, wenn Unternehmen das Thema Souveränität vernachlässigen? Büst warnt vor Risiken bis hin zum „digitalen Blackout“. Tauchen Sie ein in eine Diskussion, die weit über technische Details hinausgeht und wertvolle Denkanstöße für die IT-Strategie liefert. Hören Sie jetzt rein und finden Sie heraus, wie Sie die richtige Balance für Ihr Unternehmen finden! Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1kP1wMQZ4Nq0gmGAW5iugc?utm_source=oembed”> 

Podcast: Wege in die Souveränität – mit René Büst, Gartner​ René Büst, Senior Research Director bei Gartner.
Gartner

Das Thema digitale Souveränität brennt Unternehmen und Organisationen derzeit unter den Nägeln. Das zeigt etwa das Beispiel Schleswig-Holstein. Das Bundesland trennt sich von US-amerikanischen Cloud- und Softwareanbietern, um digital souverän zu werden.

Doch was bedeutet der Begriff wirklich? Und wie können Unternehmen durch das komplexe Geflecht aus Kontrolle, technologischem Fortschritt und Budget navigieren? Die neue Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online, widmet sich dieser Thematik. Unser Gast René Büst, Senior Research Director bei Gartner, spricht dabei die entscheidenden Fragen an.

Gartner-Experte im Podcast

Der Experte für Cloud-Architekturen sowie digitale und technologische Souveränität beleuchtet die drei Facetten der digitalen Souveränität – Daten-, Betriebs- und technologische Souveränität. Ferner erklärt er, warum eine fundierte Risikoanalyse und nicht Emotionen die Entscheidungen eines Unternehmens leiten sollten.

Und in Sachen Kosten wartet der Podcast mit überraschenden Erkenntnissen auf.  Während bestimmte „souveräne“ Angebote der Hyperscaler teurer werden können (bis zu 20 Prozent), zeigt Büst auf, dass der Weg zu lokalen oder regionalen Anbietern in vielen Fällen sogar günstiger sein kann. Muss dafür die Innovationsfähigkeit leiden? Oder gibt es einen Mittelweg, der beides vereint?

Zwischen Kontrolle und Innovation

Unser Gast erörtert zudem das Spannungsfeld zwischen Kontrolle und Innovation und beleuchtet, welche Rolle Open-Source-Technologien in dieser Debatte spielen. Erfahren Sie, warum Open Source eine Renaissance erlebt.

Und was geschieht, wenn Unternehmen das Thema Souveränität vernachlässigen? Büst warnt vor Risiken bis hin zum „digitalen Blackout“. Tauchen Sie ein in eine Diskussion, die weit über technische Details hinausgeht und wertvolle Denkanstöße für die IT-Strategie liefert.

Hören Sie jetzt rein und finden Sie heraus, wie Sie die richtige Balance für Ihr Unternehmen finden! Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1kP1wMQZ4Nq0gmGAW5iugc?utm_source=oembed”>

Podcast: Wege in die Souveränität – mit René Büst, Gartner​ Weiterlesen »

Nach oben scrollen
×