Computerhaus Quickborn

Juli 2025

Intel-Chef will fast 22.000 Stellen streichen​

Allgemein

Intel-Chef Lip-Bu Tan setzt die Restrukturierung des Chipherstellers konsequent fort. jejim – Shutterstock Der Halbleiterriese mit Sitz in Santa Clara, Kalifornien, wird laut seinem Quartalsbericht für das zweite Quartal seine Belegschaft um 21.400 Stellen reduzieren. Bei einer Mitarbeiterzahl von derzeit 96.400 sind das 22 Prozent – auch wenn CEO Lip-Bu Tan in seinem Brief an die Mitarbeiter von „etwa 15 Prozent” spricht. Die Odysee geht weiter Die Kürzungen sind der Höhepunkt einer Umstrukturierung, die begann, als Tan im März die Leitung übernahm und die interimistischen Co-CEOs nach dem plötzlichen Rücktritt von Pat Gelsinger im Dezember ablöste. In einem Brief an die Mitarbeiter nach der Bekanntgabe der Ergebnisse kündigte Tan eine grundlegende Änderung der Unternehmensphilosophie von Intel an. „Es gibt keine Blankoschecks mehr”, schrieb er. „Jede Investition muss wirtschaftlich sinnvoll sein. Wir werden das bauen, was unsere Kunden brauchen, wann sie es brauchen, und ihr Vertrauen durch konsequente Umsetzung gewinnen.” Der Personalabbau erfolgt vor dem Hintergrund gemischter Ergebnisse für das zweite Quartal. Zwar lagen die Umsätze mit 12,9 Milliarden Dollar auf dem Niveau des Vorjahres. Unter dem Strich verbuchte das Unternehmen jedoch einen Nettoverlust von 2,9 Milliarden Dollar – fast doppelt so viel wie im gleichen Zeitraum des Vorjahres. Darin enthalten: Restrukturierungskosten in Höhe von 1,9 Milliarden Dollar. „Chirurgischer” Ansatz zielt auf Management-Ebenen ab Die jüngsten Stellenstreichungen bei Intel folgen auf eine laut Unternehmensangaben strategische Umstrukturierung. „Wir haben im zweiten Quartal einen Großteil unseres Personalabbaus abgeschlossen und dabei die Anzahl der Management-Ebenen um etwa 50 Prozent reduziert”, erklärte Tan gegenüber den Mitarbeitern. „Wir treffen schwierige, aber notwendige Entscheidungen, um die Organisation zu straffen, die Effizienz zu steigern und die Verantwortlichkeit auf allen Ebenen des Unternehmens zu erhöhen“, schrieb der CEO und fügte hinzu, dass die Veränderungen „darauf abzielen, die Effektivität der Organisation zu steigern und unsere Kultur zu verändern“. Foundry-Strategie wird grundlegend überarbeitet Tans Führungsstil markiert einen deutlichen Bruch mit den ambitionierten Foundry-Expansionsplänen seines Vorgängers. In seinem Schreiben skizzierte er einen „grundlegend anderen Ansatz“ für den Aufbau des Foundry-Geschäfts von Intel und kritisierte frühere Investitionen als überzogen und verfrüht. „In den vergangenen Jahren hat das Unternehmen zu viel und zu früh investiert – ohne ausreichende Nachfrage. Dadurch wurde unser Fabrikfläche unnötig zersplittert und blieb unterausgelastet“, schrieb Tan. „Wir müssen unseren Kurs korrigieren.“ Der strategische Kurswechsel bringt konkrete Veränderungen für die weltweiten Produktionsstandorte von Intel mit sich. Das Unternehmen hat sich dazu entschieden, „geplante Projekte in Deutschland und Polen nicht weiterzuverfolgen“ und wird seine Montage- und Testaktivitäten in Costa Rica an größere Standorte in Vietnam und Malaysia konsolidieren. Für die US-Standorte kündigte Intel an, den Bau in Ohio weiter zu verlangsamen, um die Ausgaben an die Nachfrage anzupassen – wobei Flexibilität gewahrt bleiben soll, um bei neuen Kundenaufträgen wieder zu beschleunigen. Technologieentwicklung rückt stärker in den Fokus Tan skizzierte auch einen disziplinierteren Ansatz für die Technologieentwicklung: „Aufgabe Nummer eins ist der Hochlauf von Intel 18A in großem Maßstab“, sowohl für Intels eigene Produkte als auch für ausgewählte Kunden wie die US-Regierung. Mit Blick auf die Zukunft entwickelt Intel Intel 14A als Foundry-Knoten speziell für externe Kunden – allerdings mit einer wichtigen Einschränkung. „Künftige Investitionen in Intel 14A werden nur auf Basis bestätigter Kundenaufträge erfolgen“, schrieb Tan und unterstrich damit seine „Keine Blankoschecks“-Philosophie. Der CEO führte zudem neue Kontrollmechanismen ein: „Jedes bedeutende Chipdesign wird vor dem Tape-Out von mir persönlich geprüft und genehmigt. Diese Disziplin soll unsere Umsetzung verbessern und die Entwicklungskosten senken.“ Verfeinerung der KI-Strategie Neben Veränderungen in der Fertigung kündigte Tan auch Pläne zur Belebung des klassischen x86-Prozessorgeschäfts sowie eine Neuausrichtung der KI-Strategie an. Im Bereich Client Computing erklärte Tan: „Panther Lake ist unsere oberste Priorität, da es unsere Stärke im Notebook-Segment – sowohl im Consumer- als auch im Enterprise-Bereich – festigen wird.“ Gleichzeitig arbeitet das Unternehmen an Nova Lake für den High-End-Desktopmarkt. Im Rechenzentrumsbereich macht Intel eine bemerkenswerte technische Kehrtwende, indem es Simultaneous Multi-Threading (SMT) wiedereinführt: „Der Verzicht auf SMT hat uns im Wettbewerb benachteiligt“, erklärte Tan. „Die Wiedereinführung wird uns helfen, Performance-Lücken zu schließen.“ Im Bereich Künstliche Intelligenz kündigte der Intel-Chef eine strategische Neuausrichtung weg von traditionellen Ansätzen an: „Wir konzentrieren uns künftig auf Bereiche, in denen wir wirklich etwas verändern und uns differenzieren können – wie Inferenz und Agentic AI.“ Intel plant weiterhin, im September eine Rückkehrpflicht ins Büro einzuführen, wobei „die Standorte die notwendigen Verbesserungen vornehmen, um wieder voll ausgelastet zu sein“. Tan bezeichnete die Umstrukturierung als unerlässlich für den kulturellen Wandel bei Intel. „Wir werden ein schnelleres, agileres und dynamischeres Unternehmen werden. Wir werden Bürokratie abbauen und Ingenieure in die Lage versetzen, Innovationen schneller und fokussierter voranzutreiben“. In seinem Schlusswort betonte der CEO die Dringlichkeit: „Die Zukunft von Intel liegt in unserer Hand – aber wir dürfen keine Zeit verlieren. Wir müssen in allem, was wir tun, mit Entschlossenheit, Disziplin und Fokus handeln.“ (mb) 

Intel-Chef will fast 22.000 Stellen streichen​ Intel-Chef Lip-Bu Tan setzt die Restrukturierung des Chipherstellers konsequent fort. jejim – Shutterstock

Der Halbleiterriese mit Sitz in Santa Clara, Kalifornien, wird laut seinem Quartalsbericht für das zweite Quartal seine Belegschaft um 21.400 Stellen reduzieren. Bei einer Mitarbeiterzahl von derzeit 96.400 sind das 22 Prozent – auch wenn CEO Lip-Bu Tan in seinem Brief an die Mitarbeiter von „etwa 15 Prozent” spricht.

Die Odysee geht weiter

Die Kürzungen sind der Höhepunkt einer Umstrukturierung, die begann, als Tan im März die Leitung übernahm und die interimistischen Co-CEOs nach dem plötzlichen Rücktritt von Pat Gelsinger im Dezember ablöste.

In einem Brief an die Mitarbeiter nach der Bekanntgabe der Ergebnisse kündigte Tan eine grundlegende Änderung der Unternehmensphilosophie von Intel an. „Es gibt keine Blankoschecks mehr”, schrieb er. „Jede Investition muss wirtschaftlich sinnvoll sein. Wir werden das bauen, was unsere Kunden brauchen, wann sie es brauchen, und ihr Vertrauen durch konsequente Umsetzung gewinnen.”

Der Personalabbau erfolgt vor dem Hintergrund gemischter Ergebnisse für das zweite Quartal. Zwar lagen die Umsätze mit 12,9 Milliarden Dollar auf dem Niveau des Vorjahres. Unter dem Strich verbuchte das Unternehmen jedoch einen Nettoverlust von 2,9 Milliarden Dollar – fast doppelt so viel wie im gleichen Zeitraum des Vorjahres. Darin enthalten: Restrukturierungskosten in Höhe von 1,9 Milliarden Dollar.

„Chirurgischer” Ansatz zielt auf Management-Ebenen ab

Die jüngsten Stellenstreichungen bei Intel folgen auf eine laut Unternehmensangaben strategische Umstrukturierung. „Wir haben im zweiten Quartal einen Großteil unseres Personalabbaus abgeschlossen und dabei die Anzahl der Management-Ebenen um etwa 50 Prozent reduziert”, erklärte Tan gegenüber den Mitarbeitern.

„Wir treffen schwierige, aber notwendige Entscheidungen, um die Organisation zu straffen, die Effizienz zu steigern und die Verantwortlichkeit auf allen Ebenen des Unternehmens zu erhöhen“, schrieb der CEO und fügte hinzu, dass die Veränderungen „darauf abzielen, die Effektivität der Organisation zu steigern und unsere Kultur zu verändern“.

Foundry-Strategie wird grundlegend überarbeitet

Tans Führungsstil markiert einen deutlichen Bruch mit den ambitionierten Foundry-Expansionsplänen seines Vorgängers. In seinem Schreiben skizzierte er einen „grundlegend anderen Ansatz“ für den Aufbau des Foundry-Geschäfts von Intel und kritisierte frühere Investitionen als überzogen und verfrüht.

„In den vergangenen Jahren hat das Unternehmen zu viel und zu früh investiert – ohne ausreichende Nachfrage. Dadurch wurde unser Fabrikfläche unnötig zersplittert und blieb unterausgelastet“, schrieb Tan. „Wir müssen unseren Kurs korrigieren.“

Der strategische Kurswechsel bringt konkrete Veränderungen für die weltweiten Produktionsstandorte von Intel mit sich. Das Unternehmen hat sich dazu entschieden, „geplante Projekte in Deutschland und Polen nicht weiterzuverfolgen“ und wird seine Montage- und Testaktivitäten in Costa Rica an größere Standorte in Vietnam und Malaysia konsolidieren.

Für die US-Standorte kündigte Intel an, den Bau in Ohio weiter zu verlangsamen, um die Ausgaben an die Nachfrage anzupassen – wobei Flexibilität gewahrt bleiben soll, um bei neuen Kundenaufträgen wieder zu beschleunigen.

Technologieentwicklung rückt stärker in den Fokus

Tan skizzierte auch einen disziplinierteren Ansatz für die Technologieentwicklung: „Aufgabe Nummer eins ist der Hochlauf von Intel 18A in großem Maßstab“, sowohl für Intels eigene Produkte als auch für ausgewählte Kunden wie die US-Regierung.

Mit Blick auf die Zukunft entwickelt Intel Intel 14A als Foundry-Knoten speziell für externe Kunden – allerdings mit einer wichtigen Einschränkung. „Künftige Investitionen in Intel 14A werden nur auf Basis bestätigter Kundenaufträge erfolgen“, schrieb Tan und unterstrich damit seine „Keine Blankoschecks“-Philosophie.

Der CEO führte zudem neue Kontrollmechanismen ein: „Jedes bedeutende Chipdesign wird vor dem Tape-Out von mir persönlich geprüft und genehmigt. Diese Disziplin soll unsere Umsetzung verbessern und die Entwicklungskosten senken.“

Verfeinerung der KI-Strategie

Neben Veränderungen in der Fertigung kündigte Tan auch Pläne zur Belebung des klassischen x86-Prozessorgeschäfts sowie eine Neuausrichtung der KI-Strategie an.

Im Bereich Client Computing erklärte Tan: „Panther Lake ist unsere oberste Priorität, da es unsere Stärke im Notebook-Segment – sowohl im Consumer- als auch im Enterprise-Bereich – festigen wird.“ Gleichzeitig arbeitet das Unternehmen an Nova Lake für den High-End-Desktopmarkt.

Im Rechenzentrumsbereich macht Intel eine bemerkenswerte technische Kehrtwende, indem es Simultaneous Multi-Threading (SMT) wiedereinführt: „Der Verzicht auf SMT hat uns im Wettbewerb benachteiligt“, erklärte Tan. „Die Wiedereinführung wird uns helfen, Performance-Lücken zu schließen.“

Im Bereich Künstliche Intelligenz kündigte der Intel-Chef eine strategische Neuausrichtung weg von traditionellen Ansätzen an: „Wir konzentrieren uns künftig auf Bereiche, in denen wir wirklich etwas verändern und uns differenzieren können – wie Inferenz und Agentic AI.“

Intel plant weiterhin, im September eine Rückkehrpflicht ins Büro einzuführen, wobei „die Standorte die notwendigen Verbesserungen vornehmen, um wieder voll ausgelastet zu sein“. Tan bezeichnete die Umstrukturierung als unerlässlich für den kulturellen Wandel bei Intel. „Wir werden ein schnelleres, agileres und dynamischeres Unternehmen werden. Wir werden Bürokratie abbauen und Ingenieure in die Lage versetzen, Innovationen schneller und fokussierter voranzutreiben“.

In seinem Schlusswort betonte der CEO die Dringlichkeit: „Die Zukunft von Intel liegt in unserer Hand – aber wir dürfen keine Zeit verlieren. Wir müssen in allem, was wir tun, mit Entschlossenheit, Disziplin und Fokus handeln.“ (mb)

Intel-Chef will fast 22.000 Stellen streichen​ Weiterlesen »

Siemens baut vollautomatisiertes Lager mit Digital Twin​

Allgemein

Einweihung des neuen vollautomatisierten HPS-Lagers im Siemens Elektromotorenwerk Bad Neustadt. Siemens AG Mit einem vollautomatisierten Lagerkonzept will Siemens die Produktivität in dem 1937 gegründete Elektromotorenwerk Bad Neustadt um 40 Prozent steigern. Ermöglichen soll dies eine Just-In-Time-Versorgung der Fertigung im Fertigungstakt. Mit der neuen Logistikanlage, in die Siemens vier Millionen Euro investierte, unterstreiche das Werk seine Position als Vorreiter der Industrie 4.0,  hieß es. Bei der Planung und Umsetzung des Projekts nutzte der Konzern nach eigenen Angaben durchgängig hauseigene Technologie – vom Digitalen Zwilling der Anlage bis zu den Automatisierungskomponenten und Elektromotoren an den Regalbediengeräten. Des Weiteren ist das Projekt ein weiterer Schritt zur „Data Driven Factory“ mit der Konvergenz von IT und OT. Planung mit Digital Twin So wurde im Zuge der Planungen ein Digital Twin des Lagers, der angrenzenden Hauptmotoren-Fertigung als auch des gesamtem Materialflusses zwischen Fertigung und Lager erstellt. Auf diese Weise war es möglich, Lager, Fertigung und die Materialflussprozesse schon vor dem Bau zu optimieren. Mit Hilfe des Digitalen Zwillings sparte man laut Siemens nicht nur Kosten und vermied Planungsfehler, sondern erhöhte auch die Planungssicherheit und beschleunigte die Inbetriebnahme. Zudem ermöglicht die Simulation per Digital Twin künftig datenbasierte Entscheidungen, etwa zur optimalen Lagerstrategie, zur Integration von Just-in-Sequence-Versorgungen sowie der optimalen Fertigungs- und Kommissionier-Reihenfolge. Der Digitale Zwilling werde so zum strategischen Instrument für eine zukunftssichere, flexible und effiziente Intralogistik, gab der Elektronikkonzern bekannt. Lager als Entkopplungspuffer In seinem neuen Lager verwirklicht Siemens das Prinzip „Ware zum Mensch“. Siemens AG Dabei dient das Lager als Entkopplungspuffer zwischen der kundenanonymen Vorfertigung von Stator und Rotor und der auftragsspezifischen Montage. Diese Entkopplung, so Siemens, ermöglicht eine höhere Flexibilität und Reaktionsfähigkeit in der Produktion. Durch die Pufferung von Stator und Rotor könnten Schwankungen in der Nachfrage oder Störungen in den Vorprozessen besser abgefedert werden, ohne die Endmontage zu beeinflussen. Darüber hinaus verkürzen sich die Durchlaufzeiten in der Endmontage, da die benötigten Teile aus dem Lager Just-In-Time im Fertigungstakt über eine Schnellpickzone mit 21 Picking Ports bereitgestellt werden. So können nach Unternehmensangaben täglich im Dreischicht-Betrieb rund 3.100 Paletten und mehr als 3.800 Transportbehälter bewegt werden. Hierbei setze man auf das Prinzip „Ware zum Mensch“ statt „Mensch zur Ware“. So werde eine Reduzierung der Fehlerquote beim Kommissionieren um 99 Prozent bei gleichzeitiger Steigerung der Produktivität um 40 Prozent erreicht. Auch der Materialumlauf reduziere sich um 40 Prozent. 

Siemens baut vollautomatisiertes Lager mit Digital Twin​ Einweihung des neuen vollautomatisierten HPS-Lagers im Siemens Elektromotorenwerk Bad Neustadt.
Siemens AG

Mit einem vollautomatisierten Lagerkonzept will Siemens die Produktivität in dem 1937 gegründete Elektromotorenwerk Bad Neustadt um 40 Prozent steigern. Ermöglichen soll dies eine Just-In-Time-Versorgung der Fertigung im Fertigungstakt. Mit der neuen Logistikanlage, in die Siemens vier Millionen Euro investierte, unterstreiche das Werk seine Position als Vorreiter der Industrie 4.0,  hieß es.

Bei der Planung und Umsetzung des Projekts nutzte der Konzern nach eigenen Angaben durchgängig hauseigene Technologie – vom Digitalen Zwilling der Anlage bis zu den Automatisierungskomponenten und Elektromotoren an den Regalbediengeräten. Des Weiteren ist das Projekt ein weiterer Schritt zur „Data Driven Factory“ mit der Konvergenz von IT und OT.

Planung mit Digital Twin

So wurde im Zuge der Planungen ein Digital Twin des Lagers, der angrenzenden Hauptmotoren-Fertigung als auch des gesamtem Materialflusses zwischen Fertigung und Lager erstellt. Auf diese Weise war es möglich, Lager, Fertigung und die Materialflussprozesse schon vor dem Bau zu optimieren. Mit Hilfe des Digitalen Zwillings sparte man laut Siemens nicht nur Kosten und vermied Planungsfehler, sondern erhöhte auch die Planungssicherheit und beschleunigte die Inbetriebnahme.

Zudem ermöglicht die Simulation per Digital Twin künftig datenbasierte Entscheidungen, etwa zur optimalen Lagerstrategie, zur Integration von Just-in-Sequence-Versorgungen sowie der optimalen Fertigungs- und Kommissionier-Reihenfolge. Der Digitale Zwilling werde so zum strategischen Instrument für eine zukunftssichere, flexible und effiziente Intralogistik, gab der Elektronikkonzern bekannt.

Lager als Entkopplungspuffer

In seinem neuen Lager verwirklicht Siemens das Prinzip „Ware zum Mensch“.
Siemens AG

Dabei dient das Lager als Entkopplungspuffer zwischen der kundenanonymen Vorfertigung von Stator und Rotor und der auftragsspezifischen Montage. Diese Entkopplung, so Siemens, ermöglicht eine höhere Flexibilität und Reaktionsfähigkeit in der Produktion. Durch die Pufferung von Stator und Rotor könnten Schwankungen in der Nachfrage oder Störungen in den Vorprozessen besser abgefedert werden, ohne die Endmontage zu beeinflussen.

Darüber hinaus verkürzen sich die Durchlaufzeiten in der Endmontage, da die benötigten Teile aus dem Lager Just-In-Time im Fertigungstakt über eine Schnellpickzone mit 21 Picking Ports bereitgestellt werden. So können nach Unternehmensangaben täglich im Dreischicht-Betrieb rund 3.100 Paletten und mehr als 3.800 Transportbehälter bewegt werden.

Hierbei setze man auf das Prinzip „Ware zum Mensch“ statt „Mensch zur Ware“. So werde eine Reduzierung der Fehlerquote beim Kommissionieren um 99 Prozent bei gleichzeitiger Steigerung der Produktivität um 40 Prozent erreicht. Auch der Materialumlauf reduziere sich um 40 Prozent.

Siemens baut vollautomatisiertes Lager mit Digital Twin​ Weiterlesen »

Broadcom blockiert Patches für VMware-Altkunden​

Allgemein

Gewollt oder ungewollt macht Broadcom VMware-Kunden mit unbefristeten Lizenzen das Leben weiter schwer.Broadcom Laut einem Bericht wird VMware-Kunden mit unbefristeten Lizenzen, deren Support-Vertrag abgelaufen ist, der Zugriff auf kritische Sicherheits-Patches über das Support-Portal von Broadcom verweigert. Betroffene Lizenzinhaber berichten, dass sie keine Patches herunterladen können. Support-Mitarbeiter von VMware hätten laut einem Bericht von „The Register“ darauf hingewiesen, dass es bis zu 90 Tage dauern kann, bis Sicherheits-Updates über alternative Kanäle verfügbar sind. Diese Zugangsbeschränkungen stellen ein unmittelbares Sicherheitsrisiko für Unternehmen dar – besonders, da VMware im Jahr 2025 bereits mehrere kritische Sicherheitshinweise veröffentlicht hat, die ESXi, Workstation und Fusion betreffen. Diese Schwachstellen ermöglichen es Angreifern, mit Admin-Rechten auf virtuelle Maschinen zuzugreifen und Code auf Host-Systemen auszuführen. Kein Zugang trotz Zusagen des CEO Ein VMware-Sprecher bestätigte in dem Bericht die Zugriffsbeschränkung und erklärte: „Da unser Support-Portal eine Überprüfung der Kundenberechtigungen für Software-Patches erfordert, haben derzeit nur berechtigte Kunden Zugriff auf die Patches.“ Es werde jedoch zu einem späteren Zeitpunkt einen separaten Patch-Lieferzyklus für nicht berechtigte Kunden geben. Ein konkreter Zeitrahmen wurde jedoch nicht genannt. „An der Verpflichtung von Broadcom hinsichtlich kritischer VMware-Sicherheitsupdates hat sich nichts geändert“, fügte Broadcom in einer per Email an Network World übermittelten Erklärung hinzu. „Nutzer von älteren VMware-Produkten ohne aktive Wartungs- und Support-Verträge erhalten weiterhin kostenlosen Zugang zu kritischen Sicherheits-Patches – solange diese Produkte von Broadcom unterstützt werden. Dies schließt auch die Patches für kritische Schwachstellen ein, die im VMware Security Advisory 2025-0013 adressiert wurden.“ Interne Mitteilungen von Broadcom zeigen laut dem Bericht von „The Register“, dass auch Support-Mitarbeiter davon ausgehen, dass „die jüngsten Änderungen an unserem Support-Portal im Zusammenhang mit der Überprüfung von Berechtigungen zu Verzögerungen bei der Bereitstellung von Patches für Kunden mit abgelaufenen Berechtigungen führen werden“. „Grenzen akzeptablen Anbieterverhaltens überschritten“ Broadcoms Entscheidung, den Patch-Zugang einzuschränken, hat die Grenzen akzeptablen Anbieterverhaltens neu gezogen“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Es geht hier nicht nur um eine Patch-Politik – es geht um eine grundsätzliche Verschiebung der Softwarebesitz-Normen: weg von Dauerhaftigkeit, hin zu Bedingtheit.“ „In einer Zeit, in der verzögerte Fehlerbehebungen zu Sicherheitslücken oder Compliance-Verstößen führen können, muss das Recht auf Patches vom Abo-Status entkoppelt werden“, so Gogia. CISOs müssten den Zugang zu Sicherheits-Patches jetzt als strategische Vertrauensfrage auf Vorstandsebene behandeln, fügt er hinzu. Strategische Implikationen für IT-Führungskräfte Die Situation rund um VMware zwingt IT-Teams in Unternehmen dazu, ihre Abhängigkeiten von Virtualisierungs-Technologien und ihre Risikobereitschaft neu zu bewerten. Organisationen müssen prüfen, welche Sicherheitsrisiken entstehen, wenn kritische Patches mit bis zu 90 Tagen Verzögerung bereitgestellt werden. „Unternehmen dürfen nicht länger davon ausgehen, dass eine unbefristete Lizenz langfristig den Zugang zu Updates oder Support garantiert“, rät Gogia und fügt hinzu: „Stattdessen sollten sie Schutzklauseln in Verträge aufnehmen, darunter Patch-Rechte mit Treuhand-Absicherung (Escrow) und verbindliche Vereinbarungen zur Betriebskontinuität.“ Auch Naveen Chhabra, Principal Analyst bei Forrester, betont die Notwendigkeit konkreter Risikokontrollen: „Man braucht Transparenz darüber, wie schnell der Anbieter Sicherheits-Updates veröffentlicht. Gibt es eine Sperrfrist?“, fragt er. „Stellen Sie sich vor, VMware sagt aus Höflichkeit „Ja“ zur Bereitstellung von Sicherheits-Patches, veröffentlicht diese jedoch erst nach 90 Tagen, wodurch Ihr Unternehmen angreifbar bleibt.“ Neil Shah, Vice President Research und Gründer von Counterpoint Research, empfiehlt IT-Verantwortlichen, vertragliche Schutzmechanismen zu etablieren, um Risiken im Fall von Übernahmen, Insolvenzen oder SLA-Verletzungen zu adressieren – einschließlich Sonderklauseln für Nachverhandlungen oder Entschädigungen sowie verlängerten Support für kritische Software. Zudem rät er, mit Aufsichtsbehörden zusammenzuarbeiten, um regulatorische Schutzrahmen zu schaffen, die solche Risiken künftig besser abfedern können. (mb) 

Broadcom blockiert Patches für VMware-Altkunden​ Gewollt oder ungewollt macht Broadcom VMware-Kunden mit unbefristeten Lizenzen das Leben weiter schwer.Broadcom

Laut einem Bericht wird VMware-Kunden mit unbefristeten Lizenzen, deren Support-Vertrag abgelaufen ist, der Zugriff auf kritische Sicherheits-Patches über das Support-Portal von Broadcom verweigert. Betroffene Lizenzinhaber berichten, dass sie keine Patches herunterladen können. Support-Mitarbeiter von VMware hätten laut einem Bericht von „The Register“ darauf hingewiesen, dass es bis zu 90 Tage dauern kann, bis Sicherheits-Updates über alternative Kanäle verfügbar sind.

Diese Zugangsbeschränkungen stellen ein unmittelbares Sicherheitsrisiko für Unternehmen dar – besonders, da VMware im Jahr 2025 bereits mehrere kritische Sicherheitshinweise veröffentlicht hat, die ESXi, Workstation und Fusion betreffen. Diese Schwachstellen ermöglichen es Angreifern, mit Admin-Rechten auf virtuelle Maschinen zuzugreifen und Code auf Host-Systemen auszuführen.

Kein Zugang trotz Zusagen des CEO

Ein VMware-Sprecher bestätigte in dem Bericht die Zugriffsbeschränkung und erklärte: „Da unser Support-Portal eine Überprüfung der Kundenberechtigungen für Software-Patches erfordert, haben derzeit nur berechtigte Kunden Zugriff auf die Patches.“ Es werde jedoch zu einem späteren Zeitpunkt einen separaten Patch-Lieferzyklus für nicht berechtigte Kunden geben. Ein konkreter Zeitrahmen wurde jedoch nicht genannt.

„An der Verpflichtung von Broadcom hinsichtlich kritischer VMware-Sicherheitsupdates hat sich nichts geändert“, fügte Broadcom in einer per Email an Network World übermittelten Erklärung hinzu. „Nutzer von älteren VMware-Produkten ohne aktive Wartungs- und Support-Verträge erhalten weiterhin kostenlosen Zugang zu kritischen Sicherheits-Patches – solange diese Produkte von Broadcom unterstützt werden. Dies schließt auch die Patches für kritische Schwachstellen ein, die im VMware Security Advisory 2025-0013 adressiert wurden.“

Interne Mitteilungen von Broadcom zeigen laut dem Bericht von „The Register“, dass auch Support-Mitarbeiter davon ausgehen, dass „die jüngsten Änderungen an unserem Support-Portal im Zusammenhang mit der Überprüfung von Berechtigungen zu Verzögerungen bei der Bereitstellung von Patches für Kunden mit abgelaufenen Berechtigungen führen werden“.

„Grenzen akzeptablen Anbieterverhaltens überschritten“

Broadcoms Entscheidung, den Patch-Zugang einzuschränken, hat die Grenzen akzeptablen Anbieterverhaltens neu gezogen“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Es geht hier nicht nur um eine Patch-Politik – es geht um eine grundsätzliche Verschiebung der Softwarebesitz-Normen: weg von Dauerhaftigkeit, hin zu Bedingtheit.“

„In einer Zeit, in der verzögerte Fehlerbehebungen zu Sicherheitslücken oder Compliance-Verstößen führen können, muss das Recht auf Patches vom Abo-Status entkoppelt werden“, so Gogia. CISOs müssten den Zugang zu Sicherheits-Patches jetzt als strategische Vertrauensfrage auf Vorstandsebene behandeln, fügt er hinzu.

Strategische Implikationen für IT-Führungskräfte

Die Situation rund um VMware zwingt IT-Teams in Unternehmen dazu, ihre Abhängigkeiten von Virtualisierungs-Technologien und ihre Risikobereitschaft neu zu bewerten. Organisationen müssen prüfen, welche Sicherheitsrisiken entstehen, wenn kritische Patches mit bis zu 90 Tagen Verzögerung bereitgestellt werden.

„Unternehmen dürfen nicht länger davon ausgehen, dass eine unbefristete Lizenz langfristig den Zugang zu Updates oder Support garantiert“, rät Gogia und fügt hinzu: „Stattdessen sollten sie Schutzklauseln in Verträge aufnehmen, darunter Patch-Rechte mit Treuhand-Absicherung (Escrow) und verbindliche Vereinbarungen zur Betriebskontinuität.“

Auch Naveen Chhabra, Principal Analyst bei Forrester, betont die Notwendigkeit konkreter Risikokontrollen: „Man braucht Transparenz darüber, wie schnell der Anbieter Sicherheits-Updates veröffentlicht. Gibt es eine Sperrfrist?“, fragt er. „Stellen Sie sich vor, VMware sagt aus Höflichkeit „Ja“ zur Bereitstellung von Sicherheits-Patches, veröffentlicht diese jedoch erst nach 90 Tagen, wodurch Ihr Unternehmen angreifbar bleibt.“

Neil Shah, Vice President Research und Gründer von Counterpoint Research, empfiehlt IT-Verantwortlichen, vertragliche Schutzmechanismen zu etablieren, um Risiken im Fall von Übernahmen, Insolvenzen oder SLA-Verletzungen zu adressieren – einschließlich Sonderklauseln für Nachverhandlungen oder Entschädigungen sowie verlängerten Support für kritische Software.

Zudem rät er, mit Aufsichtsbehörden zusammenzuarbeiten, um regulatorische Schutzrahmen zu schaffen, die solche Risiken künftig besser abfedern können. (mb)

Broadcom blockiert Patches für VMware-Altkunden​ Weiterlesen »

Tipps zur Produktivitätssteigerung: Wie Sie pünktlich in den Feierabend kommen​

Allgemein

Kommt Ihnen diese Situation bekannt vor? Wir sagen Ihnen, wie Sie künftig pünktlich in den Feierabend kommen. Foto: Syda Productions – shutterstock.comMeetings, Telefonate und ständig neue E-Mails: Sich zwischen all diesen verschiedenen Aufgaben auch noch darauf zu konzentrieren, die eigentliche To-Do-Liste nicht aus den Augen zu verlieren, kann im Arbeitsalltag zur echten Herausforderung werden. Dabei leidet die Produktivität im Büro besonders oft unter der Fülle von administrativen und/oder organisatorischen Aufgaben. Eigentlich sollte das Ziel eines jeden Tages allerdings sein, den Arbeitsplatz mit einer erledigten To-Do-Liste pünktlich zu verlassen. In der Realität der meisten Mitarbeiter klappt das allerdings eher selten. So steigern Sie Ihre Produktivität schnell und einfachDamit Sie sich erfolgreich gegen den Overkill im Büroalltag zur Wehr setzen können, haben wir zehn hilfreiche Tipps für Sie zusammengestellt. Diese unterstützen Sie dabei, Ihren Arbeitstag ohne Stress und Zeitverzögerungen zu bewältigen:Aktuelle Verkehrslage checken: Speichern Sie Webseiten im Browser ab oder laden Sie eine App herunter, die Sie über die aktuelle Verkehrslage informiert. Circa 30 bis 60 Minuten bevor Sie das Haus verlassen, sollten Sie sich über potenzielle Hindernisse auf dem Arbeitsweg informieren. So sparen Sie sich ärgerliche Überraschungen – egal ob es sich dabei um Bahn-GAUs oder den nächsten Megastau auf der Autobahn handelt. Und Sie kommen deutlich entspannter im Office an.Kleider machen Leute – bereits am Vortag: Was ziehe ich an? Diese Frage stellen sich morgens vor dem Spiegel nicht nur Frauen. Eine morgendliche Fashion-Show ist dabei in der Regel vor allem stressig und kostet Zeit. Viel Zeit. Zeit, die Sie morgens auch sinnvoller nutzen könnten, wenn Sie Ihr Outfit bereits am Vorabend zusammenstellen. Mittagessen selbst machen: Kochen Sie am Wochenende für sich oder die Familie? Dann kann es sich eventuell lohnen, für den Rest der Woche vorzukochen. Das spart nicht nur wertvolle Zeit, sondern nebenbei auch noch Geld. Priorisierung ist das A und O: Nutzen Sie die ersten Minuten im Büro um Ihre E-Mails zu checken und die Aufgaben für den Tag durchzugehen. Haben sich Deadlines verschoben oder sind wichtige To-Dos hinzugekommen, die nicht warten können? Wenn Sie sich einen solchen Überblick verschaffen, vermeiden Sie Produktivitäts-Engpässe am Nachmittag. Um sich das Aufgaben-Management etwas zu erleichtern, empfehlen sich verschiedene Tools.Installieren Sie einen Passwort-Manager: Mit einem Passwort-Manager sorgen Sie nicht nur für mehr Sicherheit, sondern sparen sich auch jede Menge Zeit. Schließlich sparen Sie sich lästiges manuelles Ausfüllen von Login-Formularen und die unter Umständen zeitraubende Identifizierung des richtigen Passworts.Identifikations-Tools nutzen: Wenn Sie die Möglichkeit haben, nutzen Sie biometrische Authentifizierungs-Tools wie Fingerabdruckscanner zum Login auf Laptop und Smartphone. Auch das spart Zeit – und wie wir alle wissen: Kleinvieh macht auch Mist.Individualisierung: Personalisieren Sie die Widgets auf Ihrem Smartphone. Auf diese Weise haben Sie schnelleren Zugriff auf die Apps, die Sie täglich mehrfach verwenden.Digital Wallet nutzen: Statt immer wieder nach der Kreditkarte zu kramen, könnten Sie Ihre Zahlungsdaten und Rechnungsadressen auch in einer digitalen Brieftasche ablegen. So sparen Sie auch beim morgendlichen Tankstellenbesuch oder dem mittäglichen Einkaufsgang wertvolle Zeit. Regelmäßig entrümpeln: Ungenutzte Programme und Apps belasten die Prozesse auf Ihrem Computer und Smartphone. Ausschweifende Ladezeiten können die Folge sein. Löschen Sie deshalb Apps, die Sie nicht wirklich brauchen. So kommen Sie schneller an die Programme und Materialien, die Sie im Arbeitsalltag tatsächlich brauchen. Meetings kosten Zeit: Einer der größten Zeitfresser im Büroalltag sind überflüssige Meetings. Hüten Sie sich davor, diese mit Spezial-Fragen auch noch in die Länge zu ziehen. Versuchen Sie stattdessen, solche Probleme auf persönlicher Ebene oder per E-Mail zu klären. Ansonsten gilt: Bereiten Sie sich richtig auf das Meeting vor, um es möglichst effektiv zu gestalten – das dürfte auch im Sinne des Zeitmanagements Ihrer Kollegen sein. 

Tipps zur Produktivitätssteigerung: Wie Sie pünktlich in den Feierabend kommen​ Kommt Ihnen diese Situation bekannt vor? Wir sagen Ihnen, wie Sie künftig pünktlich in den Feierabend kommen.
Foto: Syda Productions – shutterstock.comMeetings, Telefonate und ständig neue E-Mails: Sich zwischen all diesen verschiedenen Aufgaben auch noch darauf zu konzentrieren, die eigentliche To-Do-Liste nicht aus den Augen zu verlieren, kann im Arbeitsalltag zur echten Herausforderung werden. Dabei leidet die Produktivität im Büro besonders oft unter der Fülle von administrativen und/oder organisatorischen Aufgaben. Eigentlich sollte das Ziel eines jeden Tages allerdings sein, den Arbeitsplatz mit einer erledigten To-Do-Liste pünktlich zu verlassen. In der Realität der meisten Mitarbeiter klappt das allerdings eher selten. So steigern Sie Ihre Produktivität schnell und einfachDamit Sie sich erfolgreich gegen den Overkill im Büroalltag zur Wehr setzen können, haben wir zehn hilfreiche Tipps für Sie zusammengestellt. Diese unterstützen Sie dabei, Ihren Arbeitstag ohne Stress und Zeitverzögerungen zu bewältigen:Aktuelle Verkehrslage checken: Speichern Sie Webseiten im Browser ab oder laden Sie eine App herunter, die Sie über die aktuelle Verkehrslage informiert. Circa 30 bis 60 Minuten bevor Sie das Haus verlassen, sollten Sie sich über potenzielle Hindernisse auf dem Arbeitsweg informieren. So sparen Sie sich ärgerliche Überraschungen – egal ob es sich dabei um Bahn-GAUs oder den nächsten Megastau auf der Autobahn handelt. Und Sie kommen deutlich entspannter im Office an.Kleider machen Leute – bereits am Vortag: Was ziehe ich an? Diese Frage stellen sich morgens vor dem Spiegel nicht nur Frauen. Eine morgendliche Fashion-Show ist dabei in der Regel vor allem stressig und kostet Zeit. Viel Zeit. Zeit, die Sie morgens auch sinnvoller nutzen könnten, wenn Sie Ihr Outfit bereits am Vorabend zusammenstellen. Mittagessen selbst machen: Kochen Sie am Wochenende für sich oder die Familie? Dann kann es sich eventuell lohnen, für den Rest der Woche vorzukochen. Das spart nicht nur wertvolle Zeit, sondern nebenbei auch noch Geld. Priorisierung ist das A und O: Nutzen Sie die ersten Minuten im Büro um Ihre E-Mails zu checken und die Aufgaben für den Tag durchzugehen. Haben sich Deadlines verschoben oder sind wichtige To-Dos hinzugekommen, die nicht warten können? Wenn Sie sich einen solchen Überblick verschaffen, vermeiden Sie Produktivitäts-Engpässe am Nachmittag. Um sich das Aufgaben-Management etwas zu erleichtern, empfehlen sich verschiedene Tools.Installieren Sie einen Passwort-Manager: Mit einem Passwort-Manager sorgen Sie nicht nur für mehr Sicherheit, sondern sparen sich auch jede Menge Zeit. Schließlich sparen Sie sich lästiges manuelles Ausfüllen von Login-Formularen und die unter Umständen zeitraubende Identifizierung des richtigen Passworts.Identifikations-Tools nutzen: Wenn Sie die Möglichkeit haben, nutzen Sie biometrische Authentifizierungs-Tools wie Fingerabdruckscanner zum Login auf Laptop und Smartphone. Auch das spart Zeit – und wie wir alle wissen: Kleinvieh macht auch Mist.Individualisierung: Personalisieren Sie die Widgets auf Ihrem Smartphone. Auf diese Weise haben Sie schnelleren Zugriff auf die Apps, die Sie täglich mehrfach verwenden.Digital Wallet nutzen: Statt immer wieder nach der Kreditkarte zu kramen, könnten Sie Ihre Zahlungsdaten und Rechnungsadressen auch in einer digitalen Brieftasche ablegen. So sparen Sie auch beim morgendlichen Tankstellenbesuch oder dem mittäglichen Einkaufsgang wertvolle Zeit. Regelmäßig entrümpeln: Ungenutzte Programme und Apps belasten die Prozesse auf Ihrem Computer und Smartphone. Ausschweifende Ladezeiten können die Folge sein. Löschen Sie deshalb Apps, die Sie nicht wirklich brauchen. So kommen Sie schneller an die Programme und Materialien, die Sie im Arbeitsalltag tatsächlich brauchen. Meetings kosten Zeit: Einer der größten Zeitfresser im Büroalltag sind überflüssige Meetings. Hüten Sie sich davor, diese mit Spezial-Fragen auch noch in die Länge zu ziehen. Versuchen Sie stattdessen, solche Probleme auf persönlicher Ebene oder per E-Mail zu klären. Ansonsten gilt: Bereiten Sie sich richtig auf das Meeting vor, um es möglichst effektiv zu gestalten – das dürfte auch im Sinne des Zeitmanagements Ihrer Kollegen sein.

Tipps zur Produktivitätssteigerung: Wie Sie pünktlich in den Feierabend kommen​ Weiterlesen »

Wissensmanagement: So retten Arbeitgeber das Know-how ihrer Mitarbeiter​

Allgemein

Angesichts des demografischen Wandels sollte es höchste Zeit sein, dass sich Arbeitgeber mit Fragen beschäftigen, welches Wissen es lohnt, im Unternehmen zu behalten und wie es an die entsprechenden Stellen kommt. Foto: fizkes – shutterstock.com Seit Bestehen der Menschheit erfolgte die Wissensweitergabe in mehr oder minder strukturierter Form. Doch lange Zeit wurde diese Wissensvermittlung nicht als ein Managementprozess verstanden, der zielorientiert gestaltet werden sollte. Dieses Bewusstsein entwickelte sich erst im Verlauf der Industrialisierung, als immer größere Unternehmen entstanden, die stets komplexere Produkte produzierten und verkauften, und die Arbeitsorganisation immer arbeitsteiliger wurde. In diesem Kontext gewann auch die Frage an Relevanz: Wie sorgen wir dafür, dass die Wissensbasis unserer Organisation nicht nur gewahrt bleibt, sondern sich auch so erneuert, dass das Unternehmen auch mittel- und langfristig erfolgreich ist? Herausforderung: Vermittlung von Erfahrungswissen In diesem Prozess wird zwischen dem “expliziten” und dem “impliziten Wissen” unterschieden – zwei Begriffe, die der Chemiker und Philosoph Michael Polanyi prägte, unter anderem in seinem 1958 erschienenen Buch “Personal Knowledge”. Unter dem Begriff “explizites Wissen“ wird meist das Wissen subsummiert, das man unter anderem mittels Sprache, Schrift, Zeichnungen und Bildern eindeutig kodifizieren und dokumentieren kann. Hierbei handelt es sich weitgehend um das Regel- und Faktenwissen, das man beispielsweise in Form von Berichten, Lehr- und Handbüchern, Arbeitsanweisungen sowie Zeichnungen an andere Menschen weitergeben kann. Dieses explizite Wissen kann aufgrund seiner kodierten Form auf zahlreichen Medien gespeichert, verarbeitet und übertragen werden – auch online. Der Begriff “implizites Wissen“ hingegen bezieht sich auf das Wissen, das häufig als Erfahrungswissen bezeichnet wird. Die Träger dieses Wissen, das sich aus Erfahrungen, Erinnerungen und Überzeugungen speist, können Personen oder Organisationen sein. Es kann zudem dem jeweiligen Träger bewusst sein, muss es aber nicht. Auf alle Fälle lässt es sich dieses Wissen aber nur schwer kodifizieren und dokumentieren und somit an andere Personen weitergeben. Typische Beispiele für ein implizites Wissen im betrieblichen Kontext sind, wenn ein erfahrener Verkäufer intuitiv spürt, wie er sich bei gewissen Kunden taktisch verhalten sollte, damit er einen Auftrag erhält, oder wenn einem erfahrenen Techniker sein “Gefühl” sagt, wenn wir nicht bald gewisse Wartungsarbeiten an der Maschine x vornehmen, bekommen wir mit ihr Probleme, oder wenn einem Manager oder Unternehmer sein Bauchgefühl sagt, diese Chance sollten wir nutzen, um langfristig erfolgreich zu sein, obwohl scheinbar alle Fakten dagegen sprechen. Das implizite Wissen ist mit Einstellungen verknüpft Beide Wissensformen sind für den Erfolg von Unternehmen wichtig, wobei jedoch die Regel gilt: Das Vermitteln des expliziten Wissens fällt ihnen leichter – nicht nur, weil es sich dokumentieren lässt, sondern auch weil die Unternehmen hiermit in ihren Bereichen Aus- und Weiterbildung schon viel Erfahrung gesammelt haben. Anders verhält es sich beim impliziten Wissen. Seine Vermittlung setzt oft voraus, dass es in einem gezielten Prozess der Externalisierung – beispielsweise durch eine systematische Befragung der Wissensträger oder eine Analyse ihres Tuns – zunächst in ein explizites Wissen umgewandelt wird, so dass es dokumentiert werden kann. Dieses Externalisieren ist beim impliziten Wissen aber häufig nur bedingt möglich, weshalb es anderen Personen oft nur in dialogischen Verfahren wie zum Beispiel Coaching- und Mentoring-Programmen weitergegeben werden kann. Hinzu kommt: Das implizite Wissen ist oft außer mit Erfahrungen auch mit teils durch sie bewirkten Einstellungen und Überzeugungen verknüpft. Deshalb ist bei den Personen, die dieses Wissen verinnerlichen möchten oder sollen, nicht selten auch eine Einstellungs- und Verhaltensänderung nötig. Ansonsten entfaltet es keine Wirkung. Auch deshalb ist seine Weitergabe oft nur in dialogischen Verfahren möglich. Veränderte Rahmenbedingungen erfordern verändertes Wissensmanagement Dabei gilt die Faustregel: Je komplexer eine Aufgabe ist, umso mehr implizites Wissen muss zu ihrer Lösung übertragen werden. Dies ist insofern relevant, als in den letzten Jahren unter anderem im Zuge der Globalisierung und Digitalisierung die Arbeit und die in ihr gestellten Anforderungen – zumindest in der Wahrnehmung der Mitarbeitenden – stets komplexer wurden. Deshalb müssen die Unternehmen der Vermittlung des impliziten Wissens mehr Bedeutung beimessen, wenn sie vermeiden möchten, dass in ihrer Organisation immer mehr Wissensinseln entstehen, die letztlich die oft angestrebte hierarchie- und bereichsübergreifende oder gar unternehmensübergreifende Team- und Projektarbeit erschweren und dem Schaffen der erforderlichen Strukturen, um schnell und flexibel und agil auf neue Herausforderungen zu reagieren, im Wege stehen. Alte Erfolgsrezepte müssen auf den Prüfstand Neben dieser Herausforderung sehen sich die Unternehmen mit einer weiteren konfrontiert: Auch das explizite Wissen, also das Fach- beziehungsweise Faktenwissen, veraltet in der von rascher Veränderung und sinkender Planbarkeit geprägten Welt rascher als früher. Dasselbe gilt für das externalisierte implizite Wissen: Alte Erfolgsrezepte taugen aufgrund der veränderten Rahmenbedingungen oft nicht mehr beziehungsweise müssen regelmäßig auf den Prüfstand gestellt werden. Zwar lässt sich heute das explizite Wissen, da es häufig elektronisch gespeichert ist, einfacher als früher aktualisieren und organisationsweit verbreiten, ungeachtet dessen müssen die Unternehmen es jedoch fortlaufend aktualisieren. Deshalb gilt heute mehr denn je: Wissensmanagement ist ein fortlaufendes Projekt. Wissensmanagement wird zum fortlaufenden Projekt Dies haben inzwischen viele Unternehmen erkannt. Deshalb überdenken sie ihr tradiertes Wissensmanagement und versuchen es den veränderten Rahmenbedingungen und Anforderungen im digitalen Zeitalter anzupassen. Dieser Prozess verläuft in der Regel wie folgt: In einem ersten Schritt wird zunächst, wie bei den meisten Projekten, die Ist- beziehungsweise Ausgangssituation analysiert. Fragen werden gestellt wie: Wie erfolgt unser Wissensmanagement heute? Entspricht dies noch den Erfordernissen im digitalen Zeitalter? Lassen sich unsere Unternehmensziele, wie schneller und flexibler auf Marktveränderungen zu reagieren, so noch erreichen? Wo besteht ein Änderungs- bzw. Changebedarf? Hierauf aufbauend stellen sich dann Fragen, die mit der Auftragsklärung zusammenhängen, wie: Welches Wissen brauchen wir (künftig) aufgrund seiner Erfolgsrelevanz und sollte deshalb kontinuierlich ausgebaut werden? Handelt es sich hierbei um explizites und/oder implizites Wissen? Wer sind die relevanten Wissensträger und wie lange stehen sie uns noch zur Verfügung? Sind diese Fragen vorläufig geklärt, stellen sich Fragen wie: Welche Ressourcen (u.a. Zeit, Geld, Verfahren) stehen uns zur Wissensidentifikation, -dokumentation, -verteilung und -weiterentwicklung zur Verfügung bzw. welche Ressourcen brauchen wir? Welche Rahmenbedingungen struktureller, kultureller und motivationaler Art sind erforderlich, damit in unserer Organisation ein fluider bereichs- und funktionsübergreifender Wissensmarkt entsteht? Ziel: einen fluiden Wissensmarkt schaffen Sind diese Fragen geklärt, können erste Versuchsballons gestartet werden. Wichtig ist, dass dies in einem iterativen Prozess geschieht, in den Reflexionsschleifen eingebaut sind “Befinden wir uns (noch) auf dem richtigen Weg?”, da die Projektteams hierbei oft Neuland betreten – unter anderem weil ihnen die moderne Informations- und Kommunikationstechnik neue Möglichkeiten der Wissensidentifikation, -speicherung und -verbreitung bietet. Zudem gilt es im Projektverlauf regelmäßig zu überprüfen: Erheben wir überhaupt das erfolgsrelevante Wissen, das unsere Organisation (künftig) braucht? Haben wir die relevanten Wissensträger als Mitstreiter beim Versuch, einen fluiden Wissensmarkt zu schaffen, gewonnen? Gelangt das erhobene Wissen auch zu den Personen, die es für ihre Arbeit brauchen, und wird es von ihnen effektiv genutzt? Diese Fragen gilt es sich im Projektverlauf immer wieder zu stellen, damit das übergeordnete Ziel erreicht wird: das Unternehmen fit für die Zukunft machen. 

Wissensmanagement: So retten Arbeitgeber das Know-how ihrer Mitarbeiter​ Angesichts des demografischen Wandels sollte es höchste Zeit sein, dass sich Arbeitgeber mit Fragen beschäftigen, welches Wissen es lohnt, im Unternehmen zu behalten und wie es an die entsprechenden Stellen kommt.
Foto: fizkes – shutterstock.com

Seit Bestehen der Menschheit erfolgte die Wissensweitergabe in mehr oder minder strukturierter Form. Doch lange Zeit wurde diese Wissensvermittlung nicht als ein Managementprozess verstanden, der zielorientiert gestaltet werden sollte. Dieses Bewusstsein entwickelte sich erst im Verlauf der Industrialisierung, als immer größere Unternehmen entstanden, die stets komplexere Produkte produzierten und verkauften, und die Arbeitsorganisation immer arbeitsteiliger wurde.

In diesem Kontext gewann auch die Frage an Relevanz: Wie sorgen wir dafür, dass die Wissensbasis unserer Organisation nicht nur gewahrt bleibt, sondern sich auch so erneuert, dass das Unternehmen auch mittel- und langfristig erfolgreich ist?

Herausforderung: Vermittlung von Erfahrungswissen

In diesem Prozess wird zwischen dem “expliziten” und dem “impliziten Wissen” unterschieden – zwei Begriffe, die der Chemiker und Philosoph Michael Polanyi prägte, unter anderem in seinem 1958 erschienenen Buch “Personal Knowledge”.

Unter dem Begriff “explizites Wissen“ wird meist das Wissen subsummiert, das man unter anderem mittels Sprache, Schrift, Zeichnungen und Bildern eindeutig kodifizieren und dokumentieren kann. Hierbei handelt es sich weitgehend um das Regel- und Faktenwissen, das man beispielsweise in Form von Berichten, Lehr- und Handbüchern, Arbeitsanweisungen sowie Zeichnungen an andere Menschen weitergeben kann. Dieses explizite Wissen kann aufgrund seiner kodierten Form auf zahlreichen Medien gespeichert, verarbeitet und übertragen werden – auch online.

Der Begriff “implizites Wissen“ hingegen bezieht sich auf das Wissen, das häufig als Erfahrungswissen bezeichnet wird. Die Träger dieses Wissen, das sich aus Erfahrungen, Erinnerungen und Überzeugungen speist, können Personen oder Organisationen sein. Es kann zudem dem jeweiligen Träger bewusst sein, muss es aber nicht. Auf alle Fälle lässt es sich dieses Wissen aber nur schwer kodifizieren und dokumentieren und somit an andere Personen weitergeben.

Typische Beispiele für ein implizites Wissen im betrieblichen Kontext sind,

wenn ein erfahrener Verkäufer intuitiv spürt, wie er sich bei gewissen Kunden taktisch verhalten sollte, damit er einen Auftrag erhält, oder

wenn einem erfahrenen Techniker sein “Gefühl” sagt, wenn wir nicht bald gewisse Wartungsarbeiten an der Maschine x vornehmen, bekommen wir mit ihr Probleme, oder

wenn einem Manager oder Unternehmer sein Bauchgefühl sagt, diese Chance sollten wir nutzen, um langfristig erfolgreich zu sein, obwohl scheinbar alle Fakten dagegen sprechen.

Das implizite Wissen ist mit Einstellungen verknüpft

Beide Wissensformen sind für den Erfolg von Unternehmen wichtig, wobei jedoch die Regel gilt: Das Vermitteln des expliziten Wissens fällt ihnen leichter – nicht nur, weil es sich dokumentieren lässt, sondern auch weil die Unternehmen hiermit in ihren Bereichen Aus- und Weiterbildung schon viel Erfahrung gesammelt haben.

Anders verhält es sich beim impliziten Wissen. Seine Vermittlung setzt oft voraus, dass es in einem gezielten Prozess der Externalisierung – beispielsweise durch eine systematische Befragung der Wissensträger oder eine Analyse ihres Tuns – zunächst in ein explizites Wissen umgewandelt wird, so dass es dokumentiert werden kann. Dieses Externalisieren ist beim impliziten Wissen aber häufig nur bedingt möglich, weshalb es anderen Personen oft nur in dialogischen Verfahren wie zum Beispiel Coaching- und Mentoring-Programmen weitergegeben werden kann.

Hinzu kommt: Das implizite Wissen ist oft außer mit Erfahrungen auch mit teils durch sie bewirkten Einstellungen und Überzeugungen verknüpft. Deshalb ist bei den Personen, die dieses Wissen verinnerlichen möchten oder sollen, nicht selten auch eine Einstellungs- und Verhaltensänderung nötig. Ansonsten entfaltet es keine Wirkung. Auch deshalb ist seine Weitergabe oft nur in dialogischen Verfahren möglich.

Veränderte Rahmenbedingungen erfordern verändertes Wissensmanagement

Dabei gilt die Faustregel: Je komplexer eine Aufgabe ist, umso mehr implizites Wissen muss zu ihrer Lösung übertragen werden. Dies ist insofern relevant, als in den letzten Jahren unter anderem im Zuge der Globalisierung und Digitalisierung die Arbeit und die in ihr gestellten Anforderungen – zumindest in der Wahrnehmung der Mitarbeitenden – stets komplexer wurden. Deshalb müssen die Unternehmen der Vermittlung des impliziten Wissens mehr Bedeutung beimessen, wenn sie vermeiden möchten, dass in ihrer Organisation immer mehr Wissensinseln entstehen, die letztlich

die oft angestrebte hierarchie- und bereichsübergreifende oder gar unternehmensübergreifende Team- und Projektarbeit erschweren und

dem Schaffen der erforderlichen Strukturen, um schnell und flexibel und agil auf neue Herausforderungen zu reagieren, im Wege stehen.

Alte Erfolgsrezepte müssen auf den Prüfstand

Neben dieser Herausforderung sehen sich die Unternehmen mit einer weiteren konfrontiert: Auch das explizite Wissen, also das Fach- beziehungsweise Faktenwissen, veraltet in der von rascher Veränderung und sinkender Planbarkeit geprägten Welt rascher als früher. Dasselbe gilt für das externalisierte implizite Wissen: Alte Erfolgsrezepte taugen aufgrund der veränderten Rahmenbedingungen oft nicht mehr beziehungsweise müssen regelmäßig auf den Prüfstand gestellt werden.

Zwar lässt sich heute das explizite Wissen, da es häufig elektronisch gespeichert ist, einfacher als früher aktualisieren und organisationsweit verbreiten, ungeachtet dessen müssen die Unternehmen es jedoch fortlaufend aktualisieren. Deshalb gilt heute mehr denn je: Wissensmanagement ist ein fortlaufendes Projekt.

Wissensmanagement wird zum fortlaufenden Projekt

Dies haben inzwischen viele Unternehmen erkannt. Deshalb überdenken sie ihr tradiertes Wissensmanagement und versuchen es den veränderten Rahmenbedingungen und Anforderungen im digitalen Zeitalter anzupassen.

Dieser Prozess verläuft in der Regel wie folgt: In einem ersten Schritt wird zunächst, wie bei den meisten Projekten, die Ist- beziehungsweise Ausgangssituation analysiert. Fragen werden gestellt wie:

Wie erfolgt unser Wissensmanagement heute?

Entspricht dies noch den Erfordernissen im digitalen Zeitalter?

Lassen sich unsere Unternehmensziele, wie schneller und flexibler auf Marktveränderungen zu reagieren, so noch erreichen?

Wo besteht ein Änderungs- bzw. Changebedarf?

Hierauf aufbauend stellen sich dann Fragen, die mit der Auftragsklärung zusammenhängen, wie:

Welches Wissen brauchen wir (künftig) aufgrund seiner Erfolgsrelevanz und sollte deshalb kontinuierlich ausgebaut werden?

Handelt es sich hierbei um explizites und/oder implizites Wissen?

Wer sind die relevanten Wissensträger und wie lange stehen sie uns noch zur Verfügung?

Sind diese Fragen vorläufig geklärt, stellen sich Fragen wie:

Welche Ressourcen (u.a. Zeit, Geld, Verfahren) stehen uns zur Wissensidentifikation, -dokumentation, -verteilung und -weiterentwicklung zur Verfügung bzw. welche Ressourcen brauchen wir?

Welche Rahmenbedingungen struktureller, kultureller und motivationaler Art sind erforderlich, damit in unserer Organisation ein fluider bereichs- und funktionsübergreifender Wissensmarkt entsteht?

Ziel: einen fluiden Wissensmarkt schaffen

Sind diese Fragen geklärt, können erste Versuchsballons gestartet werden. Wichtig ist, dass dies in einem iterativen Prozess geschieht, in den Reflexionsschleifen eingebaut sind “Befinden wir uns (noch) auf dem richtigen Weg?”, da die Projektteams hierbei oft Neuland betreten – unter anderem weil ihnen die moderne Informations- und Kommunikationstechnik neue Möglichkeiten der Wissensidentifikation, -speicherung und -verbreitung bietet.

Zudem gilt es im Projektverlauf regelmäßig zu überprüfen:

Erheben wir überhaupt das erfolgsrelevante Wissen, das unsere Organisation (künftig) braucht?

Haben wir die relevanten Wissensträger als Mitstreiter beim Versuch, einen fluiden Wissensmarkt zu schaffen, gewonnen?

Gelangt das erhobene Wissen auch zu den Personen, die es für ihre Arbeit brauchen, und wird es von ihnen effektiv genutzt?

Diese Fragen gilt es sich im Projektverlauf immer wieder zu stellen, damit das übergeordnete Ziel erreicht wird: das Unternehmen fit für die Zukunft machen.

Wissensmanagement: So retten Arbeitgeber das Know-how ihrer Mitarbeiter​ Weiterlesen »

KI-Einsatz heute: PoCs, Piloten und Produktivsysteme​

Allgemein

Die meisten Unternehmen haben sich auf den Weg gemacht, die Vorteile der KI grundsätzlich zu erforschen und umzusetzen. Suri_Studio – shutterstock.com Kaum ein Unternehmen würde heute steif und fest behaupten, dass es sich dem KI-Trend komplett verweigert. Denn seit der Veröffentlichung von ChatGPT ist einfach zu viel passiert. Allerdings ist KI ist nicht gleich KI – viele Firmen haben zwar Proof of Concepts (PoCs) oder Pilotprojekte absolviert, ohne allerdings im Anschluss in den Produktivbetrieb überzugehen. In einer aktuelle Studie zur „KI in Unternehmen 2025“ der COMPUTERWOCHE kam heraus, das sich die Mehrheit der Unternehmen zwar auf den Weg gemacht, um die Vorteile der KI zu ergründen und zu nutzen. Jedoch kann man nicht von einem Selbstläufer sprechen, denn von einem niederschwelligen Sprachmodell bis zum individuellen KI-Tool für Business-Prozesse ist es ein weiter Sprung. Unsicherheit prägt die KI-Entwicklung Kein Wunder also, dass knapp die Hälfte der Firmen eigenen Angaben zufolge noch in der Aufwärmrunde unterwegs sind. Da der Möglichkeitsraum für Einsatzszenarien gewaltig ist, wirkt es so, als seien viele Organisationen irgendwo zwischen Pilot- und Produktivbetrieb gefangen. Bei der Bewertung einzelner KI-Aspekte in der Studie zeigen sich demzufolge auch keine eindeutigen Trends. Ein Beispiel: Laut 41,8 Prozent der Befragten hat ihr Unternehmen das Potenzial von KI erkannt und einen Maßnahmenkatalog mit KI-Aktivitäten („KI-Roadmap“) entwickelt. Das heißt aber auch, dass 58 Prozent entweder noch über keine Roadmap verfügen oder das Potenzial von KI noch nicht identifiziert haben. Bei 42 Prozent der Befragten hat ihr Unternehmen das Potenzial von KI erkannt und eine Roadmap entwickelt. Und die übrigen 58 Prozent? Research Services: Daniela Petrini Immerhin zeigt sich in vier von zehn Unternehmen, dass die strategischen KI-Initiativen Auswirkungen sowohl auf die internen Pro­zesse als auch auf die Produkte und Dienst­leistungen haben. Damit verbunden sind unmittelbare Auswirkungen auf die IT-Infrastruktur. Die geringste Zustimmung erhielt zudem die Aussage, das eigene Unternehmen kümmere sich nicht ausreichend um das Thema KI – mehr als zwei Drittel der Studienteilnehmer stärkten ihrer Firma hinsichtlich KI den Rücken. Betrachtet man die Rollen in der Organisation, wünschen sich Geschäftsführer sowie mittlere IT-Manager sogar noch mehr KI-Engagement im eigenen Haus. Was bremst die KI-Entwicklung? Dennoch geht ein großer Teil von Unternehmen bei KI vom Gas. Dafür gibt es selten einen einzigen Grund, sondern eine Gemengelage. In der aktuellen wirtschaftlichen Krise ist die erste Hürde das Thema Kosten – vor allem in den Antworten der CIOs und IT-Bereichsleiter. Aber auch Zweifel an der IT-Sicherheit sowie die Angst vor technischen Risiken aus dem KI-Einsatz blockieren die Entwicklung: So führen 89 Prozent der befragten CIOs Sicherheitsbedenken ins Feld, deutlich mehr als bei den befragten Führungskräften aus dem Top-Management und den Fachbereichen. 89 Prozent der befragten CIOs führen Sicherheitsbedenken ins Feld, deutlich mehr als bei den befragten Führungskräften aus dem Top-Management und den Fachbereichen. Research Services: Daniela Petrini Rechtliche Risiken sowie der Datenschutz und Anforderungen an die Datensicherheit bilden einen weiteren Bremsklotz. Hier sind es überdurchschnittlich viele Führungskräfte aus Business Units, die darauf verweisen. Insgesamt stimmt fast jeder Zweite der These zu, dass der Anreiz für böswillige Akteure, KI-Systeme anzugreifen, umso größer wird, je mehr vertrauliche oder sensible Daten von KI verarbeitet werden. Und rund ein Viertel der Firmen verweist auf fehlende KI-Kompetenzen der Mitarbeitenden beziehungsweise auf die fehlende Akzeptanz oder Bereitschaft in der Belegschaft für KI-Anwendungen, was die Verbreitung verzögern würde. Mitarbeiter für KI aktivieren Aber es gibt auch gute Nachrichten. Dass in einigen Unternehmen „KI-Spielplätze“ für die Mitarbeitenden vorhanden sind (43,9 Prozent), ist ein sinnvoller Schritt. Fast so viele Befragte stimmen der Aussage zu, dass die eigenen Mitarbeiter ermuntert werden, ei­genständig Erfahrung mit KI zu sammeln und mit KI herumzuexperi­mentieren. Insgesamt zeigt sich an den Zahlen, dass die KI-Awareness vielerorts vorhanden ist, aber das Thema noch nicht weit in die Organisationen ausstrahlt. Deutlich wird dies an den Einschätzungen der Studienteilnehmer zur IT-Infrastruktur, zur den KI-Arbeitsplätzen sowie beim Zugang zu KI-Tools, beziehungsweise -Plattformen mitsamt der hierfür erforderlichen Hardware. Von KI-PCs würden sich vor allem IT- und Fachbereichsleiter mehr wünschen. Status quo Dieses heterogene Bild setzt sich bei der Frage nach dem aktuellen Standort einer Organisation auf ihrer KI-Route fort: Vom First Mover bis zum Late Follower ist alles dabei. Immer 26,3 Prozent der Studienteilnehmer sehen ihre Organisation im unternehmensweiten Rollout, beziehungsweise Einsatz von KI-Modulen. Gute 30 Prozent haben erste Live Cases gestartet, während 43,4 Prozent in der Scale-up-Phase von Abteilungen oder Bereichen sind. Allerdings berichten 47,5 Prozent, dass sie noch an ihrer KI-Awareness arbeiten: mit ersten Erkundungen und Erfahrungen in KI-Pilotprojekten. Bei der Frage nach der KI-Relevanz gibt es jedoch keinen Zweifel: 60,3 Prozent der Teilnehmer gaben an, dass die Bedeutung der KI und ihres Einsatzes aktuell hoch bis extrem hoch für das Unternehmen ist. Die Gegenprobe: Nicht einmal drei Prozent berichten von einer (sehr) geringen Relevanz. Zudem stimmen knapp 62 Prozent der These zu, dass sich ihr Unternehmen mit dem Thema KI beschäftigt, weil es tatsächlich einen Bedarf an entsprechenden KI-Lösungen und -Tools gibt – und nicht nur, weil KI gerade ‚en vogue‘ ist. Die neue Studie “KI in Unternehmen 2025” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 13. März bis 6. April 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

KI-Einsatz heute: PoCs, Piloten und Produktivsysteme​ Die meisten Unternehmen haben sich auf den Weg gemacht, die Vorteile der KI grundsätzlich zu erforschen und umzusetzen.
Suri_Studio – shutterstock.com

Kaum ein Unternehmen würde heute steif und fest behaupten, dass es sich dem KI-Trend komplett verweigert. Denn seit der Veröffentlichung von ChatGPT ist einfach zu viel passiert. Allerdings ist KI ist nicht gleich KI – viele Firmen haben zwar Proof of Concepts (PoCs) oder Pilotprojekte absolviert, ohne allerdings im Anschluss in den Produktivbetrieb überzugehen. In einer aktuelle Studie zur „KI in Unternehmen 2025“ der COMPUTERWOCHE kam heraus, das sich die Mehrheit der Unternehmen zwar auf den Weg gemacht, um die Vorteile der KI zu ergründen und zu nutzen. Jedoch kann man nicht von einem Selbstläufer sprechen, denn von einem niederschwelligen Sprachmodell bis zum individuellen KI-Tool für Business-Prozesse ist es ein weiter Sprung.

Unsicherheit prägt die KI-Entwicklung

Kein Wunder also, dass knapp die Hälfte der Firmen eigenen Angaben zufolge noch in der Aufwärmrunde unterwegs sind. Da der Möglichkeitsraum für Einsatzszenarien gewaltig ist, wirkt es so, als seien viele Organisationen irgendwo zwischen Pilot- und Produktivbetrieb gefangen. Bei der Bewertung einzelner KI-Aspekte in der Studie zeigen sich demzufolge auch keine eindeutigen Trends. Ein Beispiel: Laut 41,8 Prozent der Befragten hat ihr Unternehmen das Potenzial von KI erkannt und einen Maßnahmenkatalog mit KI-Aktivitäten („KI-Roadmap“) entwickelt. Das heißt aber auch, dass 58 Prozent entweder noch über keine Roadmap verfügen oder das Potenzial von KI noch nicht identifiziert haben.

Bei 42 Prozent der Befragten hat ihr Unternehmen das Potenzial von KI erkannt und eine Roadmap entwickelt. Und die übrigen 58 Prozent? Research Services: Daniela Petrini

Immerhin zeigt sich in vier von zehn Unternehmen, dass die strategischen KI-Initiativen Auswirkungen sowohl auf die internen Pro­zesse als auch auf die Produkte und Dienst­leistungen haben. Damit verbunden sind unmittelbare Auswirkungen auf die IT-Infrastruktur. Die geringste Zustimmung erhielt zudem die Aussage, das eigene Unternehmen kümmere sich nicht ausreichend um das Thema KI – mehr als zwei Drittel der Studienteilnehmer stärkten ihrer Firma hinsichtlich KI den Rücken. Betrachtet man die Rollen in der Organisation, wünschen sich Geschäftsführer sowie mittlere IT-Manager sogar noch mehr KI-Engagement im eigenen Haus.

Was bremst die KI-Entwicklung?

Dennoch geht ein großer Teil von Unternehmen bei KI vom Gas. Dafür gibt es selten einen einzigen Grund, sondern eine Gemengelage. In der aktuellen wirtschaftlichen Krise ist die erste Hürde das Thema Kosten – vor allem in den Antworten der CIOs und IT-Bereichsleiter. Aber auch Zweifel an der IT-Sicherheit sowie die Angst vor technischen Risiken aus dem KI-Einsatz blockieren die Entwicklung: So führen 89 Prozent der befragten CIOs Sicherheitsbedenken ins Feld, deutlich mehr als bei den befragten Führungskräften aus dem Top-Management und den Fachbereichen.

89 Prozent der befragten CIOs führen Sicherheitsbedenken ins Feld, deutlich mehr als bei den befragten Führungskräften aus dem Top-Management und den Fachbereichen.
Research Services: Daniela Petrini

Rechtliche Risiken sowie der Datenschutz und Anforderungen an die Datensicherheit bilden einen weiteren Bremsklotz. Hier sind es überdurchschnittlich viele Führungskräfte aus Business Units, die darauf verweisen. Insgesamt stimmt fast jeder Zweite der These zu, dass der Anreiz für böswillige Akteure, KI-Systeme anzugreifen, umso größer wird, je mehr vertrauliche oder sensible Daten von KI verarbeitet werden. Und rund ein Viertel der Firmen verweist auf fehlende KI-Kompetenzen der Mitarbeitenden beziehungsweise auf die fehlende Akzeptanz oder Bereitschaft in der Belegschaft für KI-Anwendungen, was die Verbreitung verzögern würde.

Mitarbeiter für KI aktivieren

Aber es gibt auch gute Nachrichten. Dass in einigen Unternehmen „KI-Spielplätze“ für die Mitarbeitenden vorhanden sind (43,9 Prozent), ist ein sinnvoller Schritt. Fast so viele Befragte stimmen der Aussage zu, dass die eigenen Mitarbeiter ermuntert werden, ei­genständig Erfahrung mit KI zu sammeln und mit KI herumzuexperi­mentieren. Insgesamt zeigt sich an den Zahlen, dass die KI-Awareness vielerorts vorhanden ist, aber das Thema noch nicht weit in die Organisationen ausstrahlt. Deutlich wird dies an den Einschätzungen der Studienteilnehmer zur IT-Infrastruktur, zur den KI-Arbeitsplätzen sowie beim Zugang zu KI-Tools, beziehungsweise -Plattformen mitsamt der hierfür erforderlichen Hardware. Von KI-PCs würden sich vor allem IT- und Fachbereichsleiter mehr wünschen.

Status quo

Dieses heterogene Bild setzt sich bei der Frage nach dem aktuellen Standort einer Organisation auf ihrer KI-Route fort: Vom First Mover bis zum Late Follower ist alles dabei. Immer 26,3 Prozent der Studienteilnehmer sehen ihre Organisation im unternehmensweiten Rollout, beziehungsweise Einsatz von KI-Modulen. Gute 30 Prozent haben erste Live Cases gestartet, während 43,4 Prozent in der Scale-up-Phase von Abteilungen oder Bereichen sind. Allerdings berichten 47,5 Prozent, dass sie noch an ihrer KI-Awareness arbeiten: mit ersten Erkundungen und Erfahrungen in KI-Pilotprojekten.

Bei der Frage nach der KI-Relevanz gibt es jedoch keinen Zweifel: 60,3 Prozent der Teilnehmer gaben an, dass die Bedeutung der KI und ihres Einsatzes aktuell hoch bis extrem hoch für das Unternehmen ist. Die Gegenprobe: Nicht einmal drei Prozent berichten von einer (sehr) geringen Relevanz. Zudem stimmen knapp 62 Prozent der These zu, dass sich ihr Unternehmen mit dem Thema KI beschäftigt, weil es tatsächlich einen Bedarf an entsprechenden KI-Lösungen und -Tools gibt – und nicht nur, weil KI gerade ‚en vogue‘ ist.

Die neue Studie “KI in Unternehmen 2025” von CIO Research Services
Research Services: Daniela Petrini

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: HP Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 13. März bis 6. April 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

KI-Einsatz heute: PoCs, Piloten und Produktivsysteme​ Weiterlesen »

GitHub Copilot über Umwege: So geht R in Visual Studio Code​

Allgemein

R-Entwickler mit GitHub-Copilot-Bedarf sollten Umwege in Kauf nehmen. Foto: Kent Weakly | shutterstock.com Zufriedene Benutzer von RStudio verspüren wahrscheinlich nicht den Drang, eine andere IDE auszuprobieren. Anders sieht es aus, wenn sie nach der besten generativen GitHub-Copilot-Erfahrung streben. Das GenAI-Tool ist zwar auch in RStudio verfügbar (Fragen wird hier # q vorangestellt), allerdings ist das neue Copilot-Chat-Interface in Microsofts Visual Studio Code (VS Code) für Entwickler deutlich zielführender. GitHub Copilot und R-Code GitHub Copilot ist offiziell nicht für R optimiert. Trotzdem ist das Tool in der Lage, Code-Empfehlungen in R auszugeben und beantwortet Fragen in Zusammenhang mit der Programmiersprache zufriedenstellend. Visual Studio Code für R einrichten Leider ist es – verglichen mit der Installation von RStudio – nicht ganz so trivial, VS Code für die Arbeit mit R einzurichten. Das liegt in erster Linie daran, dass Microsofts IDE Hunderte von Programmiersprachen unterstützt. Um zu verhindern, dass die Software unnötig aufgebläht wird, verfolgt Microsoft einen modularen Ansatz. Heißt im Klartext: Die meisten Benutzer müssen Extensions installieren, um VS Code für ihren spezifischen Use Case zu optimieren – so auch R-Programmierer. Das Vorgehen in aller Kürze: Laden Sie Visual Studio Code herunter und installieren Sie es – die Software ist kostenlos für Windows, Mac und Linux-Systeme verfügbar. Dann machen Sie sich in Visual Studio Code auf Extension-Suche und installieren die R-Erweiterung von REditor Support (siehe Screenshot). Sobald Sie Informationen sehen, um die Erweiterung zu konfigurieren und auszuführen, speichern Sie diese Informationen für die spätere Verwendung ab. Diese Extension macht Visual Studio Code fit für den R-Einsatz. Foto: Sharon Machlis | IDG Die Informationen zur Extension im Überblick. Foto: Sharon Machlis | IDG Um Ihre R-Erfahrung mit Visual Studio Code weiter zu optimieren, empfiehlt sich zudem, das Radian-Terminal zu verwenden. Dabei handelt es sich nicht um eine Extension, sondern eine in Python geschriebene Anwendung. Auf Ihrem System muss also Python installiert sein. Da Python und der conda-Paketmanager bereits auf unserem Mac installiert waren, haben wir folgenden Installationsbefehl für radian verwendet: conda install -c conda-forge radian Wenn Sie den Python-Package-Manager verwenden, lautet der Befehl: pip install -U radian Darüber hinaus werden weitere Installlationen für die R-Extension in Visual Studio Code empfohlen: languageserver httpgd VSCode-R-Debugger Zudem können Sie auch Quarto installieren, falls Sie diese Erweiterung nutzen. Bei den Extensions languageserver und httpgd handelt es sich um R-Packages. Diese können Sie also auf die gewohnte Weise über RStudio oder ein R-Terminal installieren, mit: install.packages(“languageserver”) und install.packages(“httpgd”). Dabei ist zu beachten, dass Sie auch RTools installieren müssen, falls Sie languageserver unter Windows ausführen möchten. Um den VS Code R-Debugger, Quarto und/oder ShinyUiEditor zu installieren, können Sie entweder zurück zu VS Code gehen oder die jeweilige Webseite besuchen. VS Code für R konfigurieren Es gibt eine ganze Reihe von Einstellungen, die Sie in Visual Studio Code anpassen können, um Ihre R-Experience zu individualisieren. Beispielsweise können Sie bestimmen, wie viel von einem Objekt angezeigt werden soll, wenn Sie den Mauszeiger darüber bewegen. Oder ob Sie anstelle des VS-Code-Standards lieber den Plot-Viewer httpgd nutzen möchten. Eine Liste der verfügbaren Settings finden Sie hier. Die Einstellungen in Visual Studio Code können Sie auf zweierlei Art und Weise ändern: entweder ganz simpel über die Benutzeroberfläche oder indem Sie die entsprechende JSON-Datei bearbeiten. Darüber hinaus können Sie die Settings-Oberfläche auch über die Command-Palette von VS Code aufrufen. Das stellt einen besonders praktischen Weg dar, auf alle Arten von Funktionen in Visual Studio Code zuzugreifen. Diese rufen Sie mit der Tastenkombination Strg+Shift+P (Windows) beziehungsweise Cmd+Shift+P (Mac) auf. Auf die Einstellungen in VS Code kann auch über die Command Palette zugegriffen werden. Foto: Sharon Machlis | IDG Sobald Sie die Befehlspalette geöffnet haben, können Sie die VS Code-Einstellungen mit dem Befehl Open Settings öffnen. Anschließend haben Sie die Wahl zwischen GUI und der zugrundeliegenden JSON-Datei. Suchen Sie in den Einstellungen nach bracketedPaste und aktivieren Sie es mit einem Klick. In der grafischen Benutzeroberfläche können Sie nach unten scrollen, um eine Liste der Erweiterungen zu sehen, und dann auf R klicken, wo Sie eine Liste mit Auswahlmöglichkeiten für Ihre R-Erweiterung erhalten. Auch der R-Debugger verfügt über eine solche Liste von Anpassungen. Wenn Sie das Radian-Terminal verwenden möchten, müssen Sie das in den Optionen einstellen, indem Sie den Pfad zu Radian für Ihr Betriebssystem hinzufügen. Für einige Anpassungen ist es möglicherweise zielführender, Optionen manuell über die JSON-Datei hinzuzufügen. R in Visual Studio Code ausführen In VS Code ist es üblich, einen Ordner zu öffnen, wenn man mit R arbeitet – statt einfach eine neue Datei zu erstellen. Wenn Sie ein RStudio-ähnliches Setup bevorzugen, wählen Sie über das Menü “Add Folder to Workspace”. Ansonsten öffnen Sie einfach den Ordner und klicken auf das “Explorer”-Symbol in der Navigationsleiste oben links, um die verfügbaren Dateien anzuzeigen. Ähnlich wie in RStudio können Sie eine oder mehrere Codezeilen ausführen, die Sie ausgewählt haben. Das funktioniert mit der Tastenkombination Strg+Enter (Windows) respektive Cmd+Enter (Mac). Wenn Sie in der linken Navigationsleiste auf das R-Symbol klicken, erhalten Sie Informationen darüber, welche Pakete und Objekte in Ihrem Arbeitsbereich geladen sind. Einen Data Frame oder andere Objekte können Sie anzeigen, indem Sie den Mauszeiger über die entsprechende Variable bewegen und auf das Ansichts-Icon rechts klicken. Denselben Zweck erfüllt auch die View()-Funktion im Terminal – beispielsweise View(mtcars). Diese ist durchsuch- und filterbar, wenn auch nicht ganz so elegant wie RStudio. Der Befehl help() führt zu einer HTML-Version des Help Files einer Funktion. Hilfreiche Informationen ganz ohne etwas eingeben zu müssen, bewirkt auch ein Mouseover bei Funktionen. Die Mouseover-Funktion funktioniert auch bei Variablen, die Sie definieren. Foto: Sharon Machlis | IDG Sie können außerdem auch eine Preview von R-Grafiken in VS Code anzeigen, indem Sie Grafikcode in einem Paket wie ggplot2 ausführen. Das Resultat wird in einem neuen Fenster angezeigt. Visual Studio Code verfügt außerdem über eine R-Dataviz-Funktion: Farbennamen oder Hex-Codes in R-Skripten erzeugen eine kleine klickbare Box, die zu einer Farbauswahl führt. Foto: Sharon Machlis | IDG R-Code-Snippets in VS Code Ohne Code-Snippets, kein Code-Editor. Ersteres sind gespeicherte Codeblöcke, die sich einfach wiederverwenden lassen. Einige R-Snippets sind bereits in den R-Extensions für VS Code enthalten. Sie können aber auch Ihre eigenen erstellen. Die Syntax, um ein Snippet in Visual Studio Code zu erstellen: “Snippet Title”: { “prefix”: “what_i_type_to_trigger_snippet”, “body”: [ “my R code here;”, “myfun(${1:argument_label} #example code” ], “description”: “Optional description for my snippet” } Nachfolgend noch ein Beispiel für ein Snippet, das ein einfaches ggplot2-Diagramm mit blauen Balken generiert: “Basic bar plot blue”: { “prefix”: “myg_barplot_blue”, “body”: [ “ggplot(${1:mydata}, aes(x = ${2:myxcol}, y = ${3:myycol})) +”, “geom_col(color = ‘black’, fill=’#0072B2′)” ], “description”: “Basic ggplot bar plot with blue bars outlined in black” } Auch RStudio verfügt über Code-Snippets. Mit VS Code können Sie jedoch auch eine vollständige Liste Ihrer Snippets anzeigen, indem Sie den Befehl “Insert Snippet” in der Command Palette verwenden. Wo Visual Studio Code für R Sinn macht Visual Studio Code hat einige nützliche Funktionen an Bord. Insbesondere die Funktions- und Variablen-Popups können in Code-lastigen Projekten hilfreich sein. Die Möglichkeit sämtliche Snippets einzusehen (einschließlich der Titel und optionalen Beschreibungen) ist eine Funktion, die viele Programmierer wohl auch gerne in RStudio sehen würden. Für R-spezifische Tasks, bei denen Sie keinen Rat von Copilot brauchen, dürfte RStudio dennoch die erste Wahl bleiben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

GitHub Copilot über Umwege: So geht R in Visual Studio Code​ R-Entwickler mit GitHub-Copilot-Bedarf sollten Umwege in Kauf nehmen.
Foto: Kent Weakly | shutterstock.com

Zufriedene Benutzer von RStudio verspüren wahrscheinlich nicht den Drang, eine andere IDE auszuprobieren. Anders sieht es aus, wenn sie nach der besten generativen GitHub-Copilot-Erfahrung streben. Das GenAI-Tool ist zwar auch in RStudio verfügbar (Fragen wird hier # q vorangestellt), allerdings ist das neue Copilot-Chat-Interface in Microsofts Visual Studio Code (VS Code) für Entwickler deutlich zielführender.

GitHub Copilot und R-Code

GitHub Copilot ist offiziell nicht für R optimiert. Trotzdem ist das Tool in der Lage, Code-Empfehlungen in R auszugeben und beantwortet Fragen in Zusammenhang mit der Programmiersprache zufriedenstellend.

Visual Studio Code für R einrichten

Leider ist es – verglichen mit der Installation von RStudio – nicht ganz so trivial, VS Code für die Arbeit mit R einzurichten. Das liegt in erster Linie daran, dass Microsofts IDE Hunderte von Programmiersprachen unterstützt. Um zu verhindern, dass die Software unnötig aufgebläht wird, verfolgt Microsoft einen modularen Ansatz. Heißt im Klartext: Die meisten Benutzer müssen Extensions installieren, um VS Code für ihren spezifischen Use Case zu optimieren – so auch R-Programmierer.

Das Vorgehen in aller Kürze:

Laden Sie Visual Studio Code herunter und installieren Sie es – die Software ist kostenlos für Windows, Mac und Linux-Systeme verfügbar.

Dann machen Sie sich in Visual Studio Code auf Extension-Suche und installieren die R-Erweiterung von REditor Support (siehe Screenshot).

Sobald Sie Informationen sehen, um die Erweiterung zu konfigurieren und auszuführen, speichern Sie diese Informationen für die spätere Verwendung ab.

Diese Extension macht Visual Studio Code fit für den R-Einsatz.
Foto: Sharon Machlis | IDG

Die Informationen zur Extension im Überblick.
Foto: Sharon Machlis | IDG

Um Ihre R-Erfahrung mit Visual Studio Code weiter zu optimieren, empfiehlt sich zudem, das Radian-Terminal zu verwenden. Dabei handelt es sich nicht um eine Extension, sondern eine in Python geschriebene Anwendung. Auf Ihrem System muss also Python installiert sein. Da Python und der conda-Paketmanager bereits auf unserem Mac installiert waren, haben wir folgenden Installationsbefehl für radian verwendet:

conda install -c conda-forge radian

Wenn Sie den Python-Package-Manager verwenden, lautet der Befehl:

pip install -U radian

Darüber hinaus werden weitere Installlationen für die R-Extension in Visual Studio Code empfohlen:

languageserver

httpgd

VSCode-R-Debugger

Zudem können Sie auch Quarto installieren, falls Sie diese Erweiterung nutzen. Bei den Extensions languageserver und httpgd handelt es sich um R-Packages. Diese können Sie also auf die gewohnte Weise über RStudio oder ein R-Terminal installieren, mit:

install.packages(“languageserver”) und

install.packages(“httpgd”).

Dabei ist zu beachten, dass Sie auch RTools installieren müssen, falls Sie languageserver unter Windows ausführen möchten. Um den VS Code R-Debugger, Quarto und/oder ShinyUiEditor zu installieren, können Sie entweder zurück zu VS Code gehen oder die jeweilige Webseite besuchen.

VS Code für R konfigurieren

Es gibt eine ganze Reihe von Einstellungen, die Sie in Visual Studio Code anpassen können, um Ihre R-Experience zu individualisieren. Beispielsweise können Sie bestimmen, wie viel von einem Objekt angezeigt werden soll, wenn Sie den Mauszeiger darüber bewegen. Oder ob Sie anstelle des VS-Code-Standards lieber den Plot-Viewer httpgd nutzen möchten. Eine Liste der verfügbaren Settings finden Sie hier.

Die Einstellungen in Visual Studio Code können Sie auf zweierlei Art und Weise ändern: entweder ganz simpel über die Benutzeroberfläche oder indem Sie die entsprechende JSON-Datei bearbeiten. Darüber hinaus können Sie die Settings-Oberfläche auch über die Command-Palette von VS Code aufrufen. Das stellt einen besonders praktischen Weg dar, auf alle Arten von Funktionen in Visual Studio Code zuzugreifen. Diese rufen Sie mit der Tastenkombination Strg+Shift+P (Windows) beziehungsweise Cmd+Shift+P (Mac) auf.

Auf die Einstellungen in VS Code kann auch über die Command Palette zugegriffen werden.
Foto: Sharon Machlis | IDG

Sobald Sie die Befehlspalette geöffnet haben, können Sie die VS Code-Einstellungen mit dem Befehl Open Settings öffnen. Anschließend haben Sie die Wahl zwischen GUI und der zugrundeliegenden JSON-Datei. Suchen Sie in den Einstellungen nach bracketedPaste und aktivieren Sie es mit einem Klick.

In der grafischen Benutzeroberfläche können Sie nach unten scrollen, um eine Liste der Erweiterungen zu sehen, und dann auf R klicken, wo Sie eine Liste mit Auswahlmöglichkeiten für Ihre R-Erweiterung erhalten. Auch der R-Debugger verfügt über eine solche Liste von Anpassungen. Wenn Sie das Radian-Terminal verwenden möchten, müssen Sie das in den Optionen einstellen, indem Sie den Pfad zu Radian für Ihr Betriebssystem hinzufügen. Für einige Anpassungen ist es möglicherweise zielführender, Optionen manuell über die JSON-Datei hinzuzufügen.

R in Visual Studio Code ausführen

In VS Code ist es üblich, einen Ordner zu öffnen, wenn man mit R arbeitet – statt einfach eine neue Datei zu erstellen. Wenn Sie ein RStudio-ähnliches Setup bevorzugen, wählen Sie über das Menü “Add Folder to Workspace”. Ansonsten öffnen Sie einfach den Ordner und klicken auf das “Explorer”-Symbol in der Navigationsleiste oben links, um die verfügbaren Dateien anzuzeigen. Ähnlich wie in RStudio können Sie eine oder mehrere Codezeilen ausführen, die Sie ausgewählt haben. Das funktioniert mit der Tastenkombination Strg+Enter (Windows) respektive Cmd+Enter (Mac).

Wenn Sie in der linken Navigationsleiste auf das R-Symbol klicken, erhalten Sie Informationen darüber, welche Pakete und Objekte in Ihrem Arbeitsbereich geladen sind. Einen Data Frame oder andere Objekte können Sie anzeigen, indem Sie den Mauszeiger über die entsprechende Variable bewegen und auf das Ansichts-Icon rechts klicken.

Denselben Zweck erfüllt auch die View()-Funktion im Terminal – beispielsweise View(mtcars). Diese ist durchsuch- und filterbar, wenn auch nicht ganz so elegant wie RStudio. Der Befehl help() führt zu einer HTML-Version des Help Files einer Funktion. Hilfreiche Informationen ganz ohne etwas eingeben zu müssen, bewirkt auch ein Mouseover bei Funktionen.

Die Mouseover-Funktion funktioniert auch bei Variablen, die Sie definieren.
Foto: Sharon Machlis | IDG

Sie können außerdem auch eine Preview von R-Grafiken in VS Code anzeigen, indem Sie Grafikcode in einem Paket wie ggplot2 ausführen. Das Resultat wird in einem neuen Fenster angezeigt.

Visual Studio Code verfügt außerdem über eine R-Dataviz-Funktion: Farbennamen oder Hex-Codes in R-Skripten erzeugen eine kleine klickbare Box, die zu einer Farbauswahl führt.
Foto: Sharon Machlis | IDG

R-Code-Snippets in VS Code

Ohne Code-Snippets, kein Code-Editor. Ersteres sind gespeicherte Codeblöcke, die sich einfach wiederverwenden lassen. Einige R-Snippets sind bereits in den R-Extensions für VS Code enthalten. Sie können aber auch Ihre eigenen erstellen.

Die Syntax, um ein Snippet in Visual Studio Code zu erstellen:

“Snippet Title”: {

“prefix”: “what_i_type_to_trigger_snippet”,

“body”: [

“my R code here;”,

“myfun(${1:argument_label} #example code”

],

“description”: “Optional description for my snippet”

}

Nachfolgend noch ein Beispiel für ein Snippet, das ein einfaches ggplot2-Diagramm mit blauen Balken generiert:

“Basic bar plot blue”: {

“prefix”: “myg_barplot_blue”,

“body”: [

“ggplot(${1:mydata}, aes(x = ${2:myxcol}, y = ${3:myycol})) +”,

“geom_col(color = ‘black’, fill=’#0072B2′)”

],

“description”: “Basic ggplot bar plot with blue bars outlined in black”

}

Auch RStudio verfügt über Code-Snippets. Mit VS Code können Sie jedoch auch eine vollständige Liste Ihrer Snippets anzeigen, indem Sie den Befehl “Insert Snippet” in der Command Palette verwenden.

Wo Visual Studio Code für R Sinn macht

Visual Studio Code hat einige nützliche Funktionen an Bord. Insbesondere die Funktions- und Variablen-Popups können in Code-lastigen Projekten hilfreich sein. Die Möglichkeit sämtliche Snippets einzusehen (einschließlich der Titel und optionalen Beschreibungen) ist eine Funktion, die viele Programmierer wohl auch gerne in RStudio sehen würden. Für R-spezifische Tasks, bei denen Sie keinen Rat von Copilot brauchen, dürfte RStudio dennoch die erste Wahl bleiben. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

GitHub Copilot über Umwege: So geht R in Visual Studio Code​ Weiterlesen »

So vermeiden Sie KI-Inkompetenz im Unternehmen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wieviel KI-Kompetenz Mitarbeitende aufweisen müssen, hängt von verschiedenen Faktoren ab. BearFotos – Shutterstock.com Seit dem zweiten Februar 2025 sind alle Unternehmen gemäß Artikel 4 der KI-Verordnung verpflichtet, Maßnahmen zu ergreifen, damit ihr Personal sowie Externe, die in ihrem Betrieb mit KI-Systemen in Berührung kommen, über eine ausreichende KI-Kompetenz verfügen. Betroffen sind Betreiber, also Unternehmen, die KI-Systeme intern einsetzen, sowie Hersteller, die KI-Systeme oder Generative Purpose AI Modelle auf dem EU-Markt anbieten. Hierzu gehört es auch, das Personal sowie die Externen zu schulen – und zwar im Hinblick auf die Funktionsweisen von KI-Systemen, die Chancen und Risiken, die diese bieten, sowie die rechtlichen Vorgaben und ethischen Standards. Bei der Umsetzung stellen sich dennoch einige Fragen, denen dieser Beitrag auf den Grund gehen möchte. KI-Kompetenz? Was ist das? Der Unionsgesetzgeber definiert KI-Kompetenz als „die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und […] ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“ (Art. 3 Nr. 56 KI-Verordnung). Keine Hinweise gibt Artikel 4 der KI-Verordnung allerdings dazu, wie und in welchem Detaillierungsgrad diese Fähigkeiten, diese Kenntnisse und dieses Verständnis von KI erworben werden sollen. Diese Rechtsunsicherheit hat Vor- und Nachteile zugleich. Denn damit geht auch eine gewisse Umsetzungsfreiheit einher. Jüngst hat die EU-Kommission 35 Fragen zu der Thematik in Form einer FAQ beantwortet, allerdings kratzen die Antworten nur an der Oberfläche – wesentlich Neues ist den Antworten nur vereinzelt zu entnehmen. Technik, Recht, Ethik im Dreiklang Wichtig ist zunächst, dass die Verpflichtung nicht nur im Hinblick auf das eigene Personal gilt, sondern auch für Externe, die für das betroffene Unternehmen KI-Systeme verwenden. So sollen „Wissenslücken“ und damit verbundene Risiken bei der Anwendung vermieden werden.  Doch welches Wissen ist zu vermitteln? Artikel 4 der KI-Verordnung spricht von einem „ausreichenden Maß“ an KI-Kompetenz, wonach sich ein Unternehmen „nach besten Kräften bemüht“ soll. Wann gilt dies also erfüllt? Die KI-Verordnung verfolgt einen sogenannten „risikobasierten Ansatz“. Je risikoreicher ein KI-System für den Menschen und seine Grundrechte ist, desto strikter ist dieses reguliert. Dieser Ansatz findet sich in Artikel 4 der KI-Verordnung nicht ausdrücklich wieder. Jedes Unternehmen unterliegt erst einmal unabhängig vom Risikograd der eingesetzten KI-Systeme der Pflicht, KI-Kompetenz bei sich aufzubauen. Dennoch ist dieser risikobasierte Ansatz in Artikel 4 KI-Verordnung hineinzulesen. Abhängig von der Tätigkeit des Personals, der Verantwortung der Mitarbeitenden und Externen für den Einsatz von KI-Systemen im Unternehmen und dem Umgang damit, wird eine unterschiedliche Tiefe an Wissen im Hinblick auf die Funktionsweisen der eingesetzten KI-Systeme, die Chancen und Risiken, welche diese bieten sowie die rechtlichen Vorgaben und ethischen Standards erforderlich sein.  Technisches, rechtliches und ethisches Verständnis lautet der „Dreiklang“. Ein „ausreichendes Maß“ an KI-Kompetenz ist ferner in Relation zu der oben genannten Tätigkeit des Personals, der technischen (Vor-)Kenntnis, der Erfahrung, der Ausbildung sowie der Schulung des Personals und Externer zu sehen. Ebenfalls eine Rolle spielt laut Artikel 4 der KI-Verordnung, wozu die KI verwendet wird. Setzt ein Unternehmen beispielsweise zum Recruiting von Mitarbeitenden beim Auswahlverfahren KI-Systeme ein, handelt es sich in der Regel um Hochrisiko-KI. Personen, die mit solchen KI-Systemen in Berührung kommen, benötigen ein anderes Grundverständnisses als Personen, die nur mit KI-basierten Textbearbeitungsprogrammen oder LLM-basierten Sprachassistenten agieren. Die Vermittlung des erforderlichen Grundverständnisses erfolgt über Schulungen. Diese können vor Ort oder in Form von Online-Schulungen oder auch E-Learning-Tools erfolgen. Entscheidend ist auch, dass die Schulung im Hinblick auf die im Unternehmen eingesetzten KI-Systeme und deren spezifische Risiken erfolgen muss, nicht einzeln pro KI-System. Bereichs- und funktionsübergreifend sollten Unternehmen daher auch interne Standards und Richtlinien erlassen, die beschreiben, welche KI-Systeme zur Erfüllung wann eingesetzt werden dürfen – und dass nur die vom Unternehmen freigegeben KI-Systeme zu verwenden sind. Dafür kann es ratsam sein, eine sogenannte „Acceptable Use Policy (AUP)“ auszuarbeiten. Beispielsweise kann eine solche Richtlinie vorsehen, dass ein LLM-basierter Chatbot nur verwendet werden darf, wenn keine sensiblen Daten (etwa Kundendaten, Geschäftsgeheimnisse oder fehlendes Know-How) eingegeben werden oder der Chatbot nicht anhand der Eingabedaten lernt. Sanktionen und Verstöße Beachtenswert ist, dass eine Verletzung von Artikel 4 der KI-Verordnung nicht mit einem Bußgeld geahndet werden kann. Es handelt sich um eine Pflicht, bei der ein Verhalten geschuldet ist („nach besten Kräften bemühen“) und kein konkreter Erfolg. Die KI-Kompetenz spielt aber bei der Frage des „Ob“ und des „Wie“ von Bußgeldern bei anderen Verstößen der KI-Verordnung eine Rolle: Kann ein Unternehmen nicht nachweisen, dass bei ihm ausreichend KI-Kompetenz besteht, fällt das Bußgeld möglicherweise höher aus. Das gilt insbesondere, wenn der Verstoß auch darauf zurückzuführen ist. Auch bei der Bewertung von Schadensersatzansprüchen kann dies eine Rolle spielen. So dürfte ein Gericht eine fehlende KI-Kompetenz mangels Schulung regelmäßig bei der Frage des Sorgfaltsmaßstabs und Verschuldens mitberücksichtigen. Aber auch aus arbeits(schutz)rechtlicher Sicht sollte das Thema nicht auf die leichte Schulter gelegt werden. So sind Unternehmen gemäß § 3 Abs. 1 ArbSchG verpflichtet, alle erforderlichen Maßnahmen zum Schutz der Sicherheit und Gesundheit der Beschäftigten bei der Arbeit zu treffen. Insbesondere verlangt § 5 ArbSchG eine Gefährdungsbeurteilung, in der auch neue Technologien wie KI-Systeme berücksichtigt werden müssen, sofern sie – unter anderem – Gefahren als Arbeitsmittel mit sich bringen. Kommen hierbei Risiken zutage, ist der Arbeitgeber gemäß § 12 ArbSchG verpflichtet, die Beschäftigten angemessen zu unterweisen. Eine unterlassene Schulung im Umgang mit KI kann einen Verstoß gegen diese zentralen arbeitsschutzrechtlichen Pflichten darstellen. Ein Verstoß gegen diese Unterweisungspflicht nach § 12 ArbSchG in Verbindung mit Artikel 4 der KI-Verordnung kann zu aufsichtsrechtlichen Maßnahmen (vergleiche § 22 ArbSchG) und Bußgeldern führen – bis zu 30.000 Euro. Kein Papiertiger Die Pflicht, ausreichende KI-Kompetenz sicherzustellen, ist weitreichend und betrifft alle Anbieter und Betreiber von KI-Systemen – unabhängig vom Risikoniveau der eingesetzten Technologie. Auch wenn die Norm bewusst offen gehalten ist und keine konkreten Maßnahmen vorschreibt, ergibt sich daraus kein Beliebigkeitsspielraum, sondern ein kontextbezogener Handlungsauftrag: KI-Kompetenz muss situationsgerecht, adressatenbezogen und risikoadäquat gewährleistet werden. Diese Flexibilität bietet Unternehmen zwar Spielräume bei der Umsetzung, entbindet sie aber keinesfalls von der Verantwortung. Im Gegenteil: Die Absicherung durch klare Lernpfade, dokumentierte Schulungsmaßnahmen, technische Richtlinien und kontinuierliche Evaluierung ist essenziell – nicht nur zur rechtssicheren Erfüllung regulatorischer Anforderungen, sondern auch zur Minimierung haftungsrechtlicher und reputativer Risiken. Insbesondere bei Hochrisiko-KI-Systemen ist eine strukturierte, nachweisbare und rollenbasierte Vermittlung von KI-Kompetenz unabdingbar. Der Aufbau eines belastbaren KI-Kompetenzfundaments wird damit zum Compliance-Faktor. Zugleich können solche Schulungen auch unabhängig von den rechtlichen Fragestellungen helfen, Ängste von Mitarbeitenden zu reduzieren, eine positive Kultur im Umgang mit KI zu fördern und bessere Ergebnisse mit KI zu produzieren. KI-Kompetenz ist somit nicht nur eine Vermeidung von Schäden, sondern auch eine Investition in die Zukunft. (mb) width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> 

So vermeiden Sie KI-Inkompetenz im Unternehmen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1942909690_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wieviel KI-Kompetenz Mitarbeitende aufweisen müssen, hängt von verschiedenen Faktoren ab. BearFotos – Shutterstock.com

Seit dem zweiten Februar 2025 sind alle Unternehmen gemäß Artikel 4 der KI-Verordnung verpflichtet, Maßnahmen zu ergreifen, damit ihr Personal sowie Externe, die in ihrem Betrieb mit KI-Systemen in Berührung kommen, über eine ausreichende KI-Kompetenz verfügen.

Betroffen sind Betreiber, also Unternehmen, die KI-Systeme intern einsetzen, sowie Hersteller, die KI-Systeme oder Generative Purpose AI Modelle auf dem EU-Markt anbieten. Hierzu gehört es auch, das Personal sowie die Externen zu schulen – und zwar im Hinblick auf die Funktionsweisen von KI-Systemen, die Chancen und Risiken, die diese bieten, sowie die rechtlichen Vorgaben und ethischen Standards.

Bei der Umsetzung stellen sich dennoch einige Fragen, denen dieser Beitrag auf den Grund gehen möchte.

KI-Kompetenz? Was ist das?

Der Unionsgesetzgeber definiert KI-Kompetenz als „die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“ (Art. 3 Nr. 56 KI-Verordnung).

Keine Hinweise gibt Artikel 4 der KI-Verordnung allerdings dazu, wie und in welchem Detaillierungsgrad diese Fähigkeiten, diese Kenntnisse und dieses Verständnis von KI erworben werden sollen.

Diese Rechtsunsicherheit hat Vor- und Nachteile zugleich. Denn damit geht auch eine gewisse Umsetzungsfreiheit einher. Jüngst hat die EU-Kommission 35 Fragen zu der Thematik in Form einer FAQ beantwortet, allerdings kratzen die Antworten nur an der Oberfläche – wesentlich Neues ist den Antworten nur vereinzelt zu entnehmen.

Technik, Recht, Ethik im Dreiklang

Wichtig ist zunächst, dass die Verpflichtung nicht nur im Hinblick auf das eigene Personal gilt, sondern auch für Externe, die für das betroffene Unternehmen KI-Systeme verwenden. So sollen „Wissenslücken“ und damit verbundene Risiken bei der Anwendung vermieden werden. 

Doch welches Wissen ist zu vermitteln? Artikel 4 der KI-Verordnung spricht von einem „ausreichenden Maß“ an KI-Kompetenz, wonach sich ein Unternehmen „nach besten Kräften bemüht“ soll. Wann gilt dies also erfüllt?

Die KI-Verordnung verfolgt einen sogenannten „risikobasierten Ansatz“. Je risikoreicher ein KI-System für den Menschen und seine Grundrechte ist, desto strikter ist dieses reguliert. Dieser Ansatz findet sich in Artikel 4 der KI-Verordnung nicht ausdrücklich wieder. Jedes Unternehmen unterliegt erst einmal unabhängig vom Risikograd der eingesetzten KI-Systeme der Pflicht, KI-Kompetenz bei sich aufzubauen. Dennoch ist dieser risikobasierte Ansatz in Artikel 4 KI-Verordnung hineinzulesen.

Abhängig von der Tätigkeit des Personals, der Verantwortung der Mitarbeitenden und Externen für den Einsatz von KI-Systemen im Unternehmen und dem Umgang damit, wird eine unterschiedliche Tiefe an Wissen im Hinblick auf die Funktionsweisen der eingesetzten KI-Systeme, die Chancen und Risiken, welche diese bieten sowie die rechtlichen Vorgaben und ethischen Standards erforderlich sein.  Technisches, rechtliches und ethisches Verständnis lautet der „Dreiklang“.

Ein „ausreichendes Maß“ an KI-Kompetenz ist ferner in Relation zu

der oben genannten Tätigkeit des Personals,

der technischen (Vor-)Kenntnis,

der Erfahrung,

der Ausbildung sowie

der Schulung des Personals und Externer

zu sehen.

Ebenfalls eine Rolle spielt laut Artikel 4 der KI-Verordnung, wozu die KI verwendet wird. Setzt ein Unternehmen beispielsweise zum Recruiting von Mitarbeitenden beim Auswahlverfahren KI-Systeme ein, handelt es sich in der Regel um Hochrisiko-KI. Personen, die mit solchen KI-Systemen in Berührung kommen, benötigen ein anderes Grundverständnisses als Personen, die nur mit KI-basierten Textbearbeitungsprogrammen oder LLM-basierten Sprachassistenten agieren.

Die Vermittlung des erforderlichen Grundverständnisses erfolgt über Schulungen. Diese können vor Ort oder in Form von Online-Schulungen oder auch E-Learning-Tools erfolgen. Entscheidend ist auch, dass die Schulung im Hinblick auf die im Unternehmen eingesetzten KI-Systeme und deren spezifische Risiken erfolgen muss, nicht einzeln pro KI-System.

Bereichs- und funktionsübergreifend sollten Unternehmen daher auch interne Standards und Richtlinien erlassen, die beschreiben, welche KI-Systeme zur Erfüllung wann eingesetzt werden dürfen – und dass nur die vom Unternehmen freigegeben KI-Systeme zu verwenden sind. Dafür kann es ratsam sein, eine sogenannte „Acceptable Use Policy (AUP)“ auszuarbeiten. Beispielsweise kann eine solche Richtlinie vorsehen, dass ein LLM-basierter Chatbot nur verwendet werden darf, wenn keine sensiblen Daten (etwa Kundendaten, Geschäftsgeheimnisse oder fehlendes Know-How) eingegeben werden oder der Chatbot nicht anhand der Eingabedaten lernt.

Sanktionen und Verstöße

Beachtenswert ist, dass eine Verletzung von Artikel 4 der KI-Verordnung nicht mit einem Bußgeld geahndet werden kann. Es handelt sich um eine Pflicht, bei der ein Verhalten geschuldet ist („nach besten Kräften bemühen“) und kein konkreter Erfolg.

Die KI-Kompetenz spielt aber bei der Frage des „Ob“ und des „Wie“ von Bußgeldern bei anderen Verstößen der KI-Verordnung eine Rolle: Kann ein Unternehmen nicht nachweisen, dass bei ihm ausreichend KI-Kompetenz besteht, fällt das Bußgeld möglicherweise höher aus. Das gilt insbesondere, wenn der Verstoß auch darauf zurückzuführen ist.

Auch bei der Bewertung von Schadensersatzansprüchen kann dies eine Rolle spielen. So dürfte ein Gericht eine fehlende KI-Kompetenz mangels Schulung regelmäßig bei der Frage des Sorgfaltsmaßstabs und Verschuldens mitberücksichtigen.

Aber auch aus arbeits(schutz)rechtlicher Sicht sollte das Thema nicht auf die leichte Schulter gelegt werden. So sind Unternehmen gemäß § 3 Abs. 1 ArbSchG verpflichtet, alle erforderlichen Maßnahmen zum Schutz der Sicherheit und Gesundheit der Beschäftigten bei der Arbeit zu treffen. Insbesondere verlangt § 5 ArbSchG eine Gefährdungsbeurteilung, in der auch neue Technologien wie KI-Systeme berücksichtigt werden müssen, sofern sie – unter anderem – Gefahren als Arbeitsmittel mit sich bringen.

Kommen hierbei Risiken zutage, ist der Arbeitgeber gemäß § 12 ArbSchG verpflichtet, die Beschäftigten angemessen zu unterweisen. Eine unterlassene Schulung im Umgang mit KI kann einen Verstoß gegen diese zentralen arbeitsschutzrechtlichen Pflichten darstellen. Ein Verstoß gegen diese Unterweisungspflicht nach § 12 ArbSchG in Verbindung mit Artikel 4 der KI-Verordnung kann zu aufsichtsrechtlichen Maßnahmen (vergleiche § 22 ArbSchG) und Bußgeldern führen – bis zu 30.000 Euro.

Kein Papiertiger

Die Pflicht, ausreichende KI-Kompetenz sicherzustellen, ist weitreichend und betrifft alle Anbieter und Betreiber von KI-Systemen – unabhängig vom Risikoniveau der eingesetzten Technologie. Auch wenn die Norm bewusst offen gehalten ist und keine konkreten Maßnahmen vorschreibt, ergibt sich daraus kein Beliebigkeitsspielraum, sondern ein kontextbezogener Handlungsauftrag: KI-Kompetenz muss situationsgerecht, adressatenbezogen und risikoadäquat gewährleistet werden.

Diese Flexibilität bietet Unternehmen zwar Spielräume bei der Umsetzung, entbindet sie aber keinesfalls von der Verantwortung. Im Gegenteil: Die Absicherung durch klare Lernpfade, dokumentierte Schulungsmaßnahmen, technische Richtlinien und kontinuierliche Evaluierung ist essenziell – nicht nur zur rechtssicheren Erfüllung regulatorischer Anforderungen, sondern auch zur Minimierung haftungsrechtlicher und reputativer Risiken.

Insbesondere bei Hochrisiko-KI-Systemen ist eine strukturierte, nachweisbare und rollenbasierte Vermittlung von KI-Kompetenz unabdingbar.

Der Aufbau eines belastbaren KI-Kompetenzfundaments wird damit zum Compliance-Faktor. Zugleich können solche Schulungen auch unabhängig von den rechtlichen Fragestellungen helfen, Ängste von Mitarbeitenden zu reduzieren, eine positive Kultur im Umgang mit KI zu fördern und bessere Ergebnisse mit KI zu produzieren. KI-Kompetenz ist somit nicht nur eine Vermeidung von Schäden, sondern auch eine Investition in die Zukunft. (mb)

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

So vermeiden Sie KI-Inkompetenz im Unternehmen​ Weiterlesen »

Souveräne US-Clouds in Europa – nur eine Lüge?​

Allgemein

Der Traum sicherer, souveräner US-Clouds in Europa ist jüngst wie eine Seifenblase zerplatzt tete_escape – Shutterstock.com Seit der veränderten geopolitischen Lage und dem erratisch agierenden Mann im Weißen Haus hat in Europa ein Thema Hochkonjunktur: Der Wunsch nach souveränen Cloud-Angeboten, die sicher vor dem Zugriff ausländischer Behörden sind. Angestrebt wird dabei eine Souveränität auf Daten-, Betriebs- und technologischer Ebene. Eine Entwicklung, die auch die US-Anbieter wachgerüttelt hat, sahen sie doch aufgrund des neuen Sicherheitsbedürfnisses der Europäer plötzlich ihre Felle davon schwimmen. Und dies, nachdem sie in den letzten Jahren so prächtig in Europa verdient hatten. Doch die US-Anbieter waren um eine Antwort nicht verlegen und erfanden flugs eigene „souveräne“ Lösungen. So wirbt etwa Microsoft für die eigene Microsoft Sovereign Cloud mit den Worten „Stärken Sie digitale Resilienz“. Auch die beiden anderen großen US-Hyperscaler fanden schnell eine Antwort. Die Sovereign-Angebote der Hyperscaler Google erweiterte seine Cloud-Angebote für digitale Souveränität und landete noch einen besonderen Coup: Eine Zusammenarbeit mit dem BSI in Sachen Souveränität. Eine Kooperation, die von verschiedenen Seiten heftig kritisiert wurde. So schrieb die Gesellschaft für Informatik etwa: „Die BSI-Google Zusammenarbeit ist ein potenzieller Booster für digitale Abhängigkeit und Erpressbarkeit Deutschlands von den USA.“ Und Amazons IT-Tochter kündigte an, eine AWS European Souvereign Cloud im Verlauf des Jahres 2025 einzuführen. Dabei handle es sich um „eine neue, unabhängige Cloud für Europa, die darauf ausgelegt ist, Kunden dabei zu unterstützen, ihre sich wandelnden Souveränitätsanforderungen zu erfüllen“, versprach AWS. Mit Oracle kündigte erst Mitte Juli ein weiterer großer US-Anbieter an, in Deutschland zwei Milliarden Dollar investieren zu wollen, um die „neuesten souveränen KI- und Multicloud-Funktionen“ zu offerieren. Anspruch und Wirklichkeit Allen Angeboten gemeinsam war das Versprechen, dass die Daten in den souveränen Lösungen – trotz rechtlicher Vorgaben wie dem US CLOUD-Act, Patriot Act und anderer Gesetze – vor dem Zugriff der US-Behörden sicher seien. Ein Traum, der diese Woche jäh zerplatzte, als öffentlich bekannt wurde, was Anton Carniaux, Chefjustiziar von Microsoft Frankreich, Mitte Juni bei einer Anhörung im französischen Parlament unter Eid aussagte. Er musste damals kleinmütig einräumen, dass Microsoft – entgegen allen Werbeversprechen – nicht verhindern könne, dass sich die USA Zugriff auf Daten in der EU-Cloud verschaffen. So gab er zu, dass Microsoft Daten übermitteln müsse, wenn die Anfrage der Regierung beziehungsweise der US-Behörden gut formuliert sei. Dabei unterschied er zwischen begründeten und unbegründeten Forderungen. Des Weiteren verwies er darauf, dass Microsoft erreicht habe, dass solche Anfragen nun „viel gezielter, präziser, begründeter und rechtlich abgesicherter sind. Unter Obama konnten die Forderungen sehr weit gefasst, unklar definiert und rechtlich unklar sein.“ Kritik aus Deutschland Für Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, endet die Datenhoheit dort, wo US-Recht greift. Jan Burau Eine Nachricht, die in Sachen Cloud-Sicherheit wie eine Bombe einschlug. Die ganzen Versprechen der US-Anbieter in Sachen Souveränität entpuppten sich auf einen Schlag als feuchter Traum. Oder wie es Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, einem RZ-Betreiber in Frankfurt, in einem Kommentar meint: „Mittlerweile muss jedem klar sein, dass Sicherheit eine Illusion ist, solange europäische Unternehmen und öffentliche Stellen auf Cloud-Dienste US-amerikanischer Anbieter setzen – und ja, das gilt auch dann, wenn Anbieter mit Rechenzentren in Europa werben.“ Und Evans legt noch nach: „Europas juristische Kontrolle und Datenhoheit enden dort, wo US-Recht greift. Das ist bei jedem US-Anbieter der Fall, ganz gleich, wo die Server physisch stehen. Ich halte es deshalb für dringend erforderlich, den Fokus wieder auf europäische Lösungen zu richten. Denn nur europäische Rechenzentrumsbetreiber unterliegen ausschließlich dem europäischen Rechtsrahmen…“ Es gelte daher, die Debatte nicht länger um technische Fassaden zu führen, sondern klar zu benennen, wo echte digitale Souveränität beginnt: nämlich bei der Wahl der Infrastruktur. „Wer personenbezogene und sensible Daten schützen will, muss auf europäische Anbieter setzen. Alles andere bleibt ein Kompromiss auf Kosten der Sicherheit und der Selbstbestimmung über unsere Daten“, so Evans.   

Souveräne US-Clouds in Europa – nur eine Lüge?​ Der Traum sicherer, souveräner US-Clouds in Europa ist jüngst wie eine Seifenblase zerplatzt
tete_escape – Shutterstock.com

Seit der veränderten geopolitischen Lage und dem erratisch agierenden Mann im Weißen Haus hat in Europa ein Thema Hochkonjunktur: Der Wunsch nach souveränen Cloud-Angeboten, die sicher vor dem Zugriff ausländischer Behörden sind. Angestrebt wird dabei eine Souveränität auf Daten-, Betriebs- und technologischer Ebene.

Eine Entwicklung, die auch die US-Anbieter wachgerüttelt hat, sahen sie doch aufgrund des neuen Sicherheitsbedürfnisses der Europäer plötzlich ihre Felle davon schwimmen. Und dies, nachdem sie in den letzten Jahren so prächtig in Europa verdient hatten.

Doch die US-Anbieter waren um eine Antwort nicht verlegen und erfanden flugs eigene „souveräne“ Lösungen. So wirbt etwa Microsoft für die eigene Microsoft Sovereign Cloud mit den Worten „Stärken Sie digitale Resilienz“. Auch die beiden anderen großen US-Hyperscaler fanden schnell eine Antwort.

Die Sovereign-Angebote der Hyperscaler

Google erweiterte seine Cloud-Angebote für digitale Souveränität und landete noch einen besonderen Coup: Eine Zusammenarbeit mit dem BSI in Sachen Souveränität. Eine Kooperation, die von verschiedenen Seiten heftig kritisiert wurde. So schrieb die Gesellschaft für Informatik etwa: „Die BSI-Google Zusammenarbeit ist ein potenzieller Booster für digitale Abhängigkeit und Erpressbarkeit Deutschlands von den USA.“

Und Amazons IT-Tochter kündigte an, eine AWS European Souvereign Cloud im Verlauf des Jahres 2025 einzuführen. Dabei handle es sich um „eine neue, unabhängige Cloud für Europa, die darauf ausgelegt ist, Kunden dabei zu unterstützen, ihre sich wandelnden Souveränitätsanforderungen zu erfüllen“, versprach AWS. Mit Oracle kündigte erst Mitte Juli ein weiterer großer US-Anbieter an, in Deutschland zwei Milliarden Dollar investieren zu wollen, um die „neuesten souveränen KI- und Multicloud-Funktionen“ zu offerieren.

Anspruch und Wirklichkeit

Allen Angeboten gemeinsam war das Versprechen, dass die Daten in den souveränen Lösungen – trotz rechtlicher Vorgaben wie dem US CLOUD-Act, Patriot Act und anderer Gesetze – vor dem Zugriff der US-Behörden sicher seien. Ein Traum, der diese Woche jäh zerplatzte, als öffentlich bekannt wurde, was Anton Carniaux, Chefjustiziar von Microsoft Frankreich, Mitte Juni bei einer Anhörung im französischen Parlament unter Eid aussagte.

Er musste damals kleinmütig einräumen, dass Microsoft – entgegen allen Werbeversprechen – nicht verhindern könne, dass sich die USA Zugriff auf Daten in der EU-Cloud verschaffen. So gab er zu, dass Microsoft Daten übermitteln müsse, wenn die Anfrage der Regierung beziehungsweise der US-Behörden gut formuliert sei. Dabei unterschied er zwischen begründeten und unbegründeten Forderungen.

Des Weiteren verwies er darauf, dass Microsoft erreicht habe, dass solche Anfragen nun „viel gezielter, präziser, begründeter und rechtlich abgesicherter sind. Unter Obama konnten die Forderungen sehr weit gefasst, unklar definiert und rechtlich unklar sein.“

Kritik aus Deutschland

Für Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, endet die Datenhoheit dort, wo US-Recht greift.
Jan Burau

Eine Nachricht, die in Sachen Cloud-Sicherheit wie eine Bombe einschlug. Die ganzen Versprechen der US-Anbieter in Sachen Souveränität entpuppten sich auf einen Schlag als feuchter Traum. Oder wie es Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, einem RZ-Betreiber in Frankfurt, in einem Kommentar meint: „Mittlerweile muss jedem klar sein, dass Sicherheit eine Illusion ist, solange europäische Unternehmen und öffentliche Stellen auf Cloud-Dienste US-amerikanischer Anbieter setzen – und ja, das gilt auch dann, wenn Anbieter mit Rechenzentren in Europa werben.“

Und Evans legt noch nach: „Europas juristische Kontrolle und Datenhoheit enden dort, wo US-Recht greift. Das ist bei jedem US-Anbieter der Fall, ganz gleich, wo die Server physisch stehen. Ich halte es deshalb für dringend erforderlich, den Fokus wieder auf europäische Lösungen zu richten. Denn nur europäische Rechenzentrumsbetreiber unterliegen ausschließlich dem europäischen Rechtsrahmen…“

Es gelte daher, die Debatte nicht länger um technische Fassaden zu führen, sondern klar zu benennen, wo echte digitale Souveränität beginnt: nämlich bei der Wahl der Infrastruktur. „Wer personenbezogene und sensible Daten schützen will, muss auf europäische Anbieter setzen. Alles andere bleibt ein Kompromiss auf Kosten der Sicherheit und der Selbstbestimmung über unsere Daten“, so Evans.

 

Souveräne US-Clouds in Europa – nur eine Lüge?​ Weiterlesen »

Warum ChatGPT Microsoft Copilot übertrumpft​

Allgemein

Gut gestartet, ist Microsoft Copilot im Laufe der Zeit vom Erfolgskurs abgekommen.Primakov – Shutterstock.com Ich saß nur ein paar Meter entfernt von Microsoft-CEO Satya Nadella, als das Unternehmen 2023 erstmals seine umfassende Copilot-Strategie vorstellte – einschließlich des Plans, Copilot auf allen Windows-PCs zu integrieren. Das Unternehmen befand sich auf Erfolgskurs, und die Microsoft-Mitarbeiter im Raum schienen von den vielversprechenden Plänen für generative KI (GenAI) begeistert. Doch selbst mit dem weltweit meistverbreiteten Desktop-Betriebssystem als Plattform scheint der Copilot-Vorstoß nicht ganz so erfolgreich verlaufen zu sein, wie Microsoft es sich erhofft hatte. Das ist überraschend – schließlich war Microsoft ein früher Investor von OpenAI. Mit dem frühen Start von Bing Chat überholte Microsoft sowohl OpenAI als auch Google und bot den ersten Chatbot mit integrierter Websuche. Microsoft hatte sogar frühzeitig Zugriff auf ein fortschrittlicheres GPT-Modell als jenes, das zu dieser Zeit in ChatGPT verfügbar war. Dann änderte sich alles. Copilot vs. ChatGPT: Die aktuelle Situation Ein aktueller Artikel von Bloomberg liefert nur den jüngsten Beleg für das, was wir bereits wissen: ChatGPT liegt bei den App-Downloads weit vor Copilot. Selbst DeepSeek – trotz Datenschutzbedenken wegen der möglichen Datenübertragung an chinesische Server – schlägt Copilot mittlerweile bei den mobilen App-Downloads. Diese Download-Zahlen spiegeln vermutlich auch das Verhalten der Nutzer auf dem Desktop wider, da viele denselben Chatbot geräteübergreifend verwenden. In letzter Zeit wurde viel darüber berichtet, wie schwer sich Microsoft damit tut, Unternehmen zur Nutzung von Copilot zu bewegen – vor allem, wenn deren Mitarbeitende längst ChatGPT bevorzugen. Kurz gesagt: Copilot bewegt sich nicht in der Richtung, die Microsoft gerne sehen würde. Die Bing-Chat-Illusion Die ursprüngliche Investition von Microsoft in OpenAI im Jahr 2019 belief sich auf eine Milliarde Dollar. Mittlerweile hat das Unternehmen 13 Milliarden Dollar in die Organisation investiert. Allein diese Investition eröffnete Microsoft außergewöhnliche Chancen – und anfangs nutzte das Unternehmen diese auch. OpenAI veröffentlichte ChatGPT im November 2022; Microsoft zog im Februar 2023 mit Bing Chat nach, nur wenige Monate später. Bing Chat war der Höhepunkt der Ambitionen von Microsoft im Bereich generative KI. Der Name war zwar schlecht gewählt – „Bing“ hat keine positiven kulturellen Assoziationen –, aber es war ein einzigartiges Produkt. In vielerlei Hinsicht war Bing Chat ChatGPT damals sogar überlegen: Es hatte eine integrierte Websuche, die ChatGPT zu diesem Zeitpunkt nicht bot. Zudem basierte Bing Chat auf einer frühen Version von GPT-4 – einem fortschrittlicheren Sprachmodell, das in ChatGPT noch nicht verfügbar war. Als Microsoft Bing Chat veröffentlichte, hatte Google noch nicht einmal einen eigenen Chatbot auf den Markt gebracht. Bard, der später zu Gemini weiterentwickelt wurde, erschien erst im März 2023. Trotz dieses Vorsprungs war der Start von Bing Chat ein regelrechtes PR-Desaster. Es schien, als hätte Microsoft nicht ausreichend getestet – und die von Microsoft entwickelte „Sydney“-Persönlichkeit des Chatbots verhielt sich in längeren Gesprächen merkwürdig. Microsoft reagierte, indem es die Anzahl der Nachrichten in einem Bing-Chat-Thread begrenzte – zunächst durfte man nur fünf Nachrichten senden, bevor man einen neuen Thread starten musste. Dadurch wurde der Chatbot für viele Zwecke deutlich weniger nützlich als ChatGPT. Das war der erste Fehler. Als Microsoft Bing Chat sicherer machte, verschwand gleichzeitig auch die chaotische, aber faszinierende „Sydney“-Persönlichkeit – was ebenfalls ein Verlust war. Ja, Bing Chat bekam zwar schlechte Presse – aber auch virale Aufmerksamkeit. Als Microsoft sich dann beeilte, Bing Chat nüchterner und professioneller zu gestalten, verlor es genau diesen viralen Reiz. Vermutlich hätte es einen Mittelweg gegeben: Bing Chat hätte weiterhin spannend bleiben können, wenn man vorab einen Haftungsausschluss akzeptieren müsste, während das Standarderlebnis für normale Suchanfragen gemäßigter gestaltet worden wäre. Doch Microsoft entschied sich nicht dafür. Das war der zweite Fehler. Das Copilot-Branding-Desaster Alle startbedingten Hürden einmal beiseitegelassen: Der Name „Copilot“ wirkt wie das Ergebnis zahlloser Fokusgruppen, während „ChatGPT“ eher technisch und wenig professionell klingt. Wenn Sie und ich als Branding-Berater in einem Konferenzraum sitzen würden, würden wir sagen, dass Copilot als Name einen klaren Vorteil hat. Aber in der realen Welt ist Copilot ein unübersichtlicher Begriff. Microsofts Copilot für Verbraucher, Microsoft 365 Copilot, Copilot+ PCs und Copilot-Pro-Abonnements – das sind alles unterschiedliche Produkte. Es ist ein regelrechtes Labyrinth. Ich werde nicht einmal versuchen, das hier aufzudröseln – das würde zu viele Worte kosten. Im Vergleich dazu ist ChatGPT eine bekannte Größe. Es gibt eine einheitliche Oberfläche – sowohl für den geschäftlichen als auch den privaten Gebrauch. Wenn OpenAI andere Produkte auf den Markt bringt, etwa einen Video-Generator, erhalten diese eigenständige Namen wie „Sora“. Die Bezeichnung „ChatGPT“ wird nicht wie bei Microsoft inflationär für verschiedenste Produkte wiederverwendet. Dritter Fehler. Microsofts Obsession vom „Copilot-Freund” Copilot befindet sich in einer seltsamen Position: Einerseits möchte Microsoft, dass Copilot Ihr neuer KI-Freund wird. Das war zumindest das Ergebnis einer der vielen Redesigns der Copilot-App in den letzten Jahren. Bloomberg schreibt, dass Führungskräfte von Microsoft „die Betonung von Copilot als sympathischer Begleiter als potenziellen Vorteil für eine jüngere Zielgruppe sehen, die KI-Tools eher als Gesprächspartner nutzt”. Das ist eine seltsame Aussage, wenn man bedenkt, dass ChatGPT bei Nutzern genau dieser Altersgruppe mittlerweile vorne liegt! Und obwohl Microsoft möchte, dass Copilot wie ein persönlicher Begleiter wirkt, liefert der Chatbot in der Praxis meist standardisierte Antworten in einem eher nüchternen, geschäftsmäßigen Ton. Das ist zwar subjektiv, aber die Nutzungszahlen bestätigen: Viele Menschen fühlen sich von anderen Assistenten stärker angesprochen. Was die Stimmung betrifft: Die Vibes stimmen einfach nicht. Ein weiterer Minuspunkt – falls noch jemand mitzählt. Die Sichtweise der KI-Enthusiasten Für professionelle Anwendungen hinkt Copilot im Vergleich zu ChatGPT immer noch hinterher – was die Nutzererfahrung betrifft. ChatGPT und auch Gemini bieten Transparenz bei der Modellauswahl: Man kann im Modellumschalter genau auswählen, welches Modell man für eine bestimmte Eingabe verwenden möchte. Bei Copilot hingegen bleibt das Sprachmodell eine Blackbox. Sie senden eine Nachricht und Microsofts interner „Model Router“ leitet sie an das LLM weiter, das laut Microsoft-Tools am besten geeignet ist. Oder bei dem Microsoft Geld spart, weil es billiger zu betreiben ist – man weiß es nicht. Sie haben keine Kontrolle, was es auch schwieriger macht, zu verstehen, warum etwas nicht wie erwartet funktioniert. Während Microsoft früher frühzeitigen Zugang zu den technologischen Fortschritten von OpenAI bot, wirkt Copilot heute deutlich abgehängt. Neue ChatGPT-Funktionen werden oft erst Monate später zu Copilot hinzugefügt. Auch die Windows-App von ChatGPT ist Copilot in vielerlei Hinsicht voraus, und das ist eindeutig nicht das Bild, das Microsoft Nutzern vermitteln möchte. Wenn Sie sich für GenAI interessieren, werden Sie sich wahrscheinlich für ein fortschrittlicheres und besser anpassbares Tool entscheiden – insbesondere, wenn Sie bereit sind, Geld auszugeben. Da sowohl Copilot Pro als auch ChatGPT Plus 20 Dollar pro Monat kosten, werden Sie wahrscheinlich nicht für beides Geld ausgeben – und ChatGPT Plus ist die logische Wahl, es sei denn, Sie möchten KI-Funktionen in Office-Anwendungen wie Word, Excel, PowerPoint und Outlook integriert haben. Genau das und nur das bleibt das Alleinstellungsmerkmal von Copilot Pro. Microsofts Copilot-Herausforderung Alles in allem ist Copilot … in Ordnung. Die zugrunde liegenden Sprachmodelle (LLMs) sind genauso leistungsfähig wie die von OpenAI, und Copilot Pro kann in Microsoft Office durchaus hilfreich sein. Auch Copilot Vision funktioniert gut und ist eine exklusive Funktion. Aber insgesamt bedeutet Microsofts Strategie, OpenAI-Technologien in Copilot zu integrieren, dass sich das Unternehmen nicht wirklich abhebt – vor allem nicht gegenüber Konkurrenten wie OpenAI, Google, Anthropic oder sogar Meta, die jeweils ihre eigenen Modelle anbieten. Ein paar Lichtblicke gibt es allerdings: Das kürzlich eingeführte Copilot Vision etwa – damit kann man in Echtzeit über eine Windows-App mit dem GenAI-Tool sprechen. Das bietet ChatGPT unter Windows bislang nicht. Darüber hinaus ist die Office-Integration wirklich etwas Besonderes – allerdings ist es schwer zu sagen, wie wichtig dies langfristig sein wird. Angesichts des Interesses von OpenAI an einer eigenen Office-Suite  oder der Tatsache, dass offenbar jedes Unternehmen KI-Funktionen in seine Dienste integriert, wirkt KI in Office zwar attraktiv für bestehende Office-Nutzer – aber nicht wie ein echtes Alleinstellungsmerkmal für Microsoft im Gesamtmarkt. Dies gilt insbesondere angesichts der Preisgestaltung: Microsoft verlangt von Unternehmen 30 Dollar pro Nutzer zusätzlich zur bestehenden Microsoft-365-Lizenz für den Einsatz von Copilot. Google hingegen stellt seine Gemini-Funktionen allen zahlenden Workspace-Nutzern zur Verfügung. Langfristig wird Microsoft vermutlich gezwungen sein, sich von OpenAI zu lösen und eigene KI-Modelle für seine Software zu entwickeln. Anzeichen dafür gibt es bereits – und Berichten zufolge ist das Verhältnis zwischen Microsoft und OpenAI ohnehin angespannt. Ein bizarrer Bruch mit Microsofts Windows-Vergangenheit Bloomberg vertritt die Ansicht, dass Microsoft Copilot zu einem „Freund“ machen will – also weniger wie ein klassischer Chatbot, der nur Aufgaben abarbeitet. Mustafa Suleyman, CEO von Microsoft AI, ist Berichten zufolge offenbar der Ansicht, dass „die Menschen letztendlich unterschiedliche KI-Tools verwenden werden, je nachdem, ob sie bei der Arbeit oder zu Hause sind”. Einer der Gründe, warum sich PCs durchgesetzt haben, war, dass man dieselbe Windows-Version und dieselbe Software sowohl im Büro als auch zu Hause verwenden konnte. Das Betriebssystem, auf dem Microsoft Office lief, konnte genauso gut PC-Spiele und andere Programme ausführen. Wissen und Erfahrung im Umgang mit dem Computer ließen sich nahtlos vom Arbeitsplatz auf den Heim-PC übertragen – man musste nicht zwei unterschiedliche Systeme lernen. In einer Zeit, in der immer mehr Menschen von zu Hause aus arbeiten und die Grenzen zwischen Berufs- und Privatleben zunehmend verschwimmen, ergibt es noch weniger Sinn, zu Hause ein anderes GenAI-Tool zu verwenden als bei der Arbeit. Ich denke, Microsoft liegt hier falsch: Menschen wollen dieselben KI-Tools an beiden Orten nutzen. Die eigentliche Frage ist nun, wie viel Zeit Microsoft noch bleibt – falls überhaupt, um seinen Kurs zu korrigieren. (mb) 

Warum ChatGPT Microsoft Copilot übertrumpft​ Gut gestartet, ist Microsoft Copilot im Laufe der Zeit vom Erfolgskurs abgekommen.Primakov – Shutterstock.com

Ich saß nur ein paar Meter entfernt von Microsoft-CEO Satya Nadella, als das Unternehmen 2023 erstmals seine umfassende Copilot-Strategie vorstellte – einschließlich des Plans, Copilot auf allen Windows-PCs zu integrieren. Das Unternehmen befand sich auf Erfolgskurs, und die Microsoft-Mitarbeiter im Raum schienen von den vielversprechenden Plänen für generative KI (GenAI) begeistert. Doch selbst mit dem weltweit meistverbreiteten Desktop-Betriebssystem als Plattform scheint der Copilot-Vorstoß nicht ganz so erfolgreich verlaufen zu sein, wie Microsoft es sich erhofft hatte.

Das ist überraschend – schließlich war Microsoft ein früher Investor von OpenAI. Mit dem frühen Start von Bing Chat überholte Microsoft sowohl OpenAI als auch Google und bot den ersten Chatbot mit integrierter Websuche. Microsoft hatte sogar frühzeitig Zugriff auf ein fortschrittlicheres GPT-Modell als jenes, das zu dieser Zeit in ChatGPT verfügbar war.

Dann änderte sich alles.

Copilot vs. ChatGPT: Die aktuelle Situation

Ein aktueller Artikel von Bloomberg liefert nur den jüngsten Beleg für das, was wir bereits wissen: ChatGPT liegt bei den App-Downloads weit vor Copilot. Selbst DeepSeek – trotz Datenschutzbedenken wegen der möglichen Datenübertragung an chinesische Server – schlägt Copilot mittlerweile bei den mobilen App-Downloads. Diese Download-Zahlen spiegeln vermutlich auch das Verhalten der Nutzer auf dem Desktop wider, da viele denselben Chatbot geräteübergreifend verwenden.

In letzter Zeit wurde viel darüber berichtet, wie schwer sich Microsoft damit tut, Unternehmen zur Nutzung von Copilot zu bewegen – vor allem, wenn deren Mitarbeitende längst ChatGPT bevorzugen. Kurz gesagt: Copilot bewegt sich nicht in der Richtung, die Microsoft gerne sehen würde.

Die Bing-Chat-Illusion

Die ursprüngliche Investition von Microsoft in OpenAI im Jahr 2019 belief sich auf eine Milliarde Dollar. Mittlerweile hat das Unternehmen 13 Milliarden Dollar in die Organisation investiert.

Allein diese Investition eröffnete Microsoft außergewöhnliche Chancen – und anfangs nutzte das Unternehmen diese auch. OpenAI veröffentlichte ChatGPT im November 2022; Microsoft zog im Februar 2023 mit Bing Chat nach, nur wenige Monate später.

Bing Chat war der Höhepunkt der Ambitionen von Microsoft im Bereich generative KI. Der Name war zwar schlecht gewählt – „Bing“ hat keine positiven kulturellen Assoziationen –, aber es war ein einzigartiges Produkt. In vielerlei Hinsicht war Bing Chat ChatGPT damals sogar überlegen: Es hatte eine integrierte Websuche, die ChatGPT zu diesem Zeitpunkt nicht bot. Zudem basierte Bing Chat auf einer frühen Version von GPT-4 – einem fortschrittlicheren Sprachmodell, das in ChatGPT noch nicht verfügbar war.

Als Microsoft Bing Chat veröffentlichte, hatte Google noch nicht einmal einen eigenen Chatbot auf den Markt gebracht. Bard, der später zu Gemini weiterentwickelt wurde, erschien erst im März 2023.

Trotz dieses Vorsprungs war der Start von Bing Chat ein regelrechtes PR-Desaster. Es schien, als hätte Microsoft nicht ausreichend getestet – und die von Microsoft entwickelte „Sydney“-Persönlichkeit des Chatbots verhielt sich in längeren Gesprächen merkwürdig.

Microsoft reagierte, indem es die Anzahl der Nachrichten in einem Bing-Chat-Thread begrenzte – zunächst durfte man nur fünf Nachrichten senden, bevor man einen neuen Thread starten musste. Dadurch wurde der Chatbot für viele Zwecke deutlich weniger nützlich als ChatGPT. Das war der erste Fehler.

Als Microsoft Bing Chat sicherer machte, verschwand gleichzeitig auch die chaotische, aber faszinierende „Sydney“-Persönlichkeit – was ebenfalls ein Verlust war. Ja, Bing Chat bekam zwar schlechte Presse – aber auch virale Aufmerksamkeit. Als Microsoft sich dann beeilte, Bing Chat nüchterner und professioneller zu gestalten, verlor es genau diesen viralen Reiz.

Vermutlich hätte es einen Mittelweg gegeben: Bing Chat hätte weiterhin spannend bleiben können, wenn man vorab einen Haftungsausschluss akzeptieren müsste, während das Standarderlebnis für normale Suchanfragen gemäßigter gestaltet worden wäre. Doch Microsoft entschied sich nicht dafür. Das war der zweite Fehler.

Das Copilot-Branding-Desaster

Alle startbedingten Hürden einmal beiseitegelassen: Der Name „Copilot“ wirkt wie das Ergebnis zahlloser Fokusgruppen, während „ChatGPT“ eher technisch und wenig professionell klingt. Wenn Sie und ich als Branding-Berater in einem Konferenzraum sitzen würden, würden wir sagen, dass Copilot als Name einen klaren Vorteil hat.

Aber in der realen Welt ist Copilot ein unübersichtlicher Begriff.

Microsofts Copilot für Verbraucher, Microsoft 365 Copilot, Copilot+ PCs und Copilot-Pro-Abonnements – das sind alles unterschiedliche Produkte. Es ist ein regelrechtes Labyrinth. Ich werde nicht einmal versuchen, das hier aufzudröseln – das würde zu viele Worte kosten.

Im Vergleich dazu ist ChatGPT eine bekannte Größe. Es gibt eine einheitliche Oberfläche – sowohl für den geschäftlichen als auch den privaten Gebrauch. Wenn OpenAI andere Produkte auf den Markt bringt, etwa einen Video-Generator, erhalten diese eigenständige Namen wie „Sora“. Die Bezeichnung „ChatGPT“ wird nicht wie bei Microsoft inflationär für verschiedenste Produkte wiederverwendet.

Dritter Fehler.

Microsofts Obsession vom „Copilot-Freund”

Copilot befindet sich in einer seltsamen Position: Einerseits möchte Microsoft, dass Copilot Ihr neuer KI-Freund wird. Das war zumindest das Ergebnis einer der vielen Redesigns der Copilot-App in den letzten Jahren. Bloomberg schreibt, dass Führungskräfte von Microsoft „die Betonung von Copilot als sympathischer Begleiter als potenziellen Vorteil für eine jüngere Zielgruppe sehen, die KI-Tools eher als Gesprächspartner nutzt”.

Das ist eine seltsame Aussage, wenn man bedenkt, dass ChatGPT bei Nutzern genau dieser Altersgruppe mittlerweile vorne liegt!

Und obwohl Microsoft möchte, dass Copilot wie ein persönlicher Begleiter wirkt, liefert der Chatbot in der Praxis meist standardisierte Antworten in einem eher nüchternen, geschäftsmäßigen Ton. Das ist zwar subjektiv, aber die Nutzungszahlen bestätigen: Viele Menschen fühlen sich von anderen Assistenten stärker angesprochen. Was die Stimmung betrifft: Die Vibes stimmen einfach nicht.

Ein weiterer Minuspunkt – falls noch jemand mitzählt.

Die Sichtweise der KI-Enthusiasten

Für professionelle Anwendungen hinkt Copilot im Vergleich zu ChatGPT immer noch hinterher – was die Nutzererfahrung betrifft. ChatGPT und auch Gemini bieten Transparenz bei der Modellauswahl: Man kann im Modellumschalter genau auswählen, welches Modell man für eine bestimmte Eingabe verwenden möchte. Bei Copilot hingegen bleibt das Sprachmodell eine Blackbox. Sie senden eine Nachricht und Microsofts interner „Model Router“ leitet sie an das LLM weiter, das laut Microsoft-Tools am besten geeignet ist. Oder bei dem Microsoft Geld spart, weil es billiger zu betreiben ist – man weiß es nicht. Sie haben keine Kontrolle, was es auch schwieriger macht, zu verstehen, warum etwas nicht wie erwartet funktioniert.

Während Microsoft früher frühzeitigen Zugang zu den technologischen Fortschritten von OpenAI bot, wirkt Copilot heute deutlich abgehängt. Neue ChatGPT-Funktionen werden oft erst Monate später zu Copilot hinzugefügt. Auch die Windows-App von ChatGPT ist Copilot in vielerlei Hinsicht voraus, und das ist eindeutig nicht das Bild, das Microsoft Nutzern vermitteln möchte.

Wenn Sie sich für GenAI interessieren, werden Sie sich wahrscheinlich für ein fortschrittlicheres und besser anpassbares Tool entscheiden – insbesondere, wenn Sie bereit sind, Geld auszugeben. Da sowohl Copilot Pro als auch ChatGPT Plus 20 Dollar pro Monat kosten, werden Sie wahrscheinlich nicht für beides Geld ausgeben – und ChatGPT Plus ist die logische Wahl, es sei denn, Sie möchten KI-Funktionen in Office-Anwendungen wie Word, Excel, PowerPoint und Outlook integriert haben.

Genau das und nur das bleibt das Alleinstellungsmerkmal von Copilot Pro.

Microsofts Copilot-Herausforderung

Alles in allem ist Copilot … in Ordnung. Die zugrunde liegenden Sprachmodelle (LLMs) sind genauso leistungsfähig wie die von OpenAI, und Copilot Pro kann in Microsoft Office durchaus hilfreich sein. Auch Copilot Vision funktioniert gut und ist eine exklusive Funktion.

Aber insgesamt bedeutet Microsofts Strategie, OpenAI-Technologien in Copilot zu integrieren, dass sich das Unternehmen nicht wirklich abhebt – vor allem nicht gegenüber Konkurrenten wie OpenAI, Google, Anthropic oder sogar Meta, die jeweils ihre eigenen Modelle anbieten.

Ein paar Lichtblicke gibt es allerdings: Das kürzlich eingeführte Copilot Vision etwa – damit kann man in Echtzeit über eine Windows-App mit dem GenAI-Tool sprechen. Das bietet ChatGPT unter Windows bislang nicht. Darüber hinaus ist die Office-Integration wirklich etwas Besonderes – allerdings ist es schwer zu sagen, wie wichtig dies langfristig sein wird. Angesichts des Interesses von OpenAI an einer eigenen Office-Suite  oder der Tatsache, dass offenbar jedes Unternehmen KI-Funktionen in seine Dienste integriert, wirkt KI in Office zwar attraktiv für bestehende Office-Nutzer – aber nicht wie ein echtes Alleinstellungsmerkmal für Microsoft im Gesamtmarkt.

Dies gilt insbesondere angesichts der Preisgestaltung: Microsoft verlangt von Unternehmen 30 Dollar pro Nutzer zusätzlich zur bestehenden Microsoft-365-Lizenz für den Einsatz von Copilot. Google hingegen stellt seine Gemini-Funktionen allen zahlenden Workspace-Nutzern zur Verfügung.

Langfristig wird Microsoft vermutlich gezwungen sein, sich von OpenAI zu lösen und eigene KI-Modelle für seine Software zu entwickeln. Anzeichen dafür gibt es bereits – und Berichten zufolge ist das Verhältnis zwischen Microsoft und OpenAI ohnehin angespannt.

Ein bizarrer Bruch mit Microsofts Windows-Vergangenheit

Bloomberg vertritt die Ansicht, dass Microsoft Copilot zu einem „Freund“ machen will – also weniger wie ein klassischer Chatbot, der nur Aufgaben abarbeitet. Mustafa Suleyman, CEO von Microsoft AI, ist Berichten zufolge offenbar der Ansicht, dass „die Menschen letztendlich unterschiedliche KI-Tools verwenden werden, je nachdem, ob sie bei der Arbeit oder zu Hause sind”.

Einer der Gründe, warum sich PCs durchgesetzt haben, war, dass man dieselbe Windows-Version und dieselbe Software sowohl im Büro als auch zu Hause verwenden konnte. Das Betriebssystem, auf dem Microsoft Office lief, konnte genauso gut PC-Spiele und andere Programme ausführen. Wissen und Erfahrung im Umgang mit dem Computer ließen sich nahtlos vom Arbeitsplatz auf den Heim-PC übertragen – man musste nicht zwei unterschiedliche Systeme lernen.

In einer Zeit, in der immer mehr Menschen von zu Hause aus arbeiten und die Grenzen zwischen Berufs- und Privatleben zunehmend verschwimmen, ergibt es noch weniger Sinn, zu Hause ein anderes GenAI-Tool zu verwenden als bei der Arbeit. Ich denke, Microsoft liegt hier falsch: Menschen wollen dieselben KI-Tools an beiden Orten nutzen.

Die eigentliche Frage ist nun, wie viel Zeit Microsoft noch bleibt – falls überhaupt, um seinen Kurs zu korrigieren. (mb)

Warum ChatGPT Microsoft Copilot übertrumpft​ Weiterlesen »

Github-Apps: 26 Softwareperlen für Windows-PCs​

Allgemein

Github ist kein App-Store – trotzdem gibt es hier diverse Applikationen für Ihren Windows-Rechner zu entdecken. Foto: Github Bei allem Respekt: Der offizielle App Store von Microsoft ist nicht der “Place to be”, wenn man neue Windows-Software entdecken möchte. Experimentierfreudige Nutzer dürften aber mit Github glücklich werden. Die Plattform für Softwareentwicklungsprojekte (2018 von Microsoft für 7,5 Milliarden Dollar erworben) bietet ein Füllhorn wunderbarer, merkwürdiger, grotesker und kostenloser Independent-Applikationen. Natürlich ist Github nicht wirklich ein App-Store und auch nicht als solcher konzipiert. Vielmehr richtet sich die Plattform dediziert an die Developer-Community. Nicht wenige Projekte sind individuellen Entwicklungsproblemen entsprungen, deren Lösung die Programmierer mit der Gemeinschaft teilen wollen. In manchen Fällen entstanden daraus populäre Lösungen – die auf Github deutlich früher verfügbar waren als in Microsofts App Store. Leider gibt sich der Windows-Konzern auch keine besondere Mühe, Endbenutzern den potenziellen Mehrwert von Github nahezubringen. Das ist schade, wie unter anderem die folgenden 26 Github-Applikationsperlen belegen. GitHub-Apps: 26 empfehlenswerte Windows-Projekte Wichtig: Bevor Sie eine der gelisteten Anwendungen herunterladen, sollten Sie sich darüber im Klaren sein, dass die Installation von Github-Apps im Vergleich zu Software aus dem offiziellen Windows App Store ein gewisses Risiko mit sich bringt: Viele (Hobby-)Entwickler sparen sich die Ausgaben für Code-Signatur-Zertifikate. Das führt dazu, dass der SmartScreen-Filter von Windows sie als potenziell gefährlich einstuft. Auch wenn eine Applikation nicht bösartig im engeren Sinne ist, kann sie dennoch Probleme verursachen, insbesondere, wenn sie grundlegende Änderungen an Ihrem Rechner vornimmt. Die Integrität bestimmter Anwendungen lässt sich bestenfalls anhand vorliegender Rezensionen überprüfen. Ansonsten sollten Sie sich mit einem Blick auf die jeweilige Projektseite auch darüber informieren, ob die Anwendung noch aktiv weiterentwickelt wird. Der Download eines der folgenden Projekte erfolgt auf eigene Verantwortung. Explorer Patcher stellt ohne Registry-Eingriffe Taskleistenbeschriftungen und andere Funktionen wieder her, die Microsoft in Windows 11 entfernt hat. MS Edge Redirect leitet Websuchen aus dem Windows-Startmenü an Ihren Standardbrowser weiter und verwendet die Suchmaschine Ihrer Wahl. So sind Sie nicht gezwungen, Edge und Bing zu verwenden. YouTube-DL ermöglicht es, YouTube-Videos über die Windows-Eingabeaufforderung herunterzuladen. Text-Grab extrahiert Text von allem, was auf dem Bildschirm zu sehen ist und bietet dabei mehr Optionen als PowerToys Text-Grabber. Normcap ist ein kostenloses OCR-Tool, das sich einfach über die Taskleiste oder das Startmenü starten lässt. Buzz nutzt OpenAIs Spracherkennung Whisper, um Offline-Audiotranskriptionen zu generieren. Upscayl nutzt künstliche Intelligenz, um die Auflösung Ihrer Fotos zu optimieren. Math-HotKey markiert mathematische Syntax in einem beliebigen Textfeld und berechnet diese per Tastenkombination. Rufus ist ein beliebtes Tool, um USB-Boot-Laufwerke zu erstellen. Min ist ein experimenteller, minimalistischer Webbrowser. WinMute schaltet das System-Audio basierend auf einem Zeitplan oder anderen Triggern stumm. Mouse Jiggler bewegt die Maus in regelmäßigen Abständen, um das System wachzuhalten, ohne mit den Ruhezustand-Einstellungen herumspielen zu müssen. Music Caster überträgt lokale Musikdateien oder Web-Audio auf Chromecast-Geräte. Dopamine ist eine simple, moderne Anwendung für die lokale Musikwiedergabe. Nuclear ist ein Desktop-Musikplayer, der Titel von YouTube, Bandcamp und anderen Online-Quellen abspielt. Pianobar ermöglicht es, Pandora über eine Befehlszeilenschnittstelle zu integrieren. Project M visualisiert Musikim Stil eines klassischen Winamp-Plugin. RunCat ergänzt die Windows-Taskleiste um eine Katzenanimation. eDEX-UI ist ein Terminal-Emulator im SciFi-Stil. RoundedTB optimiert die Windows-11-Taskleiste mit abgerundeten Ecken, Segmenten und Rändern. TranslucentTB lässt Ihre Taskleiste transparent erscheinen. TwinkleTray ermöglicht Ihnen, die Bildschirmhelligkeit über die Taskleiste zu steuern. Windows 11 Fixer bündelt beliebte Konfigurationsoptimierungen an einem Ort. Files bietet eine elegante Alternative zum Windows Datei-Explorer. WinDynamicDesktop bringt (dynamischen) macOS-Wallpaper-Flair auf Ihren Windows-PC. Windows95 bringt eine “Miniatur”-Version des Betriebssystemklassikers (inklusive Solitaire) auf Ihren Rechner. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Github-Apps: 26 Softwareperlen für Windows-PCs​ Github ist kein App-Store – trotzdem gibt es hier diverse Applikationen für Ihren Windows-Rechner zu entdecken.
Foto: Github

Bei allem Respekt: Der offizielle App Store von Microsoft ist nicht der “Place to be”, wenn man neue Windows-Software entdecken möchte. Experimentierfreudige Nutzer dürften aber mit Github glücklich werden. Die Plattform für Softwareentwicklungsprojekte (2018 von Microsoft für 7,5 Milliarden Dollar erworben) bietet ein Füllhorn wunderbarer, merkwürdiger, grotesker und kostenloser Independent-Applikationen.

Natürlich ist Github nicht wirklich ein App-Store und auch nicht als solcher konzipiert. Vielmehr richtet sich die Plattform dediziert an die Developer-Community. Nicht wenige Projekte sind individuellen Entwicklungsproblemen entsprungen, deren Lösung die Programmierer mit der Gemeinschaft teilen wollen. In manchen Fällen entstanden daraus populäre Lösungen – die auf Github deutlich früher verfügbar waren als in Microsofts App Store.

Leider gibt sich der Windows-Konzern auch keine besondere Mühe, Endbenutzern den potenziellen Mehrwert von Github nahezubringen. Das ist schade, wie unter anderem die folgenden 26 Github-Applikationsperlen belegen.

GitHub-Apps: 26 empfehlenswerte Windows-Projekte

Wichtig: Bevor Sie eine der gelisteten Anwendungen herunterladen, sollten Sie sich darüber im Klaren sein, dass die Installation von Github-Apps im Vergleich zu Software aus dem offiziellen Windows App Store ein gewisses Risiko mit sich bringt: Viele (Hobby-)Entwickler sparen sich die Ausgaben für Code-Signatur-Zertifikate. Das führt dazu, dass der SmartScreen-Filter von Windows sie als potenziell gefährlich einstuft. Auch wenn eine Applikation nicht bösartig im engeren Sinne ist, kann sie dennoch Probleme verursachen, insbesondere, wenn sie grundlegende Änderungen an Ihrem Rechner vornimmt.

Die Integrität bestimmter Anwendungen lässt sich bestenfalls anhand vorliegender Rezensionen überprüfen. Ansonsten sollten Sie sich mit einem Blick auf die jeweilige Projektseite auch darüber informieren, ob die Anwendung noch aktiv weiterentwickelt wird.

Der Download eines der folgenden Projekte erfolgt auf eigene Verantwortung.

Explorer Patcher stellt ohne Registry-Eingriffe Taskleistenbeschriftungen und andere Funktionen wieder her, die Microsoft in Windows 11 entfernt hat.

MS Edge Redirect leitet Websuchen aus dem Windows-Startmenü an Ihren Standardbrowser weiter und verwendet die Suchmaschine Ihrer Wahl. So sind Sie nicht gezwungen, Edge und Bing zu verwenden.

YouTube-DL ermöglicht es, YouTube-Videos über die Windows-Eingabeaufforderung herunterzuladen.

Text-Grab extrahiert Text von allem, was auf dem Bildschirm zu sehen ist und bietet dabei mehr Optionen als PowerToys Text-Grabber.

Normcap ist ein kostenloses OCR-Tool, das sich einfach über die Taskleiste oder das Startmenü starten lässt.

Buzz nutzt OpenAIs Spracherkennung Whisper, um Offline-Audiotranskriptionen zu generieren.

Upscayl nutzt künstliche Intelligenz, um die Auflösung Ihrer Fotos zu optimieren.

Math-HotKey markiert mathematische Syntax in einem beliebigen Textfeld und berechnet diese per Tastenkombination.

Rufus ist ein beliebtes Tool, um USB-Boot-Laufwerke zu erstellen.

Min ist ein experimenteller, minimalistischer Webbrowser.

WinMute schaltet das System-Audio basierend auf einem Zeitplan oder anderen Triggern stumm.

Mouse Jiggler bewegt die Maus in regelmäßigen Abständen, um das System wachzuhalten, ohne mit den Ruhezustand-Einstellungen herumspielen zu müssen.

Music Caster überträgt lokale Musikdateien oder Web-Audio auf Chromecast-Geräte.

Dopamine ist eine simple, moderne Anwendung für die lokale Musikwiedergabe.

Nuclear ist ein Desktop-Musikplayer, der Titel von YouTube, Bandcamp und anderen Online-Quellen abspielt.

Pianobar ermöglicht es, Pandora über eine Befehlszeilenschnittstelle zu integrieren.

Project M visualisiert Musikim Stil eines klassischen Winamp-Plugin.

RunCat ergänzt die Windows-Taskleiste um eine Katzenanimation.

eDEX-UI ist ein Terminal-Emulator im SciFi-Stil.

RoundedTB optimiert die Windows-11-Taskleiste mit abgerundeten Ecken, Segmenten und Rändern.

TranslucentTB lässt Ihre Taskleiste transparent erscheinen.

TwinkleTray ermöglicht Ihnen, die Bildschirmhelligkeit über die Taskleiste zu steuern.

Windows 11 Fixer bündelt beliebte Konfigurationsoptimierungen an einem Ort.

Files bietet eine elegante Alternative zum Windows Datei-Explorer.

WinDynamicDesktop bringt (dynamischen) macOS-Wallpaper-Flair auf Ihren Windows-PC.

Windows95 bringt eine “Miniatur”-Version des Betriebssystemklassikers (inklusive Solitaire) auf Ihren Rechner.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Github-Apps: 26 Softwareperlen für Windows-PCs​ Weiterlesen »

So geht bewerben heute: Ohne viel Aufwand zum nächsten Job​

Allgemein

Außerdem scheuen 80 Prozent aller Berufstätigen in Deutschland den Bewerbungsaufwand. Wir haben sieben Tipps zusammengestellt, mit denen es ohne viel Aufwand zum nächsten Job geht: 1.) LinkedIn und Xing-Profil aktuell halten Wer auf seinen Profilen Details und Kenntnisse nennt, darf hoffen, dass sich Headhunter und Personalsucher diese Fakten anschauen und prüfen, ob die fachlichen Fähigkeiten zu den gesuchten passen. Allerdings sieht auch der eigene Chef, wenn auf einmal sämtliche Jobstationen nachgetragen werden. Damit er keinen Verdacht schöpft, die Profile besser peu a peu aktualisieren. Mit diesen sieben Tipps kommen Sie ohne viel Aufwand zum nächsten Job. Foto: Dean Drobot – shutterstock.com 2.) Freunde und Bekannte Freunde und Bekannte können eine gute Quelle für einen neuen Job sein. Oder eine Katastrophe. Voraussetzung, um Leute aus dem privaten Umfeld auf Jobsuche zu schicken, sollte deren Reputation sein. Das heißt: vorab zu fragen und prüfen, ob der Bekannte überhaupt das Standing im Unternehmen hat, einen Kandidaten vorschlagen zu dürfen. Kommt im Umkehrschluss die Bewerbung des Data-Analysten vom Pförtner, kann das im schlimmsten Fall schädlich sein. Die Bewerbung kommt nicht ans Ziel. 3.) Abonniere Firmen-Newsletter Jeder hat die eine oder zwei Top-Adressen im Kopf. Arbeitgeber, bei denen man gerne einmal arbeiten würde. Diese suchen oft via Newsletter IT-Fachleute. Also: Eintragen. Und wer weiß, vielleicht flattert schon morgen der Traumjob von Adidas, Google oder BMW ins Postfach. Das sind zumindest sehr beliebte Arbeitgeber, wenn die Umfragen von Kununu & Co. stimmen. 4.) Social Media der Top-Firmen Alternativ lohnt es sich, die Social-Media-Seiten der Top-Unternehmen zu liken und ihnen zu folgen. Auch hier werden immer wieder aktuelle Stellenausschreibungen gepostet. Allerdings ist der Weg vom Marketing (das die Facebookseite betreut) bis zum verantwortlichen HR-Manager, der Personal einstellt, unter Umständen lange. Trotzdem kann sich das Interesse lohnen – spätestens im Vorstellungsgespräch schadet Wissen über den künftigen Arbeitgeber nicht. 5.) Lebenslauf und Arbeitszeugnisse vorbereiten Lebenslauf und Arbeitszeugnisse vorbereiten ist ein regelmäßiges To-do. Einmal im Jahr einen Blick auf die Unterlagen zu werfen, reicht meist aus. Es sei denn, man ist Jobhopper. Dann bitte monatlich den Check machen und schauen, ob alle Dokumente in der richtigen Reihenfolge vorliegen und digitalisiert sind. 6.) Fachmessen Auch der Besuch von Fachmessen kann wieder interessante Karriere-Chancen bieten. Wer im Job sowieso Fachmessen besucht, kann diese dann wieder nutzen, um dort mit interessanten Firmen ins Gespräch zu kommen. Zwar steht am Stand meist das Vertriebspersonal, aber mitunter haben die Kollegen Kontakte in die Personalabteilung – oder der HR-Manager ist ebenfalls auf der Messe, weil er passende Leute bei der Konkurrenz sucht. Es schadet dann nicht, die eigene Bewerbungsmappe im Handgepäck dabei zu haben und im Ernstfall vorlegen zu können. 

So geht bewerben heute: Ohne viel Aufwand zum nächsten Job​ Außerdem scheuen 80 Prozent aller Berufstätigen in Deutschland den Bewerbungsaufwand. Wir haben sieben Tipps zusammengestellt, mit denen es ohne viel Aufwand zum nächsten Job geht:

1.) LinkedIn und Xing-Profil aktuell halten

Wer auf seinen Profilen Details und Kenntnisse nennt, darf hoffen, dass sich Headhunter und Personalsucher diese Fakten anschauen und prüfen, ob die fachlichen Fähigkeiten zu den gesuchten passen. Allerdings sieht auch der eigene Chef, wenn auf einmal sämtliche Jobstationen nachgetragen werden. Damit er keinen Verdacht schöpft, die Profile besser peu a peu aktualisieren.

Mit diesen sieben Tipps kommen Sie ohne viel Aufwand zum nächsten Job.
Foto: Dean Drobot – shutterstock.com

2.) Freunde und Bekannte

Freunde und Bekannte können eine gute Quelle für einen neuen Job sein. Oder eine Katastrophe. Voraussetzung, um Leute aus dem privaten Umfeld auf Jobsuche zu schicken, sollte deren Reputation sein. Das heißt: vorab zu fragen und prüfen, ob der Bekannte überhaupt das Standing im Unternehmen hat, einen Kandidaten vorschlagen zu dürfen. Kommt im Umkehrschluss die Bewerbung des Data-Analysten vom Pförtner, kann das im schlimmsten Fall schädlich sein. Die Bewerbung kommt nicht ans Ziel.

3.) Abonniere Firmen-Newsletter

Jeder hat die eine oder zwei Top-Adressen im Kopf. Arbeitgeber, bei denen man gerne einmal arbeiten würde. Diese suchen oft via Newsletter IT-Fachleute. Also: Eintragen. Und wer weiß, vielleicht flattert schon morgen der Traumjob von Adidas, Google oder BMW ins Postfach. Das sind zumindest sehr beliebte Arbeitgeber, wenn die Umfragen von Kununu & Co. stimmen.

4.) Social Media der Top-Firmen

Alternativ lohnt es sich, die Social-Media-Seiten der Top-Unternehmen zu liken und ihnen zu folgen. Auch hier werden immer wieder aktuelle Stellenausschreibungen gepostet. Allerdings ist der Weg vom Marketing (das die Facebookseite betreut) bis zum verantwortlichen HR-Manager, der Personal einstellt, unter Umständen lange. Trotzdem kann sich das Interesse lohnen – spätestens im Vorstellungsgespräch schadet Wissen über den künftigen Arbeitgeber nicht.

5.) Lebenslauf und Arbeitszeugnisse vorbereiten

Lebenslauf und Arbeitszeugnisse vorbereiten ist ein regelmäßiges To-do. Einmal im Jahr einen Blick auf die Unterlagen zu werfen, reicht meist aus. Es sei denn, man ist Jobhopper. Dann bitte monatlich den Check machen und schauen, ob alle Dokumente in der richtigen Reihenfolge vorliegen und digitalisiert sind.

6.) Fachmessen

Auch der Besuch von Fachmessen kann wieder interessante Karriere-Chancen bieten. Wer im Job sowieso Fachmessen besucht, kann diese dann wieder nutzen, um dort mit interessanten Firmen ins Gespräch zu kommen. Zwar steht am Stand meist das Vertriebspersonal, aber mitunter haben die Kollegen Kontakte in die Personalabteilung – oder der HR-Manager ist ebenfalls auf der Messe, weil er passende Leute bei der Konkurrenz sucht. Es schadet dann nicht, die eigene Bewerbungsmappe im Handgepäck dabei zu haben und im Ernstfall vorlegen zu können.

So geht bewerben heute: Ohne viel Aufwand zum nächsten Job​ Weiterlesen »

“Wir können alles technologisch und organisatorisch abbilden”​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?quality=50&strip=all 2784w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thorsten Herrmann, Senior Vice President und Country Leader Oracle DeutschlandOracle Klassischer Datenbankanbieter, Plattformanbieter, Cloud-Anbieter, KI-Anbieter oder von von allem ein bisschen? Für was steht Oracle heute eigentlich? Thorsten Herrmann: Die Stoßrichtung ist ganz klar, Plattform- und Cloud-Anbieter zu sein. Natürlich müssen wir anerkennen, dass die Kunden in verschiedenen Industrien auch einen unterschiedlichen Reifegrad mitbringen, gerade wenn es um das Thema Cloud geht. Oracle hat allerdings auch den Anspruch, in gewissen Branchen, beispielsweise dem Gesundheitswesen, sehr tief in die industrielle Wertschöpfungskette einzusteigen, beispielsweise über Akquisitionen oder die Entwicklung von Spezial-Know-How und Speziallösungen. Mit unserer Cloud wollen wir logischerweise auch die entsprechenden Infrastrukturen für das Thema AI aufbauen. Oracle hat sich mit der Cloud lange schwergetan und ist vergleichsweise spät eingestiegen. Herrmann: Klar, könnte man behaupten, ihr kommt ein bisschen spät zur Party. Das hat aber auch Vorteile und nicht nur Nachteile. Die zweite Cloud-Generation unterscheidet sich in meinen Augen in wesentlichen Aspekten von dem, was man bisher vom Markt kannte. Alle anderen Anbieter haben den Markt mit einem klassischen Public-Cloud-Ansatz adressiert. Wir bezeichnen unseren Ansatz als Distributed Cloud. Was bedeutet das? Herrmann: Damit wollen wir sicherstellen, dass Kunden immer den gleichen Funktionsumfang bekommen, egal welche Form von Cloud sie konsumieren, ob es eine private Cloud hinter der Firewall im eigenen Rechenzentrum ist oder die Public Cloud oder die Sovereign Cloud. Es gibt keine Unterschiede bei den verwendeten Tools oder den Schnittstellen. Kunden werden also nicht aufgrund der Art der Cloud in eine gewisse Richtung gedrängt. Je nach der Kritikalität der Anwendungen können Kunden im eigenen Rechenzentrum bleiben und dort die Skalierfähigkeit und die Flexibilität des Resourcenpools nutzen. Außerdem gibt es die Möglichkeit, zu bestimmten Zeitpunkten in die Public Cloud zu wechseln. Und dann gibt es vielleicht Teile, die sollen in einer Souvereign Cloud oder einer hoch restriktiven Cloud laufen – also in eine Air-Gap-Lösung, wo die gesamte Infrastruktur ausschließlich in Deutschland steht, wo die daran beteiligten Menschen auf Sabotageschutz überprüft sind, wo es keine Verbindungen ins öffentliche Internet gibt. “Es gibt im Markt sehr viele Absichtserklärungen…” Digitale Souveränität wird derzeit viel diskutiert. Wie relevant ist das Thema für Oracle? Herrmann: Wir haben von Anfang an Sovereign Clouds und auch restriktive Clouds designt. Das liegt sicherlich ein Stück weit auch in der Historie von Oracle bedingt, aus einem CIA-Projekt entstanden zu sein. Das Thema, hochsichere Anwendungen herzustellen oder mit hochgeheimen Daten zu hantieren, kennen wir von Anfang an. Oracle hat vor zwei Jahren ein spezielles Konstrukt hier in Deutschland ins Leben gerufen. Die souveräne Cloud wird von einem speziellen eigenen deutschen Unternehmen betrieben, das quasi getrennt von Oracle agiert. Gibt es das immer noch? Herrmann: Ja. Wir kennen verschiedene Stufen von Souveränität. Was wir unter der Sovereign Cloud verstehen, sind Rechenzentren in Europa, die nur von europäischen Bürgern betrieben werden, die ein entsprechendes Clearing haben. Sämtliche Server, auch die, die für Management der Infrastruktur genutzt werden, stehen ausschließlich in Europa. Wenn die Anforderungen strenger sind, gibt es darüber hinaus die Möglichkeit, das Ganze auf Deutschland einzugrenzen, zum Beispiel wenn Daten Deutschland nicht verlassen dürfen.  Nur deutsche Bürgerinnen und Bürger, die entsprechend dem Sabotage-Schutz überprüft sind, betreiben diese Rechenzentren hier in Deutschland. Dafür verantwortlich ist eine deutsche Gesellschaft. Und dann bieten wir auch die Möglichkeiten von Air Gap Solutions. Damit bekommen Kunden sozusagen eine völlig eigene Cloud, die nur über zertifizierte Datenstrecken, sogenannte Dioden, die nur in eine Richtung funktionieren, angeschlossen sind. Es ist letztendlich Frage, welchen Grad an Souveränität die Kunden haben möchten. Wir können alles sowohl technologisch wie auch organisatorisch abbilden. Das ist ein ganz erheblicher Unterschied. Es gibt im Markt sehr viele Absichtserklärungen, wir aber haben es bereits. CW: Jeder Cloud-Hyperscaler behauptet momentan, souveräne Rechenzentren und Cloud-Infrastrukturen hier in Deutschland betreiben zu können. Herrmann: Der Teufel steckt im Detail. Ich würde immer empfehlen: Schauen Sie ins Kleingedruckte. Viele Datenschützer sagen: Sobald ein US-Anbieter dahinter steckt oder mit involviert ist, ist es aus Datenschutz-rechtlichen Gesichtspunkten eigentlich ein No-go. Das betrifft ja auch Oracle. Herrmann: Das ist auch eine emotionale Diskussion, mit der sind wir natürlich ebenfalls konfrontiert – gerade wenn ich mit Entscheidungsträgern aus der Politik spreche. Ich glaube aber, dass wir nach wie vor in vielen Diskussionen nicht sauber differenzieren zwischen dem, was technologisch und organisatorisch tatsächlich machbar ist, und was die emotionale Komponente auch in der globalen politischen Landschaft ausmacht? Jetzt kann ich die globale politische Landschaft nicht verändern, das ist auch nicht mein Anspruch. Aber ich kann sehr wohl natürlich versuchen, eine Faktenbasis zu schaffen. Und im Kleingedruckten etlicher Anbieter steht zum Beispiel, dass Management-Server vielleicht nicht in Deutschland stehen. Das ist ein harter Fakt. Wenn ich aber behaupte, meine Cloud läuft in Deutschland, da muss auch wirklich alles in Deutschland laufen. Nicht nur die Daten dürfen das Land nicht verlassen, es darf auch keine Zugriffe von außerhalb geben. Es darf nur Zugriffe von entsprechend nach deutschem Recht zertifizierten Personen geben, und das hat Oracle in einem mit dem BSI abgestimmten Verfahren auch geprüft. Das ist nicht einfach, aber es ist heute bei uns verfügbar. Für einiges Aufsehen hatte letztens die Sperrung des E-Mail-Kontos vom Chefankläger am Internationalen Strafgerichtshof in Den Haag durch Microsoft gesorgt. Hintergrund war eine Sanktionierung durch den US-Präsidenten Donald Trump. Oracle als US-Unternehmen könnte auch einmal gezwungen sein, so eine Art Kill-Switch zu drücken. Wie beurteilen Sie diese Gefahr? Herrmann: Den politischen Kontext würde ich jetzt nicht unbedingt kommentieren wollen. Wir sind in vielen Ländern in der Lage, Cloud-Infrastrukturen betreiben zu können, ohne irgendeine Beziehung zur Konzernmutter zu haben – auch ohne Internet-Connection. Wenn man dann aufgefordert wird, Daten abfließen zu lassen – Daten aus einem Rechenzentrum, das nicht an der am Internet hängt, können nicht so ohne weiteres abfließen. Also vor dem eben geschilderten Hintergrund würde ich unseren verteilten Cloud-Ansatz durchaus als Vorteil sehen. Es ist zudem nicht die Aufgabe von Technologieunternehmen, die politische Landschaft zu bespielen, sondern technologische Möglichkeiten zu schaffen. Am Ende des Tages verstehe ich mich an allererster Stelle auch als Europäer und als Bundesbürger. Wir agieren hier im deutschen Rechtsrahmen und an den halten wir uns auch. Alles andere liegt, realistisch betrachtet, ein Stück weit außerhalb unserer Kontrolle. Wenn wir in so eine Situation kommen, dann glaube ich, haben unsere Staaten ganz grundsätzliche Probleme. Das ist auf einer anderen Ebene zu diskutieren. Momentan schauen sich mehr und mehr Unternehmungen in Deutschland nach alternativen Lösungen um – ich nenne mal Schwarz Digits und STACKIT als Cloud oder die Open-Source-Lösungen von Nextcloud. “Wo fängt digitale Souveränität an, wo hört sie auf?” Herrmann: Mal provokant gefragt: Wie viel Open Source wird denn außerhalb von Deutschland entwickelt und wieviel wirklich innerhalb Deutschlands? Das ist jetzt nicht polemisch gemeint. Aber auch den Diskussionen rund um Open Source täte ein wenig mehr Versachlichung gut. Ein Großteil unserer Cloud basiert übrigens auf Open Source. Wenn ein Data-Center-Betreiber alle Technologie aus seinem Rechenzentrum entfernen müsste, in der amerikanische Chips, Switches, Router oder chinesische Komponenten stecken, würde da fast nichts mehr drinnen stehen. Also – wo fängt Souveränität an, wo hört sie auf? Ich glaube, es ist zu kurz gesprungen zu sagen: Das ist ein deutscher Anbieter und deswegen automatisch souverän – und das ist ein amerikanischer Anbieter und deswegen automatisch nicht souverän. Man muss sich die technologischen Konzepte, die Betriebskonzepte und die organisatorischen Maßnahmen anschauen. So etwas geht immer Hand in Hand mit den regulierenden Behörden, mit den Kunden und ihren Erfordernissen, und dann logischerweise mit den Anbietern, die die technologischen Fähigkeiten zur Verfügung stellen. Oracle baut die eigene Cloud-Data-Center-Infrastruktur aus, sucht seit ein paar Jahren auch verstärkt Kooperationen mit den anderen Anbietern, also Microsoft, AWS und Google. Verschiebt sich da der Fokus? Herrmann: Wir schaffen es momentan nicht, schnell genug hinter dem Bedarf hinterherzubauen. Das ist eine Herausforderung, mit der alle Anbieter konfrontiert sind. Wir haben weltweit bereits 51 Public Cloud Regionen in 26 Ländern und planen weitere zu eröffnen. Das geht sehr schnell bei uns voran. Eine zweite allgemeine Herausforderung, vor der wir alle gerade im Cloud Bereich stehen, ist das Thema Energie. Wie bekomme ich den Strom in die Rechenzentren rein, und wie bekomme ich die Hitze raus. Wir alle kennen die Probleme, die an Hubs wie Amsterdam existieren. Wo mittlerweile Automobil-Schnellladestationen heruntergefahren werden, weil man sich entscheiden muss, wer den Strom bekommt. Parallel dazu werden wir aber trotzdem die Partnerschaften vorantreiben, weil wir den Bedarf beim Thema Multi-Cloud sehen. Unserer Auffassung kann es nicht das Ziel sein, jede Cloud wie eine Burg zu bauen. Das entspricht auch gar nicht der IT-Realität unserer Kundinnen und Kunden. Die haben früher in ihren Rechenzentren verschiedenste Server, Infrastrukturen und Architekturen betrieben, unterschiedliche Speichersysteme, Netzwerkkomponenten, Software-Stacks – warum sollte man sich heute auf eine einzige Cloud festlegen müssen? Wir müssen wieder näher ran an das, was Technologie eigentlich leisten sollte: Nämlich Antworten zu geben, was denn der Kunde davon hat, und den Beitrag zum Nutzen des Kunden herausarbeiten. Das, denke ich, müssen wir alle viel stärker in den Vordergrund stellen, als immer nur zu sagen: Bei uns ist es toll, wenn alles auf der eigenen Infrastruktur läuft. Aber das entspricht eben nicht der Realität da draußen. Man muss die Heterogenität der Landschaften draußen auch bedienen. Wie sieht das konkret aus? Herrmann: Zum Beispiel die Oracle Datenbank – sehr stabil und mit interessanten AI-Features, um unstrukturierte und strukturierte Daten zu kombinieren. Beim Kunden laufen aber womöglich gewisse Teile der IT-Infrastruktur auf einer Google-, AWS- oder Azure-Cloud. Warum sollte der Kunde eigentlich nicht die Möglichkeit haben, die Datenbank auch dort zu konsumieren? Wie funktioniert das eigentlich jetzt genau? Gerade die Oracle-Datenbanken sind teilweise sehr eng mit der Hardware verzahnt. Ich denke da an die Exadata-Maschinen von Ihnen. Die stehen dann bei Google im Rechenzentrum? Herrmann: Genau. Eng gekoppelt mit der Google-Cloud-Infrastruktur. Herrmann: Komplett gekoppelt. Wir kennen die Exadata als On-prem-Variante dieser Datenbank und es gibt dementsprechend die Cloud-Version, also die gemanagte Variante. Das Ganze ist ein Cloud Service, den wir für den Kunden betreiben. Das ist ohnehin unser Anspruch, diese ganzen Migrationen einfach zu halten. Wir haben zum Beispiel auch sehr geringe Egress-Kosten, die normalerweise auflaufen, wenn man von einer Cloud in die andere Cloud wechseln will. Diese Egress-Gebühren haben inzwischen fast alle Anbieter abgeschafft. Herrmann: Ja, das wird runtergefahren. Wäre es denn auch denkbar, dass zum Beispiel AWS ihre Data-Center-Maschinen in den Oracle-Rechenzentren aufstellt und dort für deren Kunden betreibt? Herrmann: Kein uncharmanter Gedanke, aber das wäre jetzt rein spekulativ. Das würde auch definitiv nicht in Deutschland entschieden, sondern würde ganz klar von unseren zentralen Engineering Teams entschieden werden. Da müssten verschiedenste Aspekte begutachtet werden, zum Beispiel Security etc. Grundsätzlich hat in den vergangenen Jahren ein ziemlicher Kulturwandel bei Oracle stattgefunden – in Richtung Offenheit. Wenn ich daran zurückdenke, wie Larry Ellison noch vor wenigen Jahren über AWS und Microsoft geschimpft hat – und heute kooperiert man. Herrmann: Und umgekehrt natürlich genauso. Ich kann mich noch aus meinen Microsoft-Zeiten erinnern, als wir versucht haben, Oracle-Datenbankumgebungen mit Postgres SQL abzulösen. Das war gar nicht so einfach. Daran sieht man, dass der Zufriedenheitsgrad der Kunden mit unserer Datenbank hoch ist, insbesondere mit der Stabilität und mit der Innovation, gerade jetzt auch im Umfeld von 23ai. Als ich meine Reisen gemacht habe, um die Kunden kennenzulernen, gab es sicher so manche Diskussionen, aber nahezu niemand hat mich konfrontiert mit einer Diskussion zu Instabilitäten, technologischen Unzulänglichkeiten oder dergleichen. Deswegen ist diese Kombination so wichtig: Jetzt kann ich den Datenbank-Stack, den ich als Kunde wertzuschätzen gelernt habe, auch in der Cloud und vor allem auch in der Cloud meiner Wahl nutzen. Ein tatsächlicher Mehrwert also. Das begrüßen alle gleichermaßen. Ich habe derzeit allerdings das Gefühl, dass man vielerorts versucht, wieder Grenzen hochzuziehen und den eigenen Stack zu bevorzugen – nach dem Motto: Lieber Kunde, wenn du sowieso schon in meiner Cloud und in meinem Stack bist, dann nutze doch lieber meine Tools, meine Features und meine Services, statt irgendwas anderes externes. Die Regulatorik verlangt allerdings mehr Offenheit von den Cloud-Anbietern. “Das Thema Modularität verschwindet nicht mit der Cloud” Herrmann: Genau – die Regulatorik ist der eine Aspekt. Aber auch das andere Thema Modularität spielt eine wichtige Rolle. Das haben wir im Applikationsumfeld immer schon gehabt. Was haben wir in der On-Premises-Welt Anwender klagen hören über monolithische Blöcke versus modulare Systeme und Best of Breed. Das Thema verschwindet ja nicht, wenn ich plötzlich in der Cloud bin. Natürlich hat es jeder Anbieter gerne, wenn man möglichst viel vom eigenen Stack nutzt. Aber die Möglichkeit zu haben, über Standard-Schnittstellen, über Standard-Datenaustausch, über gewisse Standard-Formate diese Möglichkeiten zu schaffen und damit den Wandel zu unterstützen, dann sollte das auch so sein. Man hört von vielen Anwendern auch immer wieder: Jetzt sind wir in der Cloud und stellen fest, dass das ganze aus einer ökonomischen Perspektive gar nicht so gut funktioniert, wenn alles nur an einer Stelle liegt. Auch da sind wir ein Stück weit der Herausforderer im Markt mit einer ganz anderen Preis-Performance, was auch auf die Architektur zurückzuführen ist. Bei uns können Sie eine vollwertige Cloud, also von ihren Funktionalitäten her vollwertig, schon in vier Racks konsumieren. Bei den Wettbewerbern braucht es ein Vielfaches davon, um so eine vollwertige Cloud zu bekommen. Und die kleineren Lösungen sind immer ein Subset der Funktionen. Aber mit vier Racks kommt man doch nicht weit? Herrmann: Natürlich haben vier Racks nicht die gleiche Compute-Power und die gleiche Storage-Kapazität wie 100. Aber es fehlt nicht an der Funktionalität. Deswegen können wir auch zu besonders attraktiven Konditionen anbieten, und diese Infrastruktur und Plattformen in Marktsegmenten platzieren, wo man vorher gefragt hat: Na ja, das ist eigentlich alles zu teuer, und kann man sich das überhaupt leisten? Aber das ist ja im Grunde genommen die entscheidende Frage. Fokussiere ich mich auf eine technische Migration in die Cloud und packe meine IT einfach nur aus meinem Rechenzentrum rüber in die Cloud – was ja letzten Endes keinen besonderen Mehrwert bringt. Im Grunde genommen verschenkt man damit alle Modernisierungs- und Transformationsmöglichkeiten. Herrmann: Reines Lift and Shift macht heute kaum noch jemand. Viele gehen mit der Cloud in neue Applikationsentwicklung oder zumindest in eine gewisse Cloudifizierung, Containerisierung etc. Dann gibt es vielleicht ein paar Themen, die vom Zeithorizont her langfristig nicht mehr strategisch sind, die man aber noch die nächsten zwei oder drei Jahre benötigt. Da soll der Aufwand dafür natürlich möglichst gering bleiben – also kapseln oder gleich On-Premises behalten, oder wenn man das Rechenzentrum wirklich leerräumen will, dann nimmt man es einfach rüber in die Cloud und betreibt es dort weiter. Gut, aber das hat immer noch einen sehr technischen Fokus. Ich würde einen Schritt weitergehen in Richtung Prozess- und Organisationsmodernisierung. Sie sprachen es an – Oracle will sich auf bestimmte Branchen fokussieren. Gehen Sie da auch in eine regelrechte Business-Beratung, die sie selber anbieten oder läuft das dann über Partner? Herrmann: Also in den Bereichen, in denen wir selbst genügend KnowHow haben – und da würde ich an allererster Stelle das Healthcare Thema mit Oracle Health, ehemals Cerner, nennen, im Retail Umfeld haben wir viel Kapazität aufgebaut oder rund um Hotellerie. Ansonsten verfolgen wir den Ansatz von strategischen Partnerschaften, also mit entsprechenden Beratungshäusern zusammen dann diese Themen zu adressieren. Ich würde es nicht als naheliegendes Ziel sehen, entsprechende Kapazitäten selbst aufzubauen. Dafür gibt es hervorragende industriespezifische Fachberater und eben die großen Beratungshäuser wie eine PWC, Deloitte, Accenture etc, mit denen wir natürlich intensiv über Partnerschaften sprechen und dann auch bestimmte Industrien adressieren. Deswegen haben wir uns auch intern nach Industrien aufgestellt, um diese Anschlussfähigkeit zu verbessern. Oracle kooperiert mit verschiedenen Anbietern von Large Language Models (LLMs). Darauf bauen dann ihre eigenen Bots und KI-Agententechnologie auf. Wie verstehen sich denn KI-Agenten unterschiedlicher Plattformen verstehen und wie tauschen sie sich aus. Herrmann: PWC baut interessante Plattformen dafür. Am Ende des Tages braucht es die passenden Plattformen, weil es gibt die LLM-Entwickler und es gibt auch viele Kunden, die ihre LLMs angereichert um ihre Enterprise Daten trainieren wollen, und dafür braucht es leistungsfähige Infrastrukturen. Wir betreiben im AI-Umfeld den gesamten Stack. Wir haben sehr früh angefangen, AI in unsere eigenen Applikationen zu integrieren, sei es in die Industrie-spezifischen Anwendungen, wie auch in den Fusion Stack. Wir haben mutmaßlich im ERP-Umfeld SAP weltweit überholt. Das liegt auch daran, dass sehr viel Agentic-AI in unseren Applikationen bereits integriert ist – ob es Human-Capital-Management- (HCM-)Systeme sind oder Supply-Chain-Themen. Wir bieten aber auch betriebene Plattformen mit verschiedenen LLMs an, ob es Cohere ist oder Meta oder andere. Und wir bieten auch ganze Infrastrukturen an, von sehr kleinen, sehr modularen Systemen, die sich einfach in den eigenen Betrieb integrieren lassen, bis hin zu Superclustern, mit denen man dann auch LLMs trainieren kann. “Nicht alles was machbar ist, ist auch wünschenswert” Sie sitzen ja auf einem wahren Datenschatz mit ihrer Datenbanktechnologie, die bei den Kunden im Einsatz ist. Hermann: Na ja, unsere Kunden sitzen auf dem Datenschatz. Andere Anbieter holen sich das Einverständnis der Kunden und nutzen deren Daten um KI-Features zu trainieren. Deren Argument: Das kommt dann auch euch wieder zugute, weil dadurch diese KI intelligenter wird. Herrmann: Wir trainieren keine Modelle mit Daten von Kunden, ganz explizit nicht. Wir sind da ganz stringent und sagen, die Daten gehören ausschließlich den Kunden und wir helfen den Kunden, auch gemeinsam mit Partnern in speziellen Projekten. Aber immer in dem Kontext: Der Kunde hat die Kontrolle, der Kunde entscheidet. Das wird sich auch nicht ändern. Schon allein deswegen, weil wir als Datenbankanbieter einen großen Vertrauensvorschuss von unseren Kunden bekommen. Dort liegen die kritischsten Daten, die oft die zentrale Wertschöpfungskette beinhalten. Es gibt große Automobilhersteller, da würde kein einziger Wagen vom Band rollen, wenn diese Datenbanken stillstünden. Das ist das Herzstück eines Unternehmens. Und diese Daten gehören dem Kunden. Sie stellen also die Basistechnologie zur Verfügung. Wenn der Kunde sagt, Ich möchte aber dieses oder jenes KI-Modell entsprechend mit meinem Business-Daten anreichern und trainieren … Herrmann: Kann er das über die 23ai beispielsweise machen. Wir würden auch alle Cloud-Features zur Verfügung stellen, wir würden logischerweise auch in den Projektgruppen mit dem Kunden zusammenarbeiten, wir würden unsere Ingenieure zur Verfügung stellen, wir würden Knowhow unserer Partnerunternehmen beisteuern. All das, was notwendig ist, damit der Kunde zu einem optimalen Ergebnis kommt. Aber wir würden diese Daten oder Metadaten nie dazu nutzen, unsere eigenen Agenten zu trainieren. Gerade hier in Deutschland wird oft über Themen wie Datenökonomie und Datenräume gesprochen, teilweise auch von der Politik forciert – gerade mit Blick auf die neuen Möglichkeiten mit KI. Industrien sollen Datenräume aufbauen, Daten teilen, um da neue Ideen zu generieren. Aber so richtig ins Rollen kommt das nicht. Herrmann: Schauen Sie sich Predictive-Maintenance-Modelle an. Teilt Maschinenfabrikant A seine Daten mit Maschinenfabrikant B? Ist es wirklich in deren Interesse? Wollen Sie wirklich, dass ein allgemein trainiertes Modell den Vorteil ausnutzt, den Sie vielleicht im Algorithmus gefunden haben aufgrund von Schwingungsanalyse oder Umdrehungszahlen, was auch immer, und damit längere Laufzeiten und weniger Abnutzung zu haben. Wollen Sie das wirklich? Grundsätzlich glaube ich, dass es immer interessant ist, die Qualität von Daten zu verbessern. Aber man muss sich die spezifischen Fälle anschauen und sehen, wie die Interessen verteilt sind. Es wäre durchaus vorstellbar, dass man eine Plattform schafft für eine gewisse Untermenge von Werkzeug- oder Maschinenbauern, die alle einen bestimmten Anwendungsfall erledigen wollen. Dann in einem kontrollierten Umfeld mit einer kontrollierten Nutzergruppe und deren Einverständnis diese Simulation zu fahren, ist vorstellbar. Aber nicht unbedingt, daraus einen Agenten zu basteln, den man dann wieder allen möglichen anderen Firmen weiterverkaufen kann. Dann sind wir sehr schnell bei der Diskussion: Wer treibt überhaupt noch wie viel Innovation? Was ist mit IP-Klau? Auch ein Feld, das man genau im Blick haben muss. Nicht alles, was machbar ist, ist immer auch wünschenswert oder zulässig. (mb) 

“Wir können alles technologisch und organisatorisch abbilden”​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?quality=50&strip=all 2784w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Oracle-Herrmann_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thorsten Herrmann, Senior Vice President und Country Leader Oracle DeutschlandOracle

Klassischer Datenbankanbieter, Plattformanbieter, Cloud-Anbieter, KI-Anbieter oder von von allem ein bisschen? Für was steht Oracle heute eigentlich?

Thorsten Herrmann: Die Stoßrichtung ist ganz klar, Plattform- und Cloud-Anbieter zu sein. Natürlich müssen wir anerkennen, dass die Kunden in verschiedenen Industrien auch einen unterschiedlichen Reifegrad mitbringen, gerade wenn es um das Thema Cloud geht. Oracle hat allerdings auch den Anspruch, in gewissen Branchen, beispielsweise dem Gesundheitswesen, sehr tief in die industrielle Wertschöpfungskette einzusteigen, beispielsweise über Akquisitionen oder die Entwicklung von Spezial-Know-How und Speziallösungen. Mit unserer Cloud wollen wir logischerweise auch die entsprechenden Infrastrukturen für das Thema AI aufbauen.

Oracle hat sich mit der Cloud lange schwergetan und ist vergleichsweise spät eingestiegen.

Herrmann: Klar, könnte man behaupten, ihr kommt ein bisschen spät zur Party. Das hat aber auch Vorteile und nicht nur Nachteile. Die zweite Cloud-Generation unterscheidet sich in meinen Augen in wesentlichen Aspekten von dem, was man bisher vom Markt kannte. Alle anderen Anbieter haben den Markt mit einem klassischen Public-Cloud-Ansatz adressiert. Wir bezeichnen unseren Ansatz als Distributed Cloud.

Was bedeutet das?

Herrmann: Damit wollen wir sicherstellen, dass Kunden immer den gleichen Funktionsumfang bekommen, egal welche Form von Cloud sie konsumieren, ob es eine private Cloud hinter der Firewall im eigenen Rechenzentrum ist oder die Public Cloud oder die Sovereign Cloud. Es gibt keine Unterschiede bei den verwendeten Tools oder den Schnittstellen. Kunden werden also nicht aufgrund der Art der Cloud in eine gewisse Richtung gedrängt.

Je nach der Kritikalität der Anwendungen können Kunden im eigenen Rechenzentrum bleiben und dort die Skalierfähigkeit und die Flexibilität des Resourcenpools nutzen. Außerdem gibt es die Möglichkeit, zu bestimmten Zeitpunkten in die Public Cloud zu wechseln. Und dann gibt es vielleicht Teile, die sollen in einer Souvereign Cloud oder einer hoch restriktiven Cloud laufen – also in eine Air-Gap-Lösung, wo die gesamte Infrastruktur ausschließlich in Deutschland steht, wo die daran beteiligten Menschen auf Sabotageschutz überprüft sind, wo es keine Verbindungen ins öffentliche Internet gibt.

“Es gibt im Markt sehr viele Absichtserklärungen…”

Digitale Souveränität wird derzeit viel diskutiert. Wie relevant ist das Thema für Oracle?

Herrmann: Wir haben von Anfang an Sovereign Clouds und auch restriktive Clouds designt. Das liegt sicherlich ein Stück weit auch in der Historie von Oracle bedingt, aus einem CIA-Projekt entstanden zu sein. Das Thema, hochsichere Anwendungen herzustellen oder mit hochgeheimen Daten zu hantieren, kennen wir von Anfang an.

Oracle hat vor zwei Jahren ein spezielles Konstrukt hier in Deutschland ins Leben gerufen. Die souveräne Cloud wird von einem speziellen eigenen deutschen Unternehmen betrieben, das quasi getrennt von Oracle agiert. Gibt es das immer noch?

Herrmann: Ja. Wir kennen verschiedene Stufen von Souveränität. Was wir unter der Sovereign Cloud verstehen, sind Rechenzentren in Europa, die nur von europäischen Bürgern betrieben werden, die ein entsprechendes Clearing haben. Sämtliche Server, auch die, die für Management der Infrastruktur genutzt werden, stehen ausschließlich in Europa.

Wenn die Anforderungen strenger sind, gibt es darüber hinaus die Möglichkeit, das Ganze auf Deutschland einzugrenzen, zum Beispiel wenn Daten Deutschland nicht verlassen dürfen.  Nur deutsche Bürgerinnen und Bürger, die entsprechend dem Sabotage-Schutz überprüft sind, betreiben diese Rechenzentren hier in Deutschland. Dafür verantwortlich ist eine deutsche Gesellschaft.

Und dann bieten wir auch die Möglichkeiten von Air Gap Solutions. Damit bekommen Kunden sozusagen eine völlig eigene Cloud, die nur über zertifizierte Datenstrecken, sogenannte Dioden, die nur in eine Richtung funktionieren, angeschlossen sind.

Es ist letztendlich Frage, welchen Grad an Souveränität die Kunden haben möchten. Wir können alles sowohl technologisch wie auch organisatorisch abbilden. Das ist ein ganz erheblicher Unterschied. Es gibt im Markt sehr viele Absichtserklärungen, wir aber haben es bereits.

CW: Jeder Cloud-Hyperscaler behauptet momentan, souveräne Rechenzentren und Cloud-Infrastrukturen hier in Deutschland betreiben zu können.

Herrmann: Der Teufel steckt im Detail. Ich würde immer empfehlen: Schauen Sie ins Kleingedruckte.

Viele Datenschützer sagen: Sobald ein US-Anbieter dahinter steckt oder mit involviert ist, ist es aus Datenschutz-rechtlichen Gesichtspunkten eigentlich ein No-go. Das betrifft ja auch Oracle.

Herrmann: Das ist auch eine emotionale Diskussion, mit der sind wir natürlich ebenfalls konfrontiert – gerade wenn ich mit Entscheidungsträgern aus der Politik spreche. Ich glaube aber, dass wir nach wie vor in vielen Diskussionen nicht sauber differenzieren zwischen dem, was technologisch und organisatorisch tatsächlich machbar ist, und was die emotionale Komponente auch in der globalen politischen Landschaft ausmacht?

Jetzt kann ich die globale politische Landschaft nicht verändern, das ist auch nicht mein Anspruch. Aber ich kann sehr wohl natürlich versuchen, eine Faktenbasis zu schaffen. Und im Kleingedruckten etlicher Anbieter steht zum Beispiel, dass Management-Server vielleicht nicht in Deutschland stehen. Das ist ein harter Fakt. Wenn ich aber behaupte, meine Cloud läuft in Deutschland, da muss auch wirklich alles in Deutschland laufen. Nicht nur die Daten dürfen das Land nicht verlassen, es darf auch keine Zugriffe von außerhalb geben.

Es darf nur Zugriffe von entsprechend nach deutschem Recht zertifizierten Personen geben, und das hat Oracle in einem mit dem BSI abgestimmten Verfahren auch geprüft. Das ist nicht einfach, aber es ist heute bei uns verfügbar.

Für einiges Aufsehen hatte letztens die Sperrung des E-Mail-Kontos vom Chefankläger am Internationalen Strafgerichtshof in Den Haag durch Microsoft gesorgt. Hintergrund war eine Sanktionierung durch den US-Präsidenten Donald Trump. Oracle als US-Unternehmen könnte auch einmal gezwungen sein, so eine Art Kill-Switch zu drücken. Wie beurteilen Sie diese Gefahr?

Herrmann: Den politischen Kontext würde ich jetzt nicht unbedingt kommentieren wollen. Wir sind in vielen Ländern in der Lage, Cloud-Infrastrukturen betreiben zu können, ohne irgendeine Beziehung zur Konzernmutter zu haben – auch ohne Internet-Connection. Wenn man dann aufgefordert wird, Daten abfließen zu lassen – Daten aus einem Rechenzentrum, das nicht an der am Internet hängt, können nicht so ohne weiteres abfließen. Also vor dem eben geschilderten Hintergrund würde ich unseren verteilten Cloud-Ansatz durchaus als Vorteil sehen.

Es ist zudem nicht die Aufgabe von Technologieunternehmen, die politische Landschaft zu bespielen, sondern technologische Möglichkeiten zu schaffen. Am Ende des Tages verstehe ich mich an allererster Stelle auch als Europäer und als Bundesbürger. Wir agieren hier im deutschen Rechtsrahmen und an den halten wir uns auch. Alles andere liegt, realistisch betrachtet, ein Stück weit außerhalb unserer Kontrolle. Wenn wir in so eine Situation kommen, dann glaube ich, haben unsere Staaten ganz grundsätzliche Probleme. Das ist auf einer anderen Ebene zu diskutieren.

Momentan schauen sich mehr und mehr Unternehmungen in Deutschland nach alternativen Lösungen um – ich nenne mal Schwarz Digits und STACKIT als Cloud oder die Open-Source-Lösungen von Nextcloud.

“Wo fängt digitale Souveränität an, wo hört sie auf?”

Herrmann: Mal provokant gefragt: Wie viel Open Source wird denn außerhalb von Deutschland entwickelt und wieviel wirklich innerhalb Deutschlands? Das ist jetzt nicht polemisch gemeint. Aber auch den Diskussionen rund um Open Source täte ein wenig mehr Versachlichung gut. Ein Großteil unserer Cloud basiert übrigens auf Open Source.

Wenn ein Data-Center-Betreiber alle Technologie aus seinem Rechenzentrum entfernen müsste, in der amerikanische Chips, Switches, Router oder chinesische Komponenten stecken, würde da fast nichts mehr drinnen stehen. Also – wo fängt Souveränität an, wo hört sie auf?

Ich glaube, es ist zu kurz gesprungen zu sagen: Das ist ein deutscher Anbieter und deswegen automatisch souverän – und das ist ein amerikanischer Anbieter und deswegen automatisch nicht souverän. Man muss sich die technologischen Konzepte, die Betriebskonzepte und die organisatorischen Maßnahmen anschauen. So etwas geht immer Hand in Hand mit den regulierenden Behörden, mit den Kunden und ihren Erfordernissen, und dann logischerweise mit den Anbietern, die die technologischen Fähigkeiten zur Verfügung stellen.

Oracle baut die eigene Cloud-Data-Center-Infrastruktur aus, sucht seit ein paar Jahren auch verstärkt Kooperationen mit den anderen Anbietern, also Microsoft, AWS und Google. Verschiebt sich da der Fokus?

Herrmann: Wir schaffen es momentan nicht, schnell genug hinter dem Bedarf hinterherzubauen. Das ist eine Herausforderung, mit der alle Anbieter konfrontiert sind. Wir haben weltweit bereits 51 Public Cloud Regionen in 26 Ländern und planen weitere zu eröffnen. Das geht sehr schnell bei uns voran.

Eine zweite allgemeine Herausforderung, vor der wir alle gerade im Cloud Bereich stehen, ist das Thema Energie. Wie bekomme ich den Strom in die Rechenzentren rein, und wie bekomme ich die Hitze raus. Wir alle kennen die Probleme, die an Hubs wie Amsterdam existieren. Wo mittlerweile Automobil-Schnellladestationen heruntergefahren werden, weil man sich entscheiden muss, wer den Strom bekommt.

Parallel dazu werden wir aber trotzdem die Partnerschaften vorantreiben, weil wir den Bedarf beim Thema Multi-Cloud sehen. Unserer Auffassung kann es nicht das Ziel sein, jede Cloud wie eine Burg zu bauen. Das entspricht auch gar nicht der IT-Realität unserer Kundinnen und Kunden. Die haben früher in ihren Rechenzentren verschiedenste Server, Infrastrukturen und Architekturen betrieben, unterschiedliche Speichersysteme, Netzwerkkomponenten, Software-Stacks – warum sollte man sich heute auf eine einzige Cloud festlegen müssen?

Wir müssen wieder näher ran an das, was Technologie eigentlich leisten sollte: Nämlich Antworten zu geben, was denn der Kunde davon hat, und den Beitrag zum Nutzen des Kunden herausarbeiten. Das, denke ich, müssen wir alle viel stärker in den Vordergrund stellen, als immer nur zu sagen: Bei uns ist es toll, wenn alles auf der eigenen Infrastruktur läuft. Aber das entspricht eben nicht der Realität da draußen. Man muss die Heterogenität der Landschaften draußen auch bedienen.

Wie sieht das konkret aus?

Herrmann: Zum Beispiel die Oracle Datenbank – sehr stabil und mit interessanten AI-Features, um unstrukturierte und strukturierte Daten zu kombinieren. Beim Kunden laufen aber womöglich gewisse Teile der IT-Infrastruktur auf einer Google-, AWS- oder Azure-Cloud. Warum sollte der Kunde eigentlich nicht die Möglichkeit haben, die Datenbank auch dort zu konsumieren?

Wie funktioniert das eigentlich jetzt genau? Gerade die Oracle-Datenbanken sind teilweise sehr eng mit der Hardware verzahnt. Ich denke da an die Exadata-Maschinen von Ihnen. Die stehen dann bei Google im Rechenzentrum?

Herrmann: Genau.

Eng gekoppelt mit der Google-Cloud-Infrastruktur.

Herrmann: Komplett gekoppelt. Wir kennen die Exadata als On-prem-Variante dieser Datenbank und es gibt dementsprechend die Cloud-Version, also die gemanagte Variante. Das Ganze ist ein Cloud Service, den wir für den Kunden betreiben. Das ist ohnehin unser Anspruch, diese ganzen Migrationen einfach zu halten. Wir haben zum Beispiel auch sehr geringe Egress-Kosten, die normalerweise auflaufen, wenn man von einer Cloud in die andere Cloud wechseln will.

Diese Egress-Gebühren haben inzwischen fast alle Anbieter abgeschafft.

Herrmann: Ja, das wird runtergefahren.

Wäre es denn auch denkbar, dass zum Beispiel AWS ihre Data-Center-Maschinen in den Oracle-Rechenzentren aufstellt und dort für deren Kunden betreibt?

Herrmann: Kein uncharmanter Gedanke, aber das wäre jetzt rein spekulativ. Das würde auch definitiv nicht in Deutschland entschieden, sondern würde ganz klar von unseren zentralen Engineering Teams entschieden werden. Da müssten verschiedenste Aspekte begutachtet werden, zum Beispiel Security etc.

Grundsätzlich hat in den vergangenen Jahren ein ziemlicher Kulturwandel bei Oracle stattgefunden – in Richtung Offenheit. Wenn ich daran zurückdenke, wie Larry Ellison noch vor wenigen Jahren über AWS und Microsoft geschimpft hat – und heute kooperiert man.

Herrmann: Und umgekehrt natürlich genauso. Ich kann mich noch aus meinen Microsoft-Zeiten erinnern, als wir versucht haben, Oracle-Datenbankumgebungen mit Postgres SQL abzulösen. Das war gar nicht so einfach. Daran sieht man, dass der Zufriedenheitsgrad der Kunden mit unserer Datenbank hoch ist, insbesondere mit der Stabilität und mit der Innovation, gerade jetzt auch im Umfeld von 23ai.

Als ich meine Reisen gemacht habe, um die Kunden kennenzulernen, gab es sicher so manche Diskussionen, aber nahezu niemand hat mich konfrontiert mit einer Diskussion zu Instabilitäten, technologischen Unzulänglichkeiten oder dergleichen. Deswegen ist diese Kombination so wichtig: Jetzt kann ich den Datenbank-Stack, den ich als Kunde wertzuschätzen gelernt habe, auch in der Cloud und vor allem auch in der Cloud meiner Wahl nutzen. Ein tatsächlicher Mehrwert also. Das begrüßen alle gleichermaßen.

Ich habe derzeit allerdings das Gefühl, dass man vielerorts versucht, wieder Grenzen hochzuziehen und den eigenen Stack zu bevorzugen – nach dem Motto: Lieber Kunde, wenn du sowieso schon in meiner Cloud und in meinem Stack bist, dann nutze doch lieber meine Tools, meine Features und meine Services, statt irgendwas anderes externes. Die Regulatorik verlangt allerdings mehr Offenheit von den Cloud-Anbietern.

“Das Thema Modularität verschwindet nicht mit der Cloud”

Herrmann: Genau – die Regulatorik ist der eine Aspekt. Aber auch das andere Thema Modularität spielt eine wichtige Rolle. Das haben wir im Applikationsumfeld immer schon gehabt. Was haben wir in der On-Premises-Welt Anwender klagen hören über monolithische Blöcke versus modulare Systeme und Best of Breed. Das Thema verschwindet ja nicht, wenn ich plötzlich in der Cloud bin. Natürlich hat es jeder Anbieter gerne, wenn man möglichst viel vom eigenen Stack nutzt.

Aber die Möglichkeit zu haben, über Standard-Schnittstellen, über Standard-Datenaustausch, über gewisse Standard-Formate diese Möglichkeiten zu schaffen und damit den Wandel zu unterstützen, dann sollte das auch so sein.

Man hört von vielen Anwendern auch immer wieder: Jetzt sind wir in der Cloud und stellen fest, dass das ganze aus einer ökonomischen Perspektive gar nicht so gut funktioniert, wenn alles nur an einer Stelle liegt. Auch da sind wir ein Stück weit der Herausforderer im Markt mit einer ganz anderen Preis-Performance, was auch auf die Architektur zurückzuführen ist. Bei uns können Sie eine vollwertige Cloud, also von ihren Funktionalitäten her vollwertig, schon in vier Racks konsumieren. Bei den Wettbewerbern braucht es ein Vielfaches davon, um so eine vollwertige Cloud zu bekommen. Und die kleineren Lösungen sind immer ein Subset der Funktionen.

Aber mit vier Racks kommt man doch nicht weit?

Herrmann: Natürlich haben vier Racks nicht die gleiche Compute-Power und die gleiche Storage-Kapazität wie 100. Aber es fehlt nicht an der Funktionalität. Deswegen können wir auch zu besonders attraktiven Konditionen anbieten, und diese Infrastruktur und Plattformen in Marktsegmenten platzieren, wo man vorher gefragt hat: Na ja, das ist eigentlich alles zu teuer, und kann man sich das überhaupt leisten?

Aber das ist ja im Grunde genommen die entscheidende Frage. Fokussiere ich mich auf eine technische Migration in die Cloud und packe meine IT einfach nur aus meinem Rechenzentrum rüber in die Cloud – was ja letzten Endes keinen besonderen Mehrwert bringt. Im Grunde genommen verschenkt man damit alle Modernisierungs- und Transformationsmöglichkeiten.

Herrmann: Reines Lift and Shift macht heute kaum noch jemand. Viele gehen mit der Cloud in neue Applikationsentwicklung oder zumindest in eine gewisse Cloudifizierung, Containerisierung etc. Dann gibt es vielleicht ein paar Themen, die vom Zeithorizont her langfristig nicht mehr strategisch sind, die man aber noch die nächsten zwei oder drei Jahre benötigt. Da soll der Aufwand dafür natürlich möglichst gering bleiben – also kapseln oder gleich On-Premises behalten, oder wenn man das Rechenzentrum wirklich leerräumen will, dann nimmt man es einfach rüber in die Cloud und betreibt es dort weiter.

Gut, aber das hat immer noch einen sehr technischen Fokus. Ich würde einen Schritt weitergehen in Richtung Prozess- und Organisationsmodernisierung. Sie sprachen es an – Oracle will sich auf bestimmte Branchen fokussieren. Gehen Sie da auch in eine regelrechte Business-Beratung, die sie selber anbieten oder läuft das dann über Partner?

Herrmann: Also in den Bereichen, in denen wir selbst genügend KnowHow haben – und da würde ich an allererster Stelle das Healthcare Thema mit Oracle Health, ehemals Cerner, nennen, im Retail Umfeld haben wir viel Kapazität aufgebaut oder rund um Hotellerie. Ansonsten verfolgen wir den Ansatz von strategischen Partnerschaften, also mit entsprechenden Beratungshäusern zusammen dann diese Themen zu adressieren.

Ich würde es nicht als naheliegendes Ziel sehen, entsprechende Kapazitäten selbst aufzubauen. Dafür gibt es hervorragende industriespezifische Fachberater und eben die großen Beratungshäuser wie eine PWC, Deloitte, Accenture etc, mit denen wir natürlich intensiv über Partnerschaften sprechen und dann auch bestimmte Industrien adressieren. Deswegen haben wir uns auch intern nach Industrien aufgestellt, um diese Anschlussfähigkeit zu verbessern.

Oracle kooperiert mit verschiedenen Anbietern von Large Language Models (LLMs). Darauf bauen dann ihre eigenen Bots und KI-Agententechnologie auf. Wie verstehen sich denn KI-Agenten unterschiedlicher Plattformen verstehen und wie tauschen sie sich aus.

Herrmann: PWC baut interessante Plattformen dafür. Am Ende des Tages braucht es die passenden Plattformen, weil es gibt die LLM-Entwickler und es gibt auch viele Kunden, die ihre LLMs angereichert um ihre Enterprise Daten trainieren wollen, und dafür braucht es leistungsfähige Infrastrukturen.

Wir betreiben im AI-Umfeld den gesamten Stack. Wir haben sehr früh angefangen, AI in unsere eigenen Applikationen zu integrieren, sei es in die Industrie-spezifischen Anwendungen, wie auch in den Fusion Stack. Wir haben mutmaßlich im ERP-Umfeld SAP weltweit überholt. Das liegt auch daran, dass sehr viel Agentic-AI in unseren Applikationen bereits integriert ist – ob es Human-Capital-Management- (HCM-)Systeme sind oder Supply-Chain-Themen.

Wir bieten aber auch betriebene Plattformen mit verschiedenen LLMs an, ob es Cohere ist oder Meta oder andere. Und wir bieten auch ganze Infrastrukturen an, von sehr kleinen, sehr modularen Systemen, die sich einfach in den eigenen Betrieb integrieren lassen, bis hin zu Superclustern, mit denen man dann auch LLMs trainieren kann.

“Nicht alles was machbar ist, ist auch wünschenswert”

Sie sitzen ja auf einem wahren Datenschatz mit ihrer Datenbanktechnologie, die bei den Kunden im Einsatz ist.

Hermann: Na ja, unsere Kunden sitzen auf dem Datenschatz.

Andere Anbieter holen sich das Einverständnis der Kunden und nutzen deren Daten um KI-Features zu trainieren. Deren Argument: Das kommt dann auch euch wieder zugute, weil dadurch diese KI intelligenter wird.

Herrmann: Wir trainieren keine Modelle mit Daten von Kunden, ganz explizit nicht. Wir sind da ganz stringent und sagen, die Daten gehören ausschließlich den Kunden und wir helfen den Kunden, auch gemeinsam mit Partnern in speziellen Projekten. Aber immer in dem Kontext: Der Kunde hat die Kontrolle, der Kunde entscheidet.

Das wird sich auch nicht ändern. Schon allein deswegen, weil wir als Datenbankanbieter einen großen Vertrauensvorschuss von unseren Kunden bekommen. Dort liegen die kritischsten Daten, die oft die zentrale Wertschöpfungskette beinhalten. Es gibt große Automobilhersteller, da würde kein einziger Wagen vom Band rollen, wenn diese Datenbanken stillstünden. Das ist das Herzstück eines Unternehmens. Und diese Daten gehören dem Kunden.

Sie stellen also die Basistechnologie zur Verfügung. Wenn der Kunde sagt, Ich möchte aber dieses oder jenes KI-Modell entsprechend mit meinem Business-Daten anreichern und trainieren …

Herrmann: Kann er das über die 23ai beispielsweise machen. Wir würden auch alle Cloud-Features zur Verfügung stellen, wir würden logischerweise auch in den Projektgruppen mit dem Kunden zusammenarbeiten, wir würden unsere Ingenieure zur Verfügung stellen, wir würden Knowhow unserer Partnerunternehmen beisteuern. All das, was notwendig ist, damit der Kunde zu einem optimalen Ergebnis kommt. Aber wir würden diese Daten oder Metadaten nie dazu nutzen, unsere eigenen Agenten zu trainieren.

Gerade hier in Deutschland wird oft über Themen wie Datenökonomie und Datenräume gesprochen, teilweise auch von der Politik forciert – gerade mit Blick auf die neuen Möglichkeiten mit KI. Industrien sollen Datenräume aufbauen, Daten teilen, um da neue Ideen zu generieren. Aber so richtig ins Rollen kommt das nicht.

Herrmann: Schauen Sie sich Predictive-Maintenance-Modelle an. Teilt Maschinenfabrikant A seine Daten mit Maschinenfabrikant B? Ist es wirklich in deren Interesse? Wollen Sie wirklich, dass ein allgemein trainiertes Modell den Vorteil ausnutzt, den Sie vielleicht im Algorithmus gefunden haben aufgrund von Schwingungsanalyse oder Umdrehungszahlen, was auch immer, und damit längere Laufzeiten und weniger Abnutzung zu haben. Wollen Sie das wirklich?

Grundsätzlich glaube ich, dass es immer interessant ist, die Qualität von Daten zu verbessern. Aber man muss sich die spezifischen Fälle anschauen und sehen, wie die Interessen verteilt sind. Es wäre durchaus vorstellbar, dass man eine Plattform schafft für eine gewisse Untermenge von Werkzeug- oder Maschinenbauern, die alle einen bestimmten Anwendungsfall erledigen wollen. Dann in einem kontrollierten Umfeld mit einer kontrollierten Nutzergruppe und deren Einverständnis diese Simulation zu fahren, ist vorstellbar.

Aber nicht unbedingt, daraus einen Agenten zu basteln, den man dann wieder allen möglichen anderen Firmen weiterverkaufen kann. Dann sind wir sehr schnell bei der Diskussion: Wer treibt überhaupt noch wie viel Innovation? Was ist mit IP-Klau? Auch ein Feld, das man genau im Blick haben muss. Nicht alles, was machbar ist, ist immer auch wünschenswert oder zulässig. (mb)

“Wir können alles technologisch und organisatorisch abbilden”​ Weiterlesen »

Körpersprache im Vorstellungsgespräch: In den Augen der Bewerber lesen​

Allgemein

Bewerber geben unbewusst durch Mimik und Gestik viel von sich preis. Die wenigsten sagen in Vorstellungsgesprächen was sie denken und wie sie fühlen. In Bewerbungsgesprächen geht es vor allem darum, die Persönlichkeit des Bewerbers zu sondieren. Als Teamleiter in der IT sind Sie auch bei Vorstellungsgesprächen dabei und werden anschließend nach Ihrer Meinung zu dem jeweiligen Bewerber gefragt. Wichtig zu wissen: Besonders viele Informationen liefert im Bewerbungsgespräch auch das, was der Kandidat zwar nicht sagt, aber durch seine Mimik oder Gestik unbewusst zum Ausdruck bringt. Die wenigsten sagen in Gesprächen und insbesondere in Bewerbungsgesprächen das, was sie denken und wie sie fühlen. Doch selbst wenn wir schweigen, spricht unser Körper. Wie Paul Watzlawick schon sagte: “Man kann nicht nicht kommunizieren.” Im Klartext heißt das: Unsere Körpersprache verrät sehr häufig, was wir denken und fühlen. Auf diese Weise erhalten unsere Gesprächspartner beziehungsweise der Personalverantwortliche in Bewerbungsgesprächen viele Informationen, die weit über das gesprochene Wort hinausgehen. So können Körpersprache, Mimik und Gestik schnell Sympathie für jemanden wecken, aber auch das Gegenteil kann der Fall sein. Schon die Begrüßung im Bewerbungsgespräch sagt viel über den Kandidaten aus. Foto: Stock-Asso – shutterstock.com Wenn Sie in einem Bewerbungsgespräch sitzen, kann es zu Irritationen führen, wenn etwas nicht stimmig ist; zum Beispiel die nonverbalen Signale nicht zu den Aussagen und dem restlichen Bild des Bewerbers passen. Je nachdem, ob Mimik, Körpersprache, Stimme und die verbalen Aussagen zueinanderpassen oder nicht, spricht man von kongruentem oder nicht kongruentem Verhalten. Ein Beispiel: Sie erklären dem Bewerber gerade, welche Aufgaben zu seinem neuen Job gehören. Er antwortet, dass er sich darauf schon sehr freut. Doch sein Gesicht sieht aus wie sieben Tage Regenwetter oder als wäre etwas Schlimmes passiert. In diesem Fall passen Mimik und die verbale Aussage nicht zusammen, es herrscht keine Kongruenz. Oder aber es entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, die gerade bei einer Bewerbung eine entscheidende Rolle spielen. In Bewerbungsgesprächen oder in jeglicher Art von Selbstpräsentation hängt Ihre Wirkung enorm von Mimik, Gestik, der Körperhaltung, den Bewegungen und der Stimme ab. Der erste Eindruck kommt blitzschnell Das bedeutet auch, dass Bewerber oftmals gar nicht an den fachlichen Qualifikationen scheitern. Die fachliche Eignung wird meist schon durch die Bewerbungsunterlagen in der Vorauswahl abgeglichen und ist in der Regel der Grund für die Einladung zum Gespräch. In diesem Treffen geht es dann neben der fachlichen Eignung um die jeweilige Persönlichkeit. Es sind genau diese “Kleinigkeiten” und nonverbalen Signale in dem Aufeinandertreffen, die schnell zu einem Gefühl und Eindruck vom Bewerber führen und mit als Entscheidungsgrundlage genutzt werden. Apropos Eindruck: Dieser sogenannte erste Eindruck entsteht innerhalb von wenigen Augenblicken. Achten Sie doch selbst einmal darauf, wie schnell das bei Ihnen geht: Sie sehen eine Person, und ob Sie wollen oder nicht, im Nu haben Sie einen ersten Eindruck, ohne dass auch nur ein Wort gewechselt wurde: sympathisch, freundlich, unfreundlich, überheblich, arrogant, selbstbewusst, konzentriert, gelangweilt, unsicher … Die Begrüßung als erste Messlatte Schon die Begrüßung im Bewerbungsgespräch ist aussagekräftig. Achten Sie bereits auf die Körpersprache des Bewerbers: Wie betritt er den Besprechungsraum: Eher freudig, motiviert, stürmisch oder vielleicht zurückhaltend? Lächelnd oder verbittert, leichtfüßig oder mit festem Schritt, unsicher? Gibt es Blickkontakt? Wie ist der Händedruck? Passt das Outfit? Blickkontakt, Händedruck und die Körperhaltung entscheiden neben dem optischen Erscheinungsbild über den sprichwörtlichen ersten Eindruck, den man von seinem Gesprächspartner gewinnt. Auch das Outfit kann viel über die Einstellung und das Bewusstsein des Kandidaten für die angestrebte Position aussagen. Unabhängig von der Kleidung ist natürlich ein gepflegtes Äußeres wichtig. Auch hier gilt der alte Satz: Kleider machen Leute – auch oder besonders bei Bewerbungsgesprächen. Blickkontakt und Lächeln sorgen ferner für eine gute Grundlage. Außerdem gilt: Weder ein schlaffer Händedruck, langes Händeschütteln, noch ein zu fester Händedruck sind hilfreich. Ein professioneller Handshake dauert rund drei bis vier Sekunden. Direkten Blickkontakt suchen Wichtig ist aber auch, nicht einfach und zu schnell aufgrund einer bestimmten Körperhaltung oder eines Gesichtsausdrucks auf das Wesen des Bewerbers zu schließen. Vielmehr sollte man auf diese “Kleinigkeiten” etwas bewusster achten und versuchen, Veränderungen in der Situation, im Thema oder in der Antwort auf eine Frage wahrzunehmen. Wichtig ist hier vor allem das Gesicht – also die Mimik und auch die Körpersprache in den wichtigen Momenten. Das sind Situationen, in denen Sie etwas sagen und der Bewerber reagiert oder aber frei von sich erzählt. Halten Sie hier Blickkontakt, denn dieser ist in der Kommunikation zwischen Menschen extrem wichtig. Zum einen signalisiert ein Blickkontakt Interesse und Aufmerksamkeit. Zum anderen sind gerade die Augen eines Menschen sehr aussagekräftig und aufschlussreich. Ein direkter Blickkontakt hilft also, den anderen zu “lesen”. So sehr man Gedanken und Gefühle verbergen oder kontrollieren möchte, erzählen die Augen doch weit mehr, als man denkt. Ein Beispiel: Viele setzen besonders in Bewerbungsgesprächen sehr häufig ein Lächeln als Maske auf – daher stellt sich oft die Frage: Verbirgt sich dahinter echte Freude oder doch nur ein soziales Lächeln? Zur echten Freude gehören die Augen. Die Augenringmuskulatur wird aktiv. Das heißt, um die Augen entstehen die kleinen typischen Fältchen, und sie wirken kleiner. Bei einem gespielten Lächeln werden die Wangen eher nur von unten nach oben geschoben, manchmal auch nur einseitig und meist ohne die Beteiligung der Augen. Ist das dann ein Ausdruck echter Freude bei dem Bewerber über den neuen Job? Oder Sie merken, dass Ihr Gegenüber beispielsweise in bestimmten Situationen oder bei der einen oder anderen Frage unruhig wird. Seine Körperhaltung, seine Mimik ändert sich schlagartig. Dann ist es hilfreich, nachzufragen und konkreter zu werden. Klären Sie das, was Sie nicht zuordnen können, was Sie nicht verstehen. Tun Sie das nicht, werden Sie wahrscheinlich mit einem eher unguten Gefühl das Gespräch verlassen, weil Sie gemerkt haben, irgendetwas war da, ich weiß es aber nicht, es ist nur so ein Gefühl. Doch dann ist es meist zu spät. 

Körpersprache im Vorstellungsgespräch: In den Augen der Bewerber lesen​ Bewerber geben unbewusst durch Mimik und Gestik viel von sich preis.

Die wenigsten sagen in Vorstellungsgesprächen was sie denken und wie sie fühlen.

In Bewerbungsgesprächen geht es vor allem darum, die Persönlichkeit des Bewerbers zu sondieren.

Als Teamleiter in der IT sind Sie auch bei Vorstellungsgesprächen dabei und werden anschließend nach Ihrer Meinung zu dem jeweiligen Bewerber gefragt. Wichtig zu wissen: Besonders viele Informationen liefert im Bewerbungsgespräch auch das, was der Kandidat zwar nicht sagt, aber durch seine Mimik oder Gestik unbewusst zum Ausdruck bringt.

Die wenigsten sagen in Gesprächen und insbesondere in Bewerbungsgesprächen das, was sie denken und wie sie fühlen. Doch selbst wenn wir schweigen, spricht unser Körper. Wie Paul Watzlawick schon sagte: “Man kann nicht nicht kommunizieren.” Im Klartext heißt das: Unsere Körpersprache verrät sehr häufig, was wir denken und fühlen. Auf diese Weise erhalten unsere Gesprächspartner beziehungsweise der Personalverantwortliche in Bewerbungsgesprächen viele Informationen, die weit über das gesprochene Wort hinausgehen. So können Körpersprache, Mimik und Gestik schnell Sympathie für jemanden wecken, aber auch das Gegenteil kann der Fall sein.

Schon die Begrüßung im Bewerbungsgespräch sagt viel über den Kandidaten aus.
Foto: Stock-Asso – shutterstock.com

Wenn Sie in einem Bewerbungsgespräch sitzen, kann es zu Irritationen führen, wenn etwas nicht stimmig ist; zum Beispiel die nonverbalen Signale nicht zu den Aussagen und dem restlichen Bild des Bewerbers passen. Je nachdem, ob Mimik, Körpersprache, Stimme und die verbalen Aussagen zueinanderpassen oder nicht, spricht man von kongruentem oder nicht kongruentem Verhalten.

Ein Beispiel: Sie erklären dem Bewerber gerade, welche Aufgaben zu seinem neuen Job gehören. Er antwortet, dass er sich darauf schon sehr freut. Doch sein Gesicht sieht aus wie sieben Tage Regenwetter oder als wäre etwas Schlimmes passiert. In diesem Fall passen Mimik und die verbale Aussage nicht zusammen, es herrscht keine Kongruenz.

Oder aber es entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, die gerade bei einer Bewerbung eine entscheidende Rolle spielen. In Bewerbungsgesprächen oder in jeglicher Art von Selbstpräsentation hängt Ihre Wirkung enorm von Mimik, Gestik, der Körperhaltung, den Bewegungen und der Stimme ab.

Der erste Eindruck kommt blitzschnell

Das bedeutet auch, dass Bewerber oftmals gar nicht an den fachlichen Qualifikationen scheitern. Die fachliche Eignung wird meist schon durch die Bewerbungsunterlagen in der Vorauswahl abgeglichen und ist in der Regel der Grund für die Einladung zum Gespräch. In diesem Treffen geht es dann neben der fachlichen Eignung um die jeweilige Persönlichkeit. Es sind genau diese “Kleinigkeiten” und nonverbalen Signale in dem Aufeinandertreffen, die schnell zu einem Gefühl und Eindruck vom Bewerber führen und mit als Entscheidungsgrundlage genutzt werden.

Apropos Eindruck: Dieser sogenannte erste Eindruck entsteht innerhalb von wenigen Augenblicken. Achten Sie doch selbst einmal darauf, wie schnell das bei Ihnen geht: Sie sehen eine Person, und ob Sie wollen oder nicht, im Nu haben Sie einen ersten Eindruck, ohne dass auch nur ein Wort gewechselt wurde: sympathisch, freundlich, unfreundlich, überheblich, arrogant, selbstbewusst, konzentriert, gelangweilt, unsicher …

Die Begrüßung als erste Messlatte

Schon die Begrüßung im Bewerbungsgespräch ist aussagekräftig. Achten Sie bereits auf die Körpersprache des Bewerbers: Wie betritt er den Besprechungsraum: Eher freudig, motiviert, stürmisch oder vielleicht zurückhaltend? Lächelnd oder verbittert, leichtfüßig oder mit festem Schritt, unsicher? Gibt es Blickkontakt? Wie ist der Händedruck? Passt das Outfit? Blickkontakt, Händedruck und die Körperhaltung entscheiden neben dem optischen Erscheinungsbild über den sprichwörtlichen ersten Eindruck, den man von seinem Gesprächspartner gewinnt. Auch das Outfit kann viel über die Einstellung und das Bewusstsein des Kandidaten für die angestrebte Position aussagen. Unabhängig von der Kleidung ist natürlich ein gepflegtes Äußeres wichtig.

Auch hier gilt der alte Satz: Kleider machen Leute – auch oder besonders bei Bewerbungsgesprächen. Blickkontakt und Lächeln sorgen ferner für eine gute Grundlage. Außerdem gilt: Weder ein schlaffer Händedruck, langes Händeschütteln, noch ein zu fester Händedruck sind hilfreich. Ein professioneller Handshake dauert rund drei bis vier Sekunden.

Direkten Blickkontakt suchen

Wichtig ist aber auch, nicht einfach und zu schnell aufgrund einer bestimmten Körperhaltung oder eines Gesichtsausdrucks auf das Wesen des Bewerbers zu schließen. Vielmehr sollte man auf diese “Kleinigkeiten” etwas bewusster achten und versuchen, Veränderungen in der Situation, im Thema oder in der Antwort auf eine Frage wahrzunehmen.

Wichtig ist hier vor allem das Gesicht – also die Mimik und auch die Körpersprache in den wichtigen Momenten. Das sind Situationen, in denen Sie etwas sagen und der Bewerber reagiert oder aber frei von sich erzählt. Halten Sie hier Blickkontakt, denn dieser ist in der Kommunikation zwischen Menschen extrem wichtig. Zum einen signalisiert ein Blickkontakt Interesse und Aufmerksamkeit. Zum anderen sind gerade die Augen eines Menschen sehr aussagekräftig und aufschlussreich. Ein direkter Blickkontakt hilft also, den anderen zu “lesen”.

So sehr man Gedanken und Gefühle verbergen oder kontrollieren möchte, erzählen die Augen doch weit mehr, als man denkt. Ein Beispiel: Viele setzen besonders in Bewerbungsgesprächen sehr häufig ein Lächeln als Maske auf – daher stellt sich oft die Frage: Verbirgt sich dahinter echte Freude oder doch nur ein soziales Lächeln? Zur echten Freude gehören die Augen. Die Augenringmuskulatur wird aktiv. Das heißt, um die Augen entstehen die kleinen typischen Fältchen, und sie wirken kleiner. Bei einem gespielten Lächeln werden die Wangen eher nur von unten nach oben geschoben, manchmal auch nur einseitig und meist ohne die Beteiligung der Augen. Ist das dann ein Ausdruck echter Freude bei dem Bewerber über den neuen Job?

Oder Sie merken, dass Ihr Gegenüber beispielsweise in bestimmten Situationen oder bei der einen oder anderen Frage unruhig wird. Seine Körperhaltung, seine Mimik ändert sich schlagartig. Dann ist es hilfreich, nachzufragen und konkreter zu werden. Klären Sie das, was Sie nicht zuordnen können, was Sie nicht verstehen. Tun Sie das nicht, werden Sie wahrscheinlich mit einem eher unguten Gefühl das Gespräch verlassen, weil Sie gemerkt haben, irgendetwas war da, ich weiß es aber nicht, es ist nur so ein Gefühl. Doch dann ist es meist zu spät.

Körpersprache im Vorstellungsgespräch: In den Augen der Bewerber lesen​ Weiterlesen »

KI: Mit Photonen will Deutschland an die Spitze​

Allgemein

Michael Förtsch, CEO von Q.ANT (links), und Dieter Kranzlmüller, Vorsitzender des LRZ, bei der Inbetriebnahme des Photonen-Servers.Q.ANT GmbH Der Siegeszug der KI ist nicht mehr aufzuhalten – ist doch unumstritten, dass AI repetitive Aufgaben in Produktion und Office schneller und effizienter erledigen kann. Gleichzeitig steigt damit weltweit der Energiebedarf der Rechenzentren, so dass an Standorten wie Frankfurt bereits der Strom für neue Rechenzentren fehlt. Und die Situation könnte noch schlimmer werden: Experten gehen davon aus, dass bis 2030 KI vermutlich weltweit mehr Strom benötigt, als aktuell die gesamte Bundesrepublik verbraucht. Einen Ausweg aus diesem Dilemma könnte eine neue Art des Rechnens eröffnen: Computer, die anstelle von Strom mit Licht arbeiten. Mit Licht rechnen Den nach eigenem Bekunden weltweit ersten photonischen KI-Rechner hat jetzt das Leibniz-Rechenzentrum (LRZ) in Garching bei München in Betrieb genommen. Er soll 90 Prozent weniger Strom verbrauchen und die hundertfache KI-Rechenleistung im Vergleich zu klassischen Computern bieten. Der Photonen-Computer im LRZ. Q.ANT GmbH Die dazu im LRZ – einem der größten Supercomputing-Zentren Europas – eingesetzte Technik stammt von dem Stuttgarter Startup Q.ANT. Die Stuttgarter haben mit der Native Processing Unit (NPU) einen photonischen Prozessor entwickelt, der mit Licht rechnet. Im Gegensatz zu klassischen Chips mit CMOS-Technologie soll der Ansatz etliche Vorteile bieten. So könnten die NPUs mehr Rechenoperationen pro Sekunde durchführen und durch die Verwendung mehrerer Wellenlängen Berechnungen auf einem Chip parallel durchführen, erklärt das Startup. Ferner hätten die Chips einen geringeren Kühlbedarf. KI-Workloads beschleunigen Die Konstruktion sieht folgendermaßen aus: Eine NPU wird auf einer PCIe-Karte installiert. Diese wiederum kommt in dem Native Processing Server – kurz NPS – zum Einsatz, der als 19-Zoll-Rack-Server konzipiert ist. Als Betriebssystem wird ein Linux-Derivat verwendet. Das Software-Interface bilden C/C++ und Python API. Ferner werden PyTorch, TensorFlow und Keras unterstützt. „Photonische Prozessoren bieten einen neuartigen und vielversprechenden Weg, um KI- und Simulations-Workloads zu beschleunigen und gleichzeitig unseren ökologischen Fußabdruck deutlich zu verringern“, beschreibt Prof. Dr. Dieter Kranzlmüller, Vorsitzender des Direktoriums des LRZ, die Vorteile. „Mit diesem Praxiseinsatz kommen wir unserem Ziel entscheidend näher, energieeffiziente Infrastrukturen für Supercomputing und KI zu etablieren. “ Dementsprechend integriert das LRZ den Photonen-Computer in seine HPC-Umgebungen. Use Cases für den Photonen-Rechner Das LRZ will den NPS von Q.ANT nutzen, um neue Benchmarks und praxisnahe Anwendungsfälle für Anwendungen wie Klimamodellierung, medizinische Echtzeitbildgebung oder Materialsimulation für die Fusionsforschung zu etablieren. In der ersten Evaluierungsphase im LRZ werden mehrere Einheiten der neuesten Generation des Q.ANT NPS installiert, geeignete Benchmark-Workloads ausgewählt und reale Anwendungsszenarien getestet – insbesondere in den Bereichen KI-Inferenz, Computer Vision und Physiksimulationen. In späteren Phasen kommen NPS-Einheiten der zweiten und dritten Generation für eine vertiefende Bewertung zum Einsatz. Das Projekt wird durch das Bundesministerium für Forschung, Technologie und Raumfahrt gefördert. 

KI: Mit Photonen will Deutschland an die Spitze​ Michael Förtsch, CEO von Q.ANT (links), und Dieter Kranzlmüller, Vorsitzender des LRZ, bei der Inbetriebnahme des Photonen-Servers.Q.ANT GmbH

Der Siegeszug der KI ist nicht mehr aufzuhalten – ist doch unumstritten, dass AI repetitive Aufgaben in Produktion und Office schneller und effizienter erledigen kann. Gleichzeitig steigt damit weltweit der Energiebedarf der Rechenzentren, so dass an Standorten wie Frankfurt bereits der Strom für neue Rechenzentren fehlt.

Und die Situation könnte noch schlimmer werden: Experten gehen davon aus, dass bis 2030 KI vermutlich weltweit mehr Strom benötigt, als aktuell die gesamte Bundesrepublik verbraucht. Einen Ausweg aus diesem Dilemma könnte eine neue Art des Rechnens eröffnen: Computer, die anstelle von Strom mit Licht arbeiten.

Mit Licht rechnen

Den nach eigenem Bekunden weltweit ersten photonischen KI-Rechner hat jetzt das Leibniz-Rechenzentrum (LRZ) in Garching bei München in Betrieb genommen. Er soll 90 Prozent weniger Strom verbrauchen und die hundertfache KI-Rechenleistung im Vergleich zu klassischen Computern bieten.

Der Photonen-Computer im LRZ.
Q.ANT GmbH

Die dazu im LRZ – einem der größten Supercomputing-Zentren Europas – eingesetzte Technik stammt von dem Stuttgarter Startup Q.ANT. Die Stuttgarter haben mit der Native Processing Unit (NPU) einen photonischen Prozessor entwickelt, der mit Licht rechnet. Im Gegensatz zu klassischen Chips mit CMOS-Technologie soll der Ansatz etliche Vorteile bieten. So könnten die NPUs mehr Rechenoperationen pro Sekunde durchführen und durch die Verwendung mehrerer Wellenlängen Berechnungen auf einem Chip parallel durchführen, erklärt das Startup. Ferner hätten die Chips einen geringeren Kühlbedarf.

KI-Workloads beschleunigen

Die Konstruktion sieht folgendermaßen aus: Eine NPU wird auf einer PCIe-Karte installiert. Diese wiederum kommt in dem Native Processing Server – kurz NPS – zum Einsatz, der als 19-Zoll-Rack-Server konzipiert ist. Als Betriebssystem wird ein Linux-Derivat verwendet. Das Software-Interface bilden C/C++ und Python API. Ferner werden PyTorch, TensorFlow und Keras unterstützt.

„Photonische Prozessoren bieten einen neuartigen und vielversprechenden Weg, um KI- und Simulations-Workloads zu beschleunigen und gleichzeitig unseren ökologischen Fußabdruck deutlich zu verringern“, beschreibt Prof. Dr. Dieter Kranzlmüller, Vorsitzender des Direktoriums des LRZ, die Vorteile. „Mit diesem Praxiseinsatz kommen wir unserem Ziel entscheidend näher, energieeffiziente Infrastrukturen für Supercomputing und KI zu etablieren. “ Dementsprechend integriert das LRZ den Photonen-Computer in seine HPC-Umgebungen.

Use Cases für den Photonen-Rechner

Das LRZ will den NPS von Q.ANT nutzen, um neue Benchmarks und praxisnahe Anwendungsfälle für Anwendungen wie Klimamodellierung, medizinische Echtzeitbildgebung oder Materialsimulation für die Fusionsforschung zu etablieren. In der ersten Evaluierungsphase im LRZ werden mehrere Einheiten der neuesten Generation des Q.ANT NPS installiert, geeignete Benchmark-Workloads ausgewählt und reale Anwendungsszenarien getestet – insbesondere in den Bereichen KI-Inferenz, Computer Vision und Physiksimulationen.

In späteren Phasen kommen NPS-Einheiten der zweiten und dritten Generation für eine vertiefende Bewertung zum Einsatz. Das Projekt wird durch das Bundesministerium für Forschung, Technologie und Raumfahrt gefördert.

KI: Mit Photonen will Deutschland an die Spitze​ Weiterlesen »

Confidential Computing wird zum Zünglein an der Waage​

Allgemein

Mit (semi)autonomen KI-Agenten wächst das Interesse an Confidential-Computing-Lösungen. Shutterstock/Gorodenkoff Unternehmen dürfen Datensicherheit nicht länger ignorieren, da KI-Agenten zunehmend den internen Datenfluss in IT-Umgebungen übernehmen – fordern Analysten und IT-Führungskräfte. „Die Regulierung von KI-Anwendungsfällen – beispielsweise im Gesundheitswesen und im Finanzdienstleistungssektor, die bereits einer umfassenden behördlichen Aufsicht und Compliance-Überwachung unterliegen – erfordert die Überprüfbarkeit der spezifischen KI-Modelle oder der eingesetzten agentenbasierten Software“, erklärt Richard Searle, Chief AI Officer beim Security-Anbieter Fortanix. Angesichts dieser Anforderungen setzen einige führende Technologieunternehmen auf das Konzept des „Confidential Computing“, eine Technologie, die es zwar schon seit Jahren gibt, die aber mit dem Aufkommen der generativen KI (GenAI) neuen Auftrieb erhält. Schutz von Daten und Sprachmodell Confidential Computing schafft eine Hardware-geschützte Ausführungsumgebung, in der KI-Modelle und Daten „eingeschlossen“ werden. Informationen werden nur an diejenigen Modelle oder Agenten weitergegeben, die über die entsprechenden Zugriffsrechte verfügen – ein Schutz gegen unbefugte Datennutzung. Für Unternehmen, die sich um KI-Sicherheit sorgten, könne die Einführung von Confidential Computing viele dieser Bedenken entschärfen, erklärt Craig Matsumoto, Analyst bei Futuriom: „Das passt sehr gut zum Interesse vieler Unternehmen für KI in privaten Clouds. Sie wollen die Kontrolle behalten.“ Das haben auch die Anbieter erkannt. So gestattet Google Unternehmen nun erstmals, seine proprietären Gemini-Modelle lokal zu betreiben – also außerhalb der eigenen Cloud-Infrastruktur und ohne Internetverbindung. Möglich wird das unter anderem durch Confidential-Computing-Technologie auf Nvidia-GPUs. Damit kann Google sein KI-Modell auch auf unsicheren (also nicht von Google kontrollierten) Hardware-Umgebungen betreiben. Eigentlich ist Gemini für Googles eigene Tensor Processing Units (TPU) konzipiert, die nur in der Google Cloud verfügbar sind. In diesem Fall kann das exportierte Modell jedoch in einer vertraulichen virtuellen Maschine auf der GPU von Nvidia ausgeführt werden. „Die GPU von Nvidia schützt dabei sowohl das geistige Eigentum von Google Gemini als auch die Unternehmens-IP, die in den Modellen verwendet wird“, so Justin Boitano, Vice President für Enterprise-AI-Produkte bei Nvidia. Eine spezielle Technologie bestätige, dass ein Nutzer autorisiert und berechtigt ist, Informationen zu empfangen oder auf das Modell zuzugreifen. „Das Interesse an dieser Technologie wächst, insbesondere für Anwendungen, die lokale Daten und lokale Entscheidungen mit geringer Latenz erfordern“, so Sachin Gupta, Vice President für Infrastruktur und Lösungen bei Google. Eine Kombination aus Latenz und Datenresidenz-Compliance treibe diese Art von Anwendungsfällen voran. GPUs kombinierten hohe Rechenleistung mit starker Sicherheit, was sie ideal für regulierte Branchen wie das Gesundheitswesen, den Finanzsektor oder die öffentliche Verwaltung mache, erklärt Steven Dickens, Principal Analyst bei Hyperframe Research: „Vorschriften wie HIPAA und DSGVO einzuhalten, ist unerlässlich.“ WhatsApp-Daten vor Meta schützen Ein weiteres Beispiel für den Einsatz von Confidential Computing betrifft WhatsApp. Die Meta-Tochter hat unlängst GenAI-Tools eingeführt, die schnelle Zusammenfassungen neuer Nachrichten eines Nutzers erzeugen können. Diese Zusammenfassungen sind privat und weder für Meta noch für Dritte einsehbar. Das Feature markiert den ersten Einsatz von Confidential Computing bei Meta – das Unternehmen nennt es allerdings „Private Processing“ – zum Schutz von Nutzerdaten. Der Konzern, der seit Jahrzehnten mit Datenschutzproblemen kämpft, will diese Technologie nun gezielt einsetzen, um verlorenes Vertrauen zurückzugewinnen. Zu diesem Zweck hat Meta im Wesentlichen eine private Computing-Umgebung mit AMD- und Nvidia-GPUs aufgebaut. Private WhatsApp-Daten werden darin verarbeitet, die Zusammenfassungen erzeugt – ohne, dass Meta oder andere darauf Zugriff haben. Das Private-Computing-Modell minimiert dabei das Risiko, dass Daten beim Transfer von WhatsApp in die Cloud abgefangen werden.  „Wir gehen davon aus, dass es weitere Fälle geben wird, in denen dieselbe oder eine ähnliche Infrastruktur für die Verarbeitung von Benutzeranfragen von Vorteil sein könnte,”, schreibt Meta in einem Blogbeitrag. Anthropic wiederum kündigte im vergangenen Monat eine Funktion namens „Confidential Inference“ an. Diese bietet Sicherheitsgarantien für Kunden, die seine Claude-GenAI-Technologie nutzen. Das Feature generiert dazu eine Zertifizierungskette (Chain of Trust), während Daten die KI-Kette durchlaufen, und berücksichtigt dabei auch KI-Agenten, die zunehmend als Vermittler in Inferencing-Prozessen agieren. Apples Beitrag zum Thema Confidential Computing wiederum ist das bereits umfänglich beschriebene Private-Cloud-Compute-Ökosystem des Unternehmens. Trotz der zunehmenden Verbreitung von Confidential Computing gibt es weiterhin Bedenken hinsichtlich eines Einsatzes in Cloud-Umgebungen, in denen CPUs die Authentifizierung auf Systemebene überprüfen und GPUs Daten authentifizieren. Ein zentrales Problem: Daten gelangen nur über die CPU zur GPU – und jede Schwachstelle in diesem Prozess könnte eine riesige Angriffsfläche für Hacker bieten, um Daten zu stehlen. „In einer solchen Umgebung wird die Zuverlässigkeit von Confidential Computing und Authentifizierung sehr fragil“, erklärt Alex Matrosov, Sicherheitsexperte und CEO von Binarly. „CPU-basierte Technologien sind außerdem anfällig für sogenannte Side-Channel-Angriffe, was ihre Zuverlässigkeit infrage stellt“, ergänzt Steven Dickens von Hyperframe. So hatte Google erst im Dezember vergangenen Jahres eine Sicherheitslücke offengelegt, die AMD Confidential Computing betraf und die den Einsatz von Microcode-Updates erforderlich machte. (mb) 

Confidential Computing wird zum Zünglein an der Waage​ Mit (semi)autonomen KI-Agenten wächst das Interesse an Confidential-Computing-Lösungen. Shutterstock/Gorodenkoff

Unternehmen dürfen Datensicherheit nicht länger ignorieren, da KI-Agenten zunehmend den internen Datenfluss in IT-Umgebungen übernehmen – fordern Analysten und IT-Führungskräfte.

„Die Regulierung von KI-Anwendungsfällen – beispielsweise im Gesundheitswesen und im Finanzdienstleistungssektor, die bereits einer umfassenden behördlichen Aufsicht und Compliance-Überwachung unterliegen – erfordert die Überprüfbarkeit der spezifischen KI-Modelle oder der eingesetzten agentenbasierten Software“, erklärt Richard Searle, Chief AI Officer beim Security-Anbieter Fortanix.

Angesichts dieser Anforderungen setzen einige führende Technologieunternehmen auf das Konzept des „Confidential Computing“, eine Technologie, die es zwar schon seit Jahren gibt, die aber mit dem Aufkommen der generativen KI (GenAI) neuen Auftrieb erhält.

Schutz von Daten und Sprachmodell

Confidential Computing schafft eine Hardware-geschützte Ausführungsumgebung, in der KI-Modelle und Daten „eingeschlossen“ werden. Informationen werden nur an diejenigen Modelle oder Agenten weitergegeben, die über die entsprechenden Zugriffsrechte verfügen – ein Schutz gegen unbefugte Datennutzung.

Für Unternehmen, die sich um KI-Sicherheit sorgten, könne die Einführung von Confidential Computing viele dieser Bedenken entschärfen, erklärt Craig Matsumoto, Analyst bei Futuriom: „Das passt sehr gut zum Interesse vieler Unternehmen für KI in privaten Clouds. Sie wollen die Kontrolle behalten.“

Das haben auch die Anbieter erkannt. So gestattet Google Unternehmen nun erstmals, seine proprietären Gemini-Modelle lokal zu betreiben – also außerhalb der eigenen Cloud-Infrastruktur und ohne Internetverbindung. Möglich wird das unter anderem durch Confidential-Computing-Technologie auf Nvidia-GPUs. Damit kann Google sein KI-Modell auch auf unsicheren (also nicht von Google kontrollierten) Hardware-Umgebungen betreiben. Eigentlich ist Gemini für Googles eigene Tensor Processing Units (TPU) konzipiert, die nur in der Google Cloud verfügbar sind. In diesem Fall kann das exportierte Modell jedoch in einer vertraulichen virtuellen Maschine auf der GPU von Nvidia ausgeführt werden.

„Die GPU von Nvidia schützt dabei sowohl das geistige Eigentum von Google Gemini als auch die Unternehmens-IP, die in den Modellen verwendet wird“, so Justin Boitano, Vice President für Enterprise-AI-Produkte bei Nvidia. Eine spezielle Technologie bestätige, dass ein Nutzer autorisiert und berechtigt ist, Informationen zu empfangen oder auf das Modell zuzugreifen.

„Das Interesse an dieser Technologie wächst, insbesondere für Anwendungen, die lokale Daten und lokale Entscheidungen mit geringer Latenz erfordern“, so Sachin Gupta, Vice President für Infrastruktur und Lösungen bei Google. Eine Kombination aus Latenz und Datenresidenz-Compliance treibe diese Art von Anwendungsfällen voran.

GPUs kombinierten hohe Rechenleistung mit starker Sicherheit, was sie ideal für regulierte Branchen wie das Gesundheitswesen, den Finanzsektor oder die öffentliche Verwaltung mache, erklärt Steven Dickens, Principal Analyst bei Hyperframe Research: „Vorschriften wie HIPAA und DSGVO einzuhalten, ist unerlässlich.“

WhatsApp-Daten vor Meta schützen

Ein weiteres Beispiel für den Einsatz von Confidential Computing betrifft WhatsApp. Die Meta-Tochter hat unlängst GenAI-Tools eingeführt, die schnelle Zusammenfassungen neuer Nachrichten eines Nutzers erzeugen können. Diese Zusammenfassungen sind privat und weder für Meta noch für Dritte einsehbar.

Das Feature markiert den ersten Einsatz von Confidential Computing bei Meta – das Unternehmen nennt es allerdings „Private Processing“ – zum Schutz von Nutzerdaten. Der Konzern, der seit Jahrzehnten mit Datenschutzproblemen kämpft, will diese Technologie nun gezielt einsetzen, um verlorenes Vertrauen zurückzugewinnen.

Zu diesem Zweck hat Meta im Wesentlichen eine private Computing-Umgebung mit AMD- und Nvidia-GPUs aufgebaut. Private WhatsApp-Daten werden darin verarbeitet, die Zusammenfassungen erzeugt – ohne, dass Meta oder andere darauf Zugriff haben.

Das Private-Computing-Modell minimiert dabei das Risiko, dass Daten beim Transfer von WhatsApp in die Cloud abgefangen werden.

 „Wir gehen davon aus, dass es weitere Fälle geben wird, in denen dieselbe oder eine ähnliche Infrastruktur für die Verarbeitung von Benutzeranfragen von Vorteil sein könnte,”, schreibt Meta in einem Blogbeitrag.

Anthropic wiederum kündigte im vergangenen Monat eine Funktion namens „Confidential Inference“ an. Diese bietet Sicherheitsgarantien für Kunden, die seine Claude-GenAI-Technologie nutzen. Das Feature generiert dazu eine Zertifizierungskette (Chain of Trust), während Daten die KI-Kette durchlaufen, und berücksichtigt dabei auch KI-Agenten, die zunehmend als Vermittler in Inferencing-Prozessen agieren.

Apples Beitrag zum Thema Confidential Computing wiederum ist das bereits umfänglich beschriebene Private-Cloud-Compute-Ökosystem des Unternehmens.

Trotz der zunehmenden Verbreitung von Confidential Computing gibt es weiterhin Bedenken hinsichtlich eines Einsatzes in Cloud-Umgebungen, in denen CPUs die Authentifizierung auf Systemebene überprüfen und GPUs Daten authentifizieren. Ein zentrales Problem: Daten gelangen nur über die CPU zur GPU – und jede Schwachstelle in diesem Prozess könnte eine riesige Angriffsfläche für Hacker bieten, um Daten zu stehlen.

„In einer solchen Umgebung wird die Zuverlässigkeit von Confidential Computing und Authentifizierung sehr fragil“, erklärt Alex Matrosov, Sicherheitsexperte und CEO von Binarly.

„CPU-basierte Technologien sind außerdem anfällig für sogenannte Side-Channel-Angriffe, was ihre Zuverlässigkeit infrage stellt“, ergänzt Steven Dickens von Hyperframe. So hatte Google erst im Dezember vergangenen Jahres eine Sicherheitslücke offengelegt, die AMD Confidential Computing betraf und die den Einsatz von Microcode-Updates erforderlich machte. (mb)

Confidential Computing wird zum Zünglein an der Waage​ Weiterlesen »

Was ist eine Retrospektive?​

Allgemein

Faires und konstruktives Feedback aller Mitarbeiter und Mitarbeiterinnen in der Scrum-Retrospektive soll sich positiv auf die kommenenden Sprints auswirken. Foto: Aila Images – shutterstock.comScrum gehört zu den Agilen Methoden und verfolgt das Prinzip Inspect & Adapt, daher sind regelmäßige Feedbackschleifen und Meetings in dieser Methode zentral. Scrum Retrospektive – DefinitionIm Scrum Framework werden große Meilensteine in kleinere Zielschritte unterteilt. Das Durchlaufen eines Sprints wiederholt sich daher ständig. Während eines Sprints finden vier verbindliche Meetings statt: das Planning, das tägliche Scrum-Meeting (Daily), das Review und die Retrospektive. In der Retrospektive (Rückblick) soll aus der Vergangenheit und bisherigen Schritten gelernt und künftige Ziele definiert werden. Je nach Iteration kann das Meeting alle zwei bis vier Wochen abgehalten werden (Länge circa drei Stunden bei einem vierwöchigen Sprint). Längere Konferenzen nach drei bis sechs Monaten könnten auch sinnvoll sein, wenn es darum geht, ausführlicher und über eine längere Zeitspanne hinweg zu reflektieren.Retrospektive – Bedeutung für das TeamDie Teams in der Projektarbeit nach Scrum haben keinen Chef und keine leitende Person im herkömmlichen Sinn. Ein/e Scrum Master betreut alle Beteiligten, das sind die Entwickler und Entwicklerinnen, der Product Owner und die Organisation. Somit ist er oder sie Ansprechpartner für die einzelnen Teams, die sich aber in erster Linie selbst organisieren sollen. Damit die einzelnen Personen zusammenwachsen und als Team agieren, sind regelmäßige Meetings wichtig – und dafür ist gemeinsames Reflektieren zentral. Zeitlich nahe aneinanderliegende Retrospektiven sorgen außerdem für ein schnelles Identifizieren von Fehlerquellen oder Stolpersteinen. Nach der gemeinsamen Besprechung können alle schnell darauf reagieren und Verbesserungen direkt im nächsten Sprint berücksichtigen. In der Retrospektive soll eine vertrauenserweckende Atmosphäre herrschen, sodass Probleme direkt angesprochen werden können. Konflikte oder Frust sollen sich nicht aufstauen und den Fortgang des gemeinsamen Projekts aufhalten. Darum reflektieren alle Beteiligten über ihr eigenes Verhalten, dürfen aber auch anderen Teammitgliedern Feedback geben.Sprint-Retrospektive – PhasenIn der Retrospektive sollte besprochen werden, was die Erfolge und Verbesserungschancen des letzten Sprints waren und welche Ziele für den nächsten Sprint festgelegt werden sollen:Was haben wir gut gemacht?Was haben wir gelernt?Was wollen wir künftig anders machen?Was haben wir nicht verstanden?Es ist sinnvoll, sich an einen festgelegten Ablauf zu halten, dieser kann wie folgt aussehen:Intro: Der Scrum Master eröffnet das Meeting und macht auf das Grundprinzip und die Zusammenhänge aufmerksam. Es herrscht eine angenehme Atmosphäre, es ist auch eine kurze Check-In-Runde möglich. Der Einstieg in die Retrospektive könnte in etwa so lauten: “Wir glauben, dass jede und jeder sein/ihr Bestes gegeben hat. Wir berücksichtigen die dafür zur Verfügung stehende Zeit, die Fähigkeiten, Kompetenzen und zur Verfügung stehende Mittel.” Daten und Informationen sammeln: Man hält fest, was gut gelaufen ist und was eher schlecht. Hier reflektieren alle Beteiligten ihre eigenen Verhaltensweisen und Arbeitsschritte. So werden Ursachen für Erfolge und Misserfolge festgestellt. Wichtig ist hierbei, dass handfeste Daten für diese Phase vorbereitet und eingebracht werden. Evaluierte Probleme werden kategorisiert und systematisch Lösungsvorschläge gefunden. Außerdem können Prioritäten vergeben werden und Verantwortlichkeitsvereiche definiert werden. Maßnahmen beschließen: Aus der Datensammlung und den Lösungsideen werden konkrete Schritte beschlossen. Gemeinsam entwickeln die Mitarbeitenden die nächsten Ziele, die zur gewünschten Veränderung führen sollen. Dabei kann es hilfreich sein, SMART-Ziele festzulegen (SMART = spezifisch, messbar, akzeptiert, realistisch, terminiert)Abschluss: Die Teilnehmenden enden das Meeting mit einem kurzen Rückblick auf die Retrospektive. Auch in dieser Runde können sie die Fragen beantworten: was hat gut geklappt? Was könnten wir besser machen? Und diese Ideen dann in der nächsten Retrospektive umsetzen.Retrospektive – ErfolgsfaktorenDamit eine Retrospektive gelingt, helfen folgende Regeln: Obwohl es wichtig ist, einen strukturierten Ablauf beizubehalten, sollte man zwischen den einzelnen Retrospektiven abwechseln. Der Scrum Master kann hier entscheiden, wie die Reflexion ablaufen soll. Damit es nicht langweilig wird, sollte er/sie sich hier verschiedenen Methoden bedienen (siehe Kasten unten). Er betreut und moderiert das gesamte Meeting, mischt sich aber nicht in inhaltliche Diskussionen ein. Während der Retrospektive erkennt der Scrum Master, was das Team beschäftigt und wie das Projekt voranschreitet. Er sollte gegenüber allen Beteiligten die Zusammenhänge sehr deutlich machen. Zwischen den Phasen behält er die Ziele im Auge und leitet das Gespräch. Alternativ kann auch ein anderer Moderator bestimmt werden.Die beschlossenen Maßnahmen sollen so konkret wie möglich formuliert und schriftlich festgehalten werden. Die Beteiligten müssen erkennen, wer was wann erledigen soll. Hilfreich ist, sich auf einen konkreten Verbesserungsbereich zu konzentrieren, um hier die Zusammenhänge zu erkennen anstatt an einzelnen kleinen Bausteinen zu arbeiten.Timeboxing: Für jede Phase sollte eine bestimmte Zeit festgelegt werden, damit die Schritte effizient durchlaufen werden können.Neben den inhaltlichen Faktoren, sorgt auch die Umgebung für ein erfolgreiches Meeting. Daher sollten alle notwendigen Materialien bereits vor Beginn der Besprechung bereit gelegt werden. Die vertrauliche Atmosphäre ist das A und O für ein sinnvolles Meeting. Deshalb darf der Scrum Master öfter wiederholen, dass das Besprochene nicht den Raum verlassen soll (Vegas-Regel). Scrum Retrospektive – Segelboot-MethodeEine mögliche Methode der Reflexion ist die Visualisierung eines Segelbootes. Anhand dieser kann der/die Scrum Master klar machen, was das Team noch festhält (Anker) und was es weiterbringt (Wind in den Segeln). Auf einem Plakat oder Notizzetteln sollen die erwähnten Aspekte festgehalten werden. Danach geht es daran, die möglichen Maßnahmen zu entwickeln, die das Problem lösen könnten.Lesen Sie auch: So gelingt konstruktives Feedback im Team Feedback und Retrospektive in Scrum-ProjektenRetrospektive und Feedback in Scrum-Projekten Foto: Rawpixel – shutterstock.comScrum Manager haben die Möglichkeit, den Projekterfolg durch die Analyse des Sprints zu verbessern. Zielführend sind dabei die Retrospektive und das Feedback der Teammitglieder – ein Vorgang, den der Scrum Manager mit Diplomatie moderieren muss. Folgende Methodik mit Arbeitsblättern hat sich bewährt.Feedback – Schritt 1 Foto: Netpioneer GmbHFür die Retrospektive erhält jedes Teammitglied ein vorbereitetes Blatt mit seinem Namen und zwei Fragen: “Was kann man von mir erwarten?” und “Was erwarte ich vom Team?”Feedback – Schritt 2 Foto: Netpioneer GmbHDer Feedback-Bogen wird um zwei Bereiche ergänzt: “Was ich an Deiner Arbeit schätze …” und “Was ich Dir wünsche, das Dir besser gelingt …”Feedback -Schritt 3 Foto: Netpioneer GmbHDer Feedback-Bogen wird an den Tischnachbarn weitergegeben, von diesem ausgefüllt und so lange weitergegeben, bis jeder Teilnehmer wieder sein persönliches Blatt vor sich liegen hat – jetzt mit dem schriftlichen Feedback aller beteiligten Teammitglieder.Selbstreflexion Foto: Netpioneer GmbHZwei weitere Bereiche kommen hinzu – sie dienen der eigenen Reflexion des erhaltenen Feedbacks: “Darauf bin ich stolz …” und “Das nehme ich mit …”Vorgehensmuster Foto: Netpioneer GmbHNach diesem Grundmuster lassen sich Retrospektiven zu einem späteren Zeitpunkt erneut wiederholen. 

Was ist eine Retrospektive?​ Faires und konstruktives Feedback aller Mitarbeiter und Mitarbeiterinnen in der Scrum-Retrospektive soll sich positiv auf die kommenenden Sprints auswirken.
Foto: Aila Images – shutterstock.comScrum gehört zu den Agilen Methoden und verfolgt das Prinzip Inspect & Adapt, daher sind regelmäßige Feedbackschleifen und Meetings in dieser Methode zentral. Scrum Retrospektive – DefinitionIm Scrum Framework werden große Meilensteine in kleinere Zielschritte unterteilt. Das Durchlaufen eines Sprints wiederholt sich daher ständig. Während eines Sprints finden vier verbindliche Meetings statt: das Planning, das tägliche Scrum-Meeting (Daily), das Review und die Retrospektive. In der Retrospektive (Rückblick) soll aus der Vergangenheit und bisherigen Schritten gelernt und künftige Ziele definiert werden. Je nach Iteration kann das Meeting alle zwei bis vier Wochen abgehalten werden (Länge circa drei Stunden bei einem vierwöchigen Sprint). Längere Konferenzen nach drei bis sechs Monaten könnten auch sinnvoll sein, wenn es darum geht, ausführlicher und über eine längere Zeitspanne hinweg zu reflektieren.Retrospektive – Bedeutung für das TeamDie Teams in der Projektarbeit nach Scrum haben keinen Chef und keine leitende Person im herkömmlichen Sinn. Ein/e Scrum Master betreut alle Beteiligten, das sind die Entwickler und Entwicklerinnen, der Product Owner und die Organisation. Somit ist er oder sie Ansprechpartner für die einzelnen Teams, die sich aber in erster Linie selbst organisieren sollen. Damit die einzelnen Personen zusammenwachsen und als Team agieren, sind regelmäßige Meetings wichtig – und dafür ist gemeinsames Reflektieren zentral. Zeitlich nahe aneinanderliegende Retrospektiven sorgen außerdem für ein schnelles Identifizieren von Fehlerquellen oder Stolpersteinen. Nach der gemeinsamen Besprechung können alle schnell darauf reagieren und Verbesserungen direkt im nächsten Sprint berücksichtigen. In der Retrospektive soll eine vertrauenserweckende Atmosphäre herrschen, sodass Probleme direkt angesprochen werden können. Konflikte oder Frust sollen sich nicht aufstauen und den Fortgang des gemeinsamen Projekts aufhalten. Darum reflektieren alle Beteiligten über ihr eigenes Verhalten, dürfen aber auch anderen Teammitgliedern Feedback geben.Sprint-Retrospektive – PhasenIn der Retrospektive sollte besprochen werden, was die Erfolge und Verbesserungschancen des letzten Sprints waren und welche Ziele für den nächsten Sprint festgelegt werden sollen:Was haben wir gut gemacht?Was haben wir gelernt?Was wollen wir künftig anders machen?Was haben wir nicht verstanden?Es ist sinnvoll, sich an einen festgelegten Ablauf zu halten, dieser kann wie folgt aussehen:Intro: Der Scrum Master eröffnet das Meeting und macht auf das Grundprinzip und die Zusammenhänge aufmerksam. Es herrscht eine angenehme Atmosphäre, es ist auch eine kurze Check-In-Runde möglich. Der Einstieg in die Retrospektive könnte in etwa so lauten: “Wir glauben, dass jede und jeder sein/ihr Bestes gegeben hat. Wir berücksichtigen die dafür zur Verfügung stehende Zeit, die Fähigkeiten, Kompetenzen und zur Verfügung stehende Mittel.” Daten und Informationen sammeln: Man hält fest, was gut gelaufen ist und was eher schlecht. Hier reflektieren alle Beteiligten ihre eigenen Verhaltensweisen und Arbeitsschritte. So werden Ursachen für Erfolge und Misserfolge festgestellt. Wichtig ist hierbei, dass handfeste Daten für diese Phase vorbereitet und eingebracht werden. Evaluierte Probleme werden kategorisiert und systematisch Lösungsvorschläge gefunden. Außerdem können Prioritäten vergeben werden und Verantwortlichkeitsvereiche definiert werden. Maßnahmen beschließen: Aus der Datensammlung und den Lösungsideen werden konkrete Schritte beschlossen. Gemeinsam entwickeln die Mitarbeitenden die nächsten Ziele, die zur gewünschten Veränderung führen sollen. Dabei kann es hilfreich sein, SMART-Ziele festzulegen (SMART = spezifisch, messbar, akzeptiert, realistisch, terminiert)Abschluss: Die Teilnehmenden enden das Meeting mit einem kurzen Rückblick auf die Retrospektive. Auch in dieser Runde können sie die Fragen beantworten: was hat gut geklappt? Was könnten wir besser machen? Und diese Ideen dann in der nächsten Retrospektive umsetzen.Retrospektive – ErfolgsfaktorenDamit eine Retrospektive gelingt, helfen folgende Regeln: Obwohl es wichtig ist, einen strukturierten Ablauf beizubehalten, sollte man zwischen den einzelnen Retrospektiven abwechseln. Der Scrum Master kann hier entscheiden, wie die Reflexion ablaufen soll. Damit es nicht langweilig wird, sollte er/sie sich hier verschiedenen Methoden bedienen (siehe Kasten unten). Er betreut und moderiert das gesamte Meeting, mischt sich aber nicht in inhaltliche Diskussionen ein. Während der Retrospektive erkennt der Scrum Master, was das Team beschäftigt und wie das Projekt voranschreitet. Er sollte gegenüber allen Beteiligten die Zusammenhänge sehr deutlich machen. Zwischen den Phasen behält er die Ziele im Auge und leitet das Gespräch. Alternativ kann auch ein anderer Moderator bestimmt werden.Die beschlossenen Maßnahmen sollen so konkret wie möglich formuliert und schriftlich festgehalten werden. Die Beteiligten müssen erkennen, wer was wann erledigen soll. Hilfreich ist, sich auf einen konkreten Verbesserungsbereich zu konzentrieren, um hier die Zusammenhänge zu erkennen anstatt an einzelnen kleinen Bausteinen zu arbeiten.Timeboxing: Für jede Phase sollte eine bestimmte Zeit festgelegt werden, damit die Schritte effizient durchlaufen werden können.Neben den inhaltlichen Faktoren, sorgt auch die Umgebung für ein erfolgreiches Meeting. Daher sollten alle notwendigen Materialien bereits vor Beginn der Besprechung bereit gelegt werden. Die vertrauliche Atmosphäre ist das A und O für ein sinnvolles Meeting. Deshalb darf der Scrum Master öfter wiederholen, dass das Besprochene nicht den Raum verlassen soll (Vegas-Regel). Scrum Retrospektive – Segelboot-MethodeEine mögliche Methode der Reflexion ist die Visualisierung eines Segelbootes. Anhand dieser kann der/die Scrum Master klar machen, was das Team noch festhält (Anker) und was es weiterbringt (Wind in den Segeln). Auf einem Plakat oder Notizzetteln sollen die erwähnten Aspekte festgehalten werden. Danach geht es daran, die möglichen Maßnahmen zu entwickeln, die das Problem lösen könnten.Lesen Sie auch: So gelingt konstruktives Feedback im Team

Feedback und Retrospektive in Scrum-ProjektenRetrospektive und Feedback in Scrum-Projekten
Foto: Rawpixel – shutterstock.comScrum Manager haben die Möglichkeit, den Projekterfolg durch die Analyse des Sprints zu verbessern. Zielführend sind dabei die Retrospektive und das Feedback der Teammitglieder – ein Vorgang, den der Scrum Manager mit Diplomatie moderieren muss. Folgende Methodik mit Arbeitsblättern hat sich bewährt.Feedback – Schritt 1
Foto: Netpioneer GmbHFür die Retrospektive erhält jedes Teammitglied ein vorbereitetes Blatt mit seinem Namen und zwei Fragen: “Was kann man von mir erwarten?” und “Was erwarte ich vom Team?”Feedback – Schritt 2
Foto: Netpioneer GmbHDer Feedback-Bogen wird um zwei Bereiche ergänzt: “Was ich an Deiner Arbeit schätze …” und “Was ich Dir wünsche, das Dir besser gelingt …”Feedback -Schritt 3
Foto: Netpioneer GmbHDer Feedback-Bogen wird an den Tischnachbarn weitergegeben, von diesem ausgefüllt und so lange weitergegeben, bis jeder Teilnehmer wieder sein persönliches Blatt vor sich liegen hat – jetzt mit dem schriftlichen Feedback aller beteiligten Teammitglieder.Selbstreflexion
Foto: Netpioneer GmbHZwei weitere Bereiche kommen hinzu – sie dienen der eigenen Reflexion des erhaltenen Feedbacks: “Darauf bin ich stolz …” und “Das nehme ich mit …”Vorgehensmuster
Foto: Netpioneer GmbHNach diesem Grundmuster lassen sich Retrospektiven zu einem späteren Zeitpunkt erneut wiederholen.

Was ist eine Retrospektive?​ Weiterlesen »

Ein Beispiel aus dem Fußball: Warum Zielvereinbarungen nicht funktionieren​

Allgemein

Individuelle Ziele so zu formulieren, dass sie keine Fehlsteuerungen verursachen, ist schwierig Wenn Menschen sich zu sehr auf ihre Ziele fokussieren, geht ihnen irgendwann der Blick für das große Ganze verloren Ziele sind letztendlich ein Misstrauensvotum: Man hält Mitarbeitern ein Stöckchen hin, über das sie springen sollen. Danach gibt’s ein Goodie. Na bitte, die Performance für das neue Jahr ist gemanagt. Das gibt doch allen wieder ein gutes Gefühl. Foto: Lomb – shutterstock.comNa klar: Individuelle Zielvereinbarungen sollen dazu dienen, Mitarbeitende zu motivieren und zu binden. Unternehmen hoffen auf bessere Leistungen der Beschäftigten, das soll am Ende dem gesamten Betrieb zugutekommen. Die jeweiligen Einzelziele müssen die strategischen und sinnvollen Unternehmensziele unterstützen, postulieren die Theoretiker und setzen damit voraus, dass diese ausformuliert für jeden Beschäftigten vorliegen. Also werden HR-Abteilungen für viel Geld beauftragt, einen Performance-Management-Prozess anzustoßen. Vorgesetzte setzen sich in diesem Rahmen mit ihren Beschäftigten jährlich oder neuerdings eher quartalsweise zusammen und vereinbarenverhaltensbezogene,aufgabenbezogene undentwicklungsbezogene Ziele.Diese Praxis, die schon in den 50er Jahren des vergangenen Jahrhunderts vom zweifellos großen Ökonomen Peter Drucker vorgeschlagen wurde, ist heute nahezu unumstritten. Offenbar macht sich niemand die Mühe zu überprüfen, ob sie überhaupt funktioniert. Ich wage die These, dass die wenigsten Zielvereinbarungen sinnvoll sind.Ein Beispiel aus der Welt des FußballsWählen wir, um die Problematik – zugegeben, ein wenig überzeichnet – zu veranschaulichen, als fiktives Beispiel die deutsche Fußballnationalmannschaft. Der Bundestrainer bespricht mit seinem Torjäger, nennen wir ihn in guter Tradition Müller, seine individuellen Jahresziele, die selbstverständlich bestmöglich auf die Gesamtziele des Teams und damit auf die des DFB einzahlen. Je mehr Ziele Müller erreicht, desto sicherer gelangt Fußball-Deutschland an seine Ziele und umso höher fällt der Bonus des Spielers aus.Trainer und Stürmer sind sich einig, dass Müller mithilfe seiner Zielvereinbarungen einige Schwächen beseitigen und einen möglichst wertvollen Beitrag für das Team erbringen soll. Also verständigt sich das Duo auf verhaltens-, aufgaben- und entwicklungsbezogene Ziele, die messbar und – normalerweise – auch machbar sind. Die verhaltensbezogenen Ziele in unserem Beispiel lauten: Müller soll im Laufe der Länderspielsaisonnicht mehr als sechs Gelbe Karten kassieren (zwei weniger als im Vorjahr!),drei Mal pro Woche Fitnesseinheiten absolvieren, um sich einen robusteren Körper anzueignen, undsich nicht öfter als einmal pro Spiel mit dem Schiedsrichter anlegen.Hinzu kommen drei aufgabenbezogene Ziele: Der Stürmer sollim Laufe der Saison zehn Tore schießen,alle Elfmeter ausführen undmindestens acht Tore für seine Mitspieler auflegen.Und dann sind da noch die entwicklungsbezogenen Ziele. Der Stürmer sollsein Englisch verbessern (auf Level B2), um bei der EM ansprechende Interviews geben zu können,einen Rhetorikkurs abschließen, um die handelsüblichen Floskeln eines Fußballers gefahrlos über die Lippen zu bringen, undvier professionelle Torschusstrainings absolvieren, damit seiner Trefferquote bei Distanzschüssen besser wird.Komplikationen beim Formulieren von Zielen gibt es immerIch bin mir ziemlich sicher, dass ein Nationalspieler solche Zielvereinbarungen niemals unterzeichnen würde. Aber in den meisten Unternehmen läuft es so oder ähnlich. Gemeinsam mit der Personalabteilung denkt sich eine Führungskraft Ziele aus, die dann mit oft einem ganzen Dutzend von Mitarbeitern unter Zeitdruck abgesprochen werden. Wohlmeinende würden denken, die Verantwortlichen könnten dabei immer sicherstellen, dass die individuellen Zieleauf die Unternehmensziele einzahlen,nicht in Konkurrenz zueinanderstehen,keine ungewollte Wettbewerbssituation im Team erzeugen,niemanden über Gebühr belasten und in den Burnout führen,nicht zu allgemein formuliert sind,nicht zu kleinteilig formuliert sind,etc.Dumm nur, dass diese Aufzählung wahrscheinlich beliebig verlängert werden könnte. Bei Zielvereinbarungen gibt es jede Menge Unwägbarkeiten, denn ein Unternehmen mit seinen Abteilungen und Projekten ist ein lebendiges Gebilde, das mit immer neuen Situationen konfrontiert ist und sich ständig ändern muss. Wie eine Fußballmannschaft eben.Erfahrene und verantwortungsbewusste Mitarbeiter wissen, dass Zielvereinbarungen Management-Übungen sind und nehmen sie routiniert hin. Die unterzeichnete Abmachung verschwindet meist stillschweigend in einer Schreibtischschublade oder einem digitalen Ordner und wird erst wieder hervorgekramt, wenn es zur Auszahlung des zielabhängigen Bonus kommen soll. Wenn die engagierten Mitarbeiter dann zwar einen hervorragenden Job gemacht, aber ihre Ziele nicht erreicht haben, nagt oft der Frust an ihnen. Mehr Demotivation geht nicht.Verhaltensziel: Soll Müller Mbappé foulen?Zurück zum Fußballbeispiel: Das Beispiel zeigt, wo die Probleme liegen. Nehmen wir mal an, die deutsche Elf hat tatsächlich das EM-Finale erreicht, es geht gegen Frankreich. Müller steht vor der Entscheidung, den quirligen Stürmer Kilian Mbappé, der gerade zu einem seiner atemberaubenden Dribblings ansetzt, etwas rustikaler zu bremsen. Der Deutsche hat sich aber schon im Laufe der Saison seine sechs Gelben Karten abgeholt. Packt er jetzt die Sense aus, wird er die siebte Karte bekommen und sein individuelles Ziel verfehlen. Also lässt Müller Mbappé ziehen. Der trifft, Frankreich wird Europameister – aber der deutsche Stürmer hat alles richtig gemacht.Übrigens kam Müller überhaupt erst in diese kritische Situation, weil er etwas zu langsam ist. Ein Grund dafür ist, dass er seit einiger Zeit drei Mal wöchentlich einen ziemlich heftigen Workout absolviert und sich so zehn Kilo Muskelmasse antrainiert hat. Damit kann er jetzt zwar schöner foulen, aber nicht schneller laufen, im Gegenteil. Aber immerhin: Das Verhaltensziel Fitness hat er auch erreicht.Sein drittes Ziel betrifft den Schiedsrichter. Bei dem darf er nicht mehr anecken, das hat er in diesem Spiel schon einmal getan. Doch nun hat er ein glasklares Handspiel des gegnerischen Verteidigers im Strafraum beobachtet, das unbedingt vom Videoassistenten überprüft werden müsste. Müller geht zum Verteidigerkollegen und bittet ihn, sich beim Mann in Schwarz zu beschweren. Aber der traut sich nicht, er hat ebenfalls schon zu viele Gelbe Karten. Eine kurze Umfrage auf dem Spielfeld zeigt: Der Kollege im zentralen Mittelfeld hätte noch Kapazitäten. Inzwischen ist aber das Spiel wieder angepfiffen und der Gegner rennt bedrohlich auf das eigene Tor zu. Egal, das dritte Verhaltensziel ist erreicht, Meckern und gelbe Karten wurden vermieden.Aufgabenziel: Schießen, nicht treffenKommen wir zu den aufgabenbezogenen Zielen. Müller soll in der Saison mindestens zehn Tore schießen. Das wird eng, denn er hat gerade eine Pechsträhne, außerdem war er ein paar Mal verletzt und saß im Club zuletzt oft auf der Ersatzbank. Zuletzt hat ihn der Trainer auch noch ausgewechselt, weil er sehen wollte, ob vielleicht ein anderer in der Rolle die bessere Wahl wäre.Müller schießt die Elfmeter. Das ist sein Ziel. Zu treffen ist nicht so wichtig. Foto: EFKS – shutterstock.comUm seine Torziel kurz vor Saisonende doch noch zu erreichen, schießt Müller in den beiden letzten Spielen des Jahres aus jeder Lage auf das gegnerische Tor – zum Ärger seiner oft besser positionierten Mitspieler. Denen hat er aber schon im Laufe des Jahres die ausgemachten acht Treffer aufgelegt, kein Handlungsbedarf also, was das Assist-Ziel betrifft. Müller trifft tatsächlich und macht seine zehn Treffer. Allerdings fällt die Länderspielbilanz insgesamt negativ aus. Das liegt auch daran, dass der Stürmer alle Elfmeter geschossen hat: Von sieben hat er fünf versemmelt. Nicht gerade toll, diese Bilanz, aber – so what? Ziel erreicht!Entwicklungsziel: Englisch statt FußballBleiben die entwicklungsbezogenen Ziele. Statt zu trainieren hat Müller am Englischunterricht teilgenommen und zu Hause gebüffelt. So lautet nun Mal sein Ziel, auch wenn er gar keine Lust auf Pressekonferenzen in Englisch hat und auch nicht beabsichtigt, in die Premier League zu wechseln. Er hat ja gerade erst in der Bundesliga seinen Vertrag verlängert und ist auch schon 32 Jahre alt. In die Pressekonferenzen könnte ja eigentlich der Innenverteidiger gehen, der hat bekanntlich viele Jahre in Manchester gespielt und ist deshalb der englischen Sprache sicher mächtig. Aber der hat andere Zielvereinbarungen.Der Rhetorikkurs kommt Müller da schon eher gelegen. Könnte nützlich werden, wenn der Stürmer nach seiner aktiven Karriere bei Sky oder Dazn als Ko-Kommentator einsteigen möchte. Dieses Ziel deckt sich also endlich mal mit seinem Privatinteresse. Bleibt noch das Torschuss-Training. Wie bereits erwähnt, hat es sich nicht bewährt, aus jeder Lage auf’s Tor zu dreschen, auch wenn Müller hier zweifellos besser geworden ist. Er hat sogar zweimal die Latte getroffen.Im betrieblichen Alltag sind Mitarbeiterziele oft kontraproduktivWer nun denkt, das Fußballbeispiel sei nicht auf das eigene Unternehmen zu übertragen, hat sicher Recht. Aber es gibt Parallelen. Nehmen wir einfach mal den Vertrieb: Niemandem ist geholfen, wenn der Verkäufer statt 120 nun 150 Kunden im Jahr ansprechen soll, aber weniger Abschlüsse vereinbart, weil er sich nicht mehr genug Zeit für den einzelnen Kunden nehmen kann. Oder nehmen wir den IT-Support, der jetzt noch mehr Tickets abarbeiten soll, aber aus Zeitmangel weniger Probleme löst, weshalb sich die Anwender jetzt gegenseitig helfen und der Hey-Joe-Effekt greift. Oder den Sachbearbeiter, der 20 Prozent mehr Fälle auf dem Tisch liegen hat, aber am Ende mit einem Burnout in der Nervenklinik landet.Zielvereinbarungen folgen der Illusion, es gäbe einfache Lösungen für komplexe Aufgaben. Die Idee, die Mitarbeitenden zu motivieren, gezielt zu fördern und ihnen das Gefühl zu geben, ein wichtiger Baustein in einem funktionierenden System zu sein, ist ehrenhaft. Allein, sie funktioniert nicht. Unternehmen verändern sich ständig, in den seltensten Fällen lassen sich – ausgehend von der Konzernstrategie bis auf die unterste Arbeitsebene – sinnvolle Individualziele formulieren. Immerhin verdienen die Beratungshäuser gut daran, diese Illusion aufrechtzuerhalten.Am Ende kommt es für Unternehmen und ihre Vorstände darauf an, die Menschen zu begeistern und eine Kultur des Vertrauens zu schaffen. Es geht um sinnvolle Aufgaben, Zugehörigkeit, ein Gemeinschaftsgefühl – und damit letztlich um Bindung. Haben die Beschäftigten Klarheit darüber, wohin es gehen soll, und zudem das Gefühl, einen wertvollen Beitrag zu leisten und dabei aufrichtig und fair behandelt zu werden, werden sie sich verantwortlich fühlen und entsprechend handeln. Dann gehen sie, um in der Fußballersprache zu bleiben, auch mal dahin, wo es wehtut.Sie konzentrieren sich nicht auf ihre Partikularziele, sondern auf das Team, in dem alle gerne zusammenarbeiten und sich gegenseitig unterstützen. Die Menschen erledigen ihre Aufgaben motiviert und mit Überzeugung – ohne, dass ihnen ständig eine Möhre vorgehalten werden muss. Und zum Schluss: Eine gute Idee ist es auch, die Menschen am Erfolg ihres Unternehmens zu beteiligen und ebenso auch mal gemeinsam Durststrecken zu durchstehen. Das hilft den Unternehmenszielen mehr als jede betriebliche Zielvereinbarung. 

Ein Beispiel aus dem Fußball: Warum Zielvereinbarungen nicht funktionieren​ Individuelle Ziele so zu formulieren, dass sie keine Fehlsteuerungen verursachen, ist schwierig

Wenn Menschen sich zu sehr auf ihre Ziele fokussieren, geht ihnen irgendwann der Blick für das große Ganze verloren

Ziele sind letztendlich ein Misstrauensvotum: Man hält Mitarbeitern ein Stöckchen hin, über das sie springen sollen. Danach gibt’s ein Goodie.

Na bitte, die Performance für das neue Jahr ist gemanagt. Das gibt doch allen wieder ein gutes Gefühl.
Foto: Lomb – shutterstock.comNa klar: Individuelle Zielvereinbarungen sollen dazu dienen, Mitarbeitende zu motivieren und zu binden. Unternehmen hoffen auf bessere Leistungen der Beschäftigten, das soll am Ende dem gesamten Betrieb zugutekommen. Die jeweiligen Einzelziele müssen die strategischen und sinnvollen Unternehmensziele unterstützen, postulieren die Theoretiker und setzen damit voraus, dass diese ausformuliert für jeden Beschäftigten vorliegen. Also werden HR-Abteilungen für viel Geld beauftragt, einen Performance-Management-Prozess anzustoßen. Vorgesetzte setzen sich in diesem Rahmen mit ihren Beschäftigten jährlich oder neuerdings eher quartalsweise zusammen und vereinbarenverhaltensbezogene,aufgabenbezogene undentwicklungsbezogene Ziele.Diese Praxis, die schon in den 50er Jahren des vergangenen Jahrhunderts vom zweifellos großen Ökonomen Peter Drucker vorgeschlagen wurde, ist heute nahezu unumstritten. Offenbar macht sich niemand die Mühe zu überprüfen, ob sie überhaupt funktioniert. Ich wage die These, dass die wenigsten Zielvereinbarungen sinnvoll sind.Ein Beispiel aus der Welt des FußballsWählen wir, um die Problematik – zugegeben, ein wenig überzeichnet – zu veranschaulichen, als fiktives Beispiel die deutsche Fußballnationalmannschaft. Der Bundestrainer bespricht mit seinem Torjäger, nennen wir ihn in guter Tradition Müller, seine individuellen Jahresziele, die selbstverständlich bestmöglich auf die Gesamtziele des Teams und damit auf die des DFB einzahlen. Je mehr Ziele Müller erreicht, desto sicherer gelangt Fußball-Deutschland an seine Ziele und umso höher fällt der Bonus des Spielers aus.Trainer und Stürmer sind sich einig, dass Müller mithilfe seiner Zielvereinbarungen einige Schwächen beseitigen und einen möglichst wertvollen Beitrag für das Team erbringen soll. Also verständigt sich das Duo auf verhaltens-, aufgaben- und entwicklungsbezogene Ziele, die messbar und – normalerweise – auch machbar sind. Die verhaltensbezogenen Ziele in unserem Beispiel lauten: Müller soll im Laufe der Länderspielsaisonnicht mehr als sechs Gelbe Karten kassieren (zwei weniger als im Vorjahr!),drei Mal pro Woche Fitnesseinheiten absolvieren, um sich einen robusteren Körper anzueignen, undsich nicht öfter als einmal pro Spiel mit dem Schiedsrichter anlegen.Hinzu kommen drei aufgabenbezogene Ziele: Der Stürmer sollim Laufe der Saison zehn Tore schießen,alle Elfmeter ausführen undmindestens acht Tore für seine Mitspieler auflegen.Und dann sind da noch die entwicklungsbezogenen Ziele. Der Stürmer sollsein Englisch verbessern (auf Level B2), um bei der EM ansprechende Interviews geben zu können,einen Rhetorikkurs abschließen, um die handelsüblichen Floskeln eines Fußballers gefahrlos über die Lippen zu bringen, undvier professionelle Torschusstrainings absolvieren, damit seiner Trefferquote bei Distanzschüssen besser wird.Komplikationen beim Formulieren von Zielen gibt es immerIch bin mir ziemlich sicher, dass ein Nationalspieler solche Zielvereinbarungen niemals unterzeichnen würde. Aber in den meisten Unternehmen läuft es so oder ähnlich. Gemeinsam mit der Personalabteilung denkt sich eine Führungskraft Ziele aus, die dann mit oft einem ganzen Dutzend von Mitarbeitern unter Zeitdruck abgesprochen werden. Wohlmeinende würden denken, die Verantwortlichen könnten dabei immer sicherstellen, dass die individuellen Zieleauf die Unternehmensziele einzahlen,nicht in Konkurrenz zueinanderstehen,keine ungewollte Wettbewerbssituation im Team erzeugen,niemanden über Gebühr belasten und in den Burnout führen,nicht zu allgemein formuliert sind,nicht zu kleinteilig formuliert sind,etc.Dumm nur, dass diese Aufzählung wahrscheinlich beliebig verlängert werden könnte. Bei Zielvereinbarungen gibt es jede Menge Unwägbarkeiten, denn ein Unternehmen mit seinen Abteilungen und Projekten ist ein lebendiges Gebilde, das mit immer neuen Situationen konfrontiert ist und sich ständig ändern muss. Wie eine Fußballmannschaft eben.Erfahrene und verantwortungsbewusste Mitarbeiter wissen, dass Zielvereinbarungen Management-Übungen sind und nehmen sie routiniert hin. Die unterzeichnete Abmachung verschwindet meist stillschweigend in einer Schreibtischschublade oder einem digitalen Ordner und wird erst wieder hervorgekramt, wenn es zur Auszahlung des zielabhängigen Bonus kommen soll. Wenn die engagierten Mitarbeiter dann zwar einen hervorragenden Job gemacht, aber ihre Ziele nicht erreicht haben, nagt oft der Frust an ihnen. Mehr Demotivation geht nicht.Verhaltensziel: Soll Müller Mbappé foulen?Zurück zum Fußballbeispiel: Das Beispiel zeigt, wo die Probleme liegen. Nehmen wir mal an, die deutsche Elf hat tatsächlich das EM-Finale erreicht, es geht gegen Frankreich. Müller steht vor der Entscheidung, den quirligen Stürmer Kilian Mbappé, der gerade zu einem seiner atemberaubenden Dribblings ansetzt, etwas rustikaler zu bremsen. Der Deutsche hat sich aber schon im Laufe der Saison seine sechs Gelben Karten abgeholt. Packt er jetzt die Sense aus, wird er die siebte Karte bekommen und sein individuelles Ziel verfehlen. Also lässt Müller Mbappé ziehen. Der trifft, Frankreich wird Europameister – aber der deutsche Stürmer hat alles richtig gemacht.Übrigens kam Müller überhaupt erst in diese kritische Situation, weil er etwas zu langsam ist. Ein Grund dafür ist, dass er seit einiger Zeit drei Mal wöchentlich einen ziemlich heftigen Workout absolviert und sich so zehn Kilo Muskelmasse antrainiert hat. Damit kann er jetzt zwar schöner foulen, aber nicht schneller laufen, im Gegenteil. Aber immerhin: Das Verhaltensziel Fitness hat er auch erreicht.Sein drittes Ziel betrifft den Schiedsrichter. Bei dem darf er nicht mehr anecken, das hat er in diesem Spiel schon einmal getan. Doch nun hat er ein glasklares Handspiel des gegnerischen Verteidigers im Strafraum beobachtet, das unbedingt vom Videoassistenten überprüft werden müsste. Müller geht zum Verteidigerkollegen und bittet ihn, sich beim Mann in Schwarz zu beschweren. Aber der traut sich nicht, er hat ebenfalls schon zu viele Gelbe Karten. Eine kurze Umfrage auf dem Spielfeld zeigt: Der Kollege im zentralen Mittelfeld hätte noch Kapazitäten. Inzwischen ist aber das Spiel wieder angepfiffen und der Gegner rennt bedrohlich auf das eigene Tor zu. Egal, das dritte Verhaltensziel ist erreicht, Meckern und gelbe Karten wurden vermieden.Aufgabenziel: Schießen, nicht treffenKommen wir zu den aufgabenbezogenen Zielen. Müller soll in der Saison mindestens zehn Tore schießen. Das wird eng, denn er hat gerade eine Pechsträhne, außerdem war er ein paar Mal verletzt und saß im Club zuletzt oft auf der Ersatzbank. Zuletzt hat ihn der Trainer auch noch ausgewechselt, weil er sehen wollte, ob vielleicht ein anderer in der Rolle die bessere Wahl wäre.Müller schießt die Elfmeter. Das ist sein Ziel. Zu treffen ist nicht so wichtig.
Foto: EFKS – shutterstock.comUm seine Torziel kurz vor Saisonende doch noch zu erreichen, schießt Müller in den beiden letzten Spielen des Jahres aus jeder Lage auf das gegnerische Tor – zum Ärger seiner oft besser positionierten Mitspieler. Denen hat er aber schon im Laufe des Jahres die ausgemachten acht Treffer aufgelegt, kein Handlungsbedarf also, was das Assist-Ziel betrifft. Müller trifft tatsächlich und macht seine zehn Treffer. Allerdings fällt die Länderspielbilanz insgesamt negativ aus. Das liegt auch daran, dass der Stürmer alle Elfmeter geschossen hat: Von sieben hat er fünf versemmelt. Nicht gerade toll, diese Bilanz, aber – so what? Ziel erreicht!Entwicklungsziel: Englisch statt FußballBleiben die entwicklungsbezogenen Ziele. Statt zu trainieren hat Müller am Englischunterricht teilgenommen und zu Hause gebüffelt. So lautet nun Mal sein Ziel, auch wenn er gar keine Lust auf Pressekonferenzen in Englisch hat und auch nicht beabsichtigt, in die Premier League zu wechseln. Er hat ja gerade erst in der Bundesliga seinen Vertrag verlängert und ist auch schon 32 Jahre alt. In die Pressekonferenzen könnte ja eigentlich der Innenverteidiger gehen, der hat bekanntlich viele Jahre in Manchester gespielt und ist deshalb der englischen Sprache sicher mächtig. Aber der hat andere Zielvereinbarungen.Der Rhetorikkurs kommt Müller da schon eher gelegen. Könnte nützlich werden, wenn der Stürmer nach seiner aktiven Karriere bei Sky oder Dazn als Ko-Kommentator einsteigen möchte. Dieses Ziel deckt sich also endlich mal mit seinem Privatinteresse. Bleibt noch das Torschuss-Training. Wie bereits erwähnt, hat es sich nicht bewährt, aus jeder Lage auf’s Tor zu dreschen, auch wenn Müller hier zweifellos besser geworden ist. Er hat sogar zweimal die Latte getroffen.Im betrieblichen Alltag sind Mitarbeiterziele oft kontraproduktivWer nun denkt, das Fußballbeispiel sei nicht auf das eigene Unternehmen zu übertragen, hat sicher Recht. Aber es gibt Parallelen. Nehmen wir einfach mal den Vertrieb: Niemandem ist geholfen, wenn der Verkäufer statt 120 nun 150 Kunden im Jahr ansprechen soll, aber weniger Abschlüsse vereinbart, weil er sich nicht mehr genug Zeit für den einzelnen Kunden nehmen kann. Oder nehmen wir den IT-Support, der jetzt noch mehr Tickets abarbeiten soll, aber aus Zeitmangel weniger Probleme löst, weshalb sich die Anwender jetzt gegenseitig helfen und der Hey-Joe-Effekt greift. Oder den Sachbearbeiter, der 20 Prozent mehr Fälle auf dem Tisch liegen hat, aber am Ende mit einem Burnout in der Nervenklinik landet.Zielvereinbarungen folgen der Illusion, es gäbe einfache Lösungen für komplexe Aufgaben. Die Idee, die Mitarbeitenden zu motivieren, gezielt zu fördern und ihnen das Gefühl zu geben, ein wichtiger Baustein in einem funktionierenden System zu sein, ist ehrenhaft. Allein, sie funktioniert nicht. Unternehmen verändern sich ständig, in den seltensten Fällen lassen sich – ausgehend von der Konzernstrategie bis auf die unterste Arbeitsebene – sinnvolle Individualziele formulieren. Immerhin verdienen die Beratungshäuser gut daran, diese Illusion aufrechtzuerhalten.Am Ende kommt es für Unternehmen und ihre Vorstände darauf an, die Menschen zu begeistern und eine Kultur des Vertrauens zu schaffen. Es geht um sinnvolle Aufgaben, Zugehörigkeit, ein Gemeinschaftsgefühl – und damit letztlich um Bindung. Haben die Beschäftigten Klarheit darüber, wohin es gehen soll, und zudem das Gefühl, einen wertvollen Beitrag zu leisten und dabei aufrichtig und fair behandelt zu werden, werden sie sich verantwortlich fühlen und entsprechend handeln. Dann gehen sie, um in der Fußballersprache zu bleiben, auch mal dahin, wo es wehtut.Sie konzentrieren sich nicht auf ihre Partikularziele, sondern auf das Team, in dem alle gerne zusammenarbeiten und sich gegenseitig unterstützen. Die Menschen erledigen ihre Aufgaben motiviert und mit Überzeugung – ohne, dass ihnen ständig eine Möhre vorgehalten werden muss. Und zum Schluss: Eine gute Idee ist es auch, die Menschen am Erfolg ihres Unternehmens zu beteiligen und ebenso auch mal gemeinsam Durststrecken zu durchstehen. Das hilft den Unternehmenszielen mehr als jede betriebliche Zielvereinbarung.

Ein Beispiel aus dem Fußball: Warum Zielvereinbarungen nicht funktionieren​ Weiterlesen »

So nutzt Boehringer Ingelheim IT in der Forschung​

Allgemein

In der Arzneimittel-Entwicklung ist die IT heute unersetzlich. Boehringer Ingelheim Zwölf bis 15 Jahre – so lange dauert es im Schnitt, bis ein neues Medikament auf den Markt kommt. Die Kosten belaufen sich dabei auf durchschnittlich über eine Milliarde Euro. Dabei liegt die Erfolgswahrscheinlichkeit (Probability of Success – POS), dass ein potenzieller Wirkstoff diese Strecke überlebt, nur bei ungefähr fünf Prozent. Viele Menschen müssen also sehr lange warten, bis ihnen ein neues Medikament helfen kann. Vier zentrale Ziele Um diese Prozesse zu beschleunigen, Risiken zu minimieren und Patienten mit noch besseren Medikamenten zu versorgen, nutzt Boehringer Ingelheim  digitale Innovationen. Dabei ist die Digitalisierung bei dem Pharmaunternehmen mehr als ein IT-Vorhaben. Sie ist integraler Bestandteil der Forschungsstrategie – mit vier zentralen Zielen: •            Entwicklungszyklen verkürzen, •            Prozesse und Ressourceneinsatz optimieren, •            Kosten senken (insbesondere durch zielgerichtete frühe Entscheidungen), •            Qualität steigern (durch fundierte Daten- und Modellgrundlagen). Der größte Hebel liegt gleich ganz am Anfang des Forschungsprozesses: Beim Identifizieren und Bewerten neuer Targets – also biologischer Zielstrukturen wie Proteinen oder Enzymen – und geeigneter Moleküle, die als potenzielle Wirkstoffe auf diese Targets einwirken können. KI-gestützte Molekülanalyse KI hilft heute im Labor bei der Analyse. Boehringer Ingelheim Ein Beispiel für diesen Wandel durch digitale Innovation ist die sogenannte Discovery-Phase. Dies ist die Phase der präklinischen Wirkstofffindung, die in der Regel vier bis fünf Jahre dauert. Früher konnten im Labor zehn bis 20 Moleküle pro Woche getestet werden. Heute analysieren Systeme wie ADAM (Advanced Design Assistant for Molecules) mithilfe von KI und Simulationen tausende Substanzen pro Tag. Das System hilft dabei, Moleküle zu priorisieren, indem es deren Eigenschaften vorhersagt, beispielsweise wie sie im Körper verstoffwechselt werden. Effizienz im Discovery Funnel So prüft ADAM in Echtzeit Stabilität, Toxizität sowie Synthesefähigkeit und filtert ungeeignete Kandidaten bereits vor dem ersten Experiment aus. Im Zentrum steht dabei die Frage, welche Proteine oder Moleküle sich überhaupt für eine therapeutische Beeinflussung eignen. Diese Targets werden gezielt erforscht und untersucht, um festzustellen, wie sie mit Krankheiten zusammenhängen. Zudem wird analysiert, welche Veränderung sich durch einen Wirkstoff herbeiführen lassen – und ob diese sicher und zugleich medizinisch sinnvoll ist. Digitale Zwillinge simulieren klinische Forschung Ein weiteres Feld, das durch die Digitalisierung revolutioniert wird, ist die klinische Entwicklung. Diese dauert momentan rund sechs bis acht Jahre. In dieser zweiten Phase der Arzneimittelentwicklung wird geprüft, ob ein Wirkstoff im menschlichen Körper die erhoffte Wirkung entfaltet. Dabei scheitern rund zwei Drittel aller Kandidaten. Diese sehr aufwendigen klinischen Studien werden in der nahen Zukunft zunehmend durch Digitale Zwillinge unterstützt: KI-gestützte Simulationen, mit denen sich Wirkstoffwirkungen auf bestimmte Patientengruppen vorab testen lassen. Dataland als strategischer Enabler Die technologische Basis für diese Fortschritte liefert „Dataland“. Dabei handelt es sich um ein eigens bei Boehringer Ingelheim entwickeltes Datenökosystem zur Integration von Forschungs-, Klinik- und Real-World-Daten. Dataland führt Daten aus allen Unternehmensbereichen zusammen, so dass diese zur sofortigen, leicht verständlichen Nutzung verfügbar sind – beispielsweise für Simulationen oder Datenanalysen. Auf diese Weise werden Mitarbeitende bei datengetriebenen Entscheidungen unterstützt und das Unternehmen ist insgesamt effizienter. Ziel ist ein einheitlicher Datenraum, der nicht durch Abteilungsgrenzen limitiert ist. Forschung, IT und Data Science arbeiten dabei eng verzahnt – klassische Silos werden aufgelöst. GenAI: Assistenzsystem mit menschlicher Kontrolle Ein Reaktor zur Wirkstoffsynthese in der Boehringer-Entwicklung in Biberach. Boehringer Ingelheim Insbesondere generative KI und Large Language Models (LLMs) haben inzwischen enormes Potenzial entfaltet, Prozesse umfassend zu modernisieren und zu beschleunigen. Schon heute unterstützt GenAI bei der Erstellung klinischer Berichte oder der Dokumentation von Forschungsergebnissen. Perspektivisch wird KI auch zur Literaturanalyse eingesetzt. Zwar unterbreitet die Maschine Vorschläge – die Entscheidungen trifft aber immer der Mensch. Medizinische und wissenschaftliche Experten sind dabei aktiv in die Entwicklung von Tools eingebunden. Kultureller Wandel: Interdisziplinäre Teams und neue Kompetenzen Neben den oben angesprochenen Technologien und Daten braucht digitale Innovation vor allem eins: neue Kompetenzen und Denkweisen. Boehringer Ingelheim setzt deshalb auf interdisziplinäre Teams mit Vertretern aus Medizin, Datenwissenschaft, Biomedizin und Softwareentwicklung. Dazu sind Mitarbeitende notwendig, die mit KI genauso selbstverständlich arbeiten wie mit einem Mikroskop. Mit Digitalisierung zu höheren Erfolgsquoten Wie eingangs erwähnt, ist die Entwicklung neuer Wirkstoffe langwierig, teuer und risikobehaftet. Boehringer Ingelheim setzt deshalb auf eine gezieltere Entwicklung durch Digitalisierung. Das kurzfristige Ziel ist es, die Erfolgswahrscheinlichkeit (POS – Probability of Success) neuer Substanzen zu steigern – durch simulationsgestützte Vorauswahl, optimierte Datenmodelle und eine präzisere Auswahl der Patienten in klinischen Studien. Dabei ist immer zu berücksichtigen: Der Einsatz von KI erfordert eine kontinuierliche Überprüfung auf mögliche Verzerrungen (Bias). Zudem ist nicht jede technisch mögliche Anwendung auch ethisch zu vertreten. Abteilungsübergreifende Leitlinien sorgen dafür, dass Innovation verantwortungsvoll gestaltet wird. Digitalisierung wird so nicht zum Selbstzweck, sondern bleibt ein strategisches Instrument für besseren medizinischen Fortschritt – durch fundiertere Entscheidungen und effizientere Forschung. 

So nutzt Boehringer Ingelheim IT in der Forschung​ In der Arzneimittel-Entwicklung ist die IT heute unersetzlich.
Boehringer Ingelheim

Zwölf bis 15 Jahre – so lange dauert es im Schnitt, bis ein neues Medikament auf den Markt kommt. Die Kosten belaufen sich dabei auf durchschnittlich über eine Milliarde Euro.

Dabei liegt die Erfolgswahrscheinlichkeit (Probability of Success – POS), dass ein potenzieller Wirkstoff diese Strecke überlebt, nur bei ungefähr fünf Prozent. Viele Menschen müssen also sehr lange warten, bis ihnen ein neues Medikament helfen kann.

Vier zentrale Ziele

Um diese Prozesse zu beschleunigen, Risiken zu minimieren und Patienten mit noch besseren Medikamenten zu versorgen, nutzt Boehringer Ingelheim  digitale Innovationen. Dabei ist die Digitalisierung bei dem Pharmaunternehmen mehr als ein IT-Vorhaben. Sie ist integraler Bestandteil der Forschungsstrategie – mit vier zentralen Zielen:

•            Entwicklungszyklen verkürzen,

•            Prozesse und Ressourceneinsatz optimieren,

•            Kosten senken (insbesondere durch zielgerichtete frühe Entscheidungen),

•            Qualität steigern (durch fundierte Daten- und Modellgrundlagen).

Der größte Hebel liegt gleich ganz am Anfang des Forschungsprozesses: Beim Identifizieren und Bewerten neuer Targets – also biologischer Zielstrukturen wie Proteinen oder Enzymen – und geeigneter Moleküle, die als potenzielle Wirkstoffe auf diese Targets einwirken können.

KI-gestützte Molekülanalyse

KI hilft heute im Labor bei der Analyse.
Boehringer Ingelheim

Ein Beispiel für diesen Wandel durch digitale Innovation ist die sogenannte Discovery-Phase. Dies ist die Phase der präklinischen Wirkstofffindung, die in der Regel vier bis fünf Jahre dauert.

Früher konnten im Labor zehn bis 20 Moleküle pro Woche getestet werden. Heute analysieren Systeme wie ADAM (Advanced Design Assistant for Molecules) mithilfe von KI und Simulationen tausende Substanzen pro Tag. Das System hilft dabei, Moleküle zu priorisieren, indem es deren Eigenschaften vorhersagt, beispielsweise wie sie im Körper verstoffwechselt werden.

Effizienz im Discovery Funnel

So prüft ADAM in Echtzeit Stabilität, Toxizität sowie Synthesefähigkeit und filtert ungeeignete Kandidaten bereits vor dem ersten Experiment aus. Im Zentrum steht dabei die Frage, welche Proteine oder Moleküle sich überhaupt für eine therapeutische Beeinflussung eignen.

Diese Targets werden gezielt erforscht und untersucht, um festzustellen, wie sie mit Krankheiten zusammenhängen. Zudem wird analysiert, welche Veränderung sich durch einen Wirkstoff herbeiführen lassen – und ob diese sicher und zugleich medizinisch sinnvoll ist.

Digitale Zwillinge simulieren klinische Forschung

Ein weiteres Feld, das durch die Digitalisierung revolutioniert wird, ist die klinische Entwicklung. Diese dauert momentan rund sechs bis acht Jahre. In dieser zweiten Phase der Arzneimittelentwicklung wird geprüft, ob ein Wirkstoff im menschlichen Körper die erhoffte Wirkung entfaltet. Dabei scheitern rund zwei Drittel aller Kandidaten.

Diese sehr aufwendigen klinischen Studien werden in der nahen Zukunft zunehmend durch Digitale Zwillinge unterstützt: KI-gestützte Simulationen, mit denen sich Wirkstoffwirkungen auf bestimmte Patientengruppen vorab testen lassen.

Dataland als strategischer Enabler

Die technologische Basis für diese Fortschritte liefert „Dataland“. Dabei handelt es sich um ein eigens bei Boehringer Ingelheim entwickeltes Datenökosystem zur Integration von Forschungs-, Klinik- und Real-World-Daten. Dataland führt Daten aus allen Unternehmensbereichen zusammen, so dass diese zur sofortigen, leicht verständlichen Nutzung verfügbar sind – beispielsweise für Simulationen oder Datenanalysen.

Auf diese Weise werden Mitarbeitende bei datengetriebenen Entscheidungen unterstützt und das Unternehmen ist insgesamt effizienter. Ziel ist ein einheitlicher Datenraum, der nicht durch Abteilungsgrenzen limitiert ist. Forschung, IT und Data Science arbeiten dabei eng verzahnt – klassische Silos werden aufgelöst.

GenAI: Assistenzsystem mit menschlicher Kontrolle

Ein Reaktor zur Wirkstoffsynthese in der Boehringer-Entwicklung in Biberach.
Boehringer Ingelheim

Insbesondere generative KI und Large Language Models (LLMs) haben inzwischen enormes Potenzial entfaltet, Prozesse umfassend zu modernisieren und zu beschleunigen. Schon heute unterstützt GenAI bei der Erstellung klinischer Berichte oder der Dokumentation von Forschungsergebnissen. Perspektivisch wird KI auch zur Literaturanalyse eingesetzt.

Zwar unterbreitet die Maschine Vorschläge – die Entscheidungen trifft aber immer der Mensch. Medizinische und wissenschaftliche Experten sind dabei aktiv in die Entwicklung von Tools eingebunden.

Kultureller Wandel: Interdisziplinäre Teams und neue Kompetenzen

Neben den oben angesprochenen Technologien und Daten braucht digitale Innovation vor allem eins: neue Kompetenzen und Denkweisen. Boehringer Ingelheim setzt deshalb auf interdisziplinäre Teams mit Vertretern aus Medizin, Datenwissenschaft, Biomedizin und Softwareentwicklung. Dazu sind Mitarbeitende notwendig, die mit KI genauso selbstverständlich arbeiten wie mit einem Mikroskop.

Mit Digitalisierung zu höheren Erfolgsquoten

Wie eingangs erwähnt, ist die Entwicklung neuer Wirkstoffe langwierig, teuer und risikobehaftet. Boehringer Ingelheim setzt deshalb auf eine gezieltere Entwicklung durch Digitalisierung. Das kurzfristige Ziel ist es, die Erfolgswahrscheinlichkeit (POS – Probability of Success) neuer Substanzen zu steigern – durch simulationsgestützte Vorauswahl, optimierte Datenmodelle und eine präzisere Auswahl der Patienten in klinischen Studien.

Dabei ist immer zu berücksichtigen: Der Einsatz von KI erfordert eine kontinuierliche Überprüfung auf mögliche Verzerrungen (Bias). Zudem ist nicht jede technisch mögliche Anwendung auch ethisch zu vertreten.

Abteilungsübergreifende Leitlinien sorgen dafür, dass Innovation verantwortungsvoll gestaltet wird. Digitalisierung wird so nicht zum Selbstzweck, sondern bleibt ein strategisches Instrument für besseren medizinischen Fortschritt – durch fundiertere Entscheidungen und effizientere Forschung.

So nutzt Boehringer Ingelheim IT in der Forschung​ Weiterlesen »

Videokonferenzsoftware – ein Kaufratgeber​

Allgemein

Die richtige Videokonferenzlösung kann den Business-Alltag bereichern. DC Studio | shutterstock.com Videokonferenzsoftware wurde spätestens mit dem Jahr 2020 missionskritisch für Unternehmen. Der Pandemie-bedingte, weltweite Videoconferencing-Boom sorgte für einen Wettlauf der Anbieter. Das resultierte darin, dass sich Zoom, Microsoft Teams, Cisco Webex und die zahlreichen anderen Lösungen in diesem Bereich im Fast-Forward-Modus weiterentwickeln konnten. Inzwischen stehen die Zeichen vielerorts auf „Büromandat“ – oder zumindest der teilweisen Rückkehr ins Office. Nichtsdestotrotz haben sich Videokonferenzen längst als essenzieller Bestandteil der Business-Kommunikation etabliert – und damit auch die entsprechende Software. Die kommt nicht nur für interne Zwecke zum Einsatz, sondern auch um mit Partnern, Kunden und anderen Stakeholdern auf Augenhöhe remote zu kommunizieren. Auch dabei spielt künstliche Intelligenz (KI) inzwischen zunehmend eine tragende Rolle. In diesem Kaufratgeber lesen Sie: welche Trends den Markt für Videokonferenzsoftware bestimmen, was fähige Videoconferencing-Lösungen leisten sollten, welche Lösungen in diesem Bereich empfehlenswert sind, und welche Fragen Sie sich und dem Anbieter Ihrer Wahl vor einem Investment stellen sollten. Videoconferencing-Trends Auch wenn Videokonferenzsoftware inzwischen als klar definierter, ausgereifter Produktbereich erscheint – es sind noch immer Veränderungen im Gange. Will McKeon-White, Senior Analyst bei Forrester, bringt die Wesentliche auf den Punkt: “Der Markt für Videokonferenzsoftware ist dabei, sich als Unterkategorie von Unified Communications zu etablieren.” Bei IDC heißt dieselbe Softwarekategorie Unified Communications & Collaboration (UC&C) und ist definiert als “fortschrittliche Telefonielösung, integriert in eine Messaging-, Instant-Messaging-, Chat- oder Konferenzplattform”. Wie Forrester beobachten auch die Research-Experten von IDC, dass die meisten, Standalone-Videoconferencing-Tools in umfassendere UC&C-Suiten integriert werden. Darüber hinaus sind die Tools in Productivity-Lösungen wie Microsoft 365 und Google Workspace eingebettet. Laut IDC ist das auch der wesentliche Grund dafür, dass Microsoft mit Teams den Markt für Videokonferenzsoftware dominiert (selbst wenn Regulierungsbehörden der “Bundle-Praxis” schon seit längerem einen Riegel vorgeschoben haben). Demnach liege der Marktanteil der Redmonder mit Blick auf das 69 Milliarden Dollar schwere Marktsegment bei knapp 45 Prozent. Zoom folgt laut den Analysten abgeschlagen auf Platz zwei – mit etwas mehr als sechs Prozent. Mit Blick auf die Funktionen der verfügbaren Videoconferencing-Tools bereichert KI inzwischen die User Experience auf vielfältige Art und Weise. Zum Beispiel mit: Echtzeit-Transkriptionen, Text-Inserts, Live-Übersetzungen und -Untertitelungen, Image Upscaling oder autonomen Agenten. “Frühe Experimente mit KI lieferten keine guten Ergebnisse. Aber die Technologie hat sich in letzter Zeit massiv verbessert”, konstatiert Forrester-Analyst McKeon-White und ergänzt: “Gehen Sie davon aus, dass in Zukunft noch weitere und leistungsfähigere Funktionen hinzukommen.” Laut Jitesh Gera, Research Manager bei IDC, spielen KI-Funktionen für viele Anwender bereits eine tragende Rolle: “Unternehmen priorisieren inzwischen Funktionen wie eine adaptive Sprecherausrichtung, die auf den jeweils sprechenden Teilnehmer zoomt, Multi-Kamera-Layouts und virtuelle Besprechungszonen. Das sind derzeit die drei wichtigsten Faktoren bei der Auswahl eines UC&C-Systems.” Was Videokonferenzsoftware leisten sollte Abgesehen von den selbstverständlichen Funktionen (Bildschirmfreigaben, Chat- und Whiteboard-Optionen, etc.) sollten Videokonferenz-Tools auch in einigen allgemeinen, aber essenziellen Kriterien überzeugen. Benutzererfahrung: Auch wenn die Funktionen der verfügbaren Lösungen ähnlich sind, kann die User Experience erheblich variieren. Entspricht sie nicht den Erwartungen der Benutzer, finden diese im Regelfall selbst zu gefälligeren Optionen. Dabei können auch unterschiedliche Tools für verschiedene Teams mit Blick auf deren Anforderungen Sinn machen. Branchenspezifische Tools: Möglicherweise werden in Ihrer Branche bestimmte Lösungen bevorzugt. Zoom ist beispielsweise im Gesundheitswesen und unter Finanzdienstleistern populär, Cisco bei Regierungsbehörden und unter IT-Profis wird GoTo oft wegen seiner fortschrittlichen Screen-Sharing-Funktionen bevorzugt. Integrationsfähigkeit: Einige Tools ermöglichen eine Integration mit Slack. Das schafft eine „Discord-ähnliche Erfahrung“, die in erster Linie Softwareentwickler zu schätzen wissen. In dieser Beziehung spielt auch eine wichtige Rolle, wie   gut das gewählte Produkt zu vorhandenen Lösungen passt – und wie sich innovative KI-Funktionen aktuell und in Zukunft in das große Ganze einfügen. Kompatibilität: Eine Videokonferenzsoftware sollte natürlich auch mit der in den physischen Besprechungsräumen vorhandenen Hardware kompatibel sein. Sicherheit: Professionelle Videoconferencing-Tools sollten zudem mit administrativen Kontroll- und erweiterten Sicherheitsfunktionen aufwarten können. Letztere umfassen etwa Multifaktorauthentifizierung (MFA), Bring-your-own-key (BYOK), Ende-zu-Ende-Verschlüsselung und Single Sign-on (SSO). 11 empfehlenswerte Tools für Videokonferenzen Im Folgenden finden Sie eine alphabetische Auflistung von Videoconferencing-Lösungen, die die eben genannten Anforderungen erfüllen können. Die Verlinkung führt Sie direkt zum Angebot des jeweiligen Anbieters. Beachten Sie dabei, dass einige der hier aufgelisteten Tools nur im Rahmen umfassenderer Produktsuiten verfügbar sind. Alcatel-Lucent Enterprise Rainbow Avaya Spaces Cisco Webex Google Meet GoTo Meeting Jitsi Meet Microsoft Teams RingCentral Video Vonage Meetings Zoho Meeting Zoom 15 Fragen vor dem Videoconferencing-Invest Fünf Fragen, die Sie sich stellen sollten: Verfügen Sie bereits über eine Software, die Sie für Videokonferenzen nutzen können? Zum Beispiel eine UC&C-Suite? Gibt es Anforderungen, die von Ihrer aktuellen Lösung nicht erfüllt werden? Welche Art von Kommunikationsbedarf besteht in Ihrer Organisation? Gibt es spezifische Anforderungen für bestimmte Teams, wie Vertrieb, Finanzen, IT oder Softwareentwicklung? Über welche Art von Hardware für Konferenzsysteme verfügen Sie und welche Kompatibilitätsoptionen gibt es für Videokonferenzsoftware? Wie hoch ist Ihr Budget? Zehn Fragen, die Sie Ihrem Anbieter stellen sollten: Wie effektiv ist Ihre Videokonferenzsoftware mit Blick auf Produktivitätssteigerung und Collaboration-Förderung? Können Sie Kennzahlen liefern? Inwiefern kann Ihr Produkt eine bessere Experience liefern als die Tools, die wir bereits einsetzen? Wie einfach ist Ihre Software zu bedienen? Wie viele Klicks sind nötig, um ein Meeting zu starten? Wie einfach ist es, Ihre Lösung mit vorhandener Soft- und Hardware zu integrieren? Welche Sicherheits- und Managementfunktionen bietet Ihr Produkt? Welche Compliance-Standards erfüllt Ihr Videokonferenz-Tool? Wie sieht Ihre Funktions-Roadmap mit Blick auf künstliche Intelligenz aus? Verfügt Ihre Software über relevante, branchenspezifische Funktionen? Welche Garantien können Sie hinsichtlich Uptime und Zuverlässigkeit geben? Unterstützt Ihre Software hybride On-Premises/Cloud-Deployments für High Availability? (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Videokonferenzsoftware – ein Kaufratgeber​ Die richtige Videokonferenzlösung kann den Business-Alltag bereichern.
DC Studio | shutterstock.com

Videokonferenzsoftware wurde spätestens mit dem Jahr 2020 missionskritisch für Unternehmen. Der Pandemie-bedingte, weltweite Videoconferencing-Boom sorgte für einen Wettlauf der Anbieter. Das resultierte darin, dass sich Zoom, Microsoft Teams, Cisco Webex und die zahlreichen anderen Lösungen in diesem Bereich im Fast-Forward-Modus weiterentwickeln konnten.

Inzwischen stehen die Zeichen vielerorts auf „Büromandat“ – oder zumindest der teilweisen Rückkehr ins Office. Nichtsdestotrotz haben sich Videokonferenzen längst als essenzieller Bestandteil der Business-Kommunikation etabliert – und damit auch die entsprechende Software. Die kommt nicht nur für interne Zwecke zum Einsatz, sondern auch um mit Partnern, Kunden und anderen Stakeholdern auf Augenhöhe remote zu kommunizieren. Auch dabei spielt künstliche Intelligenz (KI) inzwischen zunehmend eine tragende Rolle.

In diesem Kaufratgeber lesen Sie:

welche Trends den Markt für Videokonferenzsoftware bestimmen,

was fähige Videoconferencing-Lösungen leisten sollten,

welche Lösungen in diesem Bereich empfehlenswert sind, und

welche Fragen Sie sich und dem Anbieter Ihrer Wahl vor einem Investment stellen sollten.

Videoconferencing-Trends

Auch wenn Videokonferenzsoftware inzwischen als klar definierter, ausgereifter Produktbereich erscheint – es sind noch immer Veränderungen im Gange. Will McKeon-White, Senior Analyst bei Forrester, bringt die Wesentliche auf den Punkt: “Der Markt für Videokonferenzsoftware ist dabei, sich als Unterkategorie von Unified Communications zu etablieren.”

Bei IDC heißt dieselbe Softwarekategorie Unified Communications & Collaboration (UC&C) und ist definiert als “fortschrittliche Telefonielösung, integriert in eine Messaging-, Instant-Messaging-, Chat- oder Konferenzplattform”. Wie Forrester beobachten auch die Research-Experten von IDC, dass die meisten, Standalone-Videoconferencing-Tools in umfassendere UC&C-Suiten integriert werden.

Darüber hinaus sind die Tools in Productivity-Lösungen wie Microsoft 365 und Google Workspace eingebettet. Laut IDC ist das auch der wesentliche Grund dafür, dass Microsoft mit Teams den Markt für Videokonferenzsoftware dominiert (selbst wenn Regulierungsbehörden der “Bundle-Praxis” schon seit längerem einen Riegel vorgeschoben haben). Demnach liege der Marktanteil der Redmonder mit Blick auf das 69 Milliarden Dollar schwere Marktsegment bei knapp 45 Prozent. Zoom folgt laut den Analysten abgeschlagen auf Platz zwei – mit etwas mehr als sechs Prozent.

Mit Blick auf die Funktionen der verfügbaren Videoconferencing-Tools bereichert KI inzwischen die User Experience auf vielfältige Art und Weise. Zum Beispiel mit:

Echtzeit-Transkriptionen,

Text-Inserts,

Live-Übersetzungen und -Untertitelungen,

Image Upscaling oder

autonomen Agenten.

“Frühe Experimente mit KI lieferten keine guten Ergebnisse. Aber die Technologie hat sich in letzter Zeit massiv verbessert”, konstatiert Forrester-Analyst McKeon-White und ergänzt: “Gehen Sie davon aus, dass in Zukunft noch weitere und leistungsfähigere Funktionen hinzukommen.”

Laut Jitesh Gera, Research Manager bei IDC, spielen KI-Funktionen für viele Anwender bereits eine tragende Rolle: “Unternehmen priorisieren inzwischen Funktionen wie eine adaptive Sprecherausrichtung, die auf den jeweils sprechenden Teilnehmer zoomt, Multi-Kamera-Layouts und virtuelle Besprechungszonen. Das sind derzeit die drei wichtigsten Faktoren bei der Auswahl eines UC&C-Systems.”

Was Videokonferenzsoftware leisten sollte

Abgesehen von den selbstverständlichen Funktionen (Bildschirmfreigaben, Chat- und Whiteboard-Optionen, etc.) sollten Videokonferenz-Tools auch in einigen allgemeinen, aber essenziellen Kriterien überzeugen.

Benutzererfahrung: Auch wenn die Funktionen der verfügbaren Lösungen ähnlich sind, kann die User Experience erheblich variieren. Entspricht sie nicht den Erwartungen der Benutzer, finden diese im Regelfall selbst zu gefälligeren Optionen. Dabei können auch unterschiedliche Tools für verschiedene Teams mit Blick auf deren Anforderungen Sinn machen.

Branchenspezifische Tools: Möglicherweise werden in Ihrer Branche bestimmte Lösungen bevorzugt. Zoom ist beispielsweise im Gesundheitswesen und unter Finanzdienstleistern populär, Cisco bei Regierungsbehörden und unter IT-Profis wird GoTo oft wegen seiner fortschrittlichen Screen-Sharing-Funktionen bevorzugt.

Integrationsfähigkeit: Einige Tools ermöglichen eine Integration mit Slack. Das schafft eine „Discord-ähnliche Erfahrung“, die in erster Linie Softwareentwickler zu schätzen wissen. In dieser Beziehung spielt auch eine wichtige Rolle, wie   gut das gewählte Produkt zu vorhandenen Lösungen passt – und wie sich innovative KI-Funktionen aktuell und in Zukunft in das große Ganze einfügen.

Kompatibilität: Eine Videokonferenzsoftware sollte natürlich auch mit der in den physischen Besprechungsräumen vorhandenen Hardware kompatibel sein.

Sicherheit: Professionelle Videoconferencing-Tools sollten zudem mit administrativen Kontroll- und erweiterten Sicherheitsfunktionen aufwarten können. Letztere umfassen etwa Multifaktorauthentifizierung (MFA), Bring-your-own-key (BYOK), Ende-zu-Ende-Verschlüsselung und Single Sign-on (SSO).

11 empfehlenswerte Tools für Videokonferenzen

Im Folgenden finden Sie eine alphabetische Auflistung von Videoconferencing-Lösungen, die die eben genannten Anforderungen erfüllen können. Die Verlinkung führt Sie direkt zum Angebot des jeweiligen Anbieters. Beachten Sie dabei, dass einige der hier aufgelisteten Tools nur im Rahmen umfassenderer Produktsuiten verfügbar sind.

Alcatel-Lucent Enterprise Rainbow

Avaya Spaces

Cisco Webex

Google Meet

GoTo Meeting

Jitsi Meet

Microsoft Teams

RingCentral Video

Vonage Meetings

Zoho Meeting

Zoom

15 Fragen vor dem Videoconferencing-Invest

Fünf Fragen, die Sie sich stellen sollten:

Verfügen Sie bereits über eine Software, die Sie für Videokonferenzen nutzen können? Zum Beispiel eine UC&C-Suite?

Gibt es Anforderungen, die von Ihrer aktuellen Lösung nicht erfüllt werden?

Welche Art von Kommunikationsbedarf besteht in Ihrer Organisation? Gibt es spezifische Anforderungen für bestimmte Teams, wie Vertrieb, Finanzen, IT oder Softwareentwicklung?

Über welche Art von Hardware für Konferenzsysteme verfügen Sie und welche Kompatibilitätsoptionen gibt es für Videokonferenzsoftware?

Wie hoch ist Ihr Budget?

Zehn Fragen, die Sie Ihrem Anbieter stellen sollten:

Wie effektiv ist Ihre Videokonferenzsoftware mit Blick auf Produktivitätssteigerung und Collaboration-Förderung? Können Sie Kennzahlen liefern?

Inwiefern kann Ihr Produkt eine bessere Experience liefern als die Tools, die wir bereits einsetzen?

Wie einfach ist Ihre Software zu bedienen? Wie viele Klicks sind nötig, um ein Meeting zu starten?

Wie einfach ist es, Ihre Lösung mit vorhandener Soft- und Hardware zu integrieren?

Welche Sicherheits- und Managementfunktionen bietet Ihr Produkt?

Welche Compliance-Standards erfüllt Ihr Videokonferenz-Tool?

Wie sieht Ihre Funktions-Roadmap mit Blick auf künstliche Intelligenz aus?

Verfügt Ihre Software über relevante, branchenspezifische Funktionen?

Welche Garantien können Sie hinsichtlich Uptime und Zuverlässigkeit geben?

Unterstützt Ihre Software hybride On-Premises/Cloud-Deployments für High Availability?

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Videokonferenzsoftware – ein Kaufratgeber​ Weiterlesen »

Nach oben scrollen
×