Computerhaus Quickborn

Allgemein

Amazon pumpt weitere Milliarden in Anthropic​

Allgemein

Im Wettlauf um die GenAI-Führerschaft setzt Amazon auf Anthropic und Claude.JRides / Shutterstock.com Der Deal mit Anthropic sei ähnlich dimensioniert wie Amazons Anfangs-Investment in Höhe von vier Milliarden Dollar im vergangenen Jahr, berichtet The Information (Paywall) unter Berufung auf einen Informanten. Diesmal knüpfe Amazon die Zahlung jedoch an eine Bedingung.  Hardware-Vereinbarungen nicht eingehalten?  So nutzt das Startup zwar bereits seit dem ersten Deal die Cloud-Dienste von Amazon Web Services (AWS), um seine KI-Modelle zu trainieren. Dem Insider zufolge verlangt der Cloud-Riese nun jedoch zusätzlich, dass Anthropic dazu Server einsetzt, die mit von Amazon entwickelten Chips betrieben werden. Der OpenAI-Konkurrent ziehe es allerdings vor, Amazon-Server mit Nvidia-GPUs einzusetzen, so der Bericht weiter.  Eigentlich hatten die Anthropic-Verantwortlichen bereits beim Abschluss des ersten Deals angekündigt, ihre KI-Modelle auf Basis der Trainium- und Inferentia-Chips von AWS zu entwickeln, zu trainieren und bereitzustellen. Inwieweit und ob das Startup dieser Maßgabe nicht nachgekommen ist, ist unklar. Betrachtet man die Preise, die mittlerweile für Nvidia-GPUs aufgerufen werden, ist die Forderung von Amazon verständlich. Ähnlich wie Microsoft und Nvidia bei OpenAI versucht auch Amazon, den wahren Wert des Deals zu senken, indem ein Großteil der Investition in Form von gekauften Services und Hardware wieder an den Onlinehändler zurückfließt. Dass Anthropic dabei allerdings Nvidia-GPUs den Trainium- und Inferentia-Chips von AWS vorzieht, macht dem Konzern einen Strich durch die Rechnung.  

Amazon pumpt weitere Milliarden in Anthropic​ Im Wettlauf um die GenAI-Führerschaft setzt Amazon auf Anthropic und Claude.JRides / Shutterstock.com

Der Deal mit Anthropic sei ähnlich dimensioniert wie Amazons Anfangs-Investment in Höhe von vier Milliarden Dollar im vergangenen Jahr, berichtet The Information (Paywall) unter Berufung auf einen Informanten. Diesmal knüpfe Amazon die Zahlung jedoch an eine Bedingung. 

Hardware-Vereinbarungen nicht eingehalten? 

So nutzt das Startup zwar bereits seit dem ersten Deal die Cloud-Dienste von Amazon Web Services (AWS), um seine KI-Modelle zu trainieren. Dem Insider zufolge verlangt der Cloud-Riese nun jedoch zusätzlich, dass Anthropic dazu Server einsetzt, die mit von Amazon entwickelten Chips betrieben werden. Der OpenAI-Konkurrent ziehe es allerdings vor, Amazon-Server mit Nvidia-GPUs einzusetzen, so der Bericht weiter. 

Eigentlich hatten die Anthropic-Verantwortlichen bereits beim Abschluss des ersten Deals angekündigt, ihre KI-Modelle auf Basis der Trainium- und Inferentia-Chips von AWS zu entwickeln, zu trainieren und bereitzustellen. Inwieweit und ob das Startup dieser Maßgabe nicht nachgekommen ist, ist unklar.

Betrachtet man die Preise, die mittlerweile für Nvidia-GPUs aufgerufen werden, ist die Forderung von Amazon verständlich. Ähnlich wie Microsoft und Nvidia bei OpenAI versucht auch Amazon, den wahren Wert des Deals zu senken, indem ein Großteil der Investition in Form von gekauften Services und Hardware wieder an den Onlinehändler zurückfließt. Dass Anthropic dabei allerdings Nvidia-GPUs den Trainium- und Inferentia-Chips von AWS vorzieht, macht dem Konzern einen Strich durch die Rechnung. 

Amazon pumpt weitere Milliarden in Anthropic​ Weiterlesen »

Wärmewende: Mit KI zur effizienten Fernwärme​

Allgemein

Auch in der Fernwärme könnte KI zu mehr Effizienz beitragen. SWM/Stefan Obermeier Die Diskussionen um die Wärmewende und die damit verbundene Transformation zu einer klimaneutralen Wärmeversorgung sind uns noch alle im Bewusstsein. Eine wesentliche Rolle soll dabei die Fernwärme spielen. Allerdings hat die Fernwärme hierzulande nicht unbedingt den besten Ruf: Verbraucher klagen über zu hohe Kosten, viele Netze gelten als ineffizient, oft wird der Wirkungsgrad bemängelt, Störungen führen zu tagelangen Ausfällen, wegen ungenauer Bedarfsprognosen sind teure Spitzenlastkraftwerke erforderlich – um nur einige Kritikpunkte zu nennen. Leitfaden für KI-Nutzung Doch das soll sich nun alles ändern. Mit Künstlicher Intelligenz sollen die Fernwärmenetze effizienter und klimafreundlicher werden. Dazu hat die Deutsche Energie-Agentur (dena) den Leitfaden „KI in Fernwärme – Ein Leitfaden zur erfolgreichen Umsetzung von KI-Projekten“ erstellt. Mit von der Partie waren die Stadtwerke Norderstedt und das Technologieunternehmen RAUSCH Technology GmbH. Der Leitfaden soll als praktische Anleitung für die Integration von KI in Fernwärmenetze dienen. Dass das Ganze keine graue Theorie ist, zeigen die Stadtwerke Norderstedt. Sie haben bereits einen KI- Anwendungsfall – die Wärmelastprognose – pilotiert. Wärmebedarf per KI ermitteln Dabei kommt ein KI-Modell zum Einsatz, das den Wärmebedarf für die nächsten 24 Stunden mit 25 Prozent weniger Abweichung als herkömmliche Prognoseverfahren vorhersagen kann. Diese Genauigkeit ermöglicht eine optimierte Steuerung des Wärmenetzes – Wärme wird bedarfsgerechter erzeugt und Lastspitzen können effizienter abgefedert werden. : Dank KI kann der Wärmebedarf genauer vorhergesagt werden. Damit können die Kraftwerke effizienter gefahren werden. SWM KI-Anwendungsfälle Insgesamt hat die dena im Rahmen des Projekts „KI in Fernwärme“ im Future Energy Lab zehn spezifische KI-Anwendungsfälle für Fernwärme entwickelt: Langfristige betriebswirtschaftliche und technische Asset-Optimierung KI soll hier die langfristige Rentabilität eines Fernwärmenetzes sicherstellen. Optimierung Kundenanlage (Wirkung auf Primärseite) Hohe Rücklauftemperaturen in einem Fernwärmenetz führen zu einer niedrigeren Systemeffizienz. Um die Rücklauftemperaturen zu reduzieren, können Kundenanlagen mithilfe von (KI-gestützten) Algorithmen optimiert werden. Optimierung Kundenanlagen (Wirkung auf Sekundärseite) Die Bereitstellung von Wärmenergie in Gebäuden kann durch eine präzisere Fahrweise der Kundenanlagen optimiert werden. Optimierung des Netzbetriebs und der Netzhydraulik Mittels einer KI-basierten Optimierung des Netzbetriebs und der Netzhydraulik kann Wärme präziser bereitgestellt und somit der Primärenergieeinsatz reduziert werden. Predictive Maintenance (Netzbetreiberseite) Sämtliche Komponenten eines Fernwärmenetzes müssen aufgrund von Verschleiß regelmäßig gewartet oder ausgetauscht werden. Anstatt diese periodisch zu warten, können mithilfe von KI-basierten Prognosen die Zeitpunkte der Wartung präziser festgelegt sowie die Anzahl der Wartungsarbeiten reduziert werden. Auch auf der Sekundärseite beim Kunden kann KI die Nutzung der Fernwärme verbessern. SWM/Andrey Popov Predictive Maintenance (Kundenseite) Der Ausfall von Kundenanlagen wird meist erst bemerkt, wenn bei den Kundinnen und Kunden keine Wärme mehr ankommt und die Raumtemperatur bereits außerhalb des Komfortbereichs liegt. Mithilfe von KI-basierten Prognosen von Ausfallwahrscheinlichkeit und Zeitpunkt auf Basis von sekundärseitigen Betriebsdaten (Temperaturen etc.) kann der Netzbetreiber bereits im Vorfeld darauf hinweisen, dass eine Kundenanlage gewartet werden sollte. Frühzeitige Störungserkennung an Kundenanlagen (kurzfristig) Bei Kundenanlagen kann es zu Störungen und Ausfällen kommen. Mittels KI-basierter Assistenzsysteme und entsprechender Sensorik können diese kurzfristig erkannt, verortet und behoben werden. Kapazitätsmanagement Netz und Erzeugung KI-basierte Tools können die Nutzung der vorhandenen Kapazitäten optimieren und beim Ausbau der Kapazitäten unterstützen. Optimierung des Wärmeerzeugerbetriebs Mittels KI-basierter Tools kann die benötigte Wärmemenge präziser ermittelt werden. Dies erlaubt es, die Erzeugungsanlagen effizienter zu fahren. Energetisches Monitoring (und Abgleich von Richtlinien) Fernwärmenetze zukünftiger Generationen mit vielen kleineren Erzeugungsanlagen und Prosumer-Strukturen können unübersichtlich werden. Das erhöht die Komplexität des Monitorings. KI-basierte Tools bieten hier die Chance, eine Transparenz über Verbräuche zu schaffen, um etwa Energiekennzahlen zu bilden. Solide Datengrundlage erforderlich Alle hier vorgestellten KI-Anwendungsfälle haben jedoch eine Voraussetzung: Sie benötigen eine solide Datengrundlage, um in der Praxis zu funktionieren. Und hieran hapert es häufig noch im Bereich der Fernwärme. Allerdings könnte sich dies in absehbarer Zeit ändern: Bis Ende 2026 müssen alle Wärmemengenzähler digitalisiert werden. Die dena empfiehlt, dies zum Anlass zu nehmen, eine solide, umfassende Datenstrategie zu entwickeln, um eine Grundlage für präzisere KI-Modelle zu schaffen 

Wärmewende: Mit KI zur effizienten Fernwärme​ Auch in der Fernwärme könnte KI zu mehr Effizienz beitragen.
SWM/Stefan Obermeier

Die Diskussionen um die Wärmewende und die damit verbundene Transformation zu einer klimaneutralen Wärmeversorgung sind uns noch alle im Bewusstsein. Eine wesentliche Rolle soll dabei die Fernwärme spielen.

Allerdings hat die Fernwärme hierzulande nicht unbedingt den besten Ruf: Verbraucher klagen über zu hohe Kosten, viele Netze gelten als ineffizient, oft wird der Wirkungsgrad bemängelt, Störungen führen zu tagelangen Ausfällen, wegen ungenauer Bedarfsprognosen sind teure Spitzenlastkraftwerke erforderlich – um nur einige Kritikpunkte zu nennen.

Leitfaden für KI-Nutzung

Doch das soll sich nun alles ändern. Mit Künstlicher Intelligenz sollen die Fernwärmenetze effizienter und klimafreundlicher werden. Dazu hat die Deutsche Energie-Agentur (dena) den Leitfaden „KI in Fernwärme – Ein Leitfaden zur erfolgreichen Umsetzung von KI-Projekten“ erstellt. Mit von der Partie waren die Stadtwerke Norderstedt und das Technologieunternehmen RAUSCH Technology GmbH.

Der Leitfaden soll als praktische Anleitung für die Integration von KI in Fernwärmenetze dienen. Dass das Ganze keine graue Theorie ist, zeigen die Stadtwerke Norderstedt. Sie haben bereits einen KI- Anwendungsfall – die Wärmelastprognose – pilotiert.

Wärmebedarf per KI ermitteln

Dabei kommt ein KI-Modell zum Einsatz, das den Wärmebedarf für die nächsten 24 Stunden mit 25 Prozent weniger Abweichung als herkömmliche Prognoseverfahren vorhersagen kann. Diese Genauigkeit ermöglicht eine optimierte Steuerung des Wärmenetzes – Wärme wird bedarfsgerechter erzeugt und Lastspitzen können effizienter abgefedert werden.

: Dank KI kann der Wärmebedarf genauer vorhergesagt werden. Damit können die Kraftwerke effizienter gefahren werden.
SWM

KI-Anwendungsfälle

Insgesamt hat die dena im Rahmen des Projekts „KI in Fernwärme“ im Future Energy Lab zehn spezifische KI-Anwendungsfälle für Fernwärme entwickelt:

Langfristige betriebswirtschaftliche und technische Asset-Optimierung

KI soll hier die langfristige Rentabilität eines Fernwärmenetzes sicherstellen.

Optimierung Kundenanlage (Wirkung auf Primärseite)

Hohe Rücklauftemperaturen in einem Fernwärmenetz führen zu einer niedrigeren Systemeffizienz. Um die Rücklauftemperaturen zu reduzieren, können Kundenanlagen mithilfe von (KI-gestützten) Algorithmen optimiert werden.

Optimierung Kundenanlagen (Wirkung auf Sekundärseite)

Die Bereitstellung von Wärmenergie in Gebäuden kann durch eine präzisere Fahrweise der Kundenanlagen optimiert werden.

Optimierung des Netzbetriebs und der Netzhydraulik

Mittels einer KI-basierten Optimierung des Netzbetriebs und der Netzhydraulik kann Wärme präziser bereitgestellt und somit der Primärenergieeinsatz reduziert werden.

Predictive Maintenance (Netzbetreiberseite)

Sämtliche Komponenten eines Fernwärmenetzes müssen aufgrund von Verschleiß regelmäßig gewartet oder ausgetauscht werden. Anstatt diese periodisch zu warten, können mithilfe von KI-basierten Prognosen die Zeitpunkte der Wartung präziser festgelegt sowie die Anzahl der Wartungsarbeiten reduziert werden.

Auch auf der Sekundärseite beim Kunden kann KI die Nutzung der Fernwärme verbessern.
SWM/Andrey Popov

Predictive Maintenance (Kundenseite)

Der Ausfall von Kundenanlagen wird meist erst bemerkt, wenn bei den Kundinnen und Kunden keine Wärme mehr ankommt und die Raumtemperatur bereits außerhalb des Komfortbereichs liegt. Mithilfe von KI-basierten Prognosen von Ausfallwahrscheinlichkeit und Zeitpunkt auf Basis von sekundärseitigen Betriebsdaten (Temperaturen etc.) kann der Netzbetreiber bereits im Vorfeld darauf hinweisen, dass eine Kundenanlage gewartet werden sollte.

Frühzeitige Störungserkennung an Kundenanlagen (kurzfristig)

Bei Kundenanlagen kann es zu Störungen und Ausfällen kommen. Mittels KI-basierter Assistenzsysteme und entsprechender Sensorik können diese kurzfristig erkannt, verortet und behoben werden.

Kapazitätsmanagement Netz und Erzeugung

KI-basierte Tools können die Nutzung der vorhandenen Kapazitäten optimieren und beim Ausbau der Kapazitäten unterstützen.

Optimierung des Wärmeerzeugerbetriebs

Mittels KI-basierter Tools kann die benötigte Wärmemenge präziser ermittelt werden. Dies erlaubt es, die Erzeugungsanlagen effizienter zu fahren.

Energetisches Monitoring (und Abgleich von Richtlinien)

Fernwärmenetze zukünftiger Generationen mit vielen kleineren Erzeugungsanlagen und Prosumer-Strukturen können unübersichtlich werden. Das erhöht die Komplexität des Monitorings. KI-basierte Tools bieten hier die Chance, eine Transparenz über Verbräuche zu schaffen, um etwa Energiekennzahlen zu bilden.

Solide Datengrundlage erforderlich

Alle hier vorgestellten KI-Anwendungsfälle haben jedoch eine Voraussetzung: Sie benötigen eine solide Datengrundlage, um in der Praxis zu funktionieren. Und hieran hapert es häufig noch im Bereich der Fernwärme. Allerdings könnte sich dies in absehbarer Zeit ändern: Bis Ende 2026 müssen alle Wärmemengenzähler digitalisiert werden. Die dena empfiehlt, dies zum Anlass zu nehmen, eine solide, umfassende Datenstrategie zu entwickeln, um eine Grundlage für präzisere KI-Modelle zu schaffen

Wärmewende: Mit KI zur effizienten Fernwärme​ Weiterlesen »

ESG: Der IT fehlen die Daten​

Allgemein

Das zarte Pflänzchen Green IT will noch nicht so recht wachsen – etwas besser sieht es bei IT for Green aus. Doidam 10 / shutterstock.com Mit der Nachhaltigkeit ist es so eine Sache. Zwar behaupten Unternehmen gern, dass Umweltschutz und soziale Verantwortung für sie ganz oben auf der Agenda stünden. Auch die Studie “Erfolgsfaktoren IT und Innovation 2023 – Lösungen für Energieeffizienz und Nachhaltigkeit” von CIO, CSO und COMPUTERWOCHE fand im letzten Jahr heraus, dass zumindest für knapp die Hälfte der Unternehmen der Aspekt der Nachhaltigkeit eine wesentliche Grundlage für die Unternehmenssteuerung bildet. “Green IT” liegt also im Trend – sollte man meinen. Doch häufig genügt der nächste Hype, der unbedingt verfolgt werden will, und schon rückt das grüne Gewissen schnell wieder in den Hintergrund. Erkennen lässt sich das besonders gut an der KI-Begeisterung, die auch deutsche Unternehmen erfasst hat. Der enorme CO2-Fußabdruck, den das Trainieren und Betreiben von KI-Modellen hinterlässt, ist aktuell nur schwer mit den Forderungen nach mehr Nachhaltigkeit im IT-Betrieb in Einklang zu bringen. Treten wir also auf der Stelle, was ESG (Environmental, Social, Governance) anbelangt, oder bewegen sich deutsche Unternehmen in die richtige Richtung? Damit beschäftigten sich die Experten des COMPUTERWOCHE-Roundtables zum Thema “ESG”. Informationen zu den Partner-Paketen der Studie ‘ESG-Reporting 2025’ ESG und IT – Wo stehen die Unternehmen? Dass die meisten Unternehmen noch weit von einer echten ESG-getriebenen IT entfernt sind, stellt die Expertenrunde direkt zu Beginn fest. Ein Großteil der Bestrebungen hinsichtlich mehr Nachhaltigkeit seien nach wie vor in erster Linie kostengetrieben. Zwar achteten Unternehmen mehr auf das Thema Nachhaltigkeit in der IT, allerdings stecke diese Entwicklung noch in den Kinderschuhen, konstatiert Thomas Gros, Co-Founder and CEO von circulee: “Wir erleben zunehmend, dass vor allem IT-Entscheider Wege suchen, ihre IT-Landschaft so zu managen, dass diese nicht nur Kosten spart, sondern auch ESG-Kriterien erfüllt – dieser Trend steckt allerdings noch in den Anfängen, kommt aber langsam im Markt an.” Sinnvoll in der Betrachtung der aktuellen Situation ist auch die Unterscheidung zwischen “Green IT”, also die Minimierung des negativen Einflusses der IT-Abteilungen auf die Umwelt, und “IT for Green”, also Initiativen, die IT-Lösungen zur Verringerung des ökologischen Fußabdrucks des gesamten Unternehmens einsetzen. Für diese Differenzierung plädiert Carina Schöllmann, Partner bei EY: “Die Nachfrage nach Green IT ist derzeit noch zögerlich.” Es gäbe jedoch erste Anknüpfungspunkte vor allem im Bereich der Cloud-Transformation. Einen positiveren Trend sieht Schöllmann jedoch im Bereich IT for Green: “Wir sehen einen Rückgang der rein Compliance-getriebenen Anfragen. Der Fokus richtet sich langsam auf wirtschaftlich orientierte und ganzheitliche Ansätze.” Nachhaltigkeit werde zunehmend mit ökonomischen Aspekten verknüpft, was auf einen höheren Reifegrad hindeutet. Carina Schöllmann, EY: “Im Bereich Nachhaltigkeitsberichterstattung fehlt es häufig noch an klaren Prozessen und der erforderlichen Datentransparenz. Hier sollten Unternehmen ansetzen, um ESG die strategische Bedeutung einräumen zu können, die das Thema in Zukunft haben wird. Das Reporting darf deshalb nicht als reine Pflichtübung betrachtet werden. Vielmehr sollten Unternehmen einen Schritt weitergehen, proaktiv analysieren und Anforderungen praxisorientiert verankern – das bedeutet auch, Intervalle für die Datenerhebung zu finden, die eine aktive Steuerung zulassen.” EY Consulting GmbH Die Sache mit den Daten Eines der größten Hindernisse für strategische ESG-IT in Unternehmen ist laut Experten der Mangel an belastbaren Daten, um überhaupt die nötige Transparenz über Nachhaltigkeit herstellen zu können. “Wirklich in vollem Umfang und guter Qualität hat diese Daten noch keiner, weder große Konzerne noch kleine Unternehmen”, erklärt Carina Schöllmann. “Zwar erfassen und verwalten viele bereits Umwelt- oder Sozial-Datenpunkte. Einen zentralen und konsolidierten Überblick zu erhalten, ist durch die dezentrale und manuelle Verarbeitung häufig aufwendig und komplex.” Daten spielen dabei gleich auf mehreren Ebenen eine wichtige Rolle: Zum einen müssen für die Berichte ausreichend verwertbare Daten vorliegen, zum anderen werden diese benötigt, um strategische Entscheidungen treffen zu können. Nicht wenige Unternehmen schielen für die Datenverarbeitung in Richtung KI, was laut Marc Eismann, CEO der group24 AG, nicht unbedingt der beste erste Schritt ist: “KI kann nur eine Lösung stützen, aber nicht selber lösen. Dafür müssen Daten erstmal erfasst und sauber sein, und da sehe ich gerade noch das größte Problem”, sagt Eismann. “Viele wissen noch gar nicht, wo und wie sie die Daten am besten eintragen sollen.” Zwar gäbe es diverse Plattformen, die Abhilfe versprechen, doch die seien für viele nicht das Richtige.  Marc Eismann, group24: “Für wirklich strategische ESG-IT fehlen derzeit schlicht ausreichende Daten – wirklich flächendeckend werden diese nirgendwo zusammengetragen. Daher sollten sich Unternehmen bei der Auswahl von Dienstleistern, Geräten und Tools frühzeitig fragen: Woher kommen die relevanten Daten, wie können wir sie erfassen und verarbeiten? Das Ziel sollte sein, Daten in Bereichen zu sammeln, wo man es bisher noch nicht getan hat und zu identifizieren, welche Akteure bisher nicht in der Lage sind, Daten bereitzustellen.” group24 AG Ähnlich sieht das EY-Partner Schöllmann. “Für große Unternehmen, die bereits Transparenz über die erforderlichen Daten, deren Verarbeitung und Quellsysteme haben, kann der Wechsel auf eine dedizierte ESG-Plattform wirtschaftlich und sinnvoll sein. Aber insbesondere bei kleineren Unternehmen, die noch mit der grundsätzlichen Erfüllung der Auflagen beschäftigt sind, ist eine Softwarelösung als Startpunkt wahrscheinlich nicht das Richtige”, ergänzt Schöllmann. “Mit der Software zu starten ist häufig eher mit Enttäuschungen verbunden.” ESG-Berichte sind wichtig fürs Image Saubere Daten und verwertbare ESG-Berichte sind jedoch auch noch an einer anderen Stelle von Bedeutung: Sie sind ein wichtiges Werkzeug für die Bindung bestehender und potenzieller Mitarbeiter. Denn die Experten sind sich einig – das Thema Nachhaltigkeit gewinnt einen immer größeren Stellenwert für die Arbeitnehmerinnen und Arbeitnehmer, vor allem für die jüngeren Generationen. Carina Schöllmann betont, dass eine klare Kommunikation schon allein deshalb wichtig ist, um intern aufzuklären, warum bestimmte Daten erhoben werden und weshalb business-as-usual nicht mehr möglich und gewollt ist. Doch auch für die Außenwirkung sei es essenziell, die eigenen ESG-Bestrebungen klar zu kommunizieren. “Firmen müssen heute viel stärker ihr Business mit einem größeren Zweck verknüpfen, weil das vor allem für junge Menschen ein sehr wichtiges Kriterium ist”, sagt Schöllmann. Studie “ESG-Reporting 2025”: Sie können sich noch beteiligen!Zum Thema ESG-Reporting führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Reportings nicht als Pflichtaufgabe sehen Doch wie gehen Unternehmen am besten vor, wenn sie zukünftig nachhaltiger agieren und eine saubere Datenbasis aufbauen wollen? Marc Eismann empfiehlt, den Nachhaltigkeitsgedanken bereits frühzeitig in die Auswahlprozesse von Dienstleistern, Geräten und Tools einzubeziehen. “Unternehmen sollten sich früh fragen: Woher kommen die relevanten Daten, wie können wir sie erfassen und verarbeiten? Das Ziel sollte sein, Daten in Bereichen zu sammeln, wo man es bisher noch nicht getan hat und zu identifizieren, welche Akteure bisher nicht in der Lage sind, Daten bereitzustellen”, erklärt Eismann. Zustimmung erhält er von EY-Expertin Schöllmann, die vor allem den Schulterschluss zwischen IT-Abteilung und Fachbereichen hervorhebt, um gemeinsam eine zukunftsfähige Lösung zu finden und Wildwuchs an Silo-Lösungen zu vermeiden. Außerdem plädiert Schöllmann dafür, die Berichte auch als Chance zu begreifen: “Das Reporting sollte nicht als reine Pflichtübung betrachtet werden. Vielmehr sollten Unternehmen auch die Chancen der Nachhaltigkeitstransformation nutzen und einen Schritt weitergehen, proaktiv analysieren und Anforderungen praxisorientiert verankern.” Zudem empfiehlt sie, die eigenen Reporting-Intervalle und Datengranularität kritisch zu überprüfen und je nach Bedarf und Nutzen auf niedrigschwellige, kurze Intervalle mit höherer Datentiefe zu wechseln. Thomas Gros, circulee: “Wenn wir den Schritt zu echter Zirkularität gehen wollen, müssen wir den Datenaustausch entlang der gesamten Wertschöpfungskette vorantreiben. Wir brauchen einheitliche, industrieweite Datenräume, die von den großen Playern angetrieben werden. Dann kann sich die ganze restliche Industrie mitbewegen und sich alle auf einheitliche Standards einigen. So schaffen wir auch die nötige Transparenz – und zwar branchenweit.” circulee GmbH Circulee-Manager Gros hingegen fordert die gesamte IT-Branche auf, gemeinsam einheitliche Standards zu schaffen. “Wenn wir den Schritt zu echter Zirkularität gehen wollen, müssen wir den Datenaustausch entlang der gesamten Wertschöpfungskette vorantreiben”, betont Gros. Er plädiert für industrieweite Datenräume, die von den großen Playern angetrieben werden. “Dann kann sich die ganze restliche Industrie mitbewegen und alle können sich auf einheitliche Standards einigen. So schaffen wir auch die nötige Transparenz – und zwar branchenweit.” Informationen zu den Partner-Paketen der Studie ‘ESG-Reporting 2025’ 

ESG: Der IT fehlen die Daten​ Das zarte Pflänzchen Green IT will noch nicht so recht wachsen – etwas besser sieht es bei IT for Green aus. Doidam 10 / shutterstock.com

Mit der Nachhaltigkeit ist es so eine Sache. Zwar behaupten Unternehmen gern, dass Umweltschutz und soziale Verantwortung für sie ganz oben auf der Agenda stünden. Auch die Studie “Erfolgsfaktoren IT und Innovation 2023 – Lösungen für Energieeffizienz und Nachhaltigkeit” von CIO, CSO und COMPUTERWOCHE fand im letzten Jahr heraus, dass zumindest für knapp die Hälfte der Unternehmen der Aspekt der Nachhaltigkeit eine wesentliche Grundlage für die Unternehmenssteuerung bildet.

“Green IT” liegt also im Trend – sollte man meinen. Doch häufig genügt der nächste Hype, der unbedingt verfolgt werden will, und schon rückt das grüne Gewissen schnell wieder in den Hintergrund. Erkennen lässt sich das besonders gut an der KI-Begeisterung, die auch deutsche Unternehmen erfasst hat. Der enorme CO2-Fußabdruck, den das Trainieren und Betreiben von KI-Modellen hinterlässt, ist aktuell nur schwer mit den Forderungen nach mehr Nachhaltigkeit im IT-Betrieb in Einklang zu bringen.

Treten wir also auf der Stelle, was ESG (Environmental, Social, Governance) anbelangt, oder bewegen sich deutsche Unternehmen in die richtige Richtung? Damit beschäftigten sich die Experten des COMPUTERWOCHE-Roundtables zum Thema “ESG”.

Informationen zu den Partner-Paketen der Studie ‘ESG-Reporting 2025’

ESG und IT – Wo stehen die Unternehmen?

Dass die meisten Unternehmen noch weit von einer echten ESG-getriebenen IT entfernt sind, stellt die Expertenrunde direkt zu Beginn fest. Ein Großteil der Bestrebungen hinsichtlich mehr Nachhaltigkeit seien nach wie vor in erster Linie kostengetrieben. Zwar achteten Unternehmen mehr auf das Thema Nachhaltigkeit in der IT, allerdings stecke diese Entwicklung noch in den Kinderschuhen, konstatiert Thomas Gros, Co-Founder and CEO von circulee: “Wir erleben zunehmend, dass vor allem IT-Entscheider Wege suchen, ihre IT-Landschaft so zu managen, dass diese nicht nur Kosten spart, sondern auch ESG-Kriterien erfüllt – dieser Trend steckt allerdings noch in den Anfängen, kommt aber langsam im Markt an.”

Sinnvoll in der Betrachtung der aktuellen Situation ist auch die Unterscheidung zwischen

“Green IT”, also die Minimierung des negativen Einflusses der IT-Abteilungen auf die Umwelt, und

“IT for Green”, also Initiativen, die IT-Lösungen zur Verringerung des ökologischen Fußabdrucks des gesamten Unternehmens einsetzen.

Für diese Differenzierung plädiert Carina Schöllmann, Partner bei EY: “Die Nachfrage nach Green IT ist derzeit noch zögerlich.” Es gäbe jedoch erste Anknüpfungspunkte vor allem im Bereich der Cloud-Transformation. Einen positiveren Trend sieht Schöllmann jedoch im Bereich IT for Green: “Wir sehen einen Rückgang der rein Compliance-getriebenen Anfragen. Der Fokus richtet sich langsam auf wirtschaftlich orientierte und ganzheitliche Ansätze.” Nachhaltigkeit werde zunehmend mit ökonomischen Aspekten verknüpft, was auf einen höheren Reifegrad hindeutet.

Carina Schöllmann, EY: “Im Bereich Nachhaltigkeitsberichterstattung fehlt es häufig noch an klaren Prozessen und der erforderlichen Datentransparenz. Hier sollten Unternehmen ansetzen, um ESG die strategische Bedeutung einräumen zu können, die das Thema in Zukunft haben wird. Das Reporting darf deshalb nicht als reine Pflichtübung betrachtet werden. Vielmehr sollten Unternehmen einen Schritt weitergehen, proaktiv analysieren und Anforderungen praxisorientiert verankern – das bedeutet auch, Intervalle für die Datenerhebung zu finden, die eine aktive Steuerung zulassen.”
EY Consulting GmbH

Die Sache mit den Daten

Eines der größten Hindernisse für strategische ESG-IT in Unternehmen ist laut Experten der Mangel an belastbaren Daten, um überhaupt die nötige Transparenz über Nachhaltigkeit herstellen zu können. “Wirklich in vollem Umfang und guter Qualität hat diese Daten noch keiner, weder große Konzerne noch kleine Unternehmen”, erklärt Carina Schöllmann. “Zwar erfassen und verwalten viele bereits Umwelt- oder Sozial-Datenpunkte. Einen zentralen und konsolidierten Überblick zu erhalten, ist durch die dezentrale und manuelle Verarbeitung häufig aufwendig und komplex.”

Daten spielen dabei gleich auf mehreren Ebenen eine wichtige Rolle: Zum einen müssen für die Berichte ausreichend verwertbare Daten vorliegen, zum anderen werden diese benötigt, um strategische Entscheidungen treffen zu können. Nicht wenige Unternehmen schielen für die Datenverarbeitung in Richtung KI, was laut Marc Eismann, CEO der group24 AG, nicht unbedingt der beste erste Schritt ist: “KI kann nur eine Lösung stützen, aber nicht selber lösen. Dafür müssen Daten erstmal erfasst und sauber sein, und da sehe ich gerade noch das größte Problem”, sagt Eismann. “Viele wissen noch gar nicht, wo und wie sie die Daten am besten eintragen sollen.” Zwar gäbe es diverse Plattformen, die Abhilfe versprechen, doch die seien für viele nicht das Richtige. 

Marc Eismann, group24: “Für wirklich strategische ESG-IT fehlen derzeit schlicht ausreichende Daten – wirklich flächendeckend werden diese nirgendwo zusammengetragen. Daher sollten sich Unternehmen bei der Auswahl von Dienstleistern, Geräten und Tools frühzeitig fragen: Woher kommen die relevanten Daten, wie können wir sie erfassen und verarbeiten? Das Ziel sollte sein, Daten in Bereichen zu sammeln, wo man es bisher noch nicht getan hat und zu identifizieren, welche Akteure bisher nicht in der Lage sind, Daten bereitzustellen.”
group24 AG

Ähnlich sieht das EY-Partner Schöllmann. “Für große Unternehmen, die bereits Transparenz über die erforderlichen Daten, deren Verarbeitung und Quellsysteme haben, kann der Wechsel auf eine dedizierte ESG-Plattform wirtschaftlich und sinnvoll sein. Aber insbesondere bei kleineren Unternehmen, die noch mit der grundsätzlichen Erfüllung der Auflagen beschäftigt sind, ist eine Softwarelösung als Startpunkt wahrscheinlich nicht das Richtige”, ergänzt Schöllmann. “Mit der Software zu starten ist häufig eher mit Enttäuschungen verbunden.”

ESG-Berichte sind wichtig fürs Image

Saubere Daten und verwertbare ESG-Berichte sind jedoch auch noch an einer anderen Stelle von Bedeutung: Sie sind ein wichtiges Werkzeug für die Bindung bestehender und potenzieller Mitarbeiter. Denn die Experten sind sich einig – das Thema Nachhaltigkeit gewinnt einen immer größeren Stellenwert für die Arbeitnehmerinnen und Arbeitnehmer, vor allem für die jüngeren Generationen.

Carina Schöllmann betont, dass eine klare Kommunikation schon allein deshalb wichtig ist, um intern aufzuklären, warum bestimmte Daten erhoben werden und weshalb business-as-usual nicht mehr möglich und gewollt ist. Doch auch für die Außenwirkung sei es essenziell, die eigenen ESG-Bestrebungen klar zu kommunizieren. “Firmen müssen heute viel stärker ihr Business mit einem größeren Zweck verknüpfen, weil das vor allem für junge Menschen ein sehr wichtiges Kriterium ist”, sagt Schöllmann.

Studie “ESG-Reporting 2025”: Sie können sich noch beteiligen!Zum Thema ESG-Reporting führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Reportings nicht als Pflichtaufgabe sehen

Doch wie gehen Unternehmen am besten vor, wenn sie zukünftig nachhaltiger agieren und eine saubere Datenbasis aufbauen wollen? Marc Eismann empfiehlt, den Nachhaltigkeitsgedanken bereits frühzeitig in die Auswahlprozesse von Dienstleistern, Geräten und Tools einzubeziehen. “Unternehmen sollten sich früh fragen: Woher kommen die relevanten Daten, wie können wir sie erfassen und verarbeiten? Das Ziel sollte sein, Daten in Bereichen zu sammeln, wo man es bisher noch nicht getan hat und zu identifizieren, welche Akteure bisher nicht in der Lage sind, Daten bereitzustellen”, erklärt Eismann.

Zustimmung erhält er von EY-Expertin Schöllmann, die vor allem den Schulterschluss zwischen IT-Abteilung und Fachbereichen hervorhebt, um gemeinsam eine zukunftsfähige Lösung zu finden und Wildwuchs an Silo-Lösungen zu vermeiden. Außerdem plädiert Schöllmann dafür, die Berichte auch als Chance zu begreifen: “Das Reporting sollte nicht als reine Pflichtübung betrachtet werden. Vielmehr sollten Unternehmen auch die Chancen der Nachhaltigkeitstransformation nutzen und einen Schritt weitergehen, proaktiv analysieren und Anforderungen praxisorientiert verankern.” Zudem empfiehlt sie, die eigenen Reporting-Intervalle und Datengranularität kritisch zu überprüfen und je nach Bedarf und Nutzen auf niedrigschwellige, kurze Intervalle mit höherer Datentiefe zu wechseln.

Thomas Gros, circulee: “Wenn wir den Schritt zu echter Zirkularität gehen wollen, müssen wir den Datenaustausch entlang der gesamten Wertschöpfungskette vorantreiben. Wir brauchen einheitliche, industrieweite Datenräume, die von den großen Playern angetrieben werden. Dann kann sich die ganze restliche Industrie mitbewegen und sich alle auf einheitliche Standards einigen. So schaffen wir auch die nötige Transparenz – und zwar branchenweit.”
circulee GmbH

Circulee-Manager Gros hingegen fordert die gesamte IT-Branche auf, gemeinsam einheitliche Standards zu schaffen. “Wenn wir den Schritt zu echter Zirkularität gehen wollen, müssen wir den Datenaustausch entlang der gesamten Wertschöpfungskette vorantreiben”, betont Gros. Er plädiert für industrieweite Datenräume, die von den großen Playern angetrieben werden. “Dann kann sich die ganze restliche Industrie mitbewegen und alle können sich auf einheitliche Standards einigen. So schaffen wir auch die nötige Transparenz – und zwar branchenweit.”

Informationen zu den Partner-Paketen der Studie ‘ESG-Reporting 2025’

ESG: Der IT fehlen die Daten​ Weiterlesen »

Das Ende von “zu teuer” für Unternehmenssoftware?​

Allgemein

Geht nicht gibt’s nicht: LLMs verändern nun die Herangehensweise von Unternehmen an Problemstellungen, die algorithmisch schwer oder gar nicht zu lösen sind.Gorodenkoff/Shutterstock.com Generative künstliche Intelligenz (Generative KI, GenAI) und insbesondere Large Language Models (LLMs) verändern die Art und Weise, wie Unternehmen Software entwickeln und bereitstellen. Was mit Chatbots und einfachen Automatisierungswerkzeugen begann, entwickelt sich zu etwas weitaus Mächtigerem — KI-Systemen, die tief in Softwarearchitekturen integriert sind und alles von Backend-Prozessen bis hin zu User Interfaces beeinflussen. Ein Überblick.  Die Chatbot-Welle: Ein kurzfristiger Trend  Derzeit konzentrieren sich Unternehmen darauf, Chatbots und maßgeschneiderte GPTs für verschiedene Problemstellungen zu entwickeln. Diese KI-gestützten Werkzeuge zeichnen sich besonders in zwei Bereichen aus: Sie machen internes Wissen zugänglich und automatisieren den Kundenservice. Chatbots werden eingesetzt, um Antwortsysteme aufzubauen, die Mitarbeitern und Mitarbeiterinnen (aus Gründen der Lesbarkeit verwenden wir im laufenden Text die männliche Form) einen schnellen Zugriff auf umfangreiche interne Wissensdatenbanken ermöglichen und dabei Informationssilos aufbrechen.   Diese Tools sind zwar nützlich, bieten jedoch aufgrund mangelnder Innovation oder Differenzierung einen sinkenden Mehrwert. Schließlich sind Chatbots oft unpassende Benutzeroberflächen, da es an Kenntnissen über bessere Alternativen zur Lösung bestimmter Probleme fehlt.  Die Zukunft wird von tiefergehenden KI-Funktionen geprägt sein, die nahtlos in Softwareprodukte eingewoben sind, ohne für Endnutzer offensichtlich zu sein.  Generative KI als allgegenwärtige Technologie  In den kommenden Jahren wird sich KI von einem expliziten, undurchsichtigen Werkzeug mit direkter Benutzerinteraktion zu einer nahtlos integrierten Komponente im Feature-Teppich entwickeln. GenAI wird Funktionen wie dynamische Inhaltserstellung, intelligente Entscheidungsfindung und Echtzeit-Personalisierung ermöglichen, ohne dass Nutzer direkt damit interagieren müssen. Dies wird sowohl das UI-Design als auch die Bedienung von Software grundlegend verändern. Anstatt spezifische Parameter manuell einzugeben, können Nutzer zunehmend ihre Anforderungen in natürlicher Sprache beschreiben.  Ein prägnantes Beispiel dafür ist bereits in Werkzeugen wie Adobe Photoshop zu sehen. Dort erfordert die “Generative Fill”-Funktion keine manuelle Einstellung mehrerer Parameter mehr. Stattdessen können Nutzer einfach beschreiben, womit sie einen ausgewählten Bildbereich füllen möchten. Dieser Trend zur Eingabe in natürlicher Sprache wird sich über Anwendungen hinweg ausweiten und die UX intuitiver und weniger durch traditionelle UI-Elemente eingeschränkt gestalten.  Die Herausforderung liegt dabei künftig nicht im Mangel, sondern im Überfluss: Es gilt, die vielversprechendsten Möglichkeiten zu identifizieren und zu priorisieren.  Der Commodity-Effekt von LLMs gegenüber speziellen ML-Modellen  Eine der bemerkenswertesten Veränderungen, die generative KI in der IT bewirkt hat, ist die Demokratisierung von KI-Fähigkeiten. Vor LLMs und Diffusionsmodellen mussten Unternehmen ein erhebliches Maß an Zeit, Aufwand und Ressourcen in die Entwicklung maßgeschneiderter Machine-Learning-Modelle investieren, um schwierige Probleme zu lösen. Diese erforderten spezialisierte Rollen und Teams um domänenspezifische Daten zu sammeln, Features aufzubereiten, Daten zu labeln, sowie für das Re-Training und den gesamten Lebenszyklus eines Modells.   LLMs verändern nun die Herangehensweise von Unternehmen an Problemstellungen, die algorithmisch schwer oder gar nicht zu lösen sind, wobei der Begriff „Language“ in Large Language Models irreführend ist. Diese autoregressiven Modelle können letztlich alles verarbeiten, was sich gut in Tokens zerlegen lässt: Bild, Video, Ton, sogar Proteine. Unternehmen können diese vielseitigen Werkzeuge durch die RAG-Architektur (Retrieval-Augmented Generation) mit eigenen Daten anreichern. Dadurch wird ihr breites Fähigkeitsspektrum nutzbar.   In vielen Fällen erübrigt sich damit der Bedarf an spezialisierten Teams, umfangreichem Daten-Labeling und komplexen Machine-Learning-Pipelines. Das umfangreiche vortrainierte Wissen der LLMs ermöglicht es ihnen, selbst unstrukturierte Daten effektiv zu verarbeiten und zu interpretieren.  Ein wichtiger Aspekt dieser Demokratisierung ist die Verfügbarkeit von LLMs über leicht zu nutzende APIs. Heute weiß fast jeder Entwickler, wie man mit API-basierten Diensten arbeitet, was die Integration dieser Modelle in bestehende Software-Ökosysteme reibungslos macht. Unternehmen können somit von leistungsstarken Modellen profitieren, ohne sich um die zugrundeliegende Infrastruktur kümmern zu müssen. Alternativ lassen sich etliche Modelle bei spezifischen Sicherheits- oder Datenschutzanforderungen auch On Premises betreiben. Hier müssen allerdings Abstriche im Vergleich zu den führenden Frontier Models gemacht werden.  Nehmen wir als Beispiel eine App zur Erfassung und Verwaltung von Reisekosten. Traditionell hätte eine solche Anwendung möglicherweise auf ein speziell trainiertes ML-Modell zurückgegriffen, um hochgeladene Belege in Buchungskategorien wie etwa nach DATEV einzuordnen. Das erforderte dedizierte Infrastruktur und idealerweise eine vollständige MLOps-Pipeline (für Modelltraining, -bereitstellung und -überwachung) zur Verwaltung der Datenerfassung, des Trainings und der Modellaktualisierungen.   Heute kann so ein ML-Modell einfach durch ein LLM ersetzt werden, das sein Weltwissen im Zusammenspiel mit einem guten Prompt für die Belegkategorisierung nutzt. Die multimodalen Fähigkeiten von LLMs machen zudem optische Zeichenerkennung (OCR) in vielen Fällen überflüssig, was den Technologie-Stack erheblich vereinfacht. Müssen aus den Belegen auch noch Daten wie Netto- und Bruttopreise oder Steuersätze extrahiert werden? Auch das übernimmt ein LLM.  https://open.spotify.com/episode/5LyDXcO77nKawkSI41MMIo KI-gestützte Funktionen, die bisher nicht möglich waren  GenAI ermöglicht eine Vielzahl von Features, die zuvor zu komplex, zu teuer oder völlig außer Reichweite für die meisten Unternehmen waren, weil sie Investitionen in maßgeschneiderte ML-Lösungen oder komplexe Algorithmen erforderten. Betrachten wir einige konkrete Beispiele.  Stimmungs- und kontextbasierte Suche: Jenseits von Keywords  Die stimmungs- und kontextbasierte Suche (“vibe-based search”) stellt einen bedeutenden Fortschritt gegenüber traditionellen, Keyword-basierten Suchsystemen dar.  Sie ermöglicht es Nutzern, ihre Absicht in natürlicher Sprache auszudrücken und dabei nicht nur spezifische Begriffe, sondern auch den gesamten Kontext und die “Stimmung” ihrer Anfrage zu erfassen.   Ein Beispiel:  Traditionelle Keyword-Suche: “beste restaurants berlin”  Stimmungs- und kontextbasierte Suche: “Ich bin ein anspruchsvoller Connaisseur und liebe Weinbars, die auch Essen servieren, vorzugsweise mit regionalen Zutaten. Empfiehl mir Restaurants in Berlin Mitte und Kreuzberg. Bitte keine dogmatischen Naturweinbars.”  Im Fall der stimmungs- und kontextbasierten Suche kann ein LLM folgendes verstehen und verarbeiten:  Die Selbstbeschreibung als “anspruchsvoller Genießer”;  Die Vorliebe für Weinbars mit zusätzlichem Speisenangebot;  Den Wunsch nach regionalen Zutaten;  Die spezifischen Stadtteilpräferenzen (Mitte und Kreuzberg);  Die Unterscheidung zwischen gewöhnlichen Weinbars und “dogmatischen Naturweinbars”.  Dieses Maß an Nuancierung und Kontextverständnis ermöglicht es der Suchfunktion, hochgradig personalisierte und relevante Ergebnisse zu liefern, anstatt nur Keywords abzugleichen.  Die Implementierung der stimmungs- und kontextbasierten Suche kann die User Experience in verschiedenen Anwendungen deutlich verbessern:  Interne Wissensdatenbanken: Mitarbeiter können mit natürlichsprachlichen Anfragen Informationen finden, die ihre spezifische Situation oder ihren Bedarf beschreiben.  E-Commerce-Plattformen: Kunden können Produkte in ihren eigenen Worten beschreiben, auch wenn sie die exakte Terminologie nicht kennen.  Kundenservice-Systeme: Nutzer können Probleme detailliert beschreiben. Das System bietet ihnen daraufhin präzisere Lösungen an oder leitet sie an die zuständigen Support-Mitarbeiter weiter.  Content-Management-Systeme: Content-Redakteure können mit beschreibender Sprache nach Assets oder Inhalten suchen, ohne sich auf aufwändiges Tagging oder Metadaten verlassen zu müssen.   Intelligente Daten- und Inhaltsanalyse  Sentimentanalyse  Betrachten wir ein praktisches Beispiel: Ein internes System erlaubt es Mitarbeitern, kurze Statusmeldungen über ihre Arbeit zu posten. Eine Führungskraft möchte die allgemeine Stimmung im Team in einer bestimmten Woche einschätzen. Früher wäre die Implementierung einer Sentimentanalyse dieser Beiträge mit einem maßgeschneiderten ML-Modell eine Herausforderung gewesen. Mit LLMs reduziert sich diese Komplexität auf einen einfachen API-Aufruf.   Das Ergebnis muss dabei nicht einmal in menschenlesbarer Sprache ausgegeben werden. Es kann als strukturiertes JSON erfolgen, das das System zur Darstellung passender Icons oder Grafiken verarbeitet. Alternativ könnte das LLM auch einfach Emojis zur Darstellung der Stimmungen ausgeben. Natürlich würde eine solche Funktion nur mit Einwilligung der Mitarbeiter implementiert werden.  Erkenntnisgewinnung aus komplexen Daten  Ein weiteres Beispiel, das die Leistungsfähigkeit von LLMs bei der Analyse komplexer Daten verdeutlicht, ist etwa ein intelligentes Alarmmanagement für Kühlsysteme.   Traditionell konzentrierten sich diese Systeme auf:  Ein grafisches Alarm-Dashboard mit Echtzeitdaten und Warnungen.  Komplexe, filterbare tabellarische Darstellungen von Zeitreihendaten  Diese Funktionen sind nützlich, erfordern jedoch oft erhebliche menschliche Interpretation, um aussagekräftige Erkenntnisse zu gewinnen. Hier können LLMs die Fähigkeiten des Systems erweitern, indem sie Rohdaten auf Zero-Shot-Basis in verwertbare Erkenntnisse umwandeln, ohne dass dafür spezielle Machine-Learning-Modelle erforderlich sind, nämlich:  Automatische Berichtserstellung: LLMs können Zeitreihendaten analysieren und detaillierte Berichte in natürlicher Sprache generieren. Diese können Trends, Anomalien und wichtige Leistungsindikatoren hervorheben, die sowohl für Techniker als auch für Manager wertvoll sind. Etwa ein Bericht, der die Alarme der vergangenen Woche zusammenfasst, wiederkehrende Probleme identifiziert und Verbesserungsmöglichkeiten vorschlägt.  Tiefgehende Analyse: LLMs können über die einfache Datendarstellung hinaus komplexe Muster in den Daten erkennen und erklären. So sind sie etwa in der Lage, Alarmsequenzen zu identifizieren, die auf größere Systemprobleme hinweisen – Erkenntnisse, die in einer traditionellen Tabellenansicht oder Diagrammen möglicherweise übersehen würden.  Predictive Insights: Durch die Analyse historischer Daten können LLMs Vorhersagen über zukünftige Systemzustände treffen. Dies ermöglicht eine proaktive Wartung und hilft, potenzielle Ausfälle zu verhindern.   Strukturierte Ausgaben: Zusätzlich zu Berichten in natürlicher Sprache können LLMs auch strukturierte Daten (etwa JSON) ausgeben. Dies ermöglicht die Erstellung dynamischer, grafischer Benutzeroberflächen, die komplexe Informationen visuell darstellen.   Natürlichsprachliche Abfragen: Techniker können dem System Fragen in natürlicher Sprache stellen, wie zum Beispiel “Welche Geräte werden in den kommenden Wochen wahrscheinlich in den Failover-Modus wechseln?” und erhalten sofort relevante Antworten und Visualisierungen. Dies senkt die Zugangshürden zur Datenauswertung und -interpretation deutlich. Diese Funktionalität ist nun bei OpenAI auch via Realtime API verfügbar.  Die multimodale Blackbox: Schreiben, Sprechen, Sehen und Hören  Multimodalität erweitert die Möglichkeiten von LLMs gewaltig. Modelle, die Text, Bilder, Ton und Sprache verarbeiten können, ermöglichen komplexe Feature-Kombinationen. Ein Beispiel dafür wäre eine Anwendung, die Nutzern hilft, komplexe visuelle Inhalte zu verarbeiten und sie textuell oder per Sprache aufzubereiten.   Die Spannweite möglicher Use Cases ist enorm: Ein Videoschwenk über ein Bücherregal befüllt eine Datenbank mit den erkannten Buchtiteln. Fremde Tiere, die im Überwachungsvideo des Hühnerstalls auftauchen, werden identifiziert. Eine Schottin spricht Straßennamen in das Navigationssystem ihres Mietwagens in Deutschland ein.  https://open.spotify.com/episode/2tBmiF3wJ4SJuHMBOszdQw Technische Einschränkungen und Lösungsansätze  LLMs haben bestimmte technische Einschränkungen. Eine der bedeutendsten ist das Kontextfenster – die Textmenge (genauer: die Menge an Tokens), die ein Sprachmodell in einem einzelnen Durchgang verarbeiten kann.   Die meisten LLMs verfügen über ein begrenztes Kontextfenster, das typischerweise von einigen tausend bis zu mehreren zehntausend Tokens reicht. Das von GPT-4o umfasst beispielsweise 128.000 Tokens, während Gemini 1.5 Pro bis zu 2.000.000 Tokens verarbeiten kann. Auch wenn dies beträchtlich erscheinen mag, kann es schnell zum Engpass werden, wenn es um Eingabemengen wie Bücher oder lange Videos geht.  Glücklicherweise gibt es mehrere Strategien, um diese Einschränkung zu umgehen:  Chunking (Segmentierung) und Zusammenfassung: Große Dokumente werden in kleinere, Segmente aufgeteilt, die in das Kontextfenster passen. Jedes Segment wird separat verarbeitet, und die Ergebnisse werden anschließend zusammengeführt.   Retrieval-Augmented Generation (RAG): Anstatt sich ausschließlich auf das (extrem breite) Wissen des Modells zu verlassen, werden relevante Informationen aus einer separaten Datenquelle abgerufen und in das Prompt eingebunden.   Domänenanpassung: Die Kombination von sorgfältigem Prompt-Engineering mit domänenspezifischen Wissensdatenbanken ermöglicht Fachexpertise, ohne die Vielseitigkeit des Modells einzuschränken.  Sliding–Window-Technik: Für die Analyse langer Textsequenzen, etwa bei Zeitreihendaten oder langen Dokumenten, kann ein gleitendes Fenster verwendet werden. Das Modell behält dabei einen Teil des Kontexts bei, während es sich durch das gesamte Dokument bewegt.  Mehrstufiges Reasoning: Komplexe Probleme werden in eine Reihe kleinerer Schritte zerlegt. Jeder Schritt nutzt das LLM innerhalb seiner Kontextfenstergrenze, wobei die Ergebnisse vorheriger Schritte die nachfolgenden informieren.   Hybride Ansätze: Traditionelle Information-Retrieval-Methoden wie TF-IDF und BM25 können relevante Textpassagen vorfiltern. Dies reduziert die Datenmenge für die anschließende LLM-Analyse deutlich und steigert so die Effizienz des Gesamtsystems.  https://open.spotify.com/episode/59wsrOmohZlLIAW3fE6bXz GenAI als Standardkomponente in Unternehmenssoftware  Unternehmen müssen generative KI als das begreifen, was sie ist: Eine Allzwecktechnologie, die alles berührt. Sie wird Teil des Standard-Software-Development-Stacks, als auch integraler Enabler neuer oder bestehender Features. Die Zukunftsfähigkeit der eigenen Softwareentwicklung sicherzustellen, erfordert nicht nur, KI-Tools für die Softwareentwicklung anzuschaffen, sondern auch Infrastruktur, Design-Patterns und Betriebsabläufe auf den wachsenden Einfluss der KI vorzubereiten.  Mit dieser Entwicklung wird sich auch die Rolle von Softwarearchitekten, Entwicklern und Produktdesignern weiterentwickeln. Sie werden neue Fähigkeiten und Strategien für den Entwurf von KI-Features, die Handhabung nicht-deterministischer Ausgaben und die nahtlose Integration in verschiedene Unternehmenssysteme entwickeln müssen. Soft Skills und die Zusammenarbeit zwischen technischen und nicht-technischen Rollen werden wichtiger denn je, denn reine Hard Skills werden günstiger und automatisierbarer. (mb) 

Das Ende von “zu teuer” für Unternehmenssoftware?​ Geht nicht gibt’s nicht: LLMs verändern nun die Herangehensweise von Unternehmen an Problemstellungen, die algorithmisch schwer oder gar nicht zu lösen sind.Gorodenkoff/Shutterstock.com

Generative künstliche Intelligenz (Generative KI, GenAI) und insbesondere Large Language Models (LLMs) verändern die Art und Weise, wie Unternehmen Software entwickeln und bereitstellen. Was mit Chatbots und einfachen Automatisierungswerkzeugen begann, entwickelt sich zu etwas weitaus Mächtigerem — KI-Systemen, die tief in Softwarearchitekturen integriert sind und alles von Backend-Prozessen bis hin zu User Interfaces beeinflussen. Ein Überblick. 

Die Chatbot-Welle: Ein kurzfristiger Trend 

Derzeit konzentrieren sich Unternehmen darauf, Chatbots und maßgeschneiderte GPTs für verschiedene Problemstellungen zu entwickeln. Diese KI-gestützten Werkzeuge zeichnen sich besonders in zwei Bereichen aus: Sie machen internes Wissen zugänglich und automatisieren den Kundenservice. Chatbots werden eingesetzt, um Antwortsysteme aufzubauen, die Mitarbeitern und Mitarbeiterinnen (aus Gründen der Lesbarkeit verwenden wir im laufenden Text die männliche Form) einen schnellen Zugriff auf umfangreiche interne Wissensdatenbanken ermöglichen und dabei Informationssilos aufbrechen.  

Diese Tools sind zwar nützlich, bieten jedoch aufgrund mangelnder Innovation oder Differenzierung einen sinkenden Mehrwert. Schließlich sind Chatbots oft unpassende Benutzeroberflächen, da es an Kenntnissen über bessere Alternativen zur Lösung bestimmter Probleme fehlt. 

Die Zukunft wird von tiefergehenden KI-Funktionen geprägt sein, die nahtlos in Softwareprodukte eingewoben sind, ohne für Endnutzer offensichtlich zu sein. 

Generative KI als allgegenwärtige Technologie 

In den kommenden Jahren wird sich KI von einem expliziten, undurchsichtigen Werkzeug mit direkter Benutzerinteraktion zu einer nahtlos integrierten Komponente im Feature-Teppich entwickeln. GenAI wird Funktionen wie dynamische Inhaltserstellung, intelligente Entscheidungsfindung und Echtzeit-Personalisierung ermöglichen, ohne dass Nutzer direkt damit interagieren müssen. Dies wird sowohl das UI-Design als auch die Bedienung von Software grundlegend verändern. Anstatt spezifische Parameter manuell einzugeben, können Nutzer zunehmend ihre Anforderungen in natürlicher Sprache beschreiben. 

Ein prägnantes Beispiel dafür ist bereits in Werkzeugen wie Adobe Photoshop zu sehen. Dort erfordert die “Generative Fill”-Funktion keine manuelle Einstellung mehrerer Parameter mehr. Stattdessen können Nutzer einfach beschreiben, womit sie einen ausgewählten Bildbereich füllen möchten. Dieser Trend zur Eingabe in natürlicher Sprache wird sich über Anwendungen hinweg ausweiten und die UX intuitiver und weniger durch traditionelle UI-Elemente eingeschränkt gestalten. 

Die Herausforderung liegt dabei künftig nicht im Mangel, sondern im Überfluss: Es gilt, die vielversprechendsten Möglichkeiten zu identifizieren und zu priorisieren. 

Der Commodity-Effekt von LLMs gegenüber speziellen ML-Modellen 

Eine der bemerkenswertesten Veränderungen, die generative KI in der IT bewirkt hat, ist die Demokratisierung von KI-Fähigkeiten. Vor LLMs und Diffusionsmodellen mussten Unternehmen ein erhebliches Maß an Zeit, Aufwand und Ressourcen in die Entwicklung maßgeschneiderter Machine-Learning-Modelle investieren, um schwierige Probleme zu lösen. Diese erforderten spezialisierte Rollen und Teams um domänenspezifische Daten zu sammeln, Features aufzubereiten, Daten zu labeln, sowie für das Re-Training und den gesamten Lebenszyklus eines Modells.  

LLMs verändern nun die Herangehensweise von Unternehmen an Problemstellungen, die algorithmisch schwer oder gar nicht zu lösen sind, wobei der Begriff „Language“ in Large Language Models irreführend ist. Diese autoregressiven Modelle können letztlich alles verarbeiten, was sich gut in Tokens zerlegen lässt: Bild, Video, Ton, sogar Proteine. Unternehmen können diese vielseitigen Werkzeuge durch die RAG-Architektur (Retrieval-Augmented Generation) mit eigenen Daten anreichern. Dadurch wird ihr breites Fähigkeitsspektrum nutzbar.  

In vielen Fällen erübrigt sich damit der Bedarf an spezialisierten Teams, umfangreichem Daten-Labeling und komplexen Machine-Learning-Pipelines. Das umfangreiche vortrainierte Wissen der LLMs ermöglicht es ihnen, selbst unstrukturierte Daten effektiv zu verarbeiten und zu interpretieren. 

Ein wichtiger Aspekt dieser Demokratisierung ist die Verfügbarkeit von LLMs über leicht zu nutzende APIs. Heute weiß fast jeder Entwickler, wie man mit API-basierten Diensten arbeitet, was die Integration dieser Modelle in bestehende Software-Ökosysteme reibungslos macht. Unternehmen können somit von leistungsstarken Modellen profitieren, ohne sich um die zugrundeliegende Infrastruktur kümmern zu müssen. Alternativ lassen sich etliche Modelle bei spezifischen Sicherheits- oder Datenschutzanforderungen auch On Premises betreiben. Hier müssen allerdings Abstriche im Vergleich zu den führenden Frontier Models gemacht werden. 

Nehmen wir als Beispiel eine App zur Erfassung und Verwaltung von Reisekosten. Traditionell hätte eine solche Anwendung möglicherweise auf ein speziell trainiertes ML-Modell zurückgegriffen, um hochgeladene Belege in Buchungskategorien wie etwa nach DATEV einzuordnen. Das erforderte dedizierte Infrastruktur und idealerweise eine vollständige MLOps-Pipeline (für Modelltraining, -bereitstellung und -überwachung) zur Verwaltung der Datenerfassung, des Trainings und der Modellaktualisierungen.  

Heute kann so ein ML-Modell einfach durch ein LLM ersetzt werden, das sein Weltwissen im Zusammenspiel mit einem guten Prompt für die Belegkategorisierung nutzt. Die multimodalen Fähigkeiten von LLMs machen zudem optische Zeichenerkennung (OCR) in vielen Fällen überflüssig, was den Technologie-Stack erheblich vereinfacht. Müssen aus den Belegen auch noch Daten wie Netto- und Bruttopreise oder Steuersätze extrahiert werden? Auch das übernimmt ein LLM. 

https://open.spotify.com/episode/5LyDXcO77nKawkSI41MMIo

KI-gestützte Funktionen, die bisher nicht möglich waren 

GenAI ermöglicht eine Vielzahl von Features, die zuvor zu komplex, zu teuer oder völlig außer Reichweite für die meisten Unternehmen waren, weil sie Investitionen in maßgeschneiderte ML-Lösungen oder komplexe Algorithmen erforderten. Betrachten wir einige konkrete Beispiele. 

Stimmungs- und kontextbasierte Suche: Jenseits von Keywords 

Die stimmungs- und kontextbasierte Suche (“vibe-based search”) stellt einen bedeutenden Fortschritt gegenüber traditionellen, Keyword-basierten Suchsystemen dar. 

Sie ermöglicht es Nutzern, ihre Absicht in natürlicher Sprache auszudrücken und dabei nicht nur spezifische Begriffe, sondern auch den gesamten Kontext und die “Stimmung” ihrer Anfrage zu erfassen.  

Ein Beispiel: 

Traditionelle Keyword-Suche: “beste restaurants berlin” 

Stimmungs- und kontextbasierte Suche: “Ich bin ein anspruchsvoller Connaisseur und liebe Weinbars, die auch Essen servieren, vorzugsweise mit regionalen Zutaten. Empfiehl mir Restaurants in Berlin Mitte und Kreuzberg. Bitte keine dogmatischen Naturweinbars.” 

Im Fall der stimmungs- und kontextbasierten Suche kann ein LLM folgendes verstehen und verarbeiten: 

Die Selbstbeschreibung als “anspruchsvoller Genießer”; 

Die Vorliebe für Weinbars mit zusätzlichem Speisenangebot; 

Den Wunsch nach regionalen Zutaten; 

Die spezifischen Stadtteilpräferenzen (Mitte und Kreuzberg); 

Die Unterscheidung zwischen gewöhnlichen Weinbars und “dogmatischen Naturweinbars”. 

Dieses Maß an Nuancierung und Kontextverständnis ermöglicht es der Suchfunktion, hochgradig personalisierte und relevante Ergebnisse zu liefern, anstatt nur Keywords abzugleichen. 

Die Implementierung der stimmungs- und kontextbasierten Suche kann die User Experience in verschiedenen Anwendungen deutlich verbessern: 

Interne Wissensdatenbanken: Mitarbeiter können mit natürlichsprachlichen Anfragen Informationen finden, die ihre spezifische Situation oder ihren Bedarf beschreiben. 

E-Commerce-Plattformen: Kunden können Produkte in ihren eigenen Worten beschreiben, auch wenn sie die exakte Terminologie nicht kennen. 

Kundenservice-Systeme: Nutzer können Probleme detailliert beschreiben. Das System bietet ihnen daraufhin präzisere Lösungen an oder leitet sie an die zuständigen Support-Mitarbeiter weiter. 

Content-Management-Systeme: Content-Redakteure können mit beschreibender Sprache nach Assets oder Inhalten suchen, ohne sich auf aufwändiges Tagging oder Metadaten verlassen zu müssen.  

Intelligente Daten- und Inhaltsanalyse 

Sentimentanalyse 

Betrachten wir ein praktisches Beispiel: Ein internes System erlaubt es Mitarbeitern, kurze Statusmeldungen über ihre Arbeit zu posten. Eine Führungskraft möchte die allgemeine Stimmung im Team in einer bestimmten Woche einschätzen. Früher wäre die Implementierung einer Sentimentanalyse dieser Beiträge mit einem maßgeschneiderten ML-Modell eine Herausforderung gewesen. Mit LLMs reduziert sich diese Komplexität auf einen einfachen API-Aufruf.  

Das Ergebnis muss dabei nicht einmal in menschenlesbarer Sprache ausgegeben werden. Es kann als strukturiertes JSON erfolgen, das das System zur Darstellung passender Icons oder Grafiken verarbeitet. Alternativ könnte das LLM auch einfach Emojis zur Darstellung der Stimmungen ausgeben. Natürlich würde eine solche Funktion nur mit Einwilligung der Mitarbeiter implementiert werden. 

Erkenntnisgewinnung aus komplexen Daten 

Ein weiteres Beispiel, das die Leistungsfähigkeit von LLMs bei der Analyse komplexer Daten verdeutlicht, ist etwa ein intelligentes Alarmmanagement für Kühlsysteme.  

Traditionell konzentrierten sich diese Systeme auf: 

Ein grafisches Alarm-Dashboard mit Echtzeitdaten und Warnungen. 

Komplexe, filterbare tabellarische Darstellungen von Zeitreihendaten 

Diese Funktionen sind nützlich, erfordern jedoch oft erhebliche menschliche Interpretation, um aussagekräftige Erkenntnisse zu gewinnen. Hier können LLMs die Fähigkeiten des Systems erweitern, indem sie Rohdaten auf Zero-Shot-Basis in verwertbare Erkenntnisse umwandeln, ohne dass dafür spezielle Machine-Learning-Modelle erforderlich sind, nämlich: 

Automatische Berichtserstellung: LLMs können Zeitreihendaten analysieren und detaillierte Berichte in natürlicher Sprache generieren. Diese können Trends, Anomalien und wichtige Leistungsindikatoren hervorheben, die sowohl für Techniker als auch für Manager wertvoll sind. Etwa ein Bericht, der die Alarme der vergangenen Woche zusammenfasst, wiederkehrende Probleme identifiziert und Verbesserungsmöglichkeiten vorschlägt. 

Tiefgehende Analyse: LLMs können über die einfache Datendarstellung hinaus komplexe Muster in den Daten erkennen und erklären. So sind sie etwa in der Lage, Alarmsequenzen zu identifizieren, die auf größere Systemprobleme hinweisen – Erkenntnisse, die in einer traditionellen Tabellenansicht oder Diagrammen möglicherweise übersehen würden. 

Predictive Insights: Durch die Analyse historischer Daten können LLMs Vorhersagen über zukünftige Systemzustände treffen. Dies ermöglicht eine proaktive Wartung und hilft, potenzielle Ausfälle zu verhindern.  

Strukturierte Ausgaben: Zusätzlich zu Berichten in natürlicher Sprache können LLMs auch strukturierte Daten (etwa JSON) ausgeben. Dies ermöglicht die Erstellung dynamischer, grafischer Benutzeroberflächen, die komplexe Informationen visuell darstellen.  

Natürlichsprachliche Abfragen: Techniker können dem System Fragen in natürlicher Sprache stellen, wie zum Beispiel “Welche Geräte werden in den kommenden Wochen wahrscheinlich in den Failover-Modus wechseln?” und erhalten sofort relevante Antworten und Visualisierungen. Dies senkt die Zugangshürden zur Datenauswertung und -interpretation deutlich. Diese Funktionalität ist nun bei OpenAI auch via Realtime API verfügbar. 

Die multimodale Blackbox: Schreiben, Sprechen, Sehen und Hören 

Multimodalität erweitert die Möglichkeiten von LLMs gewaltig. Modelle, die Text, Bilder, Ton und Sprache verarbeiten können, ermöglichen komplexe Feature-Kombinationen. Ein Beispiel dafür wäre eine Anwendung, die Nutzern hilft, komplexe visuelle Inhalte zu verarbeiten und sie textuell oder per Sprache aufzubereiten.  

Die Spannweite möglicher Use Cases ist enorm: Ein Videoschwenk über ein Bücherregal befüllt eine Datenbank mit den erkannten Buchtiteln. Fremde Tiere, die im Überwachungsvideo des Hühnerstalls auftauchen, werden identifiziert. Eine Schottin spricht Straßennamen in das Navigationssystem ihres Mietwagens in Deutschland ein. 

https://open.spotify.com/episode/2tBmiF3wJ4SJuHMBOszdQw

Technische Einschränkungen und Lösungsansätze 

LLMs haben bestimmte technische Einschränkungen. Eine der bedeutendsten ist das Kontextfenster – die Textmenge (genauer: die Menge an Tokens), die ein Sprachmodell in einem einzelnen Durchgang verarbeiten kann.  

Die meisten LLMs verfügen über ein begrenztes Kontextfenster, das typischerweise von einigen tausend bis zu mehreren zehntausend Tokens reicht. Das von GPT-4o umfasst beispielsweise 128.000 Tokens, während Gemini 1.5 Pro bis zu 2.000.000 Tokens verarbeiten kann. Auch wenn dies beträchtlich erscheinen mag, kann es schnell zum Engpass werden, wenn es um Eingabemengen wie Bücher oder lange Videos geht. 

Glücklicherweise gibt es mehrere Strategien, um diese Einschränkung zu umgehen: 

Chunking (Segmentierung) und Zusammenfassung: Große Dokumente werden in kleinere, Segmente aufgeteilt, die in das Kontextfenster passen. Jedes Segment wird separat verarbeitet, und die Ergebnisse werden anschließend zusammengeführt.  

Retrieval-Augmented Generation (RAG): Anstatt sich ausschließlich auf das (extrem breite) Wissen des Modells zu verlassen, werden relevante Informationen aus einer separaten Datenquelle abgerufen und in das Prompt eingebunden.  

Domänenanpassung: Die Kombination von sorgfältigem Prompt-Engineering mit domänenspezifischen Wissensdatenbanken ermöglicht Fachexpertise, ohne die Vielseitigkeit des Modells einzuschränken. 

Sliding–Window-Technik: Für die Analyse langer Textsequenzen, etwa bei Zeitreihendaten oder langen Dokumenten, kann ein gleitendes Fenster verwendet werden. Das Modell behält dabei einen Teil des Kontexts bei, während es sich durch das gesamte Dokument bewegt. 

Mehrstufiges Reasoning: Komplexe Probleme werden in eine Reihe kleinerer Schritte zerlegt. Jeder Schritt nutzt das LLM innerhalb seiner Kontextfenstergrenze, wobei die Ergebnisse vorheriger Schritte die nachfolgenden informieren.  

Hybride Ansätze: Traditionelle Information-Retrieval-Methoden wie TF-IDF und BM25 können relevante Textpassagen vorfiltern. Dies reduziert die Datenmenge für die anschließende LLM-Analyse deutlich und steigert so die Effizienz des Gesamtsystems. 

https://open.spotify.com/episode/59wsrOmohZlLIAW3fE6bXz

GenAI als Standardkomponente in Unternehmenssoftware 

Unternehmen müssen generative KI als das begreifen, was sie ist: Eine Allzwecktechnologie, die alles berührt. Sie wird Teil des Standard-Software-Development-Stacks, als auch integraler Enabler neuer oder bestehender Features. Die Zukunftsfähigkeit der eigenen Softwareentwicklung sicherzustellen, erfordert nicht nur, KI-Tools für die Softwareentwicklung anzuschaffen, sondern auch Infrastruktur, Design-Patterns und Betriebsabläufe auf den wachsenden Einfluss der KI vorzubereiten. 

Mit dieser Entwicklung wird sich auch die Rolle von Softwarearchitekten, Entwicklern und Produktdesignern weiterentwickeln. Sie werden neue Fähigkeiten und Strategien für den Entwurf von KI-Features, die Handhabung nicht-deterministischer Ausgaben und die nahtlose Integration in verschiedene Unternehmenssysteme entwickeln müssen. Soft Skills und die Zusammenarbeit zwischen technischen und nicht-technischen Rollen werden wichtiger denn je, denn reine Hard Skills werden günstiger und automatisierbarer. (mb)

Das Ende von “zu teuer” für Unternehmenssoftware?​ Weiterlesen »

Ampel-Aus – IT-Verbände fordern schnelle Neuwahlen​

Allgemein

width=”7360″ height=”4912″ sizes=”(max-width: 7360px) 100vw, 7360px”>monticello / Shutterstock Für Ralf Wintergerst kam das Ende der Ampelkoalition nicht wirklich überraschend. „Dieses Ende haben manche befürchtet und einige ersehnt“, sagte der Bitkom-Präsident und mahnte mehr Dynamik in der Digitalpolitik an. „Im Bereich der Digitalpolitik herrscht seit mehr als einem halben Jahr Stillstand, die Bundesregierung hat über alle Ressorts hinweg bislang nicht einmal ein Drittel ihrer 334 Vorhaben abgeschlossen“, lautet Wintergersts enttäuschtes Fazit zur Leistung der zerbrochenen Regierung aus SPD, den Grünen und FDP. width=”1660″ height=”933″ sizes=”(max-width: 1660px) 100vw, 1660px”>Bitkom-Präsident Ralf Wintergerst kritisiert den Stillstand in der Digitalpolitik. Giesecke + Devrient „Die Fortschrittskoalition hat den angekündigten Fortschritt nicht gebracht“, bilanziert der IT-Lobbyist. „Stattdessen wurde die digitale Wirtschaft mit einem Bündel an Regulierungsmaßnahmen eingeschnürt und in ihrer Wettbewerbsfähigkeit mehr behindert als gefördert.“ Die Politik habe viel von einer Wende geredet, „mit der künftigen Bundesregierung muss sie kommen, gerade auch im Digitalen“.  Hängepartie kann sich die deutsche Wirtschaft nicht leisten Wolfgang Weber, Vorsitzender der ZVEI-Geschäftsführung, warnt vor weiteren Verzögerungen: „Eine politische Hängepartie kann sich die Wirtschaft nicht leisten. Unser Land hat Besseres verdient.“ Aus Sicht Webers ist die Lage ernst, die Unternehmen bräuchten schnell Entlastung. Der Manager fordert, lähmende Bürokratie abzubauen, den Strompreis auf ein wettbewerbsfähiges Niveau zu senken und insgesamt wieder Rahmenbedingungen zu schaffen, die Investitionen auslösten, Wachstum entfachten und damit zur Wohlstandssicherung aller beitrügen.  Bestnote Befriedigend: Schwache Noten für die Digitalpolitik der Parteien „Solche Entscheidungen brauchen eine handlungsfähige, gefestigte Bundesregierung, auch um wirtschaftsorientiert auf die sich gerade konstituierende neue EU-Kommission und das neue Parlament einwirken zu können“, stellt Weber fest. Neuwahlen erst im März 2025 abzuhalten, wie es der noch amtierende Bundeskanzler Olaf Scholz vorhat, hält er für falsch und konstatiert: „Deutschland braucht eine Regierung, die gestalten kann. Deshalb fordern wir Neuwahlen zum schnellstmöglichen Zeitpunkt.“ Weichen in Wirtschafts- und Digitalpolitik müssen gestellt werden Auch Oliver Grün, Präsident des Bundesverband IT-Mittelstand e.V. (BITMi), verlangt schnellstmögliche Neuwahlen für unser Land. „Nach dem Aus der Ampel ist die Bundespolitik in ihrer Wirksamkeit gelähmt.“ Ein monatelanges Zuwarten bis Ende des ersten Quartals berge die Gefahr, dass eine neue Koalition erst zur Sommerpause 2025 steht und Deutschland erneut ein halbes Jahr verliert, warnt Grün. width=”746″ height=”420″ sizes=”(max-width: 746px) 100vw, 746px”>Die Bundespolitik muss handlungsfähig sein, fordert BITMI-Präsident Oliver Grün. Gerade mit dem neuen US-Präsidenten Donald Trump werde die Frage nach digitaler Souveränität immer dringlicher.Bundesverband IT-Mittelstand „Wir müssen aufgrund der schlechten wirtschaftlichen Lage aber sofort neue Weichenstellungen in der Wirtschafts- und Digitalpolitik einleiten“, so der BITMI-Chef. „Mit Donald Trump als US-Präsident wird zudem eine digital souveräne Strategie für Deutschland noch dringlicher, um unsere Abhängigkeit von ausländischen Digitalprodukten zu reduzieren.“  

Ampel-Aus – IT-Verbände fordern schnelle Neuwahlen​ width=”7360″ height=”4912″ sizes=”(max-width: 7360px) 100vw, 7360px”>monticello / Shutterstock

Für Ralf Wintergerst kam das Ende der Ampelkoalition nicht wirklich überraschend. „Dieses Ende haben manche befürchtet und einige ersehnt“, sagte der Bitkom-Präsident und mahnte mehr Dynamik in der Digitalpolitik an. „Im Bereich der Digitalpolitik herrscht seit mehr als einem halben Jahr Stillstand, die Bundesregierung hat über alle Ressorts hinweg bislang nicht einmal ein Drittel ihrer 334 Vorhaben abgeschlossen“, lautet Wintergersts enttäuschtes Fazit zur Leistung der zerbrochenen Regierung aus SPD, den Grünen und FDP.

width=”1660″ height=”933″ sizes=”(max-width: 1660px) 100vw, 1660px”>Bitkom-Präsident Ralf Wintergerst kritisiert den Stillstand in der Digitalpolitik. Giesecke + Devrient

„Die Fortschrittskoalition hat den angekündigten Fortschritt nicht gebracht“, bilanziert der IT-Lobbyist. „Stattdessen wurde die digitale Wirtschaft mit einem Bündel an Regulierungsmaßnahmen eingeschnürt und in ihrer Wettbewerbsfähigkeit mehr behindert als gefördert.“ Die Politik habe viel von einer Wende geredet, „mit der künftigen Bundesregierung muss sie kommen, gerade auch im Digitalen“. 

Hängepartie kann sich die deutsche Wirtschaft nicht leisten

Wolfgang Weber, Vorsitzender der ZVEI-Geschäftsführung, warnt vor weiteren Verzögerungen: „Eine politische Hängepartie kann sich die Wirtschaft nicht leisten. Unser Land hat Besseres verdient.“ Aus Sicht Webers ist die Lage ernst, die Unternehmen bräuchten schnell Entlastung. Der Manager fordert, lähmende Bürokratie abzubauen, den Strompreis auf ein wettbewerbsfähiges Niveau zu senken und insgesamt wieder Rahmenbedingungen zu schaffen, die Investitionen auslösten, Wachstum entfachten und damit zur Wohlstandssicherung aller beitrügen. 

Bestnote Befriedigend: Schwache Noten für die Digitalpolitik der Parteien

„Solche Entscheidungen brauchen eine handlungsfähige, gefestigte Bundesregierung, auch um wirtschaftsorientiert auf die sich gerade konstituierende neue EU-Kommission und das neue Parlament einwirken zu können“, stellt Weber fest. Neuwahlen erst im März 2025 abzuhalten, wie es der noch amtierende Bundeskanzler Olaf Scholz vorhat, hält er für falsch und konstatiert: „Deutschland braucht eine Regierung, die gestalten kann. Deshalb fordern wir Neuwahlen zum schnellstmöglichen Zeitpunkt.“

Weichen in Wirtschafts- und Digitalpolitik müssen gestellt werden

Auch Oliver Grün, Präsident des Bundesverband IT-Mittelstand e.V. (BITMi), verlangt schnellstmögliche Neuwahlen für unser Land. „Nach dem Aus der Ampel ist die Bundespolitik in ihrer Wirksamkeit gelähmt.“ Ein monatelanges Zuwarten bis Ende des ersten Quartals berge die Gefahr, dass eine neue Koalition erst zur Sommerpause 2025 steht und Deutschland erneut ein halbes Jahr verliert, warnt Grün.

width=”746″ height=”420″ sizes=”(max-width: 746px) 100vw, 746px”>Die Bundespolitik muss handlungsfähig sein, fordert BITMI-Präsident Oliver Grün. Gerade mit dem neuen US-Präsidenten Donald Trump werde die Frage nach digitaler Souveränität immer dringlicher.Bundesverband IT-Mittelstand

„Wir müssen aufgrund der schlechten wirtschaftlichen Lage aber sofort neue Weichenstellungen in der Wirtschafts- und Digitalpolitik einleiten“, so der BITMI-Chef. „Mit Donald Trump als US-Präsident wird zudem eine digital souveräne Strategie für Deutschland noch dringlicher, um unsere Abhängigkeit von ausländischen Digitalprodukten zu reduzieren.“ 

Ampel-Aus – IT-Verbände fordern schnelle Neuwahlen​ Weiterlesen »

KMUs droht 2025 eine Office-Migrationswelle​

Allgemein

Veraltete Office-Versionen sind bei deutschen KMUs keine Seltenheit, sondern eher die Regel.Mas Jono / Shutterstock.com Am 14. Oktober 2025 endet nicht nur der (kostenlose) Support für Windows 10, auch für die beiden Bürosoftware-Pakete Office 2016 und 2019, die ohne Cloud-Zugang funktionieren, bietet Microsoft ab diesem Stichtag keine Sicherheits-Updates über den erweiterten Support mehr an. Einer aktuellen Studie des Groupware- und Security-Anbieters Intra2Net zufolge, zeichnet sich damit bei vielen KMUs in Deutschland eine Migrationswelle ab. Der Grund: Mehr als 80 Prozent von ihnen setzen Microsoft Office-Pakete ein, die kommendes Jahr aktualisiert werden müss(t)en.   In welchem Umfang das tatsächlich passiert, wird sich zeigen. So ergab die Auswertung, dass auf 16 Prozent der über 1.500 untersuchten KMU-Arbeitsplätze sogar noch die Versionen Office 2013 oder Office 2010 laufen. Dabei handelt es sich um über zehn Jahre alte Softwarepakete, für die der Support längst ausgelaufen ist.  Zudem, so Intra2Net, zeige ein direkter Vergleich mit der KMU-Studie von 2022, dass mehr als die Hälfte der Anwender von Office 2010 und 2013 in den letzten zwei Jahren nicht migriert hätten. Gleichzeitig sei der Marktanteil von Office 2016 und 2019 bei den untersuchten Unternehmen in den letzten 24 Monaten stabil geblieben. Dabei bleibt Office 2016 mit 37 Prozent die am häufigsten eingesetzte Version, gefolgt von Office 2019 mit 33 Prozent.  Verhaltene Annahme von Microsoft Office 2021  Die deutschen KMUs sind laut Studie nicht sehr Upgrade-freundlich.Intra2Net Interessanterweise spielt Office 2021 im KMU-Segment mit einem Marktanteil von 14 Prozent bei On-Premises-Installationen lediglich eine untergeordnete Rolle. Daran wird sich vermutlich auch nichts mehr ändern, da der Support für diese Version am 13. Oktober 2026 ausläuft. Sinnvoller wäre dementsprechend ein Upgrade auf die Offline-Version Office 2024 LTSC mit fünf Jahren Support. „Viele kleine Unternehmen müssen daher im kommenden Jahr große Teile ihrer IT-Infrastruktur erneuern. Andernfalls setzen sie sich hohen Sicherheitsrisiken aus“, erklärt Steffen Jarosch, Vorstand der Intra2net AG.  Die KMU-Studie von Intra2net basiert auf einer Umfrage vom September 2024 unter 107 deutschen Unternehmen mit 10 bis 49 Mitarbeitern und 1.596 PC-Arbeitsplätzen mit Microsoft Office. Berücksichtigt wurden dabei ausschließlich Unternehmen ohne Hosted Exchange oder Microsoft Office 365.  

KMUs droht 2025 eine Office-Migrationswelle​ Veraltete Office-Versionen sind bei deutschen KMUs keine Seltenheit, sondern eher die Regel.Mas Jono / Shutterstock.com

Am 14. Oktober 2025 endet nicht nur der (kostenlose) Support für Windows 10, auch für die beiden Bürosoftware-Pakete Office 2016 und 2019, die ohne Cloud-Zugang funktionieren, bietet Microsoft ab diesem Stichtag keine Sicherheits-Updates über den erweiterten Support mehr an. Einer aktuellen Studie des Groupware- und Security-Anbieters Intra2Net zufolge, zeichnet sich damit bei vielen KMUs in Deutschland eine Migrationswelle ab. Der Grund: Mehr als 80 Prozent von ihnen setzen Microsoft Office-Pakete ein, die kommendes Jahr aktualisiert werden müss(t)en.  

In welchem Umfang das tatsächlich passiert, wird sich zeigen. So ergab die Auswertung, dass auf 16 Prozent der über 1.500 untersuchten KMU-Arbeitsplätze sogar noch die Versionen Office 2013 oder Office 2010 laufen. Dabei handelt es sich um über zehn Jahre alte Softwarepakete, für die der Support längst ausgelaufen ist. 

Zudem, so Intra2Net, zeige ein direkter Vergleich mit der KMU-Studie von 2022, dass mehr als die Hälfte der Anwender von Office 2010 und 2013 in den letzten zwei Jahren nicht migriert hätten. Gleichzeitig sei der Marktanteil von Office 2016 und 2019 bei den untersuchten Unternehmen in den letzten 24 Monaten stabil geblieben. Dabei bleibt Office 2016 mit 37 Prozent die am häufigsten eingesetzte Version, gefolgt von Office 2019 mit 33 Prozent. 

Verhaltene Annahme von Microsoft Office 2021 

Die deutschen KMUs sind laut Studie nicht sehr Upgrade-freundlich.Intra2Net

Interessanterweise spielt Office 2021 im KMU-Segment mit einem Marktanteil von 14 Prozent bei On-Premises-Installationen lediglich eine untergeordnete Rolle. Daran wird sich vermutlich auch nichts mehr ändern, da der Support für diese Version am 13. Oktober 2026 ausläuft. Sinnvoller wäre dementsprechend ein Upgrade auf die Offline-Version Office 2024 LTSC mit fünf Jahren Support. „Viele kleine Unternehmen müssen daher im kommenden Jahr große Teile ihrer IT-Infrastruktur erneuern. Andernfalls setzen sie sich hohen Sicherheitsrisiken aus“, erklärt Steffen Jarosch, Vorstand der Intra2net AG. 

Die KMU-Studie von Intra2net basiert auf einer Umfrage vom September 2024 unter 107 deutschen Unternehmen mit 10 bis 49 Mitarbeitern und 1.596 PC-Arbeitsplätzen mit Microsoft Office. Berücksichtigt wurden dabei ausschließlich Unternehmen ohne Hosted Exchange oder Microsoft Office 365. 

KMUs droht 2025 eine Office-Migrationswelle​ Weiterlesen »

Meta dient Llama den US-Behörden an​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Metas Llama-KI-Modelle sollen von US-Behörden und deren Partnern bald auch für Sicherheitsbelange eingesetzt werden dürfen.melissamn/shutterstock.com Meta hat angekündigt, dass US-Regierungsbehörden und deren Auftragnehmer die eigenen Llama-KI-Modelle im Bereich der nationalen Sicherheit nutzen könnten. ​​Die Llama-Modelle sollen Anwendungen wie Logistikplanung, Cybersicherheit und Bedrohungsanalyse unterstützen. Sie stünden ab sofort US-Partnern wie Lockheed Martin, Microsoft und Amazon zur Verfügung, schrieb Nick Clegg, Metas Präsident für globale Angelegenheiten, in einem Blogpost. Der Manager betonte, dass es im Interesse der USA und der demokratischen Welt sei, dass amerikanische Open-Source-Modelle denen aus China und anderen Ländern überlegen sind. ​​ „Wenn Open-Source-Modelle immer leistungsfähiger werden und sich immer weiter verbreiten, wird wahrscheinlich ein globaler Open-Source-Standard für KI-Modelle entstehen, wie es bei Technologien wie Linux und Android der Fall ist“, schrieb Clegg. Llama – Open-Source oder Closed-Source? Die Meta-Verantwortlichen labeln ihre Llama-Modelle als Open Source. Allerdings steht die dazugehörige 630 Wörter umfassende Nutzungsrichtlinie im Widerspruch zu gängigen Open-Source-Definitionen. ​​ Die Open Source Initiative (OSI) hat kürzlich ihre Definition von Open-Source-KI veröffentlicht. Diese besagt, dass ein solches Modell von jedem ohne Erlaubnis verwendet, untersucht, verändert und weitergegeben werden kann. ​ Metas Ansatz zur gemeinsamen Nutzung von Daten bleibt jedoch unklar, stellte Sharath Srinivasamurthy, Associate Vice President bei IDC, fest. Gerade Aspekte hinsichtlich der gemeinsamen Nutzung von Daten könnten von entscheidender Bedeutung sein, da sie sich darauf auswirken könnten, wie effektiv sich das Modell an regierungsspezifische Bedürfnisse anpassen lasse und gleichzeitig die Datensicherheit gewährleistet werden könne. „Solange Meta die Trainingsdaten vertraulich behandelt, müssen sich CIOs keine Sorgen um Datenschutz und Sicherheit machen“, stellt Srinivasamurthy fest. „Wenn Meta jedoch beschließt, die Trainingsdaten den Regierungen zur Verfügung zu stellen, könnte dies Bedenken aufwerfen und sie dazu veranlassen, ihre Unternehmensstrategie für die Einführung von Llama zu überdenken.“ Darüber hinaus steht die neue Erlaubnis für die US-Regierung und ihre Auftragnehmer, Llama für Zwecke der nationalen Sicherheit zu nutzen, im Widerspruch zu den allgemeinen Nutzungsrichtlinien des Modells. Diese besagen, dass die Verwendung für militärische Anwendungen, Spionage und den Betrieb kritischer Infrastrukturen verboten ist. Meta betont jedoch, dass diese Nutzung in Übereinstimmung mit den Bestimmungen des humanitären Völkerrechts erfolgt. ​ KI-Geschenke für gute Freunde Clegg argumentierte zudem, dass die Verbreitung amerikanischer Open-Source-KI-Modelle den USA wirtschaftlich und sicherheitspolitisch zugutekäme, da offene Standards mehr Transparenz und Verantwortlichkeit schaffen könnten. Meta bietet seine Llama-KI auch den „Five Eyes“-Partnern der USA an (Kanada, Großbritannien, Australien und Neuseeland). width=”1384″ height=”760″ sizes=”(max-width: 1384px) 100vw, 1384px”>Facebook-Gründer Mark Zuckerberg hofft wohl, mit seinen Llama-KI-Modellen eine Art De-facto-Standard zu schaffenFrederic Legrand – COMEO – shutterstock.com CEO Mark Zuckerberg erklärte darüber hinaus, dass die Öffnung von Llama Meta Vorteile bringe, indem sie Llama zu einem De-facto-Standard mache. Hardwarehersteller wie Nvidia und AMD würden vor diesem Hintergrund ihre Chips für Llama optimieren, so der Facebook-Gründer.  Die Entscheidung von Meta kommt zu einem strategischen bedeutenden Zeitpunkt, da KI-Unternehmen mit wachsenden regulatorischen Herausforderungen und Datenschutzbedenken konfrontiert sind. ​Zudem steht sie im Kontext des Handelskriegs zwischen den USA und China, der insgesamt durch strenge Kontrollen von KI-Technologie geprägt ist. ​​ „China investiert viel in KI als Technologie, und die US-Regierung musste schnell handeln, um diese Technologie zu nutzen und weiter die Nase vorn zu haben”, konstatierte IDC-Analystin Srinivasamurthy. In Anbetracht dessen sei die Ankündigung von Meta ein strategischer Schritt. Erst kurz zuvor hatte die Nachrichtenagentur Reuters berichtet, dass chinesische Forschungseinrichtungen Llama-basierte KI-Modelle für militärische Anwendungen entwickeln.​ Meta behauptete, dass die Verwendung von Llama durch China nicht autorisiert sei und gegen die Nutzungsbedingungen verstoße. ​Diese Bedingungen sollen weiterhin unantastbar bleiben – außer für die US-Regierung und ihre Verbündeten. ​​ 

Meta dient Llama den US-Behörden an​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Demnachst-werden-Llamas-bewaffnet.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Metas Llama-KI-Modelle sollen von US-Behörden und deren Partnern bald auch für Sicherheitsbelange eingesetzt werden dürfen.melissamn/shutterstock.com

Meta hat angekündigt, dass US-Regierungsbehörden und deren Auftragnehmer die eigenen Llama-KI-Modelle im Bereich der nationalen Sicherheit nutzen könnten. ​​Die Llama-Modelle sollen Anwendungen wie Logistikplanung, Cybersicherheit und Bedrohungsanalyse unterstützen. Sie stünden ab sofort US-Partnern wie Lockheed Martin, Microsoft und Amazon zur Verfügung, schrieb Nick Clegg, Metas Präsident für globale Angelegenheiten, in einem Blogpost.

Der Manager betonte, dass es im Interesse der USA und der demokratischen Welt sei, dass amerikanische Open-Source-Modelle denen aus China und anderen Ländern überlegen sind. ​​ „Wenn Open-Source-Modelle immer leistungsfähiger werden und sich immer weiter verbreiten, wird wahrscheinlich ein globaler Open-Source-Standard für KI-Modelle entstehen, wie es bei Technologien wie Linux und Android der Fall ist“, schrieb Clegg.

Llama – Open-Source oder Closed-Source?

Die Meta-Verantwortlichen labeln ihre Llama-Modelle als Open Source. Allerdings steht die dazugehörige 630 Wörter umfassende Nutzungsrichtlinie im Widerspruch zu gängigen Open-Source-Definitionen. ​​ Die Open Source Initiative (OSI) hat kürzlich ihre Definition von Open-Source-KI veröffentlicht. Diese besagt, dass ein solches Modell

von jedem ohne Erlaubnis verwendet,

untersucht,

verändert und

weitergegeben

werden kann. ​

Metas Ansatz zur gemeinsamen Nutzung von Daten bleibt jedoch unklar, stellte Sharath Srinivasamurthy, Associate Vice President bei IDC, fest. Gerade Aspekte hinsichtlich der gemeinsamen Nutzung von Daten könnten von entscheidender Bedeutung sein, da sie sich darauf auswirken könnten, wie effektiv sich das Modell an regierungsspezifische Bedürfnisse anpassen lasse und gleichzeitig die Datensicherheit gewährleistet werden könne.

„Solange Meta die Trainingsdaten vertraulich behandelt, müssen sich CIOs keine Sorgen um Datenschutz und Sicherheit machen“, stellt Srinivasamurthy fest. „Wenn Meta jedoch beschließt, die Trainingsdaten den Regierungen zur Verfügung zu stellen, könnte dies Bedenken aufwerfen und sie dazu veranlassen, ihre Unternehmensstrategie für die Einführung von Llama zu überdenken.“

Darüber hinaus steht die neue Erlaubnis für die US-Regierung und ihre Auftragnehmer, Llama für Zwecke der nationalen Sicherheit zu nutzen, im Widerspruch zu den allgemeinen Nutzungsrichtlinien des Modells. Diese besagen, dass die Verwendung für militärische Anwendungen, Spionage und den Betrieb kritischer Infrastrukturen verboten ist. Meta betont jedoch, dass diese Nutzung in Übereinstimmung mit den Bestimmungen des humanitären Völkerrechts erfolgt. ​

KI-Geschenke für gute Freunde

Clegg argumentierte zudem, dass die Verbreitung amerikanischer Open-Source-KI-Modelle den USA wirtschaftlich und sicherheitspolitisch zugutekäme, da offene Standards mehr Transparenz und Verantwortlichkeit schaffen könnten. Meta bietet seine Llama-KI auch den „Five Eyes“-Partnern der USA an (Kanada, Großbritannien, Australien und Neuseeland).

width=”1384″ height=”760″ sizes=”(max-width: 1384px) 100vw, 1384px”>Facebook-Gründer Mark Zuckerberg hofft wohl, mit seinen Llama-KI-Modellen eine Art De-facto-Standard zu schaffenFrederic Legrand – COMEO – shutterstock.com

CEO Mark Zuckerberg erklärte darüber hinaus, dass die Öffnung von Llama Meta Vorteile bringe, indem sie Llama zu einem De-facto-Standard mache. Hardwarehersteller wie Nvidia und AMD würden vor diesem Hintergrund ihre Chips für Llama optimieren, so der Facebook-Gründer. 

Die Entscheidung von Meta kommt zu einem strategischen bedeutenden Zeitpunkt, da KI-Unternehmen mit wachsenden regulatorischen Herausforderungen und Datenschutzbedenken konfrontiert sind. ​Zudem steht sie im Kontext des Handelskriegs zwischen den USA und China, der insgesamt durch strenge Kontrollen von KI-Technologie geprägt ist. ​​

„China investiert viel in KI als Technologie, und die US-Regierung musste schnell handeln, um diese Technologie zu nutzen und weiter die Nase vorn zu haben”, konstatierte IDC-Analystin Srinivasamurthy. In Anbetracht dessen sei die Ankündigung von Meta ein strategischer Schritt.

Erst kurz zuvor hatte die Nachrichtenagentur Reuters berichtet, dass chinesische Forschungseinrichtungen Llama-basierte KI-Modelle für militärische Anwendungen entwickeln.​ Meta behauptete, dass die Verwendung von Llama durch China nicht autorisiert sei und gegen die Nutzungsbedingungen verstoße. ​Diese Bedingungen sollen weiterhin unantastbar bleiben – außer für die US-Regierung und ihre Verbündeten. ​​

Meta dient Llama den US-Behörden an​ Weiterlesen »

Wird Deutschland nach dem Trump-Sieg digital erpressbar?​

Allgemein

Nach dem Wahlsieg von Donald Trump muss die digitale Souveränität endlich erste Unternehmens- und Politikerpflicht werden. Anna Moneymaker/Shutterstock.com Donald Trump hat die Wahl gewonnen und wird der nächste Präsident der USA. Für ein IT-Medium, wie die COMPUTERWOCHE, normalerweise kein Thema. Die Betonung liegt auf normalerweise. Denn vor dem Hintergrund der Drohung Trumps, europäische Waren mit Strafzöllen von bis zu 20 Prozent zu belegen und dem Rebound der EU, dieses dann ebenfalls mit Zöllen zu vergelten, stellt sich die Frage, welche Auswirkungen dies auf den IT-Sektor haben könnte? Sie schütteln ungläubig den Kopf und halten die Frage für an den Haaren herbeigezogen? Dies ist mitnichten der Fall. Denn vor der US-Wahl teilten uns etliche IT-Verantwortliche hinter vorgehaltener Hand mit, dass sie bereits entsprechende alternative IT-Szenarien für ihre Unternehmen entwickeln, falls Trump die US-Wahl gewinnen sollte. Abhängigkeit bei IT-Zukunftsthemen Hirngespinst oder Verschwörungstheorien?  Sicher nicht. Vergegenwärtigen wir uns doch einmal den aktuellen IT-Markt. Dann sind wir bei vielen aktuellen IT-Themen von den USA abhängig. Egal ob Cloud, Open RAN bei 5G im Mobilfunk, KI, oder der Hardware für KI – die Zukunftsthemen der IT werden von den großen US-amerikanischen Playern beherrscht. Und wer garantiert uns, dass ein erratisch agierender Präsident Trump in einem eventuell drohenden Handelskrieg nicht genau diese Themen als Druckmittel benutzt? Um uns digital zu erpressen? Niemand. Was passiert, wenn Trump Europa und Deutschland plötzlich wie andere Länder auf die Embargoliste für IT-Güter und -Services setzt? Also Cloud-Dienste nicht mehr verfügbar sind, das KI-Modell XY nicht mehr nach Deutschland „exportiert“ werden darf. Oder Collaboration-Services wie Teams, Zoom, Webex etc. nicht mehr angeboten werden dürfen? Dann stehen wir in Sachen IT-Betrieb plötzlich blank da. Deutschland – digital erpressbar? Sicher, wir hoffen, dass dieses Szenario niemals eintreten wird. Dennoch sollten wir nach den Erfahrungen mit Donald Trump während seiner ersten Präsidentschaft für dieses Szenario gewappnet sein. Sprich, die digitale Souveränität muss endlich erste Unternehmens- und Politikerpflicht werden. Und das bedeutet, es braucht mehr als nur die Lippenbekenntnisse der Politik auf Veranstaltungen wie dem Digitalgipfel zum IT-Standort Deutschland. Angesichts des kommenden US-Präsidenten Trump brauchen wir endlich eine aktive Förderpolitik für die zarten, aber vielversprechenden digitalen Pflänzchen in unserem Land. Digitale Souveränität fördern Das Know-how ist vorhanden. Das zeigen Initiativen wie Gaia-X, Catena-X oder Manufacturing-X, um nur einige zu nennen. Und nicht zu vergessen, die Unternehmen der Privatwirtschaft, wie Stack IT, Delos Cloud oder Ionos, die in den Aufbau nationaler, souveräner Cloud-Infrastrukturen investieren. Angesichts eines unkalkulierbaren Präsidenten Trumps ist es höchste Eisenbahn, dass die Politik solche Initiativen stärker fördert, um die deutsche Wirtschaft digital unabhängiger und damit weniger erpressbar zu machen. Vielleicht ist vor diesem Hintergrund das Zerbrechen der Ampel-Koalition in Berlin – auch wenn sie geopolitisch zur Unzeit kommt – eine Chance. Schließlich hat sie in Sachen Digitalprojekte in den letzten Jahren wenig Erfolgsmeldungen vorzuweisen. Check and Balances mit IT aus China? Darüber hinaus sollten wir uns eventuell noch mit einem anderen Gedanken anfreunden. War die Entscheidung von Bundesinnenministerin Nancy Faeser und großen Teilen der Grünen, chinesische Hersteller aus dem deutschen Mobilfunknetz auszuschließen, wirklich der Weisheit letzter Schluss? Haben wir damit, mit Blick auf Techniken wie Open RAN, womöglich den berühmten Kill-Switch für unsere Mobilfunknetze nur einem anderen Player übergeben, dessen America-First-Pläne genauso unkalkulierbar sind wie Chinas Großmacht-Phantasien? Ähnliche Überlegungen gelten für KI, Cloud, Chips etc. Ist es vielleicht an der Zeit, mit Blick auf die Zukunft, lieber zweigleisig zu fahren? Um nicht bei wichtigen digitalen Zukunftsthemen einseitig erpressbar zu sein? Egal, wie man die Ereignisse des 6. Novembers 2024 persönlich bewerten mag, es scheint angesagt zu sein, politische und unternehmerische IT-Strategien – mit Blick auf die Abhängigkeiten – neu zu überdenken. 

Wird Deutschland nach dem Trump-Sieg digital erpressbar?​ Nach dem Wahlsieg von Donald Trump muss die digitale Souveränität endlich erste Unternehmens- und Politikerpflicht werden.
Anna Moneymaker/Shutterstock.com

Donald Trump hat die Wahl gewonnen und wird der nächste Präsident der USA. Für ein IT-Medium, wie die COMPUTERWOCHE, normalerweise kein Thema. Die Betonung liegt auf normalerweise. Denn vor dem Hintergrund der Drohung Trumps, europäische Waren mit Strafzöllen von bis zu 20 Prozent zu belegen und dem Rebound der EU, dieses dann ebenfalls mit Zöllen zu vergelten, stellt sich die Frage, welche Auswirkungen dies auf den IT-Sektor haben könnte?

Sie schütteln ungläubig den Kopf und halten die Frage für an den Haaren herbeigezogen? Dies ist mitnichten der Fall. Denn vor der US-Wahl teilten uns etliche IT-Verantwortliche hinter vorgehaltener Hand mit, dass sie bereits entsprechende alternative IT-Szenarien für ihre Unternehmen entwickeln, falls Trump die US-Wahl gewinnen sollte.

Abhängigkeit bei IT-Zukunftsthemen

Hirngespinst oder Verschwörungstheorien?  Sicher nicht. Vergegenwärtigen wir uns doch einmal den aktuellen IT-Markt. Dann sind wir bei vielen aktuellen IT-Themen von den USA abhängig. Egal ob Cloud, Open RAN bei 5G im Mobilfunk, KI, oder der Hardware für KI – die Zukunftsthemen der IT werden von den großen US-amerikanischen Playern beherrscht.

Und wer garantiert uns, dass ein erratisch agierender Präsident Trump in einem eventuell drohenden Handelskrieg nicht genau diese Themen als Druckmittel benutzt? Um uns digital zu erpressen? Niemand. Was passiert, wenn Trump Europa und Deutschland plötzlich wie andere Länder auf die Embargoliste für IT-Güter und -Services setzt? Also Cloud-Dienste nicht mehr verfügbar sind, das KI-Modell XY nicht mehr nach Deutschland „exportiert“ werden darf. Oder Collaboration-Services wie Teams, Zoom, Webex etc. nicht mehr angeboten werden dürfen? Dann stehen wir in Sachen IT-Betrieb plötzlich blank da.

Deutschland – digital erpressbar?

Sicher, wir hoffen, dass dieses Szenario niemals eintreten wird. Dennoch sollten wir nach den Erfahrungen mit Donald Trump während seiner ersten Präsidentschaft für dieses Szenario gewappnet sein. Sprich, die digitale Souveränität muss endlich erste Unternehmens- und Politikerpflicht werden.

Und das bedeutet, es braucht mehr als nur die Lippenbekenntnisse der Politik auf Veranstaltungen wie dem Digitalgipfel zum IT-Standort Deutschland. Angesichts des kommenden US-Präsidenten Trump brauchen wir endlich eine aktive Förderpolitik für die zarten, aber vielversprechenden digitalen Pflänzchen in unserem Land.

Digitale Souveränität fördern

Das Know-how ist vorhanden. Das zeigen Initiativen wie Gaia-X, Catena-X oder Manufacturing-X, um nur einige zu nennen. Und nicht zu vergessen, die Unternehmen der Privatwirtschaft, wie Stack IT, Delos Cloud oder Ionos, die in den Aufbau nationaler, souveräner Cloud-Infrastrukturen investieren.

Angesichts eines unkalkulierbaren Präsidenten Trumps ist es höchste Eisenbahn, dass die Politik solche Initiativen stärker fördert, um die deutsche Wirtschaft digital unabhängiger und damit weniger erpressbar zu machen. Vielleicht ist vor diesem Hintergrund das Zerbrechen der Ampel-Koalition in Berlin – auch wenn sie geopolitisch zur Unzeit kommt – eine Chance. Schließlich hat sie in Sachen Digitalprojekte in den letzten Jahren wenig Erfolgsmeldungen vorzuweisen.

Check and Balances mit IT aus China?

Darüber hinaus sollten wir uns eventuell noch mit einem anderen Gedanken anfreunden. War die Entscheidung von Bundesinnenministerin Nancy Faeser und großen Teilen der Grünen, chinesische Hersteller aus dem deutschen Mobilfunknetz auszuschließen, wirklich der Weisheit letzter Schluss? Haben wir damit, mit Blick auf Techniken wie Open RAN, womöglich den berühmten Kill-Switch für unsere Mobilfunknetze nur einem anderen Player übergeben, dessen America-First-Pläne genauso unkalkulierbar sind wie Chinas Großmacht-Phantasien? Ähnliche Überlegungen gelten für KI, Cloud, Chips etc.

Ist es vielleicht an der Zeit, mit Blick auf die Zukunft, lieber zweigleisig zu fahren? Um nicht bei wichtigen digitalen Zukunftsthemen einseitig erpressbar zu sein? Egal, wie man die Ereignisse des 6. Novembers 2024 persönlich bewerten mag, es scheint angesagt zu sein, politische und unternehmerische IT-Strategien – mit Blick auf die Abhängigkeiten – neu zu überdenken.

Wird Deutschland nach dem Trump-Sieg digital erpressbar?​ Weiterlesen »

Das IT-Freelancer-Geschäft gewinnt an Härte​

Allgemein

IT-Freiberufler kämpfen mit zunehmender Intensität um Aufträge.Simon Gracia Lacaba | shutterstock.com Die große Unsicherheit angesichts der wirtschaftlichen Stagnation ist auch im IT-Freiberuflermarkt angekommen. Das zeigt eine aktuelle Studie der Marktforscher von Lünendonk. Demnach sehen sich zwei Drittel der insgesamt 27 befragten Anbieter für die Vermittlung von IT-Freiberuflern mit einer schwierigen Auftragslage konfrontiert. Hohe Material- und Energiekosten sowie Lieferkettenprobleme setzen den Auftraggebern derart zu, dass die Auswirkungen auch unmittelbar zu spüren sind – bei der Nachfrage nach IT-Freelancern. Viele IT-Freiberufler sind pessimistisch Etwa ein Viertel der IT-Anbieter blickt laut Lünendonk optimistisch in die Zukunft und sieht sich gut aufgestellt, da neue Technologien wie KI und gesetzliche Vorgaben wie NIS2 und DORA lukrative Projektoptionen bieten. Dennoch ist im ansonsten eher erfolgsverwöhnten Marktsegment der freiberuflichen IT-Experten die gedämpfte Auftragslage zu spüren. Benjamin Richter, Geschäftsführer der IT-Boutique Cyber Complete, bringt die Stimmung am Markt auf den Punkt: „Man hat das Gefühl, jeder will Verantwortung, aber niemand will entscheiden.“ Das bestätigt auch das jüngste Stimmungsbarometer von Freelancermap: Sieben Prozent der IT-Freiberufler beurteilen ihre wirtschaftliche Situation im Vergleich zum Vorjahr als weniger positiv. 16 Prozent sind sogar der Meinung, ihre Lage sei aktuell „schlecht“ bis „sehr schlecht“ – das sind doppelt so viele wie im Geschäftsjahr 2023. Im Gegensatz zu den Anbietern blickt also ein Viertel der IT-Freiberufler pessimistisch in die Zukunft. Und dass, obwohl sich aufgrund des dramatischen Mangels an erfahrenen und spezialisierten Fachkräften im IT-Bereich der Stundensatz innerhalb der letzten zwölf Monate auf durchschnittlich 102 Euro hochgeschaukelt hat. Viele externe IT-Spezialisten kommen mittlerweile auf ein Jahresbruttoeinkommen von mehr als 100.000 Euro. Wer jetzt glaubt, solche Honorarsätze seien angesichts der wirtschaftlichen Flaute nur noch schwer durchzusetzen, irrt. Marcel Bodenbenner, Director für das Freiberufler-Geschäft bei Hays erklärt: „Wir spüren zwar insgesamt eine stärkere Zurückhaltung bei den Auftraggebern, die Preise bleiben aber in allen Disziplinen stabil.“ “Man merkt, dass es viele Trittbrettfahrer gibt” Die zögerliche Haltung auf Seiten der Kunden äußert sich laut Brancheninsidern aktuell vor allem in verlängerten Beauftragungszeiträumen. „Wir haben es derzeit mit Vertriebszyklen von mindestens sechs bis 15 Monaten zu tun. Dabei ist der Fachbereich häufig überzeugt, dass etwas getan werden muss. Aber vom Top-Management kommt die Ansage, dass nur noch unternehmenskritische Projekte gemacht werden sollen“, berichtet Richter von diversen Kundengesprächen. Die von ihm geführte IT-Boutique hat sich in den letzten sechs Jahren einen Namen für Informationssicherheit in Kombination mit Cybersecurity-Updates gemacht. Doch in letzter Zeit spürt der Experte vor allem bei Security-Trendthemen wie DORA und NIS2 einen zunehmend härteren Wettbewerb: „Man merkt, dass es gerade viele Trittbrettfahrer gibt. Das erinnert mich ein bisschen an die Situation, wie wir sie bei der DSGVO-Einführung hatten. Externe Berater, die vorher Wirtschaftsprüfer waren, haben plötzlich ihre Dienste ohne jegliche Projekterfahrung in diesen Bereichen angeboten.“ Dabei gehört zu diesem speziellen PDCA-Zyklus nach Richters Erfahrung sehr viel mehr. Für gute Umsetzungserfolge brauche man zwingend jahrelang erprobtes Wissen im Umfeld von Cybersecurity, am besten gleich in Kombination mit Risikomanagement-Kenntnissen. Er fügt hinzu: „Zusätzlich sollte man Prozessmanagement beherrschen, wirtschaftlich denken, viele Abhängigkeiten im Blick behalten können und kommunikativ sein. Mit anderen Worten: Der externe Spezialist muss als eine Art generalistischer Mediator zwischen den Technologie-Bereichen und dem Management beraten.“ “Wer zuerst kommt, mahlt zuerst” Diesen Bedarf sieht auch Christian Weilbach, der sich erst vor Kurzem als IT-Freiberufler selbständig gemacht hat und sich als Vermittler zwischen Technologie und Management versteht:  „Technische und normative Anforderungen auf dem Papier müssen vom Management verstanden werden, damit es grünes Licht gibt.“ Diese Themen kennt Weilbach aus seiner Zeit als Festangestellter im ISM-Management bestens. Seine Differenzierung zu anderen IT-Freiberuflern in diesem Umfeld sieht er darin, Betroffene darin zu schulen, wie sie finanzielle und IT-Assets schützen können. Dabei ist er nach eigenen Angaben nicht monetär getrieben, sondern möchte in erster Linie einen guten Job machen. „Im Gegensatz zu meiner Zeit als Festangestellter kann ich meine Erfahrungen heute mehreren Unternehmen anbieten. Gleichzeitig habe ich immer die Möglichkeit, unternehmerisch frei zu entscheiden,“ begründet er seinen Schritt in die Freelancer-Welt. Aber auch Weilbach spürt in der Akquise die zunehmende Konkurrenz: „Mich hat überrascht, wie groß der Wettbewerb ist. Bei der Projektvergabe heißt es daher immer häufiger: Wer zuerst kommt, mahlt zuerst.“  Um sich von „Trittbrettfahrern“ abzuheben, hat Weilbach seine Karriere von Anfang an auf international anerkannte ISM-Abschlüsse ausgerichtet: „Neben einem Masterstudium habe ich noch diverse Zertifizierungen wie CISM, ISACA oder CISSP draufgepackt.“ “Unternehmen locken mit attraktiven Gehältern” Auch spezialisierten Personaldienstleistern für IT-Projekte wie Etengo fällt auf, dass viele angeschlossene IT-Freiberufler fleißig ihren Wissensvorsprung durch Weiterqualifizierung vergrößern: „Wir nehmen wahr, dass freiberufliche IT-Experten in der aktuellen Situation, die Zeit zwischen Projekteinsätzen gezielt nutzen, um ihr Know-how und ihre Skills zu erweitern“, so Vorstand Alexander Raschke. Das muss man sich in der Selbstständigkeit aber erst einmal dauerhaft leisten können. Denn Betriebskosten laufen weiter, gleichzeitig steht die finanzielle Sicherheit auf wackeligen Füßen. Vor diesem Hintergrund liebäugeln laut Alexander Hendorf, strategischer Berater für künstliche Intelligenz, nicht wenige IT-Freiberufler mit einer Festanstellung: „Unternehmen locken mit attraktiven Gehältern und bieten Arbeitsplatzsicherheit. Gerade wenn es um die Familienplanung geht, brauchen viele einfach finanzielle Sicherheit“, so der Consultant. Er sieht jedoch auch andere Gründe für diesen Trend: „Oft steht ein hoher Vertriebsaufwand kleinen Tickets und langweiligen Projekten in der Freiberuflichkeit gegenüber. Wer kann es da selbst den überzeugtesten IT-Freelancern verübeln, in ein festes Arbeitsverhältnis mit gutem Einkommen und Sozialleistungen wechseln zu wollen?“ Für die Personalvermittler bedeutet das, vertragsformübergreifende Angebote zur Verfügung zu stellen. „Das Konzept der Arbeitnehmerüberlassung hat sich in den letzten Jahren von einem Randphänomen hin zu einen Standardinstrument im Personaleinsatz entwickelt hat.  Auch fachlich hochqualifizierte IT-Experten haben aufgrund guter Konditionen keine Scheu mehr“, meint Bodenbenner. Vor dem Hintergrund einer Gemengelage aus hohem Kostendruck, Ressourcennot und starkem Wettbewerb halten mehr und mehr Auftraggeber auch international Ausschau nach IT-Experten. Der Personaldienstleister Hays hat passend dazu in seinem globalen IT-Freelancer-Report „Workforce of the Future“ herausgefunden, welche Länder über IT-Talent-Netzwerke mit vergleichbarem Qualitätsniveau und gutem Preis-Leistungs-Verhältnis vorhalten. Demnach bieten Länder wie Rumänien, Indien, Malaysia, Ungarn oder Mexiko in diesem Bereich gute Alternativen. (fm) Hays Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Das IT-Freelancer-Geschäft gewinnt an Härte​ IT-Freiberufler kämpfen mit zunehmender Intensität um Aufträge.Simon Gracia Lacaba | shutterstock.com

Die große Unsicherheit angesichts der wirtschaftlichen Stagnation ist auch im IT-Freiberuflermarkt angekommen. Das zeigt eine aktuelle Studie der Marktforscher von Lünendonk. Demnach sehen sich zwei Drittel der insgesamt 27 befragten Anbieter für die Vermittlung von IT-Freiberuflern mit einer schwierigen Auftragslage konfrontiert. Hohe Material- und Energiekosten sowie Lieferkettenprobleme setzen den Auftraggebern derart zu, dass die Auswirkungen auch unmittelbar zu spüren sind – bei der Nachfrage nach IT-Freelancern.

Viele IT-Freiberufler sind pessimistisch

Etwa ein Viertel der IT-Anbieter blickt laut Lünendonk optimistisch in die Zukunft und sieht sich gut aufgestellt, da neue Technologien wie KI und gesetzliche Vorgaben wie NIS2 und DORA lukrative Projektoptionen bieten. Dennoch ist im ansonsten eher erfolgsverwöhnten Marktsegment der freiberuflichen IT-Experten die gedämpfte Auftragslage zu spüren. Benjamin Richter, Geschäftsführer der IT-Boutique Cyber Complete, bringt die Stimmung am Markt auf den Punkt: „Man hat das Gefühl, jeder will Verantwortung, aber niemand will entscheiden.“

Das bestätigt auch das jüngste Stimmungsbarometer von Freelancermap:

Sieben Prozent der IT-Freiberufler beurteilen ihre wirtschaftliche Situation im Vergleich zum Vorjahr als weniger positiv.

16 Prozent sind sogar der Meinung, ihre Lage sei aktuell „schlecht“ bis „sehr schlecht“ – das sind doppelt so viele wie im Geschäftsjahr 2023.

Im Gegensatz zu den Anbietern blickt also ein Viertel der IT-Freiberufler pessimistisch in die Zukunft. Und dass, obwohl sich aufgrund des dramatischen Mangels an erfahrenen und spezialisierten Fachkräften im IT-Bereich der Stundensatz innerhalb der letzten zwölf Monate auf durchschnittlich 102 Euro hochgeschaukelt hat. Viele externe IT-Spezialisten kommen mittlerweile auf ein Jahresbruttoeinkommen von mehr als 100.000 Euro.

Wer jetzt glaubt, solche Honorarsätze seien angesichts der wirtschaftlichen Flaute nur noch schwer durchzusetzen, irrt. Marcel Bodenbenner, Director für das Freiberufler-Geschäft bei Hays erklärt: „Wir spüren zwar insgesamt eine stärkere Zurückhaltung bei den Auftraggebern, die Preise bleiben aber in allen Disziplinen stabil.“

“Man merkt, dass es viele Trittbrettfahrer gibt”

Die zögerliche Haltung auf Seiten der Kunden äußert sich laut Brancheninsidern aktuell vor allem in verlängerten Beauftragungszeiträumen. „Wir haben es derzeit mit Vertriebszyklen von mindestens sechs bis 15 Monaten zu tun. Dabei ist der Fachbereich häufig überzeugt, dass etwas getan werden muss. Aber vom Top-Management kommt die Ansage, dass nur noch unternehmenskritische Projekte gemacht werden sollen“, berichtet Richter von diversen Kundengesprächen.

Die von ihm geführte IT-Boutique hat sich in den letzten sechs Jahren einen Namen für Informationssicherheit in Kombination mit Cybersecurity-Updates gemacht. Doch in letzter Zeit spürt der Experte vor allem bei Security-Trendthemen wie DORA und NIS2 einen zunehmend härteren Wettbewerb: „Man merkt, dass es gerade viele Trittbrettfahrer gibt. Das erinnert mich ein bisschen an die Situation, wie wir sie bei der DSGVO-Einführung hatten. Externe Berater, die vorher Wirtschaftsprüfer waren, haben plötzlich ihre Dienste ohne jegliche Projekterfahrung in diesen Bereichen angeboten.“

Dabei gehört zu diesem speziellen PDCA-Zyklus nach Richters Erfahrung sehr viel mehr. Für gute Umsetzungserfolge brauche man zwingend jahrelang erprobtes Wissen im Umfeld von Cybersecurity, am besten gleich in Kombination mit Risikomanagement-Kenntnissen. Er fügt hinzu: „Zusätzlich sollte man Prozessmanagement beherrschen, wirtschaftlich denken, viele Abhängigkeiten im Blick behalten können und kommunikativ sein. Mit anderen Worten: Der externe Spezialist muss als eine Art generalistischer Mediator zwischen den Technologie-Bereichen und dem Management beraten.“

“Wer zuerst kommt, mahlt zuerst”

Diesen Bedarf sieht auch Christian Weilbach, der sich erst vor Kurzem als IT-Freiberufler selbständig gemacht hat und sich als Vermittler zwischen Technologie und Management versteht:  „Technische und normative Anforderungen auf dem Papier müssen vom Management verstanden werden, damit es grünes Licht gibt.“

Diese Themen kennt Weilbach aus seiner Zeit als Festangestellter im ISM-Management bestens. Seine Differenzierung zu anderen IT-Freiberuflern in diesem Umfeld sieht er darin, Betroffene darin zu schulen, wie sie finanzielle und IT-Assets schützen können. Dabei ist er nach eigenen Angaben nicht monetär getrieben, sondern möchte in erster Linie einen guten Job machen. „Im Gegensatz zu meiner Zeit als Festangestellter kann ich meine Erfahrungen heute mehreren Unternehmen anbieten. Gleichzeitig habe ich immer die Möglichkeit, unternehmerisch frei zu entscheiden,“ begründet er seinen Schritt in die Freelancer-Welt.

Aber auch Weilbach spürt in der Akquise die zunehmende Konkurrenz: „Mich hat überrascht, wie groß der Wettbewerb ist. Bei der Projektvergabe heißt es daher immer häufiger: Wer zuerst kommt, mahlt zuerst.“

 Um sich von „Trittbrettfahrern“ abzuheben, hat Weilbach seine Karriere von Anfang an auf international anerkannte ISM-Abschlüsse ausgerichtet: „Neben einem Masterstudium habe ich noch diverse Zertifizierungen wie CISM, ISACA oder CISSP draufgepackt.“

“Unternehmen locken mit attraktiven Gehältern”

Auch spezialisierten Personaldienstleistern für IT-Projekte wie Etengo fällt auf, dass viele angeschlossene IT-Freiberufler fleißig ihren Wissensvorsprung durch Weiterqualifizierung vergrößern: „Wir nehmen wahr, dass freiberufliche IT-Experten in der aktuellen Situation, die Zeit zwischen Projekteinsätzen gezielt nutzen, um ihr Know-how und ihre Skills zu erweitern“, so Vorstand Alexander Raschke.

Das muss man sich in der Selbstständigkeit aber erst einmal dauerhaft leisten können. Denn Betriebskosten laufen weiter, gleichzeitig steht die finanzielle Sicherheit auf wackeligen Füßen. Vor diesem Hintergrund liebäugeln laut Alexander Hendorf, strategischer Berater für künstliche Intelligenz, nicht wenige IT-Freiberufler mit einer Festanstellung: „Unternehmen locken mit attraktiven Gehältern und bieten Arbeitsplatzsicherheit. Gerade wenn es um die Familienplanung geht, brauchen viele einfach finanzielle Sicherheit“, so der Consultant.

Er sieht jedoch auch andere Gründe für diesen Trend: „Oft steht ein hoher Vertriebsaufwand kleinen Tickets und langweiligen Projekten in der Freiberuflichkeit gegenüber. Wer kann es da selbst den überzeugtesten IT-Freelancern verübeln, in ein festes Arbeitsverhältnis mit gutem Einkommen und Sozialleistungen wechseln zu wollen?“

Für die Personalvermittler bedeutet das, vertragsformübergreifende Angebote zur Verfügung zu stellen. „Das Konzept der Arbeitnehmerüberlassung hat sich in den letzten Jahren von einem Randphänomen hin zu einen Standardinstrument im Personaleinsatz entwickelt hat.  Auch fachlich hochqualifizierte IT-Experten haben aufgrund guter Konditionen keine Scheu mehr“, meint Bodenbenner. Vor dem Hintergrund einer Gemengelage aus hohem Kostendruck, Ressourcennot und starkem Wettbewerb halten mehr und mehr Auftraggeber auch international Ausschau nach IT-Experten. Der Personaldienstleister Hays hat passend dazu in seinem globalen IT-Freelancer-Report „Workforce of the Future“ herausgefunden, welche Länder über IT-Talent-Netzwerke mit vergleichbarem Qualitätsniveau und gutem Preis-Leistungs-Verhältnis vorhalten. Demnach bieten Länder wie Rumänien, Indien, Malaysia, Ungarn oder Mexiko in diesem Bereich gute Alternativen. (fm)

Hays

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Das IT-Freelancer-Geschäft gewinnt an Härte​ Weiterlesen »

Mammut-Aufgabe Business-Transformation: So gewinnen Sie an Fahrt​

Allgemein

Herr Guther, das Thema Business-Transformation bewegt die Gemüter mehr denn je – über alle Branchen hinweg. Was sind die Gründe? Martin Guther: Aktuell entfalten zwei fundamentale Kräfte ihre Wirkung auf die Unternehmen hierzulande und haben disruptive Veränderungen zur Folge: einerseits die Digitalisierung und andererseits der Pfad in Richtung Klimaneutralität. Dieser Wandel vollzieht sich umfassender und schneller als praktisch jeder Wandel zuvor. Das setzt Firmen unter Druck, sich immer wieder neu aufzustellen und innovative Geschäftsfelder und Geschäftsmodelle zu erschließen, um im internationalen Wettbewerb bestehen zu können. Die Folgen dieser Entwicklung treten derzeit in vielen Bereichen zu Tage. Die Digitalisierung befindet sich im Rückstand und eine wachsende Zahl an Regularien, die Organisationen unter anderem zur Einhaltung umfassender Umwelt- und Sozialstandards verpflichten, schaffen weitere Herausforderungen. Martin Guther, Head of BTP Customer Advisory bei SAP SAP SE Warum ist Komplexität ein zentrales Hindernis bei Business-Transformationen?    Martin Guther: Die meisten heutigen Unternehmen betreiben über viele Jahre gewachsene Prozess- und IT-Landschaften und -strukturen, die oft nicht umfassend dokumentiert wurden. In der Folge fehlt es an Transparenz und Verständnis, wie die beteiligten Menschen, Geschäftsprozesse und Technologien bereichsübergreifend zusammenwirken und wie sich die vorhandene Komplexität gezielt reduzieren ließe. Dies aber ist die Voraussetzung, um Business-Transformationsprojekte richtig vorbereiten und schnell und einfach durchführen zu können.  Können Sie dafür ein Beispiel aus der Praxis nennen? Guther: Nehmen wir zum Beispiel die Automobil-Industrie. Von der Konzept-Phase eines neuen Modells über die Supply Chain und Produktion bis hin zu Vertrieb und After-Market-Services haben wir hier komplexe Geschäftsprozesse, die häufig auf umfangreichen und historisch gewachsenen IT-Landschaften aufsetzen. Neue Geschäftsanforderungen wie der Wechsel zu E-Mobilität, neue Wettbewerbsbedingungen durch chinesische Hersteller sowie verschärfte Regulierungen durch den deutschen Gesetzgeber und EU-Richtlinien stellen die Unternehmen vor massive Herausforderungen. Welche betrieblichen Probleme sind damit verbunden? Martin Guther: Da sich die relevanten Informationen auf heterogenen Datenbanken und Anwendungen verteilen, ist es den einzelnen Geschäftsbereichen unmöglich, eine einheitliche Sprache zu sprechen. Zudem kann keine eindeutige Verbindung zwischen den Geschäftsprozessen und der darunter liegenden Technologie hergestellt werden. Das hat fatale Folgen. Insgesamt fehlt den Verantwortlichen jeglicher Überblick über die vorhandenen, äußerst komplexen Prozess- und Systemlandschaften. Sie haben damit keine Möglichkeit, diese zu bewerten, zu diskutieren und zu optimieren – was für die anstehende Business-Transformation allerdings unverzichtbar ist. Veraltete, ineffiziente oder sogar obsolete Geschäftsprozesse verstellen den Blick nach vorn. Welche Möglichkeiten bietet SAP zur Reduktion von Komplexität und zur Beschleunigung von Transformationsprojekten?    Martin Guther: Zur Reduktion von Komplexität benötigen Unternehmen zunächst einmal Transparenz über ihre Geschäftsprozesse und den damit verbundenen IT-Landschaften. Im nächsten Schritt können Transformationsprojekte auf Basis vorhandener Best-Practices, Standards, Business-Content und Referenz-Architekturen deutlich beschleunigt werden. Nicht zu vergessen sind dabei die Möglichkeiten, die sich aus der Nutzung von KI-Technologie und Automatisierung ergeben. Wir haben mit den drei Plattformen SAP Signavio, SAP LeanIX und SAP Business Technology Platform (SAP BTP) einen kombinierten Lösungsansatz entwickelt, um Geschäftsprozesse noch schneller optimieren, implementieren und einzuführen zu können. Gleichzeitig erhalten die IT-Verantwortlichen umfassende Transparenz über eingesetzte Applikationen, Datenbanken und weitere Infrastrukturbestandteile. So bieten SAP Signavio und SAP LeanIX den Kunden in einem ersten Schritt umfassende Transparenz über ihre Prozess- und IT-Landschaft, und zwar auf Basis vorhandener Referenz-Architekturen. Die Erkenntnisse aus dieser Phase werden im Anschluss direkt einer Analyse unterzogen, um Ansatzpunkte für Prozessoptimierungen zu identifizieren und mithilfe der SAP BTP effizient beim Kunden implementieren zu können. Als Transformationsbeschleuniger nutzen wir in allen drei Lösungen zudem die Vorteile generativer KI, ob für die Prozessoptimierung, Entwicklung oder Automation.   Weitere Informationen:Mehr zu diesem Thema erfahren Sie im CIO On-Demand Webcast „Geschäftsprozesse und IT-Landschaft verstehen und optimieren“. Martin Guther von der SAP stellt in dem Webcast zusammen mit dem SAP-Kunden Simon Jarke von Freudenberg Strategien und Best Practices vor, wie Unternehmen das Thema Business-Transfomation angehen können. Die beiden Experten geben den Teilnehmerinnen und Teilnehmern einen Überblick über Prozesse und Architekturen, zeigen Wege nach vorn und geben Anregungen, wie sich das Potenzial von SAP Signavio, SAP LeanIX und SAP BTP optimal erschließen lässt. Registrieren Sie sich jetzt 

Mammut-Aufgabe Business-Transformation: So gewinnen Sie an Fahrt​ Herr Guther, das Thema Business-Transformation bewegt die Gemüter mehr denn je – über alle Branchen hinweg. Was sind die Gründe? Martin Guther: Aktuell entfalten zwei fundamentale Kräfte ihre Wirkung auf die Unternehmen hierzulande und haben disruptive Veränderungen zur Folge: einerseits die Digitalisierung und andererseits der Pfad in Richtung Klimaneutralität.

Dieser Wandel vollzieht sich umfassender und schneller als praktisch jeder Wandel zuvor. Das setzt Firmen unter Druck, sich immer wieder neu aufzustellen und innovative Geschäftsfelder und Geschäftsmodelle zu erschließen, um im internationalen Wettbewerb bestehen zu können.

Die Folgen dieser Entwicklung treten derzeit in vielen Bereichen zu Tage. Die Digitalisierung befindet sich im Rückstand und eine wachsende Zahl an Regularien, die Organisationen unter anderem zur Einhaltung umfassender Umwelt- und Sozialstandards verpflichten, schaffen weitere Herausforderungen.

Martin Guther, Head of BTP Customer Advisory bei SAP
SAP SE

Warum ist Komplexität ein zentrales Hindernis bei Business-Transformationen?   

Martin Guther: Die meisten heutigen Unternehmen betreiben über viele Jahre gewachsene Prozess- und IT-Landschaften und -strukturen, die oft nicht umfassend dokumentiert wurden. In der Folge fehlt es an Transparenz und Verständnis, wie die beteiligten Menschen, Geschäftsprozesse und Technologien bereichsübergreifend zusammenwirken und wie sich die vorhandene Komplexität gezielt reduzieren ließe. Dies aber ist die Voraussetzung, um Business-Transformationsprojekte richtig vorbereiten und schnell und einfach durchführen zu können. 

Können Sie dafür ein Beispiel aus der Praxis nennen?

Guther: Nehmen wir zum Beispiel die Automobil-Industrie. Von der Konzept-Phase eines neuen Modells über die Supply Chain und Produktion bis hin zu Vertrieb und After-Market-Services haben wir hier komplexe Geschäftsprozesse, die häufig auf umfangreichen und historisch gewachsenen IT-Landschaften aufsetzen. Neue Geschäftsanforderungen wie der Wechsel zu E-Mobilität, neue Wettbewerbsbedingungen durch chinesische Hersteller sowie verschärfte Regulierungen durch den deutschen Gesetzgeber und EU-Richtlinien stellen die Unternehmen vor massive Herausforderungen.

Welche betrieblichen Probleme sind damit verbunden?

Martin Guther: Da sich die relevanten Informationen auf heterogenen Datenbanken und Anwendungen verteilen, ist es den einzelnen Geschäftsbereichen unmöglich, eine einheitliche Sprache zu sprechen. Zudem kann keine eindeutige Verbindung zwischen den Geschäftsprozessen und der darunter liegenden Technologie hergestellt werden. Das hat fatale Folgen. Insgesamt fehlt den Verantwortlichen jeglicher Überblick über die vorhandenen, äußerst komplexen Prozess- und Systemlandschaften. Sie haben damit keine Möglichkeit, diese zu bewerten, zu diskutieren und zu optimieren – was für die anstehende Business-Transformation allerdings unverzichtbar ist. Veraltete, ineffiziente oder sogar obsolete Geschäftsprozesse verstellen den Blick nach vorn.

Welche Möglichkeiten bietet SAP zur Reduktion von Komplexität und zur Beschleunigung von Transformationsprojekten?   

Martin Guther: Zur Reduktion von Komplexität benötigen Unternehmen zunächst einmal Transparenz über ihre Geschäftsprozesse und den damit verbundenen IT-Landschaften. Im nächsten Schritt können Transformationsprojekte auf Basis vorhandener Best-Practices, Standards, Business-Content und Referenz-Architekturen deutlich beschleunigt werden. Nicht zu vergessen sind dabei die Möglichkeiten, die sich aus der Nutzung von KI-Technologie und Automatisierung ergeben.

Wir haben mit den drei Plattformen SAP Signavio, SAP LeanIX und SAP Business Technology Platform (SAP BTP) einen kombinierten Lösungsansatz entwickelt, um Geschäftsprozesse noch schneller optimieren, implementieren und einzuführen zu können. Gleichzeitig erhalten die IT-Verantwortlichen umfassende Transparenz über eingesetzte Applikationen, Datenbanken und weitere Infrastrukturbestandteile.

So bieten SAP Signavio und SAP LeanIX den Kunden in einem ersten Schritt umfassende Transparenz über ihre Prozess- und IT-Landschaft, und zwar auf Basis vorhandener Referenz-Architekturen. Die Erkenntnisse aus dieser Phase werden im Anschluss direkt einer Analyse unterzogen, um Ansatzpunkte für Prozessoptimierungen zu identifizieren und mithilfe der SAP BTP effizient beim Kunden implementieren zu können. Als Transformationsbeschleuniger nutzen wir in allen drei Lösungen zudem die Vorteile generativer KI, ob für die Prozessoptimierung, Entwicklung oder Automation.  

Weitere Informationen:Mehr zu diesem Thema erfahren Sie im CIO On-Demand Webcast „Geschäftsprozesse und IT-Landschaft verstehen und optimieren“. Martin Guther von der SAP stellt in dem Webcast zusammen mit dem SAP-Kunden Simon Jarke von Freudenberg Strategien und Best Practices vor, wie Unternehmen das Thema Business-Transfomation angehen können. Die beiden Experten geben den Teilnehmerinnen und Teilnehmern einen Überblick über Prozesse und Architekturen, zeigen Wege nach vorn und geben Anregungen, wie sich das Potenzial von SAP Signavio, SAP LeanIX und SAP BTP optimal erschließen lässt.

Registrieren Sie sich jetzt

Mammut-Aufgabe Business-Transformation: So gewinnen Sie an Fahrt​ Weiterlesen »

Mit KI und 5G zum hybriden Hightech-OP​

Allgemein

Im experimentellen, vernetzten Hybrid-OP des Fraunhofer IPA in Mannheim erlaubt 5G Datentransfer in Echtzeit. Fraunhofer IPA Etliche deutsche Kliniken sind nach der Krankenhausreform von Bundesgesundheitsminister Karl Lauterbach in ihrer Existenz gefährdet. Vielerorts kann nicht mehr in jedem Bereich die entsprechende medizinische Expertise vorgehalten werden. Doch was passiert, wenn ein Notfall eine komplizierte Operation erfordert und der nächste Spezialist Hunderte von Kilometern entfernt ist? Ein solcher Engpass könnte Leben kosten. Eine Lösung könnte moderne IT sein: 5G und KI. Etwa, wenn in ein paar Jahren Chirurgen ihre Patienten aus der Ferne operieren – unterstützt durch Roboter mit haptischem Feedback. 5G und KI im OP Für eine nahezu latenzfreie Verbindung, damit der Roboter in Echtzeit agiert und kontinuierlich Daten ausgetauscht werden, könnte ein klinikeigenes 5G-Netz – sprich Private 5G – sorgen. Und die KI könnte die Vitaldaten überwachen sowie die chirurgischen Daten analysieren. Zukunftsmusik? Nicht unbedingt, denn an entsprechenden Szenarien wurde bereits im gerade abgeschlossenen Projekt 5G-OR (Establishing the next generation of a 5G-enabled operating room ecosystem to improve patient outcome) gearbeitet. Dabei wurden drei hoch technologisierte hybride Operationssäle mit intraoperativen Bildgebungssystemen entwickelt. Deutsch-französisches Projekt Dazu vereinte das Projekt grenzüberschreitend und interdisziplinär Ingenieure, Unternehmer, Chirurgen und Anästhesisten an drei Standorten – Mannheim, Berlin sowie dem französischen Straßburg. Beteiligt waren neben dem Fraunhofer Institut für Produktionstechnik und Automatisierung IPA auf französischer Seite das Institut Hospitalo-Universitaire (IHU) in Straßburg sowie die Charité Berlin, die Hochschule Reutlingen, die Unternehmen SectorCon GmbH und KARL STORZ SE Co. sowie das private französische Forschungs- und Technologieinstitut bcom und das Start-up RDS (Rhythm Diagnostic Systems). Die von der Hochschule Reutlingen gemeinsam mit dem Fraunhofer IPA entwickelte mobile robotische Plattform im experimentellen OP in Straßburg ermöglicht den autonomen Transport von medizinischem Material und Instrumenten. Fraunhofer IPA Das internationale Team setzte im Rahmen des Projekts vier relevante Anwendungen in die Praxis um: KI-gestützte Überwachung der Vitaldaten Die Patienten tragen während des gesamten Behandlungsverlaufs – von der Operation bis zur Nachsorge zu Hause – einen intelligenten Patch. Dessen Sensoren zeichnen Vitalparameter auf und übermitteln sie drahtlos an eine überwachte Plattform, wo sie eine KI ausgewertet. So lassen sich mögliche Komplikationen frühzeitig erkennen. KI-gestützte Analyse chirurgischer Daten Während der OP analysiert die KI zum Beispiel endoskopische Bilder oder Videosequenzen sowie Daten von chirurgischen Instrumenten und Prozessen. Auf diese Weise können zum einen der Fortschritt der Operation bestimmt und mögliche Anomalien oder Risiken erkannt werden. Zum anderen optimieren solche Analysen die Arbeitsabläufe im OP. Roboterassistierte Telechirurgie In den Hightech-OP-Sälen können Chirurgen – unterstützt durch einen Roboter mit haptischem Feedback – Patienten aus der Ferne operieren. 5G gewährleistet dabei große Bandbreiten für die riesigen Datenmengen. Gleichzeitig stellt 5G eine latenzarme Verbindung für den Austausch von Daten in Echtzeit während der OP sicher. Das System kann auch lokal außerhalb des OPs eingesetzt werden, etwa um medizinisches Personal vor Gefahren wie Röntgenstrahlung oder Infektionen zu schützen. Mobile Roboter-Unterstützung im Operationssaal Ein speziell für den OP-Bereich entwickelter mobiler Roboter transportiert medizinisches Material und Instrumente. Indem er logistische Aufgaben während der Operation übernimmt, entlastet er das Krankenhauspersonal. Was in Fabriken längst Alltag ist, erfordert im OP höchste Präzision, Sicherheit, Flexibilität und Zuverlässigkeit. Das sollen hier 5G-Campusnetze durch bereitgestellte Echtzeitdaten gewährleisten. Ziele des Projekts Zentrale Ziele des Teams sind, so Johannes Horsch, Projektleiter im Forschungsbereich Gesundheitstechnologien bei Fraunhofer IPA, die Komplikationsrate von Eingriffen zu senken und den Workflow in den Operationssälen zu optimieren. „Schließlich treten heute noch bei acht bis zwölf Prozent aller Krankenhausaufenthalte medizinische Behandlungsfehler auf“, erklärt Horch. Hier könne die Vernetzung per 5G Fehler verringern und die Effizienz steigern. Ergänzend dazu erlaube der KI-Einsatz, OP-Daten während chirurgischer Eingriffe besser zu analysieren. Zudem unterstütze KI den Einsatz von Robotik in der Medizin. Positive Bilanz So zieht auch Professor Sascha Treskatsch, Klinikdirektor in der Charité, auf der Anwenderseite eine positive Bilanz: „Die Verarbeitung einer Vielzahl multimodaler Datensätze in Echtzeit wird die Überwachung von Patienten im Krankenhaus und insbesondere im Operationssaal während einer Anästhesie revolutionieren. 5G-OR bietet hierfür die Grundlage.“ Im Fokus steht nun der Technologietransfer der Anwendungen in die klinische Praxis. Dies beinhaltet ausgiebige Tests, die Prüfung von medizinischen Zulassungen sowie die Suche nach Wegen in den Markt über Industriepartner und Start-ups.  

Mit KI und 5G zum hybriden Hightech-OP​ Im experimentellen, vernetzten Hybrid-OP des Fraunhofer IPA in Mannheim erlaubt 5G Datentransfer in Echtzeit.
Fraunhofer IPA

Etliche deutsche Kliniken sind nach der Krankenhausreform von Bundesgesundheitsminister Karl Lauterbach in ihrer Existenz gefährdet. Vielerorts kann nicht mehr in jedem Bereich die entsprechende medizinische Expertise vorgehalten werden. Doch was passiert, wenn ein Notfall eine komplizierte Operation erfordert und der nächste Spezialist Hunderte von Kilometern entfernt ist? Ein solcher Engpass könnte Leben kosten.

Eine Lösung könnte moderne IT sein: 5G und KI. Etwa, wenn in ein paar Jahren Chirurgen ihre Patienten aus der Ferne operieren – unterstützt durch Roboter mit haptischem Feedback.

5G und KI im OP

Für eine nahezu latenzfreie Verbindung, damit der Roboter in Echtzeit agiert und kontinuierlich Daten ausgetauscht werden, könnte ein klinikeigenes 5G-Netz – sprich Private 5G – sorgen. Und die KI könnte die Vitaldaten überwachen sowie die chirurgischen Daten analysieren.

Zukunftsmusik? Nicht unbedingt, denn an entsprechenden Szenarien wurde bereits im gerade abgeschlossenen Projekt 5G-OR (Establishing the next generation of a 5G-enabled operating room ecosystem to improve patient outcome) gearbeitet. Dabei wurden drei hoch technologisierte hybride Operationssäle mit intraoperativen Bildgebungssystemen entwickelt.

Deutsch-französisches Projekt

Dazu vereinte das Projekt grenzüberschreitend und interdisziplinär Ingenieure, Unternehmer, Chirurgen und Anästhesisten an drei Standorten – Mannheim, Berlin sowie dem französischen Straßburg. Beteiligt waren neben dem Fraunhofer Institut für Produktionstechnik und Automatisierung IPA auf französischer Seite das Institut Hospitalo-Universitaire (IHU) in Straßburg sowie die Charité Berlin, die Hochschule Reutlingen, die Unternehmen SectorCon GmbH und KARL STORZ SE Co. sowie das private französische Forschungs- und Technologieinstitut bcom und das Start-up RDS (Rhythm Diagnostic Systems).

Die von der Hochschule Reutlingen gemeinsam mit dem Fraunhofer IPA entwickelte mobile robotische Plattform im experimentellen OP in Straßburg ermöglicht den autonomen Transport von medizinischem Material und Instrumenten.
Fraunhofer IPA

Das internationale Team setzte im Rahmen des Projekts vier relevante Anwendungen in die Praxis um:

KI-gestützte Überwachung der Vitaldaten

Die Patienten tragen während des gesamten Behandlungsverlaufs – von der Operation bis zur Nachsorge zu Hause – einen intelligenten Patch. Dessen Sensoren zeichnen Vitalparameter auf und übermitteln sie drahtlos an eine überwachte Plattform, wo sie eine KI ausgewertet. So lassen sich mögliche Komplikationen frühzeitig erkennen.

KI-gestützte Analyse chirurgischer Daten

Während der OP analysiert die KI zum Beispiel endoskopische Bilder oder Videosequenzen sowie Daten von chirurgischen Instrumenten und Prozessen. Auf diese Weise können zum einen der Fortschritt der Operation bestimmt und mögliche Anomalien oder Risiken erkannt werden. Zum anderen optimieren solche Analysen die Arbeitsabläufe im OP.

Roboterassistierte Telechirurgie

In den Hightech-OP-Sälen können Chirurgen – unterstützt durch einen Roboter mit haptischem Feedback – Patienten aus der Ferne operieren. 5G gewährleistet dabei große Bandbreiten für die riesigen Datenmengen. Gleichzeitig stellt 5G eine latenzarme Verbindung für den Austausch von Daten in Echtzeit während der OP sicher. Das System kann auch lokal außerhalb des OPs eingesetzt werden, etwa um medizinisches Personal vor Gefahren wie Röntgenstrahlung oder Infektionen zu schützen.

Mobile Roboter-Unterstützung im Operationssaal

Ein speziell für den OP-Bereich entwickelter mobiler Roboter transportiert medizinisches Material und Instrumente. Indem er logistische Aufgaben während der Operation übernimmt, entlastet er das Krankenhauspersonal. Was in Fabriken längst Alltag ist, erfordert im OP höchste Präzision, Sicherheit, Flexibilität und Zuverlässigkeit. Das sollen hier 5G-Campusnetze durch bereitgestellte Echtzeitdaten gewährleisten.

Ziele des Projekts

Zentrale Ziele des Teams sind, so Johannes Horsch, Projektleiter im Forschungsbereich Gesundheitstechnologien bei Fraunhofer IPA, die Komplikationsrate von Eingriffen zu senken und den Workflow in den Operationssälen zu optimieren. „Schließlich treten heute noch bei acht bis zwölf Prozent aller Krankenhausaufenthalte medizinische Behandlungsfehler auf“, erklärt Horch.

Hier könne die Vernetzung per 5G Fehler verringern und die Effizienz steigern. Ergänzend dazu erlaube der KI-Einsatz, OP-Daten während chirurgischer Eingriffe besser zu analysieren. Zudem unterstütze KI den Einsatz von Robotik in der Medizin.

Positive Bilanz

So zieht auch Professor Sascha Treskatsch, Klinikdirektor in der Charité, auf der Anwenderseite eine positive Bilanz: „Die Verarbeitung einer Vielzahl multimodaler Datensätze in Echtzeit wird die Überwachung von Patienten im Krankenhaus und insbesondere im Operationssaal während einer Anästhesie revolutionieren. 5G-OR bietet hierfür die Grundlage.“

Im Fokus steht nun der Technologietransfer der Anwendungen in die klinische Praxis. Dies beinhaltet ausgiebige Tests, die Prüfung von medizinischen Zulassungen sowie die Suche nach Wegen in den Markt über Industriepartner und Start-ups. 

Mit KI und 5G zum hybriden Hightech-OP​ Weiterlesen »

Bienen machen Metas Atompläne zunichte​

Allgemein

Seltene Bienen machen Meta wohl einen Strich durch die Rechnung. Yusro Santos/shutterstock.com Die Kosten für Künstliche Intelligenz (KI) und Large Laguage Models (LLM) explodieren seit geraumer Zeit. Das hat viele US-amerikanische Tech-Riesen dazu bewogen, die Kernkraft als Energielieferant in Betracht zu ziehen. So plante Meta, ein KI-Rechenzentrum mit Strom aus einem bestehenden Kernkraftwerk zu betreiben. Dieses Projekt wurde jedoch gestoppt, wie CEO Mark Zuckerberg laut Medienberichten intern mehrmals mitteilte. Der Grund: Der Bauplatz ist Lebensraum einer seltenen Bienenart. Der genaue Standort des geplanten Rechenzentrums wurde allerdings nicht bekannt gegeben. Nicht die einzigen mit Problemen Mit Problemen bei der Energieversorgung steht Meta nicht allein da: Auch Amazon kämpft damit, sich Atomstrom für ihre Rechenzentren zu sichern. So lehnte die zuständige US-Bundesbehörde am 1. November 2024 eine überarbeitete Stromvereinbarung zwischen dem Unternehmen und einem Stromanbieter ab. Hintergrund ist ein Streit mehrerer Energieanbieter wegen angeblicher Benachteiligung. Microsoft wiederum hat einen 20-Jahres-Vertrag für Strom aus dem eigentlich stillgelegten Kernkraftwerk Three Mile Island unterzeichnet, während Google eine Partnerschaft mit Kairos Power einging, um kleine modulare Reaktoren (SMR) zu nutzen. Oracle erhielt zudem die Genehmigung für den Bau von drei SMRs, um ein KI-Rechenzentrum mit über einem Gigawatt Leistung zu versorgen. 

Bienen machen Metas Atompläne zunichte​ Seltene Bienen machen Meta wohl einen Strich durch die Rechnung.
Yusro Santos/shutterstock.com

Die Kosten für Künstliche Intelligenz (KI) und Large Laguage Models (LLM) explodieren seit geraumer Zeit. Das hat viele US-amerikanische Tech-Riesen dazu bewogen, die Kernkraft als Energielieferant in Betracht zu ziehen.

So plante Meta, ein KI-Rechenzentrum mit Strom aus einem bestehenden Kernkraftwerk zu betreiben. Dieses Projekt wurde jedoch gestoppt, wie CEO Mark Zuckerberg laut Medienberichten intern mehrmals mitteilte.

Der Grund: Der Bauplatz ist Lebensraum einer seltenen Bienenart. Der genaue Standort des geplanten Rechenzentrums wurde allerdings nicht bekannt gegeben.

Nicht die einzigen mit Problemen

Mit Problemen bei der Energieversorgung steht Meta nicht allein da: Auch Amazon kämpft damit, sich Atomstrom für ihre Rechenzentren zu sichern.

So lehnte die zuständige US-Bundesbehörde am 1. November 2024 eine überarbeitete Stromvereinbarung zwischen dem Unternehmen und einem Stromanbieter ab. Hintergrund ist ein Streit mehrerer Energieanbieter wegen angeblicher Benachteiligung.

Microsoft wiederum hat einen 20-Jahres-Vertrag für Strom aus dem eigentlich stillgelegten Kernkraftwerk Three Mile Island unterzeichnet, während Google eine Partnerschaft mit Kairos Power einging, um kleine modulare Reaktoren (SMR) zu nutzen. Oracle erhielt zudem die Genehmigung für den Bau von drei SMRs, um ein KI-Rechenzentrum mit über einem Gigawatt Leistung zu versorgen.

Bienen machen Metas Atompläne zunichte​ Weiterlesen »

Zahl der Woche: 59%​

Allgemein

Denkt man an den hohen Energieverbrauch beim Training großer Sprachmodelle oder an die Anschaffung spezieller Hardware, wird schnell klar, dass es um den ökologischen Fußabdruck von (generativer) Künstlicher Intelligenz nicht so gut bestellt ist. Aber ist es denkbar, dass die durch KI erzielten Einspareffekte die Energiebilanz ins Positive drehen? Laut einem Executive Leader Insight von Gartner ja, denn für 59 Prozent der befragten IT-Entscheider gehört KI zu den drei wichtigsten Technologien, um die Nachhaltigkeitsziele ihres Unternehmens in den nächsten fünf Jahren voranzutreiben. Für ein Viertel (25 Prozent) ist sie sogar die wichtigste Technologie. Wie genau das geschehen soll, wisse allerdings niemand so genau, fügte Gartner-Analystin Annette Zimmermann in ihrem Vortrag auf dem Gartner-Symposium in Barcelona hinzu. Immerhin, so die Analystin, seien viele Technologien im Gartner Impact Radar for Environmental Sustainability bereits von KI durchdrungen. Dazu zählen beispielsweise Energiemanagement- und Optimierungssysteme oder ein digitaler Zwilling für Nachhaltigkeit. Laut Zimmermann müssen die positiven und negativen Auswirkungen von KI auf die Umwelt in den verschiedenen Phasen betrachtet werden: So habe KI in der Einführungsphase eindeutig negative Auswirkungen auf Energie, Wasser und Elektroschrott. In der Normalisierungsphase hielten sich die positiven und negativen Auswirkungen dann in etwa die Waage, während sich später durch die mit KI entwickelten Lösungen ein stark positiver Impact ergebe. Es sei jedoch nicht klar, in welchem Zeitrahmen dies geschehen werde. 

Zahl der Woche: 59%​ Denkt man an den hohen Energieverbrauch beim Training großer Sprachmodelle oder an die Anschaffung spezieller Hardware, wird schnell klar, dass es um den ökologischen Fußabdruck von (generativer) Künstlicher Intelligenz nicht so gut bestellt ist. Aber ist es denkbar, dass die durch KI erzielten Einspareffekte die Energiebilanz ins Positive drehen? Laut einem Executive Leader Insight von Gartner ja, denn für 59 Prozent der befragten IT-Entscheider gehört KI zu den drei wichtigsten Technologien, um die Nachhaltigkeitsziele ihres Unternehmens in den nächsten fünf Jahren voranzutreiben. Für ein Viertel (25 Prozent) ist sie sogar die wichtigste Technologie.

Wie genau das geschehen soll, wisse allerdings niemand so genau, fügte Gartner-Analystin Annette Zimmermann in ihrem Vortrag auf dem Gartner-Symposium in Barcelona hinzu. Immerhin, so die Analystin, seien viele Technologien im Gartner Impact Radar for Environmental Sustainability bereits von KI durchdrungen. Dazu zählen beispielsweise Energiemanagement- und Optimierungssysteme oder ein digitaler Zwilling für Nachhaltigkeit.

Laut Zimmermann müssen die positiven und negativen Auswirkungen von KI auf die Umwelt in den verschiedenen Phasen betrachtet werden: So habe KI in der Einführungsphase eindeutig negative Auswirkungen auf Energie, Wasser und Elektroschrott. In der Normalisierungsphase hielten sich die positiven und negativen Auswirkungen dann in etwa die Waage, während sich später durch die mit KI entwickelten Lösungen ein stark positiver Impact ergebe. Es sei jedoch nicht klar, in welchem Zeitrahmen dies geschehen werde.

Zahl der Woche: 59%​ Weiterlesen »

Zahl der Woche: 59%​

Allgemein

Denkt man an den hohen Energieverbrauch beim Training großer Sprachmodelle oder an die Anschaffung spezieller Hardware, wird schnell klar, dass es um den ökologischen Fußabdruck von (generativer) Künstlicher Intelligenz nicht so gut bestellt ist. Aber ist es denkbar, dass die durch KI erzielten Einspareffekte die Energiebilanz ins Positive drehen? Laut einem Executive Leader Insight von Gartner ja, denn für 59 Prozent der befragten IT-Entscheider gehört KI zu den drei wichtigsten Technologien, um die Nachhaltigkeitsziele ihres Unternehmens in den nächsten fünf Jahren voranzutreiben. Für ein Viertel (25 Prozent) ist sie sogar die wichtigste Technologie. Wie genau das geschehen soll, wisse allerdings niemand so genau, fügte Gartner-Analystin Annette Zimmermann in ihrem Vortrag auf dem Gartner-Symposium in Barcelona hinzu. Immerhin, so die Analystin, seien viele Technologien im Gartner Impact Radar for Environmental Sustainability bereits von KI durchdrungen. Dazu zählen beispielsweise Energiemanagement- und Optimierungssysteme oder ein digitaler Zwilling für Nachhaltigkeit. Laut Zimmermann müssen die positiven und negativen Auswirkungen von KI auf die Umwelt in den verschiedenen Phasen betrachtet werden: So habe KI in der Einführungsphase eindeutig negative Auswirkungen auf Energie, Wasser und Elektroschrott. In der Normalisierungsphase hielten sich die positiven und negativen Auswirkungen dann in etwa die Waage, während sich später durch die mit KI entwickelten Lösungen ein stark positiver Impact ergebe. Es sei jedoch nicht klar, in welchem Zeitrahmen dies geschehen werde. 

Zahl der Woche: 59%​ Denkt man an den hohen Energieverbrauch beim Training großer Sprachmodelle oder an die Anschaffung spezieller Hardware, wird schnell klar, dass es um den ökologischen Fußabdruck von (generativer) Künstlicher Intelligenz nicht so gut bestellt ist. Aber ist es denkbar, dass die durch KI erzielten Einspareffekte die Energiebilanz ins Positive drehen? Laut einem Executive Leader Insight von Gartner ja, denn für 59 Prozent der befragten IT-Entscheider gehört KI zu den drei wichtigsten Technologien, um die Nachhaltigkeitsziele ihres Unternehmens in den nächsten fünf Jahren voranzutreiben. Für ein Viertel (25 Prozent) ist sie sogar die wichtigste Technologie.

Wie genau das geschehen soll, wisse allerdings niemand so genau, fügte Gartner-Analystin Annette Zimmermann in ihrem Vortrag auf dem Gartner-Symposium in Barcelona hinzu. Immerhin, so die Analystin, seien viele Technologien im Gartner Impact Radar for Environmental Sustainability bereits von KI durchdrungen. Dazu zählen beispielsweise Energiemanagement- und Optimierungssysteme oder ein digitaler Zwilling für Nachhaltigkeit.

Laut Zimmermann müssen die positiven und negativen Auswirkungen von KI auf die Umwelt in den verschiedenen Phasen betrachtet werden: So habe KI in der Einführungsphase eindeutig negative Auswirkungen auf Energie, Wasser und Elektroschrott. In der Normalisierungsphase hielten sich die positiven und negativen Auswirkungen dann in etwa die Waage, während sich später durch die mit KI entwickelten Lösungen ein stark positiver Impact ergebe. Es sei jedoch nicht klar, in welchem Zeitrahmen dies geschehen werde.

Zahl der Woche: 59%​ Weiterlesen »

Donald Trump 2.0: Europa muss sich emanzipieren​

Allgemein

Donald Trump hat gut lachen – die Amerikaner haben den republikanischen Kandidaten erneut zum Präsidenten der USA gewählt. Phil Mistry | shutterstock.com Donald Trump wird erneut Präsident der Vereinigten Staaten. „Das ist eine Herausforderung für Europa“, kommentierte Bitkom-Präsident Ralf Wintergerst die Wiederwahl des Republikaners. Zudem kritisierte er, dass die alte Welt in den zurückliegenden Dekaden Chancen und Möglichkeiten verpasst habe, sich stärker, resilienter und chancenorientiert aufzustellen.  Jetzt gebe es allerdings keine Ausreden mehr. „Wir werden technologisch, wirtschaftlich und sicherheitspolitisch eine scharfe Transformation durchlaufen müssen“, sagte Wintergerst. Es gelte, die USA zwar als Partner zu halten, aber auch, sich selbst zu emanzipieren. „Wer es vor acht Jahren noch nicht verstanden hat, muss jetzt wach werden“, warnt der IT-Branchenvertreter. „Die USA werden sich dauerhaft von Europa ab- und dem asiatisch-pazifischen Raum zuwenden.“  Die USA werden sich von Europa abwenden, warnt Bitkom-Präsident Ralf Wintergerst.Giesecke + Devrient Vor diesem Hintergrund sei die Wirtschaft in Deutschland und Europa gefordert, die anstehenden Herausforderungen künftig eigenständig zu lösen. Wintergerst nennt eine CO2-freie, stabile Energieversorgung, digitale Souveränität sowie den Schutz vor hybriden und militärischen Angriffen.  Regulierungskorsett schnürt Unternehmen die Luft ab Um diese Herausforderungen zu bestehen, forderte der IT-Lobbyist einen praktisch-pragmatischen Politikansatz. „Es gelingt uns nicht, indem wir den Unternehmen mit einem engen Regulierungskorsett die Luft abschnüren und uns in politischer Kleinstaaterei verlaufen, sowohl in Deutschland als auch in Europa.“ Stattdessen brauche es eine starke, experimentier- und innovationsfreudige Wirtschaft. Eine solche bilde die Grundlage staatlicher Leistungsfähigkeit und gesellschaftlichen Zusammenhalts.  „Die Wirtschaft gehört wieder in den Mittelpunkt der Politik, ohne weitere Ausreden“, mahnte Wintergerst an. Die USA würden zwar auch künftig Europas wichtigster Partner sein, „unser großer Bruder, der in jeder Beziehung seine schützende Hand über uns hält, sind sie aber nicht mehr“. Weniger Bürokratie und weniger Steuern Auch aus Sicht von Wolfgang Weber, dem Vorsitzenden der ZVEI-Geschäftsführung, müssten Europa und Deutschland den Fokus jetzt entschlossen auf die Wirtschaft legen und den eigenen Standort sowie die Wettbewerbsfähigkeit stärken. „Wir müssen die unternehmerischen Kräfte neu entfachen“, verlangte Weber. „Bürokratisierung runter, Unternehmenssteuern runter, Investitionen anreizen.“ Nur aus einer Position der wirtschaftlichen Stärke lasse sich der nächsten US-Administration am besten begegnen. „Mehr denn je kommt es auf europäische Einigkeit und den EU-Binnenmarkt an, den weiterzuentwickeln hohe Priorität haben muss.“  

Donald Trump 2.0: Europa muss sich emanzipieren​ Donald Trump hat gut lachen – die Amerikaner haben den republikanischen Kandidaten erneut zum Präsidenten der USA gewählt. Phil Mistry | shutterstock.com

Donald Trump wird erneut Präsident der Vereinigten Staaten. „Das ist eine Herausforderung für Europa“, kommentierte Bitkom-Präsident Ralf Wintergerst die Wiederwahl des Republikaners. Zudem kritisierte er, dass die alte Welt in den zurückliegenden Dekaden Chancen und Möglichkeiten verpasst habe, sich stärker, resilienter und chancenorientiert aufzustellen. 

Jetzt gebe es allerdings keine Ausreden mehr. „Wir werden technologisch, wirtschaftlich und sicherheitspolitisch eine scharfe Transformation durchlaufen müssen“, sagte Wintergerst. Es gelte, die USA zwar als Partner zu halten, aber auch, sich selbst zu emanzipieren. „Wer es vor acht Jahren noch nicht verstanden hat, muss jetzt wach werden“, warnt der IT-Branchenvertreter. „Die USA werden sich dauerhaft von Europa ab- und dem asiatisch-pazifischen Raum zuwenden.“ 

Die USA werden sich von Europa abwenden, warnt Bitkom-Präsident Ralf Wintergerst.Giesecke + Devrient

Vor diesem Hintergrund sei die Wirtschaft in Deutschland und Europa gefordert, die anstehenden Herausforderungen künftig eigenständig zu lösen. Wintergerst nennt eine CO2-freie, stabile Energieversorgung, digitale Souveränität sowie den Schutz vor hybriden und militärischen Angriffen. 

Regulierungskorsett schnürt Unternehmen die Luft ab

Um diese Herausforderungen zu bestehen, forderte der IT-Lobbyist einen praktisch-pragmatischen Politikansatz. „Es gelingt uns nicht, indem wir den Unternehmen mit einem engen Regulierungskorsett die Luft abschnüren und uns in politischer Kleinstaaterei verlaufen, sowohl in Deutschland als auch in Europa.“ Stattdessen brauche es eine starke, experimentier- und innovationsfreudige Wirtschaft. Eine solche bilde die Grundlage staatlicher Leistungsfähigkeit und gesellschaftlichen Zusammenhalts. 

„Die Wirtschaft gehört wieder in den Mittelpunkt der Politik, ohne weitere Ausreden“, mahnte Wintergerst an. Die USA würden zwar auch künftig Europas wichtigster Partner sein, „unser großer Bruder, der in jeder Beziehung seine schützende Hand über uns hält, sind sie aber nicht mehr“.

Weniger Bürokratie und weniger Steuern

Auch aus Sicht von Wolfgang Weber, dem Vorsitzenden der ZVEI-Geschäftsführung, müssten Europa und Deutschland den Fokus jetzt entschlossen auf die Wirtschaft legen und den eigenen Standort sowie die Wettbewerbsfähigkeit stärken. „Wir müssen die unternehmerischen Kräfte neu entfachen“, verlangte Weber. „Bürokratisierung runter, Unternehmenssteuern runter, Investitionen anreizen.“ Nur aus einer Position der wirtschaftlichen Stärke lasse sich der nächsten US-Administration am besten begegnen. „Mehr denn je kommt es auf europäische Einigkeit und den EU-Binnenmarkt an, den weiterzuentwickeln hohe Priorität haben muss.“ 

Donald Trump 2.0: Europa muss sich emanzipieren​ Weiterlesen »

„CIOs müssen ihr KI-Tempo selbst bestimmen“​

Allgemein

Auf dem Gartner Symposium gaben die Analysten nicht nur Tipps zum Tempo, sondern auch zur Absicherung von KI-Initiativen.Gartner „Durch die unaufhaltsame Innovation im Wettlauf der Technologieanbieter haben CIOs das Gefühl, permanent im Hype zu leben“, erklärt Alicia Mullery, VP Research bei Gartner, den mehr als 6.400 anwesenden CIOs und IT-Führungskräften in ihrer Eröffnungsrede. „Gleichzeitig sehen sie sich in einer Sackgasse gefangen, wenn es darum geht, mit KI Mehrwert zu schaffen.“ „CIOs können jedoch das Tempo in ihrem Wettlauf um KI-Ergebnisse selbst bestimmen“, fügt ihr Kollege Daryl Plummer, Distinguished VP Analyst, Chief Research bei Gartner, hinzu. „Wenn Sie bescheidene KI-Ambitionen haben, können Sie es sich leisten, in einer Branche, die noch nicht von KI transformiert wurde, ein gemächlicheres Tempo anzuschlagen.“ Für Unternehmen mit größeren KI-Ambitionen oder in einer Branche, die von KI transformiert wird, werde das Tempo höher sein, so Plummer. „Aber egal, ob Sie sich in einem gleichmäßigen oder beschleunigten Tempo bewegen, Sie müssen Mehrwert und Ergebnisse liefern.“ Das sei leichter gesagt als getan, betonen die beiden Analysten in ihrer Keynote. Zunächst müssten die Mitarbeiter GenAl-Tools konsequent in ihren Arbeitsabläufen einsetzen, um mit generativer KI (GenAl) geschäftlichen Mehrwert zu generieren. Sie verwiesen auf eine Gartner-Studie aus dem zweiten Quartal 2024, wonach Mitarbeiter durch den Einsatz von GenAl durchschnittlich 3,37 Stunden pro Woche einsparen. Diese Zeitersparnis führe aber nicht zwangsläufig zu höherer Produktivität, sondern möglicherweise nur zu längeren Pausen, skizziert die Gartner-Analystin das „Chai-Latte-Problem“. Unterschiedliche Produktivitätsgewinne Hinzu kommt, dass nicht alle Mitarbeiter in gleichem Maße von der Nutzung von GenAl profitieren. „Die Produktivitätsgewinne durch GenAl sind nicht gleichmäßig verteilt, sondern variieren von Mitarbeiter zu Mitarbeiter – nicht nur aufgrund ihres persönlichen Interesses und ihrer Fähigkeiten, sondern auch aufgrund der Komplexität ihrer Arbeit und ihrer Erfahrung“, so Plummer. In wenig komplexen Bereichen wie einem Callcenter bringe der Einsatz von GenAI etwa für erfahrene Mitarbeiter fast keinen Vorteil, während er bei einem Rechtsanwalt einen riesigen Unterschied mache. Unternehmen, die ihr Wachstum mit KI vorantreiben wollen, suchten daher auch nach Vorteilen, die über die Produktivität hinausgehen, also nach Verbesserungen bei den Abläufen und Prozessen, wie etwa die Automatisierung wichtiger Geschäftsprozesse oder die Umgestaltung von Rollen für die Arbeit mit Chatbots. Oder – auf Business-Ebene – nach Verbesserungen, die neue Umsatzquellen erschließen oder den Wertbeitrag des Unternehmes neu gestalten. „In diesen Fällen sollten ClOs die KI-Vorteile wie ein Aktien-Portfolio verwalten“ empfiehlt Mullery: „Bestimmen Sie den Umfang Ihres Einsatzes in jedem Anwendungsbereich und verwalten Sie die Risiken und Chancen in diesem Portfolio.“ Dieser Rat kommt nicht von ungefähr, denn die Kosten von KI können laut der Analystin schnell außer Kontrolle geraten. In einer Mitte des Jahres vorgenommenen Gartner-Umfrage unter mehr als 300 CIOs hätten mehr als 90 Prozent der Teilnehmer angegeben, das Kostenmanagement schränke ihre Fähigkeit ein, den Wert von KI für ihr Unternehmen zu steigern. Aus Sicht von Gartner sind die Kosten sogar ein ebenso großes KI-Risiko wie Sicherheit oder Halluzinationen: „Wenn CIOs nicht verstehen, wie ihre KI-Kosten skalieren, könnten sie ihre Kostenkalkulation um 500 bis 1.000 Prozent unterschätzen“, warnt Plummer. „Ein CIO muss seine KI-Kosten verstehen. Er muss die Kostenkomponenten und die Optionen des Preismodells kennen und wissen, wie er diese Kosten senken und mit den Anbietern verhandeln kann. Zudem empfiehlt Gartner, dass CIOs neben Proofs of Concept auch Proofs of Costs erstellen sollten, um die Skalierbarkeit der Kosten und nicht nur die Funktionsfähigkeit der Technologie zu testen. Technologie-Sandwich schützt vor KI-Risiken Da sich KI und Daten im gesamten Unternehmen ausbreiten, sind diese keine zentralisierten Assets mehr, die direkt von der IT kontrolliert werden. Aus diesem Grund sind laut Gartner neue Ansätze erforderlich, um den Datenzugriff zu verwalten und zu schützen, den Input und Output von KI zu steuern und die Wertschöpfung zu gewährleisten. „Hier kommt das Konzept des Technologie-Sandwichs ins Spiel“, beschreibt Plummer den KI-Technologiestapel der Zukunft. „Auf der Unterseite des Sandwichs befinden sich alle Daten und KI aus der IT, die in der Regel zentralisiert sind. Auf der Oberseite befinden sich alle Daten und KI, die von überall her kommen und in der Regel dezentralisiert sind. Und in der Mitte befinden sich die Technologien für das Vertrauens-, Risiko- und Sicherheitsmanagement (Trust, Risk & Security Management – TRiSM), die das Ganze absichern.” „Als CIO ist es Ihre Aufgabe, ein Technologie-Sandwich zu entwerfen, das mit der Unordnung von KI umgehen kann und gleichzeitig offen für neue Möglichkeiten bleibt“, sagt Mullery. „Unternehmen, die sich auf weniger KI beschränken (zehn KI-Initiativen oder weniger), werden in der Lage sein, ihre Technologie-Sandwiches mit Hilfe von Teams und Komitees zu handeln.” Unternehmen mit einem AI-Accelerated-Ansatz müssten jedoch TRiSM-Technologien hinzufügen. “Quasi ein Deluxe-Sandwich”, wie Plummer es formuliert. 

„CIOs müssen ihr KI-Tempo selbst bestimmen“​ Auf dem Gartner Symposium gaben die Analysten nicht nur Tipps zum Tempo, sondern auch zur Absicherung von KI-Initiativen.Gartner

„Durch die unaufhaltsame Innovation im Wettlauf der Technologieanbieter haben CIOs das Gefühl, permanent im Hype zu leben“, erklärt Alicia Mullery, VP Research bei Gartner, den mehr als 6.400 anwesenden CIOs und IT-Führungskräften in ihrer Eröffnungsrede. „Gleichzeitig sehen sie sich in einer Sackgasse gefangen, wenn es darum geht, mit KI Mehrwert zu schaffen.“

„CIOs können jedoch das Tempo in ihrem Wettlauf um KI-Ergebnisse selbst bestimmen“, fügt ihr Kollege Daryl Plummer, Distinguished VP Analyst, Chief Research bei Gartner, hinzu. „Wenn Sie bescheidene KI-Ambitionen haben, können Sie es sich leisten, in einer Branche, die noch nicht von KI transformiert wurde, ein gemächlicheres Tempo anzuschlagen.“

Für Unternehmen mit größeren KI-Ambitionen oder in einer Branche, die von KI transformiert wird, werde das Tempo höher sein, so Plummer. „Aber egal, ob Sie sich in einem gleichmäßigen oder beschleunigten Tempo bewegen, Sie müssen Mehrwert und Ergebnisse liefern.“

Das sei leichter gesagt als getan, betonen die beiden Analysten in ihrer Keynote. Zunächst müssten die Mitarbeiter GenAl-Tools konsequent in ihren Arbeitsabläufen einsetzen, um mit generativer KI (GenAl) geschäftlichen Mehrwert zu generieren. Sie verwiesen auf eine Gartner-Studie aus dem zweiten Quartal 2024, wonach Mitarbeiter durch den Einsatz von GenAl durchschnittlich 3,37 Stunden pro Woche einsparen. Diese Zeitersparnis führe aber nicht zwangsläufig zu höherer Produktivität, sondern möglicherweise nur zu längeren Pausen, skizziert die Gartner-Analystin das „Chai-Latte-Problem“.

Unterschiedliche Produktivitätsgewinne

Hinzu kommt, dass nicht alle Mitarbeiter in gleichem Maße von der Nutzung von GenAl profitieren. „Die Produktivitätsgewinne durch GenAl sind nicht gleichmäßig verteilt, sondern variieren von Mitarbeiter zu Mitarbeiter – nicht nur aufgrund ihres persönlichen Interesses und ihrer Fähigkeiten, sondern auch aufgrund der Komplexität ihrer Arbeit und ihrer Erfahrung“, so Plummer. In wenig komplexen Bereichen wie einem Callcenter bringe der Einsatz von GenAI etwa für erfahrene Mitarbeiter fast keinen Vorteil, während er bei einem Rechtsanwalt einen riesigen Unterschied mache.

Unternehmen, die ihr Wachstum mit KI vorantreiben wollen, suchten daher auch nach Vorteilen, die über die Produktivität hinausgehen, also nach Verbesserungen bei den Abläufen und Prozessen, wie etwa die Automatisierung wichtiger Geschäftsprozesse oder die Umgestaltung von Rollen für die Arbeit mit Chatbots. Oder – auf Business-Ebene – nach Verbesserungen, die neue Umsatzquellen erschließen oder den Wertbeitrag des Unternehmes neu gestalten.

„In diesen Fällen sollten ClOs die KI-Vorteile wie ein Aktien-Portfolio verwalten“ empfiehlt Mullery: „Bestimmen Sie den Umfang Ihres Einsatzes in jedem Anwendungsbereich und verwalten Sie die Risiken und Chancen in diesem Portfolio.“

Dieser Rat kommt nicht von ungefähr, denn die Kosten von KI können laut der Analystin schnell außer Kontrolle geraten. In einer Mitte des Jahres vorgenommenen Gartner-Umfrage unter mehr als 300 CIOs hätten mehr als 90 Prozent der Teilnehmer angegeben, das Kostenmanagement schränke ihre Fähigkeit ein, den Wert von KI für ihr Unternehmen zu steigern.

Aus Sicht von Gartner sind die Kosten sogar ein ebenso großes KI-Risiko wie Sicherheit oder Halluzinationen: „Wenn CIOs nicht verstehen, wie ihre KI-Kosten skalieren, könnten sie ihre Kostenkalkulation um 500 bis 1.000 Prozent unterschätzen“, warnt Plummer. „Ein CIO muss seine KI-Kosten verstehen. Er muss die Kostenkomponenten und die Optionen des Preismodells kennen und wissen, wie er diese Kosten senken und mit den Anbietern verhandeln kann.

Zudem empfiehlt Gartner, dass CIOs neben Proofs of Concept auch Proofs of Costs erstellen sollten, um die Skalierbarkeit der Kosten und nicht nur die Funktionsfähigkeit der Technologie zu testen.

Technologie-Sandwich schützt vor KI-Risiken

Da sich KI und Daten im gesamten Unternehmen ausbreiten, sind diese keine zentralisierten Assets mehr, die direkt von der IT kontrolliert werden. Aus diesem Grund sind laut Gartner neue Ansätze erforderlich, um den Datenzugriff zu verwalten und zu schützen, den Input und Output von KI zu steuern und die Wertschöpfung zu gewährleisten.

„Hier kommt das Konzept des Technologie-Sandwichs ins Spiel“, beschreibt Plummer den KI-Technologiestapel der Zukunft. „Auf der Unterseite des Sandwichs befinden sich alle Daten und KI aus der IT, die in der Regel zentralisiert sind. Auf der Oberseite befinden sich alle Daten und KI, die von überall her kommen und in der Regel dezentralisiert sind. Und in der Mitte befinden sich die Technologien für das Vertrauens-, Risiko- und Sicherheitsmanagement (Trust, Risk & Security Management – TRiSM), die das Ganze absichern.”

„Als CIO ist es Ihre Aufgabe, ein Technologie-Sandwich zu entwerfen, das mit der Unordnung von KI umgehen kann und gleichzeitig offen für neue Möglichkeiten bleibt“, sagt Mullery. „Unternehmen, die sich auf weniger KI beschränken (zehn KI-Initiativen oder weniger), werden in der Lage sein, ihre Technologie-Sandwiches mit Hilfe von Teams und Komitees zu handeln.”

Unternehmen mit einem AI-Accelerated-Ansatz müssten jedoch TRiSM-Technologien hinzufügen. “Quasi ein Deluxe-Sandwich”, wie Plummer es formuliert.

„CIOs müssen ihr KI-Tempo selbst bestimmen“​ Weiterlesen »

Was bringen KI-Agenten als Schwarm?​

Allgemein

Agentenbasierte KI-Schwärme könnten der nächste große KI-Trend werden. Varavin88/Shutterstock.com Entwickler verwenden bereits mehrere Large Language Models (LLM) und andere generative KI-basierte Tools bei der Erstellung von Automatisierungstools. Bald werden diese Tools in der Lage sein, sich gegenseitig zu nutzen. Wohin die Reise gehen könnte, zeigt ein experimentelles Framework von OpenAI. Die KI-Schmiede führte im Oktober mit OpenAI Swarm ein System zur Entwicklung von agentenbasierten KI-Schwärmen ein. Netzwerke autonomer KI-Agenten sollen so in der Lage sein, komplexe Aufgaben ohne menschliches Eingreifen gemeinsam zu bewältigen. Schwarm-Framework OpenAI Swarm Allerdings handelt es sich bei Swarm nicht um ein fertiges Produkt. Es ist vielmehr ein experimentelles Tool zur Koordinierung oder Orchestrierung von Netzwerken von KI-Agenten. Das Framework ist als Open-Source-Software unter den Bedingungen einer MIT-Lizenz erhältlich und auf GitHub verfügbar. Auf GitHub betont OpenAI ausdrücklich den experimentellen Charakter des Frameworks. So sei ein produktiver Einsatz nicht vorgesehen. Vielmehr sei es das Ziel, zu Lernzwecken, Übergabe- und Routinemuster zu präsentieren. Andere Wege zur Schwarm-KI Allerdings ist OpenAI Swarm nicht die einzige Option auf dem Weg zu agentenbasierten KI-Schwärmen. Theoretisch eignet sich dafür jedes Tool, das für die Orchestrierung mehrerer Agenten konzipiert ist. Je nach Auslegung können solche Systeme KI-Agenten in unterschiedlichem Maße miteinander agieren lassen. Dazu gehören etwa: Microsoft AutoGen, CrewAI, LangChain, LangGraph, MetaGPT, AutoGPT sowie Haystack. Entscheidet die KI künftig selbst, welche Tools sie zum Erreichen ihrer Ziele verwendet? Thanadon88/Shutterstock.com Unabhängig von der Frage des Doings, scheint sich mit der Entwicklung der Agentic-AI-Swarming-Technologie eines abzuzeichnen. Sie wird die Art und Weise, wie KI-Tools entwickelt werden und wie mit ihnen gearbeitet wird, grundlegend verändern. Gamechanger Agentic-AI-Swarming? Noch erstellen Entwickler dedizierte KI-Tools, die eine bestimmte Aufgabe erstellen. Agentic-AI-Swarming ermöglicht es dann, eine große Anzahl solcher Tools zu erstellen, die auf unterschiedliche spezifische Aufgaben spezialisiert sind. Dabei könnte jedes Tool, andere vorhandene Tools verwenden, wenn der Agent entscheidet, dass die Aufgabe besser von einer anderen Art von Tool erledigt werden sollte. Beispiele für solche Tools wären etwa: 1. RAG (Retrieval-Augmented Generation): Verbesserung der Textgenerierung durch relevante abgerufene Informationen. Im Grunde würden diese Agenten die Aufgabe haben, „zu googeln“ und mit den gefundenen Informationen zur eigentlichen Aufgabe zurückzukehren. 2. NL2SQL: Umwandlung von Abfragen in natürlicher Sprache in SQL-Befehle. 3. Textgenerierung: Erstellung verschiedener Formen schriftlicher Inhalte. 4. Code-Generierung: Erstellung von Code auf der Grundlage von Beschreibungen in natürlicher Sprache. 5. Datenanalyse: Verarbeitung und Interpretation großer Datensätze. 6. Bildgenerierung: Erstellung von Bildern aus Textaufforderungen. 7. Sprachsynthese: Umwandlung von Text in gesprochenes Audio. 8. Sprachübersetzung: Übersetzung zwischen verschiedenen Sprachen. 9. Zusammenfassung: Verdichtung von langen Inhalten zu prägnanten Zusammenfassungen. 10. Dialogmanagement: Abwicklung von mehrteiligen Gesprächen in Chatbots. Dabei würde nicht mehr der Benutzer entscheiden, wann er welches Tool für welchen Zweck nutzt. Diese Entscheidung träfe der KI-Agent autonom in eigner Regie. Gefahren und Risiken der Schwarm-KI KI-Agenten-Schwärme hätten so das Zeug dazu, die Produktivität von Unternehmen nochmals erheblich zu steigern. Gleichzeitig erhöhen sie die Risiken, die mit dem KI-Einsatz einhergehen. So könnten mit den KI-Agenten-Schwärmen noch ausgefeiltere IT-Angriffe durchgeführt werden. Darüber hinaus droht das Risiko, dass die KI zu komplex und damit nicht mehr beherrschbar wird. Es wird immer schwerer vorhersehbar, wie eine KI ihre Ziele erreicht. Und, ob dazu überhaupt die gewünschten Entscheidungskriterien und -grundlagen verwendet wurden. 

Was bringen KI-Agenten als Schwarm?​ Agentenbasierte KI-Schwärme könnten der nächste große KI-Trend werden.
Varavin88/Shutterstock.com

Entwickler verwenden bereits mehrere Large Language Models (LLM) und andere generative KI-basierte Tools bei der Erstellung von Automatisierungstools. Bald werden diese Tools in der Lage sein, sich gegenseitig zu nutzen.

Wohin die Reise gehen könnte, zeigt ein experimentelles Framework von OpenAI. Die KI-Schmiede führte im Oktober mit OpenAI Swarm ein System zur Entwicklung von agentenbasierten KI-Schwärmen ein. Netzwerke autonomer KI-Agenten sollen so in der Lage sein, komplexe Aufgaben ohne menschliches Eingreifen gemeinsam zu bewältigen.

Schwarm-Framework OpenAI Swarm

Allerdings handelt es sich bei Swarm nicht um ein fertiges Produkt. Es ist vielmehr ein experimentelles Tool zur Koordinierung oder Orchestrierung von Netzwerken von KI-Agenten. Das Framework ist als Open-Source-Software unter den Bedingungen einer MIT-Lizenz erhältlich und auf GitHub verfügbar.

Auf GitHub betont OpenAI ausdrücklich den experimentellen Charakter des Frameworks. So sei ein produktiver Einsatz nicht vorgesehen. Vielmehr sei es das Ziel, zu Lernzwecken, Übergabe- und Routinemuster zu präsentieren.

Andere Wege zur Schwarm-KI

Allerdings ist OpenAI Swarm nicht die einzige Option auf dem Weg zu agentenbasierten KI-Schwärmen. Theoretisch eignet sich dafür jedes Tool, das für die Orchestrierung mehrerer Agenten konzipiert ist. Je nach Auslegung können solche Systeme KI-Agenten in unterschiedlichem Maße miteinander agieren lassen. Dazu gehören etwa: Microsoft AutoGen, CrewAI, LangChain, LangGraph, MetaGPT, AutoGPT sowie Haystack.

Entscheidet die KI künftig selbst, welche Tools sie zum Erreichen ihrer Ziele verwendet?
Thanadon88/Shutterstock.com

Unabhängig von der Frage des Doings, scheint sich mit der Entwicklung der Agentic-AI-Swarming-Technologie eines abzuzeichnen. Sie wird die Art und Weise, wie KI-Tools entwickelt werden und wie mit ihnen gearbeitet wird, grundlegend verändern.

Gamechanger Agentic-AI-Swarming?

Noch erstellen Entwickler dedizierte KI-Tools, die eine bestimmte Aufgabe erstellen. Agentic-AI-Swarming ermöglicht es dann, eine große Anzahl solcher Tools zu erstellen, die auf unterschiedliche spezifische Aufgaben spezialisiert sind. Dabei könnte jedes Tool, andere vorhandene Tools verwenden, wenn der Agent entscheidet, dass die Aufgabe besser von einer anderen Art von Tool erledigt werden sollte.

Beispiele für solche Tools wären etwa:

1. RAG (Retrieval-Augmented Generation): Verbesserung der Textgenerierung durch relevante abgerufene Informationen. Im Grunde würden diese Agenten die Aufgabe haben, „zu googeln“ und mit den gefundenen Informationen zur eigentlichen Aufgabe zurückzukehren.

2. NL2SQL: Umwandlung von Abfragen in natürlicher Sprache in SQL-Befehle.

3. Textgenerierung: Erstellung verschiedener Formen schriftlicher Inhalte.

4. Code-Generierung: Erstellung von Code auf der Grundlage von Beschreibungen in natürlicher Sprache.

5. Datenanalyse: Verarbeitung und Interpretation großer Datensätze.

6. Bildgenerierung: Erstellung von Bildern aus Textaufforderungen.

7. Sprachsynthese: Umwandlung von Text in gesprochenes Audio.

8. Sprachübersetzung: Übersetzung zwischen verschiedenen Sprachen.

9. Zusammenfassung: Verdichtung von langen Inhalten zu prägnanten Zusammenfassungen.

10. Dialogmanagement: Abwicklung von mehrteiligen Gesprächen in Chatbots. Dabei würde nicht mehr der Benutzer entscheiden, wann er welches Tool für welchen Zweck nutzt. Diese Entscheidung träfe der KI-Agent autonom in eigner Regie.

Gefahren und Risiken der Schwarm-KI

KI-Agenten-Schwärme hätten so das Zeug dazu, die Produktivität von Unternehmen nochmals erheblich zu steigern. Gleichzeitig erhöhen sie die Risiken, die mit dem KI-Einsatz einhergehen.

So könnten mit den KI-Agenten-Schwärmen noch ausgefeiltere IT-Angriffe durchgeführt werden. Darüber hinaus droht das Risiko, dass die KI zu komplex und damit nicht mehr beherrschbar wird.

Es wird immer schwerer vorhersehbar, wie eine KI ihre Ziele erreicht. Und, ob dazu überhaupt die gewünschten Entscheidungskriterien und -grundlagen verwendet wurden.

Was bringen KI-Agenten als Schwarm?​ Weiterlesen »

Deutsche Unternehmen knausern bei GenAI-Budget​

Allgemein

Angesichts der schwachen Wirtschaft agieren CFOs weiterhin defensiv – auch bei GenAI.PeopleImages.com – Yuri A/Shutterstock.com Trotz des allgemein erwarteten hohen Potenzials von generativer Künstlicher Intelligenz (GenAI) halten sich deutsche Unternehmen mit ihren Budgets für GenAI zurück. Obwohl sie sich von der Technologie deutliche Produktivitätssteigerungen versprechen.   Zu diesen Ergebnissen kommt die aktuelle Ausgabe des Deloitte CFO Survey. An der Umfrage nahmen zwischen dem 12. September und dem 2. Oktober diesen Jahres 185 Finanzvorstände deutscher Unternehmen teil.  Signifikante Produktivitätssteigerungen durch GenAI erwartet   Demnach erhofft sich die Hälfte der Befragten durch den Einsatz der Technologie in den nächsten drei Jahren eine Produktivitätssteigerung von ein bis fünf Prozent. 27 Prozent erwarten sogar noch höhere Zuwächse. Zum Vergleich: Seit den 1970er Jahren sind die jährlichen Wachstumsraten der Arbeitsproduktivität in Deutschland von rund vier Prozent auf ein Prozent gesunken.   Dennoch planen laut Studie 57 Prozent der Unternehmen, bis 2025 weniger als ein Prozent ihres gesamten Investitionsbudgets in die neue Technologie zu stecken. Immerhin ein Drittel der Unternehmen kalkuliert mit einem Anteil von bis zu fünf Prozent.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?quality=50&strip=all 1519w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Finanzchefs haben das Potenzial von GenAI erkannt, halten sich jedoch – konjunkturbedingt – mit den Investitionen zurück. Deloitte Das größte Potenzial für GenAI in ihrem Unternehmen sehen die deutschen CFOs in der IT (61 Prozent), gefolgt von Finance (54 Prozent), Kundenservice (45 Prozent) sowie Vertrieb und Marketing (39 Prozent). Die Bereiche Produktion (20 Prozent), Forschung und Entwicklung (17 Prozent) sowie Produktentwicklung (16 Prozent) werden dagegen von den CFOs als vergleichsweise weniger relevant eingeschätzt.  Einsatzmöglichkeiten im Finanzbereich  Innerhalb des Finanzbereichs planen die meisten Unternehmen den Einsatz von GenAI im Management-Reporting sowie in Planung, Budgetierung und Forecasting. Dabei dürften neben Effizienzsteigerungen auch Effektivitätspotenziale im Vordergrund stehen, beispielsweise die Optimierung des Produkt- und Kundenmix, so Deloitte.  Etwa die Hälfte der Unternehmen untersucht derzeit die Anwendungspotenziale von GenAI im Finance. 18 Prozent pilotieren bereits erste Anwendungen. Andererseits haben 30 Prozent noch nichts unternommen, beziehungsweise halten die Technologie in diesem Bereich nicht für relevant.   Aus Sicht von Markus Seeger, Director bei Deloitte, ist das ein Fehler. „Aufgrund des disruptiven Potenzials von GenAI können die First Mover erhebliche Wettbewerbsvorteile erzielen. Frühzeitige Investitionen in die Dateninfrastruktur, der Aufbau eigener GenAI-Kompetenzen und die Einbindung der richtigen Technologiepartner sind kritische Erfolgsfaktoren bei der GenAI-Einführung“, erklärt der Experte für Finanztransformationen.  

Deutsche Unternehmen knausern bei GenAI-Budget​ Angesichts der schwachen Wirtschaft agieren CFOs weiterhin defensiv – auch bei GenAI.PeopleImages.com – Yuri A/Shutterstock.com

Trotz des allgemein erwarteten hohen Potenzials von generativer Künstlicher Intelligenz (GenAI) halten sich deutsche Unternehmen mit ihren Budgets für GenAI zurück. Obwohl sie sich von der Technologie deutliche Produktivitätssteigerungen versprechen.  

Zu diesen Ergebnissen kommt die aktuelle Ausgabe des Deloitte CFO Survey. An der Umfrage nahmen zwischen dem 12. September und dem 2. Oktober diesen Jahres 185 Finanzvorstände deutscher Unternehmen teil. 

Signifikante Produktivitätssteigerungen durch GenAI erwartet  

Demnach erhofft sich die Hälfte der Befragten durch den Einsatz der Technologie in den nächsten drei Jahren eine Produktivitätssteigerung von ein bis fünf Prozent. 27 Prozent erwarten sogar noch höhere Zuwächse. Zum Vergleich: Seit den 1970er Jahren sind die jährlichen Wachstumsraten der Arbeitsproduktivität in Deutschland von rund vier Prozent auf ein Prozent gesunken.  

Dennoch planen laut Studie 57 Prozent der Unternehmen, bis 2025 weniger als ein Prozent ihres gesamten Investitionsbudgets in die neue Technologie zu stecken. Immerhin ein Drittel der Unternehmen kalkuliert mit einem Anteil von bis zu fünf Prozent. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?quality=50&strip=all 1519w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/deloitte_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Finanzchefs haben das Potenzial von GenAI erkannt, halten sich jedoch – konjunkturbedingt – mit den Investitionen zurück. Deloitte

Das größte Potenzial für GenAI in ihrem Unternehmen sehen die deutschen CFOs in der IT (61 Prozent), gefolgt von Finance (54 Prozent), Kundenservice (45 Prozent) sowie Vertrieb und Marketing (39 Prozent). Die Bereiche Produktion (20 Prozent), Forschung und Entwicklung (17 Prozent) sowie Produktentwicklung (16 Prozent) werden dagegen von den CFOs als vergleichsweise weniger relevant eingeschätzt. 

Einsatzmöglichkeiten im Finanzbereich 

Innerhalb des Finanzbereichs planen die meisten Unternehmen den Einsatz von GenAI im Management-Reporting sowie in Planung, Budgetierung und Forecasting. Dabei dürften neben Effizienzsteigerungen auch Effektivitätspotenziale im Vordergrund stehen, beispielsweise die Optimierung des Produkt- und Kundenmix, so Deloitte. 

Etwa die Hälfte der Unternehmen untersucht derzeit die Anwendungspotenziale von GenAI im Finance. 18 Prozent pilotieren bereits erste Anwendungen. Andererseits haben 30 Prozent noch nichts unternommen, beziehungsweise halten die Technologie in diesem Bereich nicht für relevant.  

Aus Sicht von Markus Seeger, Director bei Deloitte, ist das ein Fehler. „Aufgrund des disruptiven Potenzials von GenAI können die First Mover erhebliche Wettbewerbsvorteile erzielen. Frühzeitige Investitionen in die Dateninfrastruktur, der Aufbau eigener GenAI-Kompetenzen und die Einbindung der richtigen Technologiepartner sind kritische Erfolgsfaktoren bei der GenAI-Einführung“, erklärt der Experte für Finanztransformationen. 

Deutsche Unternehmen knausern bei GenAI-Budget​ Weiterlesen »

Schlüsselfaktor KI: Wie Behörden moderner werden​

Allgemein

Die große Mehrheit der Bürger in Deutschland würde die meisten Verwaltungsangelegenheiten am liebsten online erledigen – sie scheitern aber immer noch am fehlenden Angebot. Zu diesem Ergebnis kommt eine brandneue Studie des Branchenverbandes Bitkom. Doch Behörden stehen bei der Digitalisierung vor enormen Herausforderungen angesichts der steigenden Flut an Vorschriften und Anforderungen bei knappen Budgets und dünner Personaldecke. Künstliche Intelligenz kann hier Abhilfe schaffen. Durch den Einsatz smarter Lösungen kann der öffentliche Sektor den Ressourceneinsatz optimieren, „richtig“ priorisieren und behalten die stetig wachsenden Herausforderungen mit der gegebenen Personaldecke im Griff. Ein COMPUTERWOCHE Webcast in Kooperation mit SAS Institute zeigt anhand konkreter Praxisbeispiele, wie Behörden durch künstliche Intelligenz schneller und effizienter werden. Sie erfahren, welche Bausteine für den Erfolg von KI-Projekten in Behörden entscheidend sind und wie Sie mithilfe von KI die Auswirkungen von Gesetzesänderungen, zum Beispiel auf Steuereinnahmen, besser vorhersagen können. Jannic Horst vom SAS Institute gibt einen tiefen Einblick in die Möglichkeiten, die Verwaltung durch KI entscheidend zu verbessern. Der Experte zeigt zudem, welche Rolle generative KI bei der Aufdeckung von Betrugsfällen spielen kann und wie Software auch bei der Einhaltung ethischer und regulatorischer Anforderungen helfen kann. Der Fachjournalist Dr. Thomas Hafen moderiert den Webcast. Registrieren Sie sich jetzt 

Schlüsselfaktor KI: Wie Behörden moderner werden​ Die große Mehrheit der Bürger in Deutschland würde die meisten Verwaltungsangelegenheiten am liebsten online erledigen – sie scheitern aber immer noch am fehlenden Angebot. Zu diesem Ergebnis kommt eine brandneue Studie des Branchenverbandes Bitkom. Doch Behörden stehen bei der Digitalisierung vor enormen Herausforderungen angesichts der steigenden Flut an Vorschriften und Anforderungen bei knappen Budgets und dünner Personaldecke. Künstliche Intelligenz kann hier Abhilfe schaffen. Durch den Einsatz smarter Lösungen kann der öffentliche Sektor den Ressourceneinsatz optimieren, „richtig“ priorisieren und behalten die stetig wachsenden Herausforderungen mit der gegebenen Personaldecke im Griff.

Ein COMPUTERWOCHE Webcast in Kooperation mit SAS Institute zeigt anhand konkreter Praxisbeispiele, wie Behörden durch künstliche Intelligenz schneller und effizienter werden. Sie erfahren, welche Bausteine für den Erfolg von KI-Projekten in Behörden entscheidend sind und wie Sie mithilfe von KI die Auswirkungen von Gesetzesänderungen, zum Beispiel auf Steuereinnahmen, besser vorhersagen können.

Jannic Horst vom SAS Institute gibt einen tiefen Einblick in die Möglichkeiten, die Verwaltung durch KI entscheidend zu verbessern. Der Experte zeigt zudem, welche Rolle generative KI bei der Aufdeckung von Betrugsfällen spielen kann und wie Software auch bei der Einhaltung ethischer und regulatorischer Anforderungen helfen kann. Der Fachjournalist Dr. Thomas Hafen moderiert den Webcast.

Registrieren Sie sich jetzt

Schlüsselfaktor KI: Wie Behörden moderner werden​ Weiterlesen »

DuckDuckGo: Privacy-Browser unter Windows nutzen​

Allgemein

DuckDuckGo herunterladen Thomas Rieske Lösung: DuckDuckGo ist momentan als Public-Beta-Version auf Englisch für Windows-Computer verfügbar. Sie finden den Installer auf der Projekt-Website. Klicken Sie dort im oberen Bereich auf die Schaltfläche Browser herunterladen. Anschließend werden Sie auf eine Seite weitergeleitet, die eine kurze Erläuterung zum weiteren Prozedere enthält. Der Download startet automatisch. Setup-Datei öffnen Thomas Rieske Nun öffnen Sie die heruntergeladene Installationsdatei, die sich standardmäßig in Ihrem Downloads-Ordner befindet. Sie können das Setup aber auch direkt aus dem Browser heraus aufrufen, in Chrome beispielsweise über den Downloadverlauf. Installation starten Thomas Rieske Im nächsten Fenster entfernen Sie gegebenenfalls das per Default gesetzte Häkchen vor Launch when ready, wenn Sie nicht wollen, dass der Browser direkt nach der Installation startet. Mit einem Klick auf den Install-Button geht es dann los. Erste Schritte Thomas Rieske Nachdem die Installation abgeschlossen ist, begrüßt Sie DuckDuckGo mit einem fast leeren Willkommens-Bildschirm. Bevor Sie weitermachen können, müssen Sie auf die Schaltfläche Get Started klicken. Einrichtung Thomas Rieske Anschließend werden Sie in sechs Schritten über die wichtigsten Funktionen informiert. Darüber hinaus können Sie bereits einige grundlegende Einstellungen vornehmen oder zum Beispiel Lesezeichen aus anderen Browsern importieren. Falls Sie eine Aktion aktuell nicht durchführen möchten, lässt sie sich mit Skip überspringen und später nachholen. Surf-Sitzung starten Thomas Rieske Nach Abschluss der Erstkonfiguration klicken Sie einfach auf den Button Start Browsing. Danach können Sie wie gewohnt im Internet surfen, wobei die Vorgaben so gesetzt sind, dass eine möglichst hohe Sicherheit und Privatsphäre gewährleistet sind. Als Standardsuchmaschine von DuckDuckGo kommt naturgemäß das gleichnamige Eigenprodukt zum Einsatz. Weitere Anpassungen Thomas Rieske Wenn Sie Einstellungen ändern oder während der Ersteinrichtung übersprungene Aktionen nachholen wollen, klicken Sie oben rechts neben der Adressleiste auf die drei waagerechten Punkte. Im Menü, das daraufhin angezeigt wird, wählen Sie den Eintrag Settings. Die Settings-Kategorien Thomas Rieske DuckDuckGo öffnet anschließend einen neuen Tab. Hier finden Sie links verschiedene Kategorien, zu denen Sie navigieren können, etwa Privacy. Darüber lässt sich beispielsweise der Umgang mit Cookie-Zustimmungs-Dialogen regeln, wozu in anderen Browsern Erweiterungen wie I still don’t care about cookies erforderlich sind. Duck-Player-Einstellungen Thomas Rieske Eine Spezialität von DuckDuckGo ist der Duck Player. Wenn Sie links diese Kategorie anwählen, können Sie im rechten Teil des Fensters den Umgang mit YouTube-Videos festlegen. Die Vorgabe lautet Show option to use Duck Player over YouTube previews on hover, also die wahlweise Wiedergabe im Duck Player, einer Art Sandbox. Personalisierte Werbung beispielsweise wird hier unterdrückt. YouTube-Videos mit dem Duck Player abspielen Thomas Rieske Wenn Sie bei aktivierter Standardoption die Maus über die Vorschau eines Videos bewegen, erscheint oben links im Clip das DuckDuckGo-Logo. Nachdem Sie darauf geklickt haben, startet das Video direkt im Duck Player. Die automatische Wiedergabe funktioniert allerdings nicht immer, gelegentlich muss man doch selbst den Play-Button drücken. Produkte: Der Trick funktioniert mit dem Webbrowser von DuckDuckGo Version 0.92.2 für Windows. 

DuckDuckGo: Privacy-Browser unter Windows nutzen​ DuckDuckGo herunterladen

Thomas Rieske

Lösung: DuckDuckGo ist momentan als Public-Beta-Version auf Englisch für Windows-Computer verfügbar. Sie finden den Installer auf der Projekt-Website. Klicken Sie dort im oberen Bereich auf die Schaltfläche Browser herunterladen. Anschließend werden Sie auf eine Seite weitergeleitet, die eine kurze Erläuterung zum weiteren Prozedere enthält. Der Download startet automatisch.

Setup-Datei öffnen

Thomas Rieske

Nun öffnen Sie die heruntergeladene Installationsdatei, die sich standardmäßig in Ihrem Downloads-Ordner befindet. Sie können das Setup aber auch direkt aus dem Browser heraus aufrufen, in Chrome beispielsweise über den Downloadverlauf.

Installation starten

Thomas Rieske

Im nächsten Fenster entfernen Sie gegebenenfalls das per Default gesetzte Häkchen vor Launch when ready, wenn Sie nicht wollen, dass der Browser direkt nach der Installation startet. Mit einem Klick auf den Install-Button geht es dann los.

Erste Schritte

Thomas Rieske

Nachdem die Installation abgeschlossen ist, begrüßt Sie DuckDuckGo mit einem fast leeren Willkommens-Bildschirm. Bevor Sie weitermachen können, müssen Sie auf die Schaltfläche Get Started klicken.

Einrichtung

Thomas Rieske

Anschließend werden Sie in sechs Schritten über die wichtigsten Funktionen informiert. Darüber hinaus können Sie bereits einige grundlegende Einstellungen vornehmen oder zum Beispiel Lesezeichen aus anderen Browsern importieren. Falls Sie eine Aktion aktuell nicht durchführen möchten, lässt sie sich mit Skip überspringen und später nachholen.

Surf-Sitzung starten

Thomas Rieske

Nach Abschluss der Erstkonfiguration klicken Sie einfach auf den Button Start Browsing. Danach können Sie wie gewohnt im Internet surfen, wobei die Vorgaben so gesetzt sind, dass eine möglichst hohe Sicherheit und Privatsphäre gewährleistet sind. Als Standardsuchmaschine von DuckDuckGo kommt naturgemäß das gleichnamige Eigenprodukt zum Einsatz.

Weitere Anpassungen

Thomas Rieske

Wenn Sie Einstellungen ändern oder während der Ersteinrichtung übersprungene Aktionen nachholen wollen, klicken Sie oben rechts neben der Adressleiste auf die drei waagerechten Punkte. Im Menü, das daraufhin angezeigt wird, wählen Sie den Eintrag Settings.

Die Settings-Kategorien

Thomas Rieske

DuckDuckGo öffnet anschließend einen neuen Tab. Hier finden Sie links verschiedene Kategorien, zu denen Sie navigieren können, etwa Privacy. Darüber lässt sich beispielsweise der Umgang mit Cookie-Zustimmungs-Dialogen regeln, wozu in anderen Browsern Erweiterungen wie I still don’t care about cookies erforderlich sind.

Duck-Player-Einstellungen

Thomas Rieske

Eine Spezialität von DuckDuckGo ist der Duck Player. Wenn Sie links diese Kategorie anwählen, können Sie im rechten Teil des Fensters den Umgang mit YouTube-Videos festlegen. Die Vorgabe lautet Show option to use Duck Player over YouTube previews on hover, also die wahlweise Wiedergabe im Duck Player, einer Art Sandbox. Personalisierte Werbung beispielsweise wird hier unterdrückt.

YouTube-Videos mit dem Duck Player abspielen

Thomas Rieske

Wenn Sie bei aktivierter Standardoption die Maus über die Vorschau eines Videos bewegen, erscheint oben links im Clip das DuckDuckGo-Logo. Nachdem Sie darauf geklickt haben, startet das Video direkt im Duck Player. Die automatische Wiedergabe funktioniert allerdings nicht immer, gelegentlich muss man doch selbst den Play-Button drücken.

Produkte: Der Trick funktioniert mit dem Webbrowser von DuckDuckGo Version 0.92.2 für Windows.

DuckDuckGo: Privacy-Browser unter Windows nutzen​ Weiterlesen »

Nach oben scrollen
×