Computerhaus Quickborn

Februar 2025

KI-Starthilfe für Unternehmen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Komplettpakete sollen Unternehmen beim Aufbau einer passenden lokalen Infrastruktur für ihre KI-Aktivitäten helfen. DC Studio / Shutterstock Die meisten Unternehmen, die KI-Technologie einsetzen, wenden sich an Hyperscaler wie Amazon, Google und Microsoft, um die gesamte erforderliche Infrastruktur bereitzustellen. Dies bestätigen auch in letzten Monat veröffentlichte IDC-Daten, denen zufolge die meisten Ausgaben für KI-Server auf Cloud- und gemeinsam genutzten Umgebungen getätigt werden. Im ersten Halbjahr 2024 machten sie einen Anteil von 72 Prozent aus. Als Grund dafür nennen die Marktforscher, dass traditionelle Unternehmen beim Aufbau einer lokalen KI-Infrastruktur weit hinterherhinken.  Mehr als eine Notlösung  Dabei bietet On-Premises-KI einige Vorteile. Beispielsweise können Unternehmen ihre Daten lokal speichern oder Latenzzeiten reduzieren, indem sie Rechenkapazität in der Nähe des Bedarfs bereitstellen. Und wenn Unternehmen wissen, dass sie jeden Monat eine vorhersehbare Menge an Rechenleistung benötigen, können lokale Deployments sogar die Kosten senken.  Viele Unternehmen befinden sich jedoch noch in der Experimentierphase und wissen nicht, wie viel Rechenleistung sie benötigen werden.  Und es gibt noch ein weiteres Problem: Die herkömmliche Infrastruktur ist für KI einfach nicht geeignet. Diese Anwendungen benötigen KI-optimierte Server, Speicher und Netzwerke und alle Komponenten müssen so konfiguriert werden, dass sie gut zusammenarbeiten.   „Der benötigte Technologie-Stack ist völlig anders“, erklärte Neil MacDonald, EVP und GM für High Performance Computing und KI bei HPE, in einer Präsentation Ende letzten Jahres. „Er ähnelt in keinster Weise der Technologie, über die selbst erfahrene Unternehmen verfügen.“  „Eine der Herausforderungen bei KI – wie bei jeder brandneuen Technologie – besteht darin, die richtige Infrastruktur zu kombinieren, damit die Technologie funktioniert“, führt Zeus Kerravala, Gründer und leitender Analyst bei ZK Research, aus. „Wenn eine dieser Komponenten nicht mit den beiden anderen mithalten kann, verschwenden Sie Geld.“  Das Problem, die benötigte Rechenleistung einzuschätzen, löst sich mit der Zeit: Immer mehr Unternehmen gehen von Pilotprojekten zur Produktion über und bekommen eine bessere Vorstellung davon, wie viel KI-Kapazität sie tatsächlich benötigen.  Was das zweite Problem betrifft, so integrieren die Hersteller jetzt Server, Speicher und Netzwerke in ein praktisches KI-Komplettpaket, das On-Premises oder in einer Colocation-Einrichtung eingesetzt werden kann. Alle großen Anbieter, darunter Cisco, HPE und Dell, steigen in das Geschäft ein – und Nvidia schließt schnell Verträge ab, um seine KI-fähigen GPUs in möglichst viele dieser Pakete zu integrieren.  So haben Cisco und Nvidia beispielsweise gerade ihre Partnerschaft erweitert, um die KI im Rechenzentrum zu stärken. Die beiden Unternehmen kündigten an, dass Nvidia Ciscos Silicon-One-Technologie mit Nvidia SuperNICs als Teil seiner Ethernet-Netzwerkplattform Spectrum X koppeln wird und dass Cisco Systeme bauen wird, die Nvidia Spectrum-Silizium mit Cisco OS-Software kombinieren.  Dieses Angebot ist nur das jüngste in einer langen Reihe von Ankündigungen der beiden Unternehmen. So stellte Cisco beispielsweise im Oktober seine KI-Pods vor. Diese nutzen Nvidia-Grafikprozessoren in Servern nutzen, die speziell für groß angelegtes KI-Training entwickelt wurden, sowie die erforderliche Vernetzung und Speicherung.  Aber auch andere Unternehmen mischen mit. So kündigte HPE beispielsweise Mitte Februar die Auslieferung seines Rack-Scale-Systems an, das ebenfalls Nvidia-Grafikprozessoren verwendet. Die Besonderheit des HPE-Angebots besteht darin, dass es eine direkte Flüssigkeitskühlung verwendet, wodurch es für sehr große und komplexe KI-Cluster geeignet ist.  Dell wiederum kündigte Ende 2024 ein neues integriertes Rack für KI an, das sowohl Luft- als auch Flüssigkeitskühlung bietet.  Hohe Nachfrage im Markt  Diese und andere KI-Komplettlösungen werden es nach Ansicht von Experten mehr Unternehmen erleichtern, KI einzusetzen – wenngleich Cisco und HPE die stärksten Angebote und die robustesten Ökosysteme hätten. „Ich würde die von HPE validierte Lösung und die von Cisco validierte Lösung nehmen und sie gegeneinander testen“, erklärte Kerravala.  Der Preis ist heiß: Laut Gartner gaben Unternehmen im vergangenen Jahr 28 Milliarden Dollar für KI-optimierte Server aus. In diesem Jahr wird diese Zahl auf 34 Milliarden Dollar steigen und bis 2028 auf 44 Milliarden Dollar, prognostiziert Gartner-Analyst Tony Harvey.  Das Timing ist entscheidend. In einer Cisco-Umfrage unter fast 8.000 leitenden Führungskräften mit KI-Verantwortung bestätigten 98 Prozent, dass die Dringlichkeit, KI-Lösungen zu liefern, gestiegen ist. Nur jeder Fünfte von ihnen (21 Prozent) gab aber an, über genügend GPUs zu verfügen.  Hinzu kommt, dass nicht alle Unternehmen ihre gesamten KI-Workloads in der Public Cloud ausführen wollen.  „Es gibt Unternehmen, die KI heute implementieren möchten, aber nicht wollen, dass ihre Daten in eine öffentliche Umgebung gelangen“, erklärt Harvey. Sie würden ihre Daten auch nicht unbedingt den großen KI-Anbietern anvertrauen. „Wir wissen, dass sie Urheberrechte verletzt und alle möglichen Dinge getan haben“, so der Gartner-Analyst.  Und dann ist da noch das Kostenproblem. „Ab einem gewissen Punkt ist es günstiger, die KI auf eigener Hardware laufen zu lassen, als in der Cloud“, erläutert Harvey.  Spezialisierte Infrastrukturumgebungen  Was aber macht den Einsatz von KI anders? Am offensichtlichsten ist natürlich, dass KI-Workloads spezialisierte Prozessoren benötigen. Am häufigsten kommen hier Nvidia-GPUs zum Einsatz. Außerdem werden für das KI-Training, aber auch für die Feinabstimmung und die RAG-Einbettung, sehr viele Daten benötigt. Und diese sind nicht mit den Daten vergleichbar, die normalerweise bereitgestellt werden.  „Man braucht eine andere Art von Speicher – wahrscheinlich eher Objektspeicher als Blockspeicher“, konkretisiert Harvey.   Und schließlich müssen alle GPUs miteinander kommunizieren. KI erzeugt riesige Datenströme zwischen GPUs, die Standardnetzwerke überlasten können.  „Die Vernetzung in der KI unterscheidet sich sehr stark von der Vernetzung in einer Standardumgebung“, erklärt Harvey. “Wenn ich meinen KI-Cluster an ein Core-Backbone-Netzwerk anschließen, funktioniert dieses nicht mehr.“  Die KI-Pakete lösen dieses Problem, indem sie ein separates Netzwerk nur für die KI einrichten.  „In einem großen GPU-Cluster gibt es ein Frontend-Netzwerk, das die Verbindung zum Cluster herstellt, und ein Backend-Netzwerk, das alle GPUs im Cluster miteinander verbindet“, erläutert Kevin Wollenweber, SVP & GM für Cisco Networking. “Es ist so konzipiert, dass es frei von Überlastung und Datenverlusten ist.“  Der letzte Unterschied besteht darin, dass für die intensivsten KI-Anwendungsfälle, etwa das Training großer Sprachmodelle, eine herkömmliche Luftkühlung möglicherweise nicht ausreicht.  „Große, leistungsstarke KI-Systeme benötigen eine direkte Flüssigkeitskühlung, da Flüssigkeit im Vergleich zu Luft mehr als 3.000-mal mehr Wärme pro Volumen abführt“, so Trish Damkroger, SVP und GM für High Performance Computing und KI-Infrastrukturlösungen bei HPE.  Ist zu viel Nvidia jemals genug?  Ein weiterer gemeinsamer Nenner dieser KI-Komplettlösungen ist die Abhängigkeit von Nvidia-Grafikprozessoren, was Bedenken hinsichtlich Vendor-Lock-in und der Belastbarkeit der Lieferkette aufwerfen kann.  „Alle benötigen die gleichen Nvidia-Kernbausteine“, betont John Sheehy, Senior Vice President für Forschung und Strategie bei IOActive, einem Cybersicherheitsunternehmen. Dadurch entstehe eine Monokultur, in der ein Anbieter zum kritischen Glied in der KI-Lieferkette werde, was alle einer inakzeptablen Risikokonzentration aussetzt‘.  „Ähnlich verhält es sich mit TSMC“, fügt er hinzu. “Diese Abhängigkeit von einer einzigen Chip-Foundry direkt vor der Küste einer expansionistischen und revisionistischen Macht sollte allen Anlass zur Sorge geben.“  Ein Ausweg aus diesem Dilemma ist nicht in Sicht. In Sachen KI hinken andere Chiphersteller Nvidia weit hinterher, was Leistungsfähigkeit und Größe angeht.  „Sie sind Marktführer und werden es auch weiterhin bleiben“, erklärt Jason Carolan, Chief Innovation Officer beim Colocation-Anbieter Flexential. „Nvidia ist ein zentraler Akteur und wird auch in den kommenden Jahren einige der fortschrittlichsten und leistungsfähigsten Plattformen bauen.“ Allerdings eröffne DeepSeek neue Innovationen, die sich auf den Markt auswirken und zeige neue Wege der Optimierung auf, so Carolan.  

KI-Starthilfe für Unternehmen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/08/shutterstock_2390279459.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Komplettpakete sollen Unternehmen beim Aufbau einer passenden lokalen Infrastruktur für ihre KI-Aktivitäten helfen. DC Studio / Shutterstock

Die meisten Unternehmen, die KI-Technologie einsetzen, wenden sich an Hyperscaler wie Amazon, Google und Microsoft, um die gesamte erforderliche Infrastruktur bereitzustellen. Dies bestätigen auch in letzten Monat veröffentlichte IDC-Daten, denen zufolge die meisten Ausgaben für KI-Server auf Cloud- und gemeinsam genutzten Umgebungen getätigt werden. Im ersten Halbjahr 2024 machten sie einen Anteil von 72 Prozent aus. Als Grund dafür nennen die Marktforscher, dass traditionelle Unternehmen beim Aufbau einer lokalen KI-Infrastruktur weit hinterherhinken. 

Mehr als eine Notlösung 

Dabei bietet On-Premises-KI einige Vorteile. Beispielsweise können Unternehmen ihre Daten lokal speichern oder Latenzzeiten reduzieren, indem sie Rechenkapazität in der Nähe des Bedarfs bereitstellen. Und wenn Unternehmen wissen, dass sie jeden Monat eine vorhersehbare Menge an Rechenleistung benötigen, können lokale Deployments sogar die Kosten senken. 

Viele Unternehmen befinden sich jedoch noch in der Experimentierphase und wissen nicht, wie viel Rechenleistung sie benötigen werden. 

Und es gibt noch ein weiteres Problem: Die herkömmliche Infrastruktur ist für KI einfach nicht geeignet. Diese Anwendungen benötigen KI-optimierte Server, Speicher und Netzwerke und alle Komponenten müssen so konfiguriert werden, dass sie gut zusammenarbeiten.  

„Der benötigte Technologie-Stack ist völlig anders“, erklärte Neil MacDonald, EVP und GM für High Performance Computing und KI bei HPE, in einer Präsentation Ende letzten Jahres. „Er ähnelt in keinster Weise der Technologie, über die selbst erfahrene Unternehmen verfügen.“ 

„Eine der Herausforderungen bei KI – wie bei jeder brandneuen Technologie – besteht darin, die richtige Infrastruktur zu kombinieren, damit die Technologie funktioniert“, führt Zeus Kerravala, Gründer und leitender Analyst bei ZK Research, aus. „Wenn eine dieser Komponenten nicht mit den beiden anderen mithalten kann, verschwenden Sie Geld.“ 

Das Problem, die benötigte Rechenleistung einzuschätzen, löst sich mit der Zeit: Immer mehr Unternehmen gehen von Pilotprojekten zur Produktion über und bekommen eine bessere Vorstellung davon, wie viel KI-Kapazität sie tatsächlich benötigen. 

Was das zweite Problem betrifft, so integrieren die Hersteller jetzt Server, Speicher und Netzwerke in ein praktisches KI-Komplettpaket, das On-Premises oder in einer Colocation-Einrichtung eingesetzt werden kann. Alle großen Anbieter, darunter Cisco, HPE und Dell, steigen in das Geschäft ein – und Nvidia schließt schnell Verträge ab, um seine KI-fähigen GPUs in möglichst viele dieser Pakete zu integrieren. 

So haben Cisco und Nvidia beispielsweise gerade ihre Partnerschaft erweitert, um die KI im Rechenzentrum zu stärken. Die beiden Unternehmen kündigten an, dass Nvidia Ciscos Silicon-One-Technologie mit Nvidia SuperNICs als Teil seiner Ethernet-Netzwerkplattform Spectrum X koppeln wird und dass Cisco Systeme bauen wird, die Nvidia Spectrum-Silizium mit Cisco OS-Software kombinieren. 

Dieses Angebot ist nur das jüngste in einer langen Reihe von Ankündigungen der beiden Unternehmen. So stellte Cisco beispielsweise im Oktober seine KI-Pods vor. Diese nutzen Nvidia-Grafikprozessoren in Servern nutzen, die speziell für groß angelegtes KI-Training entwickelt wurden, sowie die erforderliche Vernetzung und Speicherung. 

Aber auch andere Unternehmen mischen mit. So kündigte HPE beispielsweise Mitte Februar die Auslieferung seines Rack-Scale-Systems an, das ebenfalls Nvidia-Grafikprozessoren verwendet. Die Besonderheit des HPE-Angebots besteht darin, dass es eine direkte Flüssigkeitskühlung verwendet, wodurch es für sehr große und komplexe KI-Cluster geeignet ist. 

Dell wiederum kündigte Ende 2024 ein neues integriertes Rack für KI an, das sowohl Luft- als auch Flüssigkeitskühlung bietet. 

Hohe Nachfrage im Markt 

Diese und andere KI-Komplettlösungen werden es nach Ansicht von Experten mehr Unternehmen erleichtern, KI einzusetzen – wenngleich Cisco und HPE die stärksten Angebote und die robustesten Ökosysteme hätten. „Ich würde die von HPE validierte Lösung und die von Cisco validierte Lösung nehmen und sie gegeneinander testen“, erklärte Kerravala. 

Der Preis ist heiß: Laut Gartner gaben Unternehmen im vergangenen Jahr 28 Milliarden Dollar für KI-optimierte Server aus. In diesem Jahr wird diese Zahl auf 34 Milliarden Dollar steigen und bis 2028 auf 44 Milliarden Dollar, prognostiziert Gartner-Analyst Tony Harvey. 

Das Timing ist entscheidend. In einer Cisco-Umfrage unter fast 8.000 leitenden Führungskräften mit KI-Verantwortung bestätigten 98 Prozent, dass die Dringlichkeit, KI-Lösungen zu liefern, gestiegen ist. Nur jeder Fünfte von ihnen (21 Prozent) gab aber an, über genügend GPUs zu verfügen. 

Hinzu kommt, dass nicht alle Unternehmen ihre gesamten KI-Workloads in der Public Cloud ausführen wollen. 

„Es gibt Unternehmen, die KI heute implementieren möchten, aber nicht wollen, dass ihre Daten in eine öffentliche Umgebung gelangen“, erklärt Harvey. Sie würden ihre Daten auch nicht unbedingt den großen KI-Anbietern anvertrauen. „Wir wissen, dass sie Urheberrechte verletzt und alle möglichen Dinge getan haben“, so der Gartner-Analyst. 

Und dann ist da noch das Kostenproblem. „Ab einem gewissen Punkt ist es günstiger, die KI auf eigener Hardware laufen zu lassen, als in der Cloud“, erläutert Harvey. 

Spezialisierte Infrastrukturumgebungen 

Was aber macht den Einsatz von KI anders? Am offensichtlichsten ist natürlich, dass KI-Workloads spezialisierte Prozessoren benötigen. Am häufigsten kommen hier Nvidia-GPUs zum Einsatz. Außerdem werden für das KI-Training, aber auch für die Feinabstimmung und die RAG-Einbettung, sehr viele Daten benötigt. Und diese sind nicht mit den Daten vergleichbar, die normalerweise bereitgestellt werden. 

„Man braucht eine andere Art von Speicher – wahrscheinlich eher Objektspeicher als Blockspeicher“, konkretisiert Harvey.  

Und schließlich müssen alle GPUs miteinander kommunizieren. KI erzeugt riesige Datenströme zwischen GPUs, die Standardnetzwerke überlasten können. 

„Die Vernetzung in der KI unterscheidet sich sehr stark von der Vernetzung in einer Standardumgebung“, erklärt Harvey. “Wenn ich meinen KI-Cluster an ein Core-Backbone-Netzwerk anschließen, funktioniert dieses nicht mehr.“ 

Die KI-Pakete lösen dieses Problem, indem sie ein separates Netzwerk nur für die KI einrichten. 

„In einem großen GPU-Cluster gibt es ein Frontend-Netzwerk, das die Verbindung zum Cluster herstellt, und ein Backend-Netzwerk, das alle GPUs im Cluster miteinander verbindet“, erläutert Kevin Wollenweber, SVP & GM für Cisco Networking. “Es ist so konzipiert, dass es frei von Überlastung und Datenverlusten ist.“ 

Der letzte Unterschied besteht darin, dass für die intensivsten KI-Anwendungsfälle, etwa das Training großer Sprachmodelle, eine herkömmliche Luftkühlung möglicherweise nicht ausreicht. 

„Große, leistungsstarke KI-Systeme benötigen eine direkte Flüssigkeitskühlung, da Flüssigkeit im Vergleich zu Luft mehr als 3.000-mal mehr Wärme pro Volumen abführt“, so Trish Damkroger, SVP und GM für High Performance Computing und KI-Infrastrukturlösungen bei HPE. 

Ist zu viel Nvidia jemals genug? 

Ein weiterer gemeinsamer Nenner dieser KI-Komplettlösungen ist die Abhängigkeit von Nvidia-Grafikprozessoren, was Bedenken hinsichtlich Vendor-Lock-in und der Belastbarkeit der Lieferkette aufwerfen kann. 

„Alle benötigen die gleichen Nvidia-Kernbausteine“, betont John Sheehy, Senior Vice President für Forschung und Strategie bei IOActive, einem Cybersicherheitsunternehmen. Dadurch entstehe eine Monokultur, in der ein Anbieter zum kritischen Glied in der KI-Lieferkette werde, was alle einer inakzeptablen Risikokonzentration aussetzt‘. 

„Ähnlich verhält es sich mit TSMC“, fügt er hinzu. “Diese Abhängigkeit von einer einzigen Chip-Foundry direkt vor der Küste einer expansionistischen und revisionistischen Macht sollte allen Anlass zur Sorge geben.“ 

Ein Ausweg aus diesem Dilemma ist nicht in Sicht. In Sachen KI hinken andere Chiphersteller Nvidia weit hinterher, was Leistungsfähigkeit und Größe angeht. 

„Sie sind Marktführer und werden es auch weiterhin bleiben“, erklärt Jason Carolan, Chief Innovation Officer beim Colocation-Anbieter Flexential. „Nvidia ist ein zentraler Akteur und wird auch in den kommenden Jahren einige der fortschrittlichsten und leistungsfähigsten Plattformen bauen.“ Allerdings eröffne DeepSeek neue Innovationen, die sich auf den Markt auswirken und zeige neue Wege der Optimierung auf, so Carolan. 

KI-Starthilfe für Unternehmen​ Weiterlesen »

Amazon: Quantenchip mit Katzen-Qubits​

Allgemein

Ein supraleitender Quantenchip wird im AWS Center for Quantum Computing mit einer Leiterplatte verdrahtet. AWS Jahrelang schien die Entwicklung der Quantencomputer auf der Stelle zu treten. Das theoretische Konzept wurde zwar in der Praxis mit immer neuen, leistungsfähigeren Quanten-CPUs (QPUs) umgesetzt, doch die erforderliche Fehlerkorrektur blieb der große Pferdefuß. Mittlerweile überschlagen sich die News: Nachdem erst kürzlich Microsoft mit seiner QPU Majorana 1 und ihren topologischen Qubits für Schlagzeilen sorgte; zieht nun die Amazon-Sparte AWS nach: Sie präsentiert mit dem Quantencomputer-Chip Ocelot eine QPU, die mit Cat-Qubits rechnet. Bessere Fehlerkorrektur Der Fokus liegt wie bei Microsoft auf einer Verbesserung der Fehlerkorrektur. AWS will den Ressourcenbedarf für die Quantenfehlerkorrektur im Vergleich zu aktuellen Ansätzen um bis zu 90 Prozent reduziert haben. Ganz unbescheiden spricht man davon, dass „der neue Chip einen wichtigen Meilenstein zur Entwicklung fehlertoleranter Quantencomputer markiert“. Die QPU von AWS rechnet mit Cat-Qubits. AWS Ocelots Architektur wurde laut AWS von Grund auf mit dem Fokus auf die Quantenfehlerkorrektur entwickelt. Dazu setzt das Unternehmen auf Cat-Qubits – benannt nach dem bekannten Gedankenexperiment „Schrödingers Katze“. Katzen-Qubits Cat-Qubits unterdrücken AWS zufolge bestimmte Fehlerarten von Natur aus. Dies vereinfache die Quantenfehlerkorrektur. Mit dem Chip zeige man nun, dass die Cat-Qubit-Technologie und zusätzliche Komponenten zur Quantenfehlerkorrektur in einen Mikrochip integriert werden können. Die Amazon QPU im Detail: Ocelot ist ein Prototyp-Chip, um die Quantenfehlerkorrektur zu testen. Ocelot wurde im AWS Center for Quantum Computing am California Institute of Technology entwickelt. Der Chip besteht aus zwei integrierten Silizium-Mikrochips mit einer Fläche von jeweils etwa einem Quadratzentimeter. Ocelots Schaltkreise umfassen 14 Kernkomponenten. Dazu zählen fünf Daten-Qubits, fünf „Pufferschaltkreise“ zur Stabilisierung der Daten-Qubits und vier zusätzliche Qubits zur Fehlererkennung. Hochwertige Oszillatoren aus supraleitendem Tantal speichern die für die Berechnung verwendeten Quantenzustände. 

Amazon: Quantenchip mit Katzen-Qubits​ Ein supraleitender Quantenchip wird im AWS Center for Quantum Computing mit einer Leiterplatte verdrahtet.
AWS

Jahrelang schien die Entwicklung der Quantencomputer auf der Stelle zu treten. Das theoretische Konzept wurde zwar in der Praxis mit immer neuen, leistungsfähigeren Quanten-CPUs (QPUs) umgesetzt, doch die erforderliche Fehlerkorrektur blieb der große Pferdefuß.

Mittlerweile überschlagen sich die News: Nachdem erst kürzlich Microsoft mit seiner QPU Majorana 1 und ihren topologischen Qubits für Schlagzeilen sorgte; zieht nun die Amazon-Sparte AWS nach: Sie präsentiert mit dem Quantencomputer-Chip Ocelot eine QPU, die mit Cat-Qubits rechnet.

Bessere Fehlerkorrektur

Der Fokus liegt wie bei Microsoft auf einer Verbesserung der Fehlerkorrektur. AWS will den Ressourcenbedarf für die Quantenfehlerkorrektur im Vergleich zu aktuellen Ansätzen um bis zu 90 Prozent reduziert haben. Ganz unbescheiden spricht man davon, dass „der neue Chip einen wichtigen Meilenstein zur Entwicklung fehlertoleranter Quantencomputer markiert“.

Die QPU von AWS rechnet mit Cat-Qubits.
AWS

Ocelots Architektur wurde laut AWS von Grund auf mit dem Fokus auf die Quantenfehlerkorrektur entwickelt. Dazu setzt das Unternehmen auf Cat-Qubits – benannt nach dem bekannten Gedankenexperiment „Schrödingers Katze“.

Katzen-Qubits

Cat-Qubits unterdrücken AWS zufolge bestimmte Fehlerarten von Natur aus. Dies vereinfache die Quantenfehlerkorrektur. Mit dem Chip zeige man nun, dass die Cat-Qubit-Technologie und zusätzliche Komponenten zur Quantenfehlerkorrektur in einen Mikrochip integriert werden können.

Die Amazon QPU im Detail:

Ocelot ist ein Prototyp-Chip, um die Quantenfehlerkorrektur zu testen.

Ocelot wurde im AWS Center for Quantum Computing am California Institute of Technology entwickelt.

Der Chip besteht aus zwei integrierten Silizium-Mikrochips mit einer Fläche von jeweils etwa einem Quadratzentimeter.

Ocelots Schaltkreise umfassen 14 Kernkomponenten. Dazu zählen fünf Daten-Qubits, fünf „Pufferschaltkreise“ zur Stabilisierung der Daten-Qubits und vier zusätzliche Qubits zur Fehlererkennung.

Hochwertige Oszillatoren aus supraleitendem Tantal speichern die für die Berechnung verwendeten Quantenzustände.

Amazon: Quantenchip mit Katzen-Qubits​ Weiterlesen »

So integriert NFON KI in die Kommunikation​

Allgemein

KI-gestützter Chatbot NIA.NFON Patrik Heider, CEO der Münchner NFON AG, hat ehrgeizige Pläne. Im Rahmen der Unternehmensstrategie NFON NEXT 2027 will er den Cloud-Telefonie-Anbieter als Marktführer in der KI-gestützten Business-Kommunikation etablieren. So ist man bei NFON davon überzeugt, dass KI auch in der Business-Kommunikation ein Game Changer sein wird und die Art, wie Unternehmen kommunizieren deutlich verändert. Die Münchner wollen Firmen dabei unterstützen, KI in ihre Kommunikationsinfrastruktur zu integrieren – von einfacher Telefonie bis hin zu komplexen Contact Centern. Gleichzeitig sieht man die KI-gestützten Lösungen auch als Antwort auf den Fachkräftemangel, da sie Unternehmen helfen, mit weniger Personal auszukommen. KI transkribiert Sprachnachrichten Eine der ersten KI-Funktionen, die ab diesen März zur Verfügung stehen soll, ist die Voicemail-Transkription. Sie ermöglicht es Benutzern, Voicemails als Textnachrichten zu lesen. Die Transkripte werden auch per E-Mail versendet. Die Funktion wird laut NFON sowohl in der Web- und Desktopanwendung als auch in der mobilen App verfügbar sein. Für den Jahresverlauf 2025 sind bereits weitere KI-basierte Features geplant. Dazu zählen etwa Call Transcription und Call Summarisation. KI im Contact Center Darüber hinaus will das Unternehmen seine Contact-Center-Lösung mit KI-Funktionen erweitern. Der Fokus liegt dabei auf intelligenter Automatisierung, höherer Produktivität für die Agenten und optimierten Prozessen. Mittels KI können NFON-Nutzer ihre Sprachnachrichten automatisch in E-Mails umwandeln lassen. NFON Zu den Neuerungen zählen etwa eine einheitliche Benutzeroberfläche für Chat- und Voicebots sowie KI-gestützte Statistiken. In der Pipeline befinden sich zudem Funktionen zur automatisierten Analyse von E-Mail-Anhängen, intelligentes Routing sowie die Integration von LLMs in die Bot-Workflows. Chatbot NIA Ferner haben die Münchner einen eigenen Chatbot entwickelt, den NFON Intelligent Assistant – kurz NIA. Seine Feuertaufe muss der KI-gestützte Chatbot auf der hauseigenen Website bestehen. Dort soll er Besuchern schnell Informationen liefern und ihnen bei ihren Anliegen weiterhelfen. NIA ist auch ein Beispiel für die Synergieeffekte, die sich aus der Übernahme des Startups botario ergeben. NFON kaufte den auf Chat- und Voicebots fokussierten KI-Spezialisten im August 2024. Anschließend baute das Unternehmen eine AI & Innovation Organisation auf, zu der auch das hauseigene KI-Kompetenzzentrum gehört. Um auch künftig die Entwicklung von KI-Lösungen voranzutreiben, eröffnet der Cloud-Telefonie-Anbieter im April ein neues Entwicklungszentrum in der Republik Kosovo. Für den Hub in Pristina spricht laut NFON-CTO Andreas Wesselmann, “dass die Region nicht nur einen wachsenden Pool an hochqualifizierten IT- und Softwareentwicklungs-Talenten bietet, sondern sich zu einem bedeutenden Technologie-Hub mit einem starken Ökosystem entwickelt“. Bis Ende 2025 will NFON für das Team in Pristina 30 neue Mitarbeiter für Bereiche wie R&D, Finance und HR gewinnen. 

So integriert NFON KI in die Kommunikation​ KI-gestützter Chatbot NIA.NFON

Patrik Heider, CEO der Münchner NFON AG, hat ehrgeizige Pläne. Im Rahmen der Unternehmensstrategie NFON NEXT 2027 will er den Cloud-Telefonie-Anbieter als Marktführer in der KI-gestützten Business-Kommunikation etablieren.

So ist man bei NFON davon überzeugt, dass KI auch in der Business-Kommunikation ein Game Changer sein wird und die Art, wie Unternehmen kommunizieren deutlich verändert. Die Münchner wollen Firmen dabei unterstützen, KI in ihre Kommunikationsinfrastruktur zu integrieren – von einfacher Telefonie bis hin zu komplexen Contact Centern. Gleichzeitig sieht man die KI-gestützten Lösungen auch als Antwort auf den Fachkräftemangel, da sie Unternehmen helfen, mit weniger Personal auszukommen.

KI transkribiert Sprachnachrichten

Eine der ersten KI-Funktionen, die ab diesen März zur Verfügung stehen soll, ist die Voicemail-Transkription. Sie ermöglicht es Benutzern, Voicemails als Textnachrichten zu lesen. Die Transkripte werden auch per E-Mail versendet.

Die Funktion wird laut NFON sowohl in der Web- und Desktopanwendung als auch in der mobilen App verfügbar sein. Für den Jahresverlauf 2025 sind bereits weitere KI-basierte Features geplant. Dazu zählen etwa Call Transcription und Call Summarisation.

KI im Contact Center

Darüber hinaus will das Unternehmen seine Contact-Center-Lösung mit KI-Funktionen erweitern. Der Fokus liegt dabei auf intelligenter Automatisierung, höherer Produktivität für die Agenten und optimierten Prozessen.

Mittels KI können NFON-Nutzer ihre Sprachnachrichten automatisch in E-Mails umwandeln lassen.
NFON

Zu den Neuerungen zählen etwa eine einheitliche Benutzeroberfläche für Chat- und Voicebots sowie KI-gestützte Statistiken. In der Pipeline befinden sich zudem Funktionen zur automatisierten Analyse von E-Mail-Anhängen, intelligentes Routing sowie die Integration von LLMs in die Bot-Workflows.

Chatbot NIA

Ferner haben die Münchner einen eigenen Chatbot entwickelt, den NFON Intelligent Assistant – kurz NIA. Seine Feuertaufe muss der KI-gestützte Chatbot auf der hauseigenen Website bestehen. Dort soll er Besuchern schnell Informationen liefern und ihnen bei ihren Anliegen weiterhelfen.

NIA ist auch ein Beispiel für die Synergieeffekte, die sich aus der Übernahme des Startups botario ergeben. NFON kaufte den auf Chat- und Voicebots fokussierten KI-Spezialisten im August 2024. Anschließend baute das Unternehmen eine AI & Innovation Organisation auf, zu der auch das hauseigene KI-Kompetenzzentrum gehört.

Um auch künftig die Entwicklung von KI-Lösungen voranzutreiben, eröffnet der Cloud-Telefonie-Anbieter im April ein neues Entwicklungszentrum in der Republik Kosovo. Für den Hub in Pristina spricht laut NFON-CTO Andreas Wesselmann, “dass die Region nicht nur einen wachsenden Pool an hochqualifizierten IT- und Softwareentwicklungs-Talenten bietet, sondern sich zu einem bedeutenden Technologie-Hub mit einem starken Ökosystem entwickelt“. Bis Ende 2025 will NFON für das Team in Pristina 30 neue Mitarbeiter für Bereiche wie R&D, Finance und HR gewinnen.

So integriert NFON KI in die Kommunikation​ Weiterlesen »

Cloud und Künstliche Intelligenz beschäftigen die CIOs​

Allgemein

Trotz aller internationalen Konflikte und anhaltender Wachstumsschwäche der Wirtschaft bleiben die IT- und Business-Verantwortlichen deutscher Unternehmen auf Digitalisierungskurs.  Es werden allenfalls weniger Modernisierungsprojekte umgesetzt bei niedrigerer Geschwindigkeit; beides hat jedoch seine Ursachen hauptsächlich in der ausufernden Bürokratie und dem Fachkräftemangel. Ungeachtet dessen fließen weiterhin Gelder in neue IT-Lösungen sowie mehr Personal in den IT-Organisationen. Dies sind die zentralen Ergebnisse der aktuellen Studie „CIO-Agenda 2025“ von CIO, CSO und COMPUTERWOCHE in Zusammenarbeit mit den beiden Studienpartnern Lufthansa Industry Solutions und der WHU – Otto Beisheim School of Management durchgeführt. So kalkulieren 18 Prozent der befragten Entscheiderinnen und Entscheider mit einer Erhöhung ihrer IT-Budgets um mehr als zehn Prozent. Bei den Großunternehmen sind es sogar mehr als 20 Prozent, die den Anteil ihrer IT-Kosten nach oben gesetzt haben. Knapp zwei Drittel der Firmen wollen zwischen fünf und zehn Prozent mehr in ihre IT investieren. Lediglich sechs Prozent befürchten, dass sie 2025 mit weniger Mitteln auskommen müssen – ein Wert, der nahezu identisch mit den Ergebnissen der Vorjahres-Untersuchung ist. 18 Prozent der befragten Entscheiderinnen und Entscheider kalkulieren mit einer Erhöhung ihrer IT-Budgets um mehr als zehn Prozent. Research Services: Daniela Petrini IT-Infrastruktur größter Ausgabenposten Auch ein Blick auf die Verteilung der Gelder in die einzelnen Kernbereiche der IT zeigt wenig Veränderung. Für das Gros der Unternehmen bleibt die weitere Modernisierung der IT-Infrastruktur der größte Ausgabenposten. Die Unternehmensarchitektur an digitale Geschäftsmodelle anzupassen sowie cloud-basierte IT-Betriebsmodelle zu nutzen, liefern sich hier weiterhin ein Kopf-an-Kopf-Rennen mit dem großen Thema Cyber Security. Apropos Cloud: Auch die „CIO-Agenda 2025“ zeigt deutlich, dass die Cloud für die Unternehmen längst mehr als ein Instrument bezüglich Rechen- und Speicher-Ressourcen ist – sondern zentraler Bestandteil ihrer Digitalisierungsstrategie. Knapp die Hälfte der Befragten glaubt, hier sehr gut bis gut aufgestellt zu sein und sieht sich selbst auf einem guten Weg bei der End-to-End-Digitalisierung der wichtigsten Prozesse. Basis hierfür ist aus deren Sicht eine weitgehend modernisierte IT-Infrastruktur sowie diverse Hybrid- beziehungsweise Multi-Cloud-Ansätze, die das nötige Maß an Skalierbarkeit und Flexibilität bieten. Outsourcing unverändert beliebt Interessant ist in diesem Zusammenhang, dass es beim IT-Beschaffungsverhalten der Unternehmen keine signifikanten Veränderungen gibt. Der klassische Einkauf und die interne Leistungserbringung sind nach wie vor die bevorzugten Bezugsmodelle. Dies gilt für Hardware, Software und Services gleichermaßen. Allerdings zeichnet sich gleichzeitig ein klarer Trend hin zu Leasing-, Pay-Per-Use- und Pay-Per-Licence-Modellen ab. Auch das klassische Outsourcing stößt bei den Unternehmen unverändert auf große Gegenliebe.   Bemerkenswert ist zudem, dass 40 Prozent der Unternehmen es immer noch als einen der entscheidenden Game Changer bei der Transformation ansehen, Cloud-Technologien einzusetzen. Man könnte dies so interpretieren, dass der Cloud-Markt sowohl auf Anbieter- als auch auf Anwenderseite ein hohes Maß an Marktreife erlangt hat.  Das mit Abstand größte disruptive Potenzial sehen die Firmen indes bei Künstlicher Intelligenz (KI). Fast 60 Prozent von ihnen nutzen eigenen Angaben zufolge bereits generative KI in einem starken bis sehr starken Ausmaß. Weitere 30 Prozent haben mit KI zumindest erste Erfahrungen gesammelt. Dabei muss relativierend angefügt werden, dass sich die meisten KI-Projekte derzeit noch in der Erprobungsphase befinden und in den wenigsten Fällen schon einen entscheidenden Wertbeitrag leisten. Fast 60 Prozent der Befragten nutzen eigenen Angaben zufolge  generative KI in einem starken bis sehr starken Ausmaß. Research Services: Daniela Petrini Künstliche Intelligenz verlässt Experimentierphase Die Herausforderungen liegen für die Unternehmen daher in naher Zukunft nicht nur darin, KI-basierte Workloads zu implementieren, sondern sie auch strategisch einzubetten. Konkret: Aus der experimentellen Nutzung diverser Sprachmodelle muss nach Ansicht vieler Experten möglichst schnell das Stadium skalierbarer Prozesse etwa in der Supply Chain, der Produktentwicklung oder dem Kundenbeziehungs-Management erreicht werden. Dazu ist bekanntermaßen ein hohes Maß an Rechenleistung, eine moderne Enterprise Architecture sowie IT-Infrastruktur die Voraussetzung. Damit schließt sich wieder der Kreis hinsichtlich der abgefragten Prioritäten, die die Anwenderinnen und Anwender bei ihren Aufgabenfeldern selbst setzen.   Diese Prognosen zur Bedeutung der KI decken sich auch weitgehend mit den derzeitigen Einsatzfeldern von KI in den Unternehmen. Fast 60 Prozent der Befragten geben an, KI primär für die Datenanalyse zu nutzen, gefolgt von der Prozessoptimierung sowie dem Bereich Marketing und Werbung, wo jeweils rund die Hälfte der IT- und Business-Verantwortlichen Erfahrungen mit KI sammeln. Weitere Einsatzszenarien für KI, die die Entscheiderinnen und Entscheider in den kommenden Jahren sehen, sind unter anderem die Automatisierung von Aufgaben sowie die Bereiche Netzwerk-Management und IT-Sicherheit. 60 Prozent der Befragten geben an, KI primär für die Datenanalyse zu nutzen, Research Services: Daniela Petrini Erwähnt werden sollte an dieser Stelle, dass die Befragung zu dieser Studie deutlich vor dem Bekanntwerden des chinesischen Startups DeepSeek und dessen gleichnamigen Chatbots erfolgte. Insofern bleibt abzuwarten, ob durch den globalen Markteintritt dieses neuen KI-Anbieters noch einmal deutliche Bewegung in die Entwicklung von KI-Technologien, insbesondere bei deren Effizienz, und in die KI-Nutzung von Unternehmen kommt. Kein Rotstift beim Personal Angesichts der Fülle aller genannten Herausforderungen ist laut der „CIO-Agenda 2025“ die Einstellungsbereitschaft in der IT offensichtlich ungebrochen – auch wenn sich die Kurve der Personalplanungen für die kommenden zwei bis drei Jahre etwas abgeflacht hat. Gut 20 Prozent der Unternehmen hat vor, die Zahl der festangestellten Beschäftigten in der eigenen IT-Organisation deutlich zu erhöhen, die Hälfte der Firmen will hier zumindest moderat wachsen. Der Trend lässt sich hier also im Vergleich zu den Vorjahren noch als stabil bezeichnen. Wichtig scheint vor allem: Trotz der sich in immer mehr Industriebereichen und Branchen abzeichnenden konjunkturellen Eintrübung ist ein Stellenabbau in der IT nach wie vor kein Thema. Ein weiteres Detailergebnis der Studie ist interessant: Große und kleine Unternehmen unterscheiden sich in ihrer Personalplanung bezüglich des IT-Bereiches nur marginal. Deutlich mehr Veränderungen erwarten die befragten IT- und Business-Verantwortlichen indes hinsichtlich des Aufgabenbereiches ihrer IT-Organisationen. Die weitere Transformation der Unternehmen dürfte Themen wie Data Management, Data Security, abteilungsübergreifende Zusammenarbeit sowie Customer Experience noch mehr in den Mittelpunkt rücken, heißt es. Zudem führe die verstärkte Einführung von KI und damit einhergehend die zunehmende Automatisierung auf Dauer zu einer anderen Rollendefinition der Unternehmens-IT. Dies alles geschehe vor dem Hintergrund eines unverändert exorbitanten Fachkräftemangels sowie zu viel bürokratischen Hürden sowie überbordenden Governance- und Compliance-Anforderungen, wie beispielsweise die DORA-Richtlinie oder das Lieferkettengesetz. Insofern sind die IT-Organisationen mehr denn je dazu gezwungen, auf externe Ressourcen zurückzugreifen. Dabei geht es in den meisten Fällen nicht um eine „verlängerte Werkbank“, sondern um einen strategischen Beitrag zur Zukunftsfähigkeit des Unternehmens. Rund 80 Prozent der Unternehmen setzen dabei auf die bewährte Zusammenarbeit mit Systemintegratoren und Beratungshäusern. Ähnlich ausgeprägt ist die Kooperation mit Personaldienstleistern.   Auffallend ist, dass das vermeintliche Schlagwort „Co-opetition“ längst keine Worthülse mehr ist, sondern gängige Praxis. Mehr als zwei Drittel der befragten Unternehmen praktizieren diese Form der Zusammenarbeit mit Wettbewerbern aus der eigenen Branche. Ein ebenso hoher Anteil sucht auch regelmäßig die Kooperation mit Firmen aus anderen Branchen.           Hintergrund zur StudieFür die „CIO-Agenda 2025“ wurde vom 27. November bis 4. Dezember 2024 insgesamt 314 CIOs, Geschäftsführungs- und Vorstandsmitglieder, C-Führungskräfte, Abteilungsleiter und -leiterinnen aus verschiedenen Unternehmensbereichen aller Branchen in Deutschland, Österreich und der Schweiz online befragt. Die Studie wurde vom Research-Team von CIO, CSO und COMPUTERWOCHE in Zusammenarbeit mit Lufthansa Industry Solutions und der WHU – Otto Beisheim School of Management durchgeführt. 

Cloud und Künstliche Intelligenz beschäftigen die CIOs​ Trotz aller internationalen Konflikte und anhaltender Wachstumsschwäche der Wirtschaft bleiben die IT- und Business-Verantwortlichen deutscher Unternehmen auf Digitalisierungskurs.  Es werden allenfalls weniger Modernisierungsprojekte umgesetzt bei niedrigerer Geschwindigkeit; beides hat jedoch seine Ursachen hauptsächlich in der ausufernden Bürokratie und dem Fachkräftemangel. Ungeachtet dessen fließen weiterhin Gelder in neue IT-Lösungen sowie mehr Personal in den IT-Organisationen.

Dies sind die zentralen Ergebnisse der aktuellen Studie „CIO-Agenda 2025“ von CIO, CSO und COMPUTERWOCHE in Zusammenarbeit mit den beiden Studienpartnern Lufthansa Industry Solutions und der WHU – Otto Beisheim School of Management durchgeführt.

So kalkulieren 18 Prozent der befragten Entscheiderinnen und Entscheider mit einer Erhöhung ihrer IT-Budgets um mehr als zehn Prozent. Bei den Großunternehmen sind es sogar mehr als 20 Prozent, die den Anteil ihrer IT-Kosten nach oben gesetzt haben.

Knapp zwei Drittel der Firmen wollen zwischen fünf und zehn Prozent mehr in ihre IT investieren. Lediglich sechs Prozent befürchten, dass sie 2025 mit weniger Mitteln auskommen müssen – ein Wert, der nahezu identisch mit den Ergebnissen der Vorjahres-Untersuchung ist.

18 Prozent der befragten Entscheiderinnen und Entscheider kalkulieren mit einer Erhöhung ihrer IT-Budgets um mehr als zehn Prozent.
Research Services: Daniela Petrini

IT-Infrastruktur größter Ausgabenposten

Auch ein Blick auf die Verteilung der Gelder in die einzelnen Kernbereiche der IT zeigt wenig Veränderung. Für das Gros der Unternehmen bleibt die weitere Modernisierung der IT-Infrastruktur der größte Ausgabenposten. Die Unternehmensarchitektur an digitale Geschäftsmodelle anzupassen sowie cloud-basierte IT-Betriebsmodelle zu nutzen, liefern sich hier weiterhin ein Kopf-an-Kopf-Rennen mit dem großen Thema Cyber Security.

Apropos Cloud: Auch die „CIO-Agenda 2025“ zeigt deutlich, dass die Cloud für die Unternehmen längst mehr als ein Instrument bezüglich Rechen- und Speicher-Ressourcen ist – sondern zentraler Bestandteil ihrer Digitalisierungsstrategie. Knapp die Hälfte der Befragten glaubt, hier sehr gut bis gut aufgestellt zu sein und sieht sich selbst auf einem guten Weg bei der End-to-End-Digitalisierung der wichtigsten Prozesse. Basis hierfür ist aus deren Sicht eine weitgehend modernisierte IT-Infrastruktur sowie diverse Hybrid- beziehungsweise Multi-Cloud-Ansätze, die das nötige Maß an Skalierbarkeit und Flexibilität bieten.

Outsourcing unverändert beliebt

Interessant ist in diesem Zusammenhang, dass es beim IT-Beschaffungsverhalten der Unternehmen keine signifikanten Veränderungen gibt. Der klassische Einkauf und die interne Leistungserbringung sind nach wie vor die bevorzugten Bezugsmodelle. Dies gilt für Hardware, Software und Services gleichermaßen. Allerdings zeichnet sich gleichzeitig ein klarer Trend hin zu Leasing-, Pay-Per-Use- und Pay-Per-Licence-Modellen ab. Auch das klassische Outsourcing stößt bei den Unternehmen unverändert auf große Gegenliebe.  

Bemerkenswert ist zudem, dass 40 Prozent der Unternehmen es immer noch als einen der entscheidenden Game Changer bei der Transformation ansehen, Cloud-Technologien einzusetzen. Man könnte dies so interpretieren, dass der Cloud-Markt sowohl auf Anbieter- als auch auf Anwenderseite ein hohes Maß an Marktreife erlangt hat. 

Das mit Abstand größte disruptive Potenzial sehen die Firmen indes bei Künstlicher Intelligenz (KI). Fast 60 Prozent von ihnen nutzen eigenen Angaben zufolge bereits generative KI in einem starken bis sehr starken Ausmaß. Weitere 30 Prozent haben mit KI zumindest erste Erfahrungen gesammelt. Dabei muss relativierend angefügt werden, dass sich die meisten KI-Projekte derzeit noch in der Erprobungsphase befinden und in den wenigsten Fällen schon einen entscheidenden Wertbeitrag leisten.

Fast 60 Prozent der Befragten nutzen eigenen Angaben zufolge  generative KI in einem starken bis sehr starken Ausmaß.
Research Services: Daniela Petrini

Künstliche Intelligenz verlässt Experimentierphase

Die Herausforderungen liegen für die Unternehmen daher in naher Zukunft nicht nur darin, KI-basierte Workloads zu implementieren, sondern sie auch strategisch einzubetten. Konkret: Aus der experimentellen Nutzung diverser Sprachmodelle muss nach Ansicht vieler Experten möglichst schnell das Stadium skalierbarer Prozesse etwa in der Supply Chain, der Produktentwicklung oder dem Kundenbeziehungs-Management erreicht werden.

Dazu ist bekanntermaßen ein hohes Maß an Rechenleistung, eine moderne Enterprise Architecture sowie IT-Infrastruktur die Voraussetzung. Damit schließt sich wieder der Kreis hinsichtlich der abgefragten Prioritäten, die die Anwenderinnen und Anwender bei ihren Aufgabenfeldern selbst setzen.  

Diese Prognosen zur Bedeutung der KI decken sich auch weitgehend mit den derzeitigen Einsatzfeldern von KI in den Unternehmen. Fast 60 Prozent der Befragten geben an, KI primär für die Datenanalyse zu nutzen, gefolgt von der Prozessoptimierung sowie dem Bereich Marketing und Werbung, wo jeweils rund die Hälfte der IT- und Business-Verantwortlichen Erfahrungen mit KI sammeln. Weitere Einsatzszenarien für KI, die die Entscheiderinnen und Entscheider in den kommenden Jahren sehen, sind unter anderem die Automatisierung von Aufgaben sowie die Bereiche Netzwerk-Management und IT-Sicherheit.

60 Prozent der Befragten geben an, KI primär für die Datenanalyse zu nutzen,
Research Services: Daniela Petrini

Erwähnt werden sollte an dieser Stelle, dass die Befragung zu dieser Studie deutlich vor dem Bekanntwerden des chinesischen Startups DeepSeek und dessen gleichnamigen Chatbots erfolgte. Insofern bleibt abzuwarten, ob durch den globalen Markteintritt dieses neuen KI-Anbieters noch einmal deutliche Bewegung in die Entwicklung von KI-Technologien, insbesondere bei deren Effizienz, und in die KI-Nutzung von Unternehmen kommt.

Kein Rotstift beim Personal

Angesichts der Fülle aller genannten Herausforderungen ist laut der „CIO-Agenda 2025“ die Einstellungsbereitschaft in der IT offensichtlich ungebrochen – auch wenn sich die Kurve der Personalplanungen für die kommenden zwei bis drei Jahre etwas abgeflacht hat. Gut 20 Prozent der Unternehmen hat vor, die Zahl der festangestellten Beschäftigten in der eigenen IT-Organisation deutlich zu erhöhen, die Hälfte der Firmen will hier zumindest moderat wachsen.

Der Trend lässt sich hier also im Vergleich zu den Vorjahren noch als stabil bezeichnen. Wichtig scheint vor allem: Trotz der sich in immer mehr Industriebereichen und Branchen abzeichnenden konjunkturellen Eintrübung ist ein Stellenabbau in der IT nach wie vor kein Thema. Ein weiteres Detailergebnis der Studie ist interessant: Große und kleine Unternehmen unterscheiden sich in ihrer Personalplanung bezüglich des IT-Bereiches nur marginal.

Deutlich mehr Veränderungen erwarten die befragten IT- und Business-Verantwortlichen indes hinsichtlich des Aufgabenbereiches ihrer IT-Organisationen. Die weitere Transformation der Unternehmen dürfte Themen wie Data Management, Data Security, abteilungsübergreifende Zusammenarbeit sowie Customer Experience noch mehr in den Mittelpunkt rücken, heißt es.

Zudem führe die verstärkte Einführung von KI und damit einhergehend die zunehmende Automatisierung auf Dauer zu einer anderen Rollendefinition der Unternehmens-IT. Dies alles geschehe vor dem Hintergrund eines unverändert exorbitanten Fachkräftemangels sowie zu viel bürokratischen Hürden sowie überbordenden Governance- und Compliance-Anforderungen, wie beispielsweise die DORA-Richtlinie oder das Lieferkettengesetz.

Insofern sind die IT-Organisationen mehr denn je dazu gezwungen, auf externe Ressourcen zurückzugreifen. Dabei geht es in den meisten Fällen nicht um eine „verlängerte Werkbank“, sondern um einen strategischen Beitrag zur Zukunftsfähigkeit des Unternehmens. Rund 80 Prozent der Unternehmen setzen dabei auf die bewährte Zusammenarbeit mit Systemintegratoren und Beratungshäusern. Ähnlich ausgeprägt ist die Kooperation mit Personaldienstleistern.   Auffallend ist, dass das vermeintliche Schlagwort „Co-opetition“ längst keine Worthülse mehr ist, sondern gängige Praxis. Mehr als zwei Drittel der befragten Unternehmen praktizieren diese Form der Zusammenarbeit mit Wettbewerbern aus der eigenen Branche. Ein ebenso hoher Anteil sucht auch regelmäßig die Kooperation mit Firmen aus anderen Branchen.          

Hintergrund zur StudieFür die „CIO-Agenda 2025“ wurde vom 27. November bis 4. Dezember 2024 insgesamt 314 CIOs, Geschäftsführungs- und Vorstandsmitglieder, C-Führungskräfte, Abteilungsleiter und -leiterinnen aus verschiedenen Unternehmensbereichen aller Branchen in Deutschland, Österreich und der Schweiz online befragt. Die Studie wurde vom Research-Team von CIO, CSO und COMPUTERWOCHE in Zusammenarbeit mit Lufthansa Industry Solutions und der WHU – Otto Beisheim School of Management durchgeführt.

Cloud und Künstliche Intelligenz beschäftigen die CIOs​ Weiterlesen »

Motivation in Eigenregie: 20 Jahre im Job – wie bleibe ich motiviert?​

Allgemein

Wer Symptome beruflicher Demotivation entwickelt oder zeigt, kann durch gezieltes Hinterfragen seiner Haltung sowie Fähigkeiten frische Motivationskraft schöpfen. Foto: Chinnapong – shutterstock.comDie heutige Arbeitswelt ist unter anderem geprägt durch Veränderungen, Unplanbares, Komplexität und Mehrdeutigkeiten. Um damit umgehen zu können, sind neue Kompetenzen gefordert. Mentale Agilität ist ein Skill, der für Führungskräfte und Mitarbeiter unverzichtbar ist, um nicht jedes Mal viel Energie investieren zu müssen, wenn sich etwas anders entwickelt als geplant.Aber was kann ich machen, wenn ich damit nach 20 Jahren im Unternehmen nicht so einfach klarkomme? Oder wenn ich feststelle, nicht für jede Veränderung offen zu sein sowie Abwehr und Widerspruch in mir zu fühlen? Hinzu kommt vielleicht noch, bei neuen Projekten nicht dabei zu sein, weil anderes Wissen und Fähigkeiten gefragt sind oder das Reaktionsvermögen im Arbeitsalltag schwindet. Kurzum, wenn ich merke, dass meine Motivation nachlässt und es keinen Spaß mehr macht?Motivation – es gibt viele StellschraubenIch nutze im Coaching gerne das FiRE-Modell (Factors improving Resilience Effectiveness®), um meine Klienten dabei zu unterstützen, sich bezogen auf Elemente wie Haltung, mentale Agilität oder Sinn zu reflektieren. Basierend auf einer Vielzahl unterschiedlicher Studien, schlägt dieses Modell verschiedene Handlungsfelder vor, die Einfluss auf unsere aktuelle Verfassung und Stimmung haben.Viele der Coachees – also die Personen, die ein professionelles Coaching in Anspruch nehmen – haben daraufhin mit unterschiedlichen Zutaten und Dosierungen ihre individuellen Rezepte erstellt – mit der Zielsetzung, eine neue Klarheit für ihre aktuelle Lebensphase zu entwickeln: nämlich idealerweise motiviert und sogar stolz wieder zur Arbeit zu gehen und dabei Spaß zu haben.Einige dieser “Zutaten” stelle ich hier kurz vor.1. Wie blicke ich auf die Situation?Stellen Sie sich die Frage: Wie ist meine Haltung zu neuen Inhalten, Prozessen, etc.? Oder: Das Lernen neuer Themen ist zwar bis ins hohe Alter möglich, es wird mir aber schwerfallen, wenn ich ablehne und mich verschließe? Nehmen Sie dabei selbst wahr, wie sie reagieren. Man kann seine Haltung bewusst in Frage stellen und dadurch ändern. Das gelingt nicht sofort, aber über ein paar Wochen. Nehmen Sie sich vor neugierig und interessiert zu sein, statt zu kritisch und abwehrend. Das wird anfangs schwerfallen, aber immer leichter werden – wie ein Muskel, den Sie trainieren.2. “Ja und” statt “Nein”Vielleicht werden Sie auch aufgrund Ihrer Erfahrung einige Situationen erleben, in denen Sie eine angekündigte Veränderung sehr kritisch sehen und auch Gründe dafür kennen, warum sie nicht optimal ist. Wie reagieren Sie dann? Nutzen Sie Ihre Erfahrung und bringen Sie sie ein. Eine gute Art der Kommunikation wäre mit einem “Ja und…” zu starten. Zum Beispiel: Ja, ich kann verstehen, was der Hintergrund dieser Veränderung ist UND wenn wir XY beachten, wird es funktionieren.Sind es Themen, die Sie nicht beeinflussen können, überlegen Sie, wie viel Energie und Ärger Sie investieren wollen und wie effektiv das ist? Wo fehlt diese Energie gegebenenfalls? Setzen Sie Energie nur dort ein, wo es sinnvoll ist.3. Wann bin ich im Flow?Wissen Sie, bei welcher Tätigkeit Sie so richtig im Flow sind, das heiß, bei dieser Tätigkeit viel Energie zu verspüren und die Zeit zu vergessen? Was machen Sie in diesem Moment? Welches Thema bearbeiten Sie? Welche Technik nutzen Sie? Mit wem arbeiten Sie dabei zusammen? Wo sind Sie in diesem Moment?Vielleicht ist es möglich, dass diese Tätigkeit häufiger und länger stattfindet – oder Bestandteile davon. Was müssten Sie dafür tun, wen dafür ansprechen? Versuchen Sie wo möglich, Ihre Arbeitsinhalte selbst zu gestalten.4. Was motiviert mich?Es gibt unterschiedliche Motivationsgründe, die uns antreiben, etwas mit mehr oder weniger Freude und Energie zu tun. Welche, erfahren Sie in der folgenden Bildergalerie: 5. Wie ist meine Positionierung?Was treibt Sie an? Was können Sie in Ihrem aktuellen Job priorisieren, um die eigenen Motivatoren besser zu erfüllen?Überlegen Sie sich einmal, wie Sie im Unternehmen wahrgenommen werden wollen. Wofür wollen Sie stehen und womit in Verbindung gebracht werden? Ein Beispiel aus meiner Coaching-Praxis war ein Fall, in dem der Coachee sich bezüglichvieler technischer Veränderung abgehängt fühlte. Er wurde nicht mehr als der Experte wahrgenommen, der er einmal war. Sein Expertentum hatte sich verschoben. Er war jetzt der Netzwerker und Verbinder. Kollegen und Mitarbeiter schätzten sein wertvolles Netzwerk und ihn als kompetenten Ansprechpartner, wenn es darum ging, die richtigen Leute zu adressieren. Diese Klarheit über seine neue “Positionierung” half ihm, seine aktuellen Stärken zu sehen und sich neu zu motivieren.In einem anderen Beispiel positionierte sich der Coachee als “väterlicher Freund und Berater”. Mit väterlich ist gemeint, Werte vorzuleben, helfend und beratend zur Verfügung zu stehen und sich darum zu kümmern, dass das Team sich wohlfühlt – eine wichtige Voraussetzung für Erfolg.Wie ist Ihre Positionierung der Vergangenheit? Hat sich etwas geändert? Wie wollen Sie heute gerne wahrgenommen werden?Sind Sie motiviert, sich zu motivieren?Sind für Sie Zutaten dabei gewesen, die Sie in der für Sie passenden Dosierung für Ihr Motivationsrezept einsetzen können? Haben Sie die Motivation, das Rezept umzusetzen? Stellen Sie sich einmal vor, Sie gehen voller Energie, Spaß und Motivation zur Arbeit. Wie fühlt sich das an? Lohnt es sich nicht, in diese Richtung so viele Schritte zu gehen wie möglich? Jeder Schritt hilft.10 Faktoren für die eigene MotivationWas uns im Job motiviertEs gibt unterschiedliche Motivationsfaktoren, die jeden von uns mehr oder weniger antreiben, etwas mit Freude und Energie zu tun. Business Coach Oliver Erbe nennt zehn dieser Faktoren. Was uns im Job motiviert Foto: vectorfusionart – shutterstock.comEs gibt unterschiedliche Motivationsfaktoren, die jeden von uns mehr oder weniger antreiben, etwas mit Freude und Energie zu tun. Business Coach Oliver Erbe nennt zehn dieser Faktoren. 1. AnerkennungEs tut uns gut, unsere Wirksamkeit zu spüren und Wertschätzung dafür zu erfahren.1. Anerkennung Foto: fizkes – shutterstock.comEs tut uns gut, unsere Wirksamkeit zu spüren und Wertschätzung dafür zu erfahren.2. WissensdurstPersönliche Weiterentwicklung treibt viele an, das heißt, sein Wissen und seine Fähigkeiten kontinuierlich zu erweitern.2. Wissensdurst Foto: lculig-shutterstock.comPersönliche Weiterentwicklung treibt viele an, das heißt, sein Wissen und seine Fähigkeiten kontinuierlich zu erweitern.3. PerfektionierungProjekte, Produkte und Ideen zu einer richtig guten Lösung zu führen, kann uns begeistern.3. Perfektionierung Foto: Aon Khanisorn – shutterstock.comProjekte, Produkte und Ideen zu einer richtig guten Lösung zu führen, kann uns begeistern.4. OrdnungDinge, die eher chaotisch erscheinen, in eine funktionierende Ordnung zu bringen, ist für viele eine erfüllende Zielsetzung.4. Ordnung Foto: Song_about_summer – shutterstock.comDinge, die eher chaotisch erscheinen, in eine funktionierende Ordnung zu bringen, ist für viele eine erfüllende Zielsetzung.5. StatusDie Fragestellung, wie die eigene Position im Vergleich zu anderen ist, empfinden viele als Motivation, sich zu engagieren.5. Status Foto: Silentgunman – shutterstock.comDie Fragestellung, wie die eigene Position im Vergleich zu anderen ist, empfinden viele als Motivation, sich zu engagieren.6. FreiheitIn meiner Tätigkeit Freiheiten zu besitzen oder sie mir zu schaffen, kann motivierend sein.6. Freiheit Foto: small smiles – shutterstock.comIn meiner Tätigkeit Freiheiten zu besitzen oder sie mir zu schaffen, kann motivierend sein.7. EinflussViele befriedigt es, auf Entwicklungen Einfluss ausüben zu können und bei Richtungsentscheidungen involviert zu sein.7. Einfluss Foto: Jirsak – shutterstock.comViele befriedigt es, auf Entwicklungen Einfluss ausüben zu können und bei Richtungsentscheidungen involviert zu sein.8. EhreDer Stolz zum Beispiel bei einer bestimmten Entwicklung oder einer bekannten Marke dabei zu sein, gibt vielen Energie.8. Ehre Foto: Ground Picture – shutterstock.comDer Stolz zum Beispiel bei einer bestimmten Entwicklung oder einer bekannten Marke dabei zu sein, gibt vielen Energie.9. VerbundenheitEine Gemeinschaft zu finden, in der man sich wohlfühlt, kann sehr erfüllend sein.9. Verbundenheit Foto: Robert Kneschke – shutterstock.comEine Gemeinschaft zu finden, in der man sich wohlfühlt, kann sehr erfüllend sein.10. SinnerfüllungKann ich in meinem Job einen Zweck oder einen tieferen Sinn erfüllen? Je klarer diese Frage bejaht wird, desto motivierter ist man.10. Sinnerfüllung Foto: stockfour – shutterstock.comKann ich in meinem Job einen Zweck oder einen tieferen Sinn erfüllen? Je klarer diese Frage bejaht wird, desto motivierter ist man. 

Motivation in Eigenregie: 20 Jahre im Job – wie bleibe ich motiviert?​ Wer Symptome beruflicher Demotivation entwickelt oder zeigt, kann durch gezieltes Hinterfragen seiner Haltung sowie Fähigkeiten frische Motivationskraft schöpfen.
Foto: Chinnapong – shutterstock.comDie heutige Arbeitswelt ist unter anderem geprägt durch Veränderungen, Unplanbares, Komplexität und Mehrdeutigkeiten. Um damit umgehen zu können, sind neue Kompetenzen gefordert. Mentale Agilität ist ein Skill, der für Führungskräfte und Mitarbeiter unverzichtbar ist, um nicht jedes Mal viel Energie investieren zu müssen, wenn sich etwas anders entwickelt als geplant.Aber was kann ich machen, wenn ich damit nach 20 Jahren im Unternehmen nicht so einfach klarkomme? Oder wenn ich feststelle, nicht für jede Veränderung offen zu sein sowie Abwehr und Widerspruch in mir zu fühlen? Hinzu kommt vielleicht noch, bei neuen Projekten nicht dabei zu sein, weil anderes Wissen und Fähigkeiten gefragt sind oder das Reaktionsvermögen im Arbeitsalltag schwindet. Kurzum, wenn ich merke, dass meine Motivation nachlässt und es keinen Spaß mehr macht?Motivation – es gibt viele StellschraubenIch nutze im Coaching gerne das FiRE-Modell (Factors improving Resilience Effectiveness®), um meine Klienten dabei zu unterstützen, sich bezogen auf Elemente wie Haltung, mentale Agilität oder Sinn zu reflektieren. Basierend auf einer Vielzahl unterschiedlicher Studien, schlägt dieses Modell verschiedene Handlungsfelder vor, die Einfluss auf unsere aktuelle Verfassung und Stimmung haben.Viele der Coachees – also die Personen, die ein professionelles Coaching in Anspruch nehmen – haben daraufhin mit unterschiedlichen Zutaten und Dosierungen ihre individuellen Rezepte erstellt – mit der Zielsetzung, eine neue Klarheit für ihre aktuelle Lebensphase zu entwickeln: nämlich idealerweise motiviert und sogar stolz wieder zur Arbeit zu gehen und dabei Spaß zu haben.Einige dieser “Zutaten” stelle ich hier kurz vor.1. Wie blicke ich auf die Situation?Stellen Sie sich die Frage: Wie ist meine Haltung zu neuen Inhalten, Prozessen, etc.? Oder: Das Lernen neuer Themen ist zwar bis ins hohe Alter möglich, es wird mir aber schwerfallen, wenn ich ablehne und mich verschließe? Nehmen Sie dabei selbst wahr, wie sie reagieren. Man kann seine Haltung bewusst in Frage stellen und dadurch ändern. Das gelingt nicht sofort, aber über ein paar Wochen. Nehmen Sie sich vor neugierig und interessiert zu sein, statt zu kritisch und abwehrend. Das wird anfangs schwerfallen, aber immer leichter werden – wie ein Muskel, den Sie trainieren.2. “Ja und” statt “Nein”Vielleicht werden Sie auch aufgrund Ihrer Erfahrung einige Situationen erleben, in denen Sie eine angekündigte Veränderung sehr kritisch sehen und auch Gründe dafür kennen, warum sie nicht optimal ist. Wie reagieren Sie dann? Nutzen Sie Ihre Erfahrung und bringen Sie sie ein. Eine gute Art der Kommunikation wäre mit einem “Ja und…” zu starten. Zum Beispiel: Ja, ich kann verstehen, was der Hintergrund dieser Veränderung ist UND wenn wir XY beachten, wird es funktionieren.Sind es Themen, die Sie nicht beeinflussen können, überlegen Sie, wie viel Energie und Ärger Sie investieren wollen und wie effektiv das ist? Wo fehlt diese Energie gegebenenfalls? Setzen Sie Energie nur dort ein, wo es sinnvoll ist.3. Wann bin ich im Flow?Wissen Sie, bei welcher Tätigkeit Sie so richtig im Flow sind, das heiß, bei dieser Tätigkeit viel Energie zu verspüren und die Zeit zu vergessen? Was machen Sie in diesem Moment? Welches Thema bearbeiten Sie? Welche Technik nutzen Sie? Mit wem arbeiten Sie dabei zusammen? Wo sind Sie in diesem Moment?Vielleicht ist es möglich, dass diese Tätigkeit häufiger und länger stattfindet – oder Bestandteile davon. Was müssten Sie dafür tun, wen dafür ansprechen? Versuchen Sie wo möglich, Ihre Arbeitsinhalte selbst zu gestalten.4. Was motiviert mich?Es gibt unterschiedliche Motivationsgründe, die uns antreiben, etwas mit mehr oder weniger Freude und Energie zu tun. Welche, erfahren Sie in der folgenden Bildergalerie: 5. Wie ist meine Positionierung?Was treibt Sie an? Was können Sie in Ihrem aktuellen Job priorisieren, um die eigenen Motivatoren besser zu erfüllen?Überlegen Sie sich einmal, wie Sie im Unternehmen wahrgenommen werden wollen. Wofür wollen Sie stehen und womit in Verbindung gebracht werden? Ein Beispiel aus meiner Coaching-Praxis war ein Fall, in dem der Coachee sich bezüglichvieler technischer Veränderung abgehängt fühlte. Er wurde nicht mehr als der Experte wahrgenommen, der er einmal war. Sein Expertentum hatte sich verschoben. Er war jetzt der Netzwerker und Verbinder. Kollegen und Mitarbeiter schätzten sein wertvolles Netzwerk und ihn als kompetenten Ansprechpartner, wenn es darum ging, die richtigen Leute zu adressieren. Diese Klarheit über seine neue “Positionierung” half ihm, seine aktuellen Stärken zu sehen und sich neu zu motivieren.In einem anderen Beispiel positionierte sich der Coachee als “väterlicher Freund und Berater”. Mit väterlich ist gemeint, Werte vorzuleben, helfend und beratend zur Verfügung zu stehen und sich darum zu kümmern, dass das Team sich wohlfühlt – eine wichtige Voraussetzung für Erfolg.Wie ist Ihre Positionierung der Vergangenheit? Hat sich etwas geändert? Wie wollen Sie heute gerne wahrgenommen werden?Sind Sie motiviert, sich zu motivieren?Sind für Sie Zutaten dabei gewesen, die Sie in der für Sie passenden Dosierung für Ihr Motivationsrezept einsetzen können? Haben Sie die Motivation, das Rezept umzusetzen? Stellen Sie sich einmal vor, Sie gehen voller Energie, Spaß und Motivation zur Arbeit. Wie fühlt sich das an? Lohnt es sich nicht, in diese Richtung so viele Schritte zu gehen wie möglich? Jeder Schritt hilft.10 Faktoren für die eigene MotivationWas uns im Job motiviertEs gibt unterschiedliche Motivationsfaktoren, die jeden von uns mehr oder weniger antreiben, etwas mit Freude und Energie zu tun. Business Coach Oliver Erbe nennt zehn dieser Faktoren. Was uns im Job motiviert
Foto: vectorfusionart – shutterstock.comEs gibt unterschiedliche Motivationsfaktoren, die jeden von uns mehr oder weniger antreiben, etwas mit Freude und Energie zu tun. Business Coach Oliver Erbe nennt zehn dieser Faktoren. 1. AnerkennungEs tut uns gut, unsere Wirksamkeit zu spüren und Wertschätzung dafür zu erfahren.1. Anerkennung
Foto: fizkes – shutterstock.comEs tut uns gut, unsere Wirksamkeit zu spüren und Wertschätzung dafür zu erfahren.2. WissensdurstPersönliche Weiterentwicklung treibt viele an, das heißt, sein Wissen und seine Fähigkeiten kontinuierlich zu erweitern.2. Wissensdurst
Foto: lculig-shutterstock.comPersönliche Weiterentwicklung treibt viele an, das heißt, sein Wissen und seine Fähigkeiten kontinuierlich zu erweitern.3. PerfektionierungProjekte, Produkte und Ideen zu einer richtig guten Lösung zu führen, kann uns begeistern.3. Perfektionierung
Foto: Aon Khanisorn – shutterstock.comProjekte, Produkte und Ideen zu einer richtig guten Lösung zu führen, kann uns begeistern.4. OrdnungDinge, die eher chaotisch erscheinen, in eine funktionierende Ordnung zu bringen, ist für viele eine erfüllende Zielsetzung.4. Ordnung
Foto: Song_about_summer – shutterstock.comDinge, die eher chaotisch erscheinen, in eine funktionierende Ordnung zu bringen, ist für viele eine erfüllende Zielsetzung.5. StatusDie Fragestellung, wie die eigene Position im Vergleich zu anderen ist, empfinden viele als Motivation, sich zu engagieren.5. Status
Foto: Silentgunman – shutterstock.comDie Fragestellung, wie die eigene Position im Vergleich zu anderen ist, empfinden viele als Motivation, sich zu engagieren.6. FreiheitIn meiner Tätigkeit Freiheiten zu besitzen oder sie mir zu schaffen, kann motivierend sein.6. Freiheit
Foto: small smiles – shutterstock.comIn meiner Tätigkeit Freiheiten zu besitzen oder sie mir zu schaffen, kann motivierend sein.7. EinflussViele befriedigt es, auf Entwicklungen Einfluss ausüben zu können und bei Richtungsentscheidungen involviert zu sein.7. Einfluss
Foto: Jirsak – shutterstock.comViele befriedigt es, auf Entwicklungen Einfluss ausüben zu können und bei Richtungsentscheidungen involviert zu sein.8. EhreDer Stolz zum Beispiel bei einer bestimmten Entwicklung oder einer bekannten Marke dabei zu sein, gibt vielen Energie.8. Ehre
Foto: Ground Picture – shutterstock.comDer Stolz zum Beispiel bei einer bestimmten Entwicklung oder einer bekannten Marke dabei zu sein, gibt vielen Energie.9. VerbundenheitEine Gemeinschaft zu finden, in der man sich wohlfühlt, kann sehr erfüllend sein.9. Verbundenheit
Foto: Robert Kneschke – shutterstock.comEine Gemeinschaft zu finden, in der man sich wohlfühlt, kann sehr erfüllend sein.10. SinnerfüllungKann ich in meinem Job einen Zweck oder einen tieferen Sinn erfüllen? Je klarer diese Frage bejaht wird, desto motivierter ist man.10. Sinnerfüllung
Foto: stockfour – shutterstock.comKann ich in meinem Job einen Zweck oder einen tieferen Sinn erfüllen? Je klarer diese Frage bejaht wird, desto motivierter ist man.

Motivation in Eigenregie: 20 Jahre im Job – wie bleibe ich motiviert?​ Weiterlesen »

Von den Gefahren vernachlässigter Cloud-Infrastrukturen​

Allgemein

Nur eine Frage der Zeit: Vernachlässigte Cloud-Infrastrukturen fliegen Ihnen irgendwann um die Ohren.Lex Broere | shutterstock.com Die US-amerikanische Cybersicherheitsbehörde CISA veröffentlichte im Jahr 2012 eine öffentliche Mitteilung, die sich auf Software bezog, mit den Gebäudesysteme überwacht und gesteuert werden. Die Experten warnten damals davor, dass die Software wegen eines vernachlässigten und vergessenen Amazon-S3-Buckets angreifbar ist.   Denselben S3-Bucket – immer noch aktiv und weiterhin anfällig – fanden Cybersicherheitsexperten von watchTowr im Jahr 2023 wieder. Er war ein Jahrzehnt lang unbeaufsichtigt und hätte jederzeit von böswilligen Akteuren für schadhafte Einsatzzwecke neu registriert werden können. Man kann in diesem Fall nur von Glück reden, dass es White-Hat-Hacker waren, die die anfällige Cloud-Ressource identifizieren konnten. Leider ist diese Story keine Ausnahme. Blinde Flecken in der IT-Infrastruktur, die durch vernachlässigte, vergessene oder schlecht konfigurierte Cloud-Ressourcen entstehen, stellen ein übergreifendes Problem dar. Wie groß dieses (immer noch) ist, demonstrieren die Experten von watchTowr in einer aktuellen Untersuchung. 8 million requests, $400 later – we’re back. 🚀We have demonstrated supply chain attacks that could have allowed us to trivially compromise critical infra. networks, including .gov, .mil, and more. This is real Attack Surface Management. https://t.co/PCuioOCiRi— watchTowr (@watchtowrcyber) February 4, 2025 War Solarwinds erst der Anfang? Dabei gelang es den Sicherheitsforschern über einen Zeitraum von vier Monaten, die Kontrolle über rund 150 verwaiste AWS-S3-Buckets zu erlangen. Diese gehörten einer ganzen Reihe von Nutzern, darunter Fortune-500-Unternehmen, Regierungsinstitutionen, akademische Einrichtungen und Cybersicherheitsfirmen. Und die aufgegebenen Cloud-Ressourcen wurden auch noch millionenfach abgefragt – mehr als acht Millionen Queries konnten die watchTowr-Experten identifizieren. Die potenziellen Auswirkungen sind erschütternd: Cyberkriminelle hätten die verwaisten AWS-Buckets dazu nutzen können, um Malware zu verbreiten oder großangelegte Supply-Chain-Angriffe zu fahren. Nicht ohne Grund warnen die Sicherheitsexperten in ihrem Blogbeitrag davor, dass künftige Breaches den berüchtigten Lieferkettenangriff auf Solarwinds in Sachen Umfang und Impact noch deutlich übertreffen könnten. Zu den alarmierenden Zuständen, die die Forscher aufdecken konnten, zählten beispielsweise: Verwaiste S3-Buckets, die mit Anbietern von SSL-VPN-Appliances verbunden waren und immer noch Deployment-Templates und -Konfigurationen bereitstellten. Ein älterer GitHub-Commit aus dem Jahr 2015 hat einen S3-Bucket exponiert, der mit einem beliebten Open-Source-Compiler für WebAssembly verknüpft war. Systeme, die Images von virtuellen Maschinen über vernachlässigte Cloud-Ressourcen bezogen. Wie die Forscher betonen, handelt es sich nicht um ein AWS- oder branchenspezifisches Problem. Vielmehr liege ein umfassenderes, systemisches Versagen vor, wenn es darum gehe, digitale Assets im Cloud-Zeitalter effektiv zu managen. Vernachlässigte Cloud-Infrastrukturen, so die watchTowr-Experten, stellten eine massive, jedoch oft ignorierte Sicherheitslücke dar. Damit es gar nicht erst dazu kommt, empfiehlt watchTowr Unternehmen folgende Maßnahmen: Ein klares und umfassendes Inventar aller digitalen Assets aufstellen – unabhängig davon, ob On Premises oder in der Cloud. Regelmäßige Security Reviews der Cloud-Umgebung durchführen und dabei Fehlkonfigurationen oder veraltete Ressourcen adressieren. Sicherstellen, dass jede Cloud-Ressource einem bestimmten Owner innerhalb der Organisation zugewiesen ist, der dafür verantwortlich ist, die zu warten oder stillzulegen. Automatisierte Skripte nutzen, um ungenutzte Ressourcen zu identifizieren und zu entfernen – einschließlich S3-Buckets, alte DNS-Einträge und nicht benötigte IPs. Security Best Practices in den Entwicklungslebenszyklus integrieren. Sicherstellen, dass alle Konfigurationen für Cloud-Ressourcen vor dem Deployment bestimmte Sicherheitsstandards erfüllen – und dafür sorgen, dass Infrastructure as Code angemessen überwacht wird.   Monitoring einrichten für Cloud-Ressourcen von Drittanbietern und Open-Source-Tools. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Von den Gefahren vernachlässigter Cloud-Infrastrukturen​ Nur eine Frage der Zeit: Vernachlässigte Cloud-Infrastrukturen fliegen Ihnen irgendwann um die Ohren.Lex Broere | shutterstock.com

Die US-amerikanische Cybersicherheitsbehörde CISA veröffentlichte im Jahr 2012 eine öffentliche Mitteilung, die sich auf Software bezog, mit den Gebäudesysteme überwacht und gesteuert werden. Die Experten warnten damals davor, dass die Software wegen eines vernachlässigten und vergessenen Amazon-S3-Buckets angreifbar ist.   Denselben S3-Bucket – immer noch aktiv und weiterhin anfällig – fanden Cybersicherheitsexperten von watchTowr im Jahr 2023 wieder. Er war ein Jahrzehnt lang unbeaufsichtigt und hätte jederzeit von böswilligen Akteuren für schadhafte Einsatzzwecke neu registriert werden können. Man kann in diesem Fall nur von Glück reden, dass es White-Hat-Hacker waren, die die anfällige Cloud-Ressource identifizieren konnten.

Leider ist diese Story keine Ausnahme. Blinde Flecken in der IT-Infrastruktur, die durch vernachlässigte, vergessene oder schlecht konfigurierte Cloud-Ressourcen entstehen, stellen ein übergreifendes Problem dar. Wie groß dieses (immer noch) ist, demonstrieren die Experten von watchTowr in einer aktuellen Untersuchung.

8 million requests, $400 later – we’re back. 🚀We have demonstrated supply chain attacks that could have allowed us to trivially compromise critical infra. networks, including .gov, .mil, and more. This is real Attack Surface Management. https://t.co/PCuioOCiRi— watchTowr (@watchtowrcyber) February 4, 2025

War Solarwinds erst der Anfang?

Dabei gelang es den Sicherheitsforschern über einen Zeitraum von vier Monaten, die Kontrolle über rund 150 verwaiste AWS-S3-Buckets zu erlangen. Diese gehörten einer ganzen Reihe von Nutzern, darunter Fortune-500-Unternehmen, Regierungsinstitutionen, akademische Einrichtungen und Cybersicherheitsfirmen. Und die aufgegebenen Cloud-Ressourcen wurden auch noch millionenfach abgefragt – mehr als acht Millionen Queries konnten die watchTowr-Experten identifizieren.

Die potenziellen Auswirkungen sind erschütternd: Cyberkriminelle hätten die verwaisten AWS-Buckets dazu nutzen können, um Malware zu verbreiten oder großangelegte Supply-Chain-Angriffe zu fahren. Nicht ohne Grund warnen die Sicherheitsexperten in ihrem Blogbeitrag davor, dass künftige Breaches den berüchtigten Lieferkettenangriff auf Solarwinds in Sachen Umfang und Impact noch deutlich übertreffen könnten.

Zu den alarmierenden Zuständen, die die Forscher aufdecken konnten, zählten beispielsweise:

Verwaiste S3-Buckets, die mit Anbietern von SSL-VPN-Appliances verbunden waren und immer noch Deployment-Templates und -Konfigurationen bereitstellten.

Ein älterer GitHub-Commit aus dem Jahr 2015 hat einen S3-Bucket exponiert, der mit einem beliebten Open-Source-Compiler für WebAssembly verknüpft war.

Systeme, die Images von virtuellen Maschinen über vernachlässigte Cloud-Ressourcen bezogen.

Wie die Forscher betonen, handelt es sich nicht um ein AWS- oder branchenspezifisches Problem. Vielmehr liege ein umfassenderes, systemisches Versagen vor, wenn es darum gehe, digitale Assets im Cloud-Zeitalter effektiv zu managen. Vernachlässigte Cloud-Infrastrukturen, so die watchTowr-Experten, stellten eine massive, jedoch oft ignorierte Sicherheitslücke dar.

Damit es gar nicht erst dazu kommt, empfiehlt watchTowr Unternehmen folgende Maßnahmen:

Ein klares und umfassendes Inventar aller digitalen Assets aufstellen – unabhängig davon, ob On Premises oder in der Cloud.

Regelmäßige Security Reviews der Cloud-Umgebung durchführen und dabei Fehlkonfigurationen oder veraltete Ressourcen adressieren.

Sicherstellen, dass jede Cloud-Ressource einem bestimmten Owner innerhalb der Organisation zugewiesen ist, der dafür verantwortlich ist, die zu warten oder stillzulegen.

Automatisierte Skripte nutzen, um ungenutzte Ressourcen zu identifizieren und zu entfernen – einschließlich S3-Buckets, alte DNS-Einträge und nicht benötigte IPs.

Security Best Practices in den Entwicklungslebenszyklus integrieren. Sicherstellen, dass alle Konfigurationen für Cloud-Ressourcen vor dem Deployment bestimmte Sicherheitsstandards erfüllen – und dafür sorgen, dass Infrastructure as Code angemessen überwacht wird.  

Monitoring einrichten für Cloud-Ressourcen von Drittanbietern und Open-Source-Tools.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Von den Gefahren vernachlässigter Cloud-Infrastrukturen​ Weiterlesen »

DISM-Befehle im Überblick​

Allgemein

Die wichtigsten DISM-Befehle im Überblick. Foto: Claudio Divizia – shutterstock.com Das Befehlszeilentool DISM (Deployment Image Servicing and Management) ist seit Vista Bestandteil von Windows. Damals wurde es als Methode eingeführt, um Windows-Images (auf Basis des .wim-Dateiformats) zu erstellen und zu managen. Es funktioniert auch mit dem verschlüsselten und komprimierten .esd-Dateiformat, das mit Windows 8.1 eingeführt wurde. Das “Servicing” im Akronym DISM ist dabei weit gefasst und deckt eine breite Funktionspalette ab. Dieser Artikel beschäftigt sich mit den folgenden, alltäglichen DISM-Tasks: Windows-Updates aus dem Microsoft Update Catalog oder anderen Package-File-Quellen installieren; Windows 10- und -11-Images reparieren; Windows-Komponentenspeicher aufräumen; Windows-Images, -Installer und ISO-Dateien erfassen. Hinweis: Um DISM für diese Tasks einzusetzen, müssen Sie die Windows-Eingabeaufforderung oder eine Powershell-Sitzung mit Administratorrechten starten. dism / add-package Wenn Windows Updates nicht richtig funktionieren oder großangelegte, respektive Remote-Deployments anstehen, kann es nützlich sein, Updates mit DISM zu einem Windows-Image hinzuzufügen – diese Methode wird manchmal auch als “Slipstreaming” bezeichnet. Um mit DISM Windows-Updates zu installieren, benötigen Sie folgende Syntax: dism /Add-Package Das erlaubt Ihnen, Updates im .cab- oder .msu-Format zu einem spezifischen Windows Image hinzuzufügen. Wie das im Detail funktioniert, lesen Sie hier. dism /online /cleanup-image /restorehealth & mehr Windows-Image mit DISM reparieren DISM kann auch verwendet werden, um Windows-Images zu scannen, zu überprüfen und wiederherzustellen. Das funktioniert mithilfe folgender DISM-Befehle: dism /online /cleanup-image /checkhealth, dism /online /cleanup-image /scanhealth und dism /online /cleanup-image /restorehealth. Eine Schritt-für-Schritt-Anleitung, um Windows-Images mit DISM zu reparieren, finden Sie hier. Windows-Komponentenspeichers mit DISM aufräumen Im Ordner WinSxS sind die Dateien des Windows-Komponentenspeichers abgelegt. Sie unterstützen Windows-Updates und -Anpassungen. Mit jedem Windows-Update wird ein Eintrag zum Komponentenspeicher hinzugefügt. Dabei werden neue Komponenten neben älteren gespeichert, die sie möglicherweise überflüssig gemacht haben – ein gewisses Maß an Chaos ist also unvermeidbar. Um das zu beseitigen, bietet DISM zweierlei Möglichkeiten. Die erste besteht darin, frühere Versionen von Update-Komponenten zu identifizieren und diese aus dem Component Store zu löschen. Das funktioniert mit folgenden Befehlen: dism /online /cleanup-image /analyzecomponentstore dism /online /cleanup-image /startcomponentcleanup Auf diese Weise lassen sich typischerweise zwischen 2GB und 4GB Speicherplatz freischaufeln. Um diesen Wert noch einmal um 10 bis 20 Prozent zu steigern, haben Admins und Poweruser darüber hinaus auch die Option, alle überholten Versionen jeder Komponente im Komponentenspeicher zu entfernen: dism /online /cleanup-image /startcomponentcleanup /resetbase Dabei sollten Sie sich allerdings möglicher Komplikation dieser “Tiefenreinigung” bewusst sein: Nachdem Sie diesen DISM-Befehl ausführen, können vorhandene Update-Pakete nicht mehr deinstalliert werden. Bei Standalone-PCs gibt es eigentlich keinen Grund, letztgenannte Option zu fahren. Sie macht am meisten Sinn, wenn kuratierte Images bereitgestellt werden sollen. Bei Microsoft finden Sie zusätzliche Informationen zu WinSxS-Ordner und Windows-Komponentenspeicher. dism /get-wiminfo Wenn Sie mit mehreren Windows-Versionen arbeiten, kann es schon einmal vorkommen, dass beim Blick auf Installer oder Betriebssystem-Images Fragezeichen auftauchen. Und obwohl DISM nicht mit laufenden Images funktioniert, kann es Ihnen einige Informationen über eventuell vorhandene .wim- und .esd-Dateien liefern. Das funktioniert mit folgender Befehlssyntax: dism /get-wiminfo /wimfile “target” Eine gültige Pfadangabe (“target”) vorausgesetzt, gibt dieser Befehl Auskunft über alle verschiedenen Elemente, die dort indexiert sind. Mit Hilfe der /get-wiminfo-Funktion von DISM können Sie etwa im Fall eines Installers feststellen, für welche Windows-Version dieser bestimmt ist und welche Editionen (Home, Pro etc.) er enthält. DISM – Ressourcen Die vorgestellten Befehle sind nur die gängigsten Anwendungsbeispiele von DISM. Bei Microsoft finden Sie Tutorials zu weiteren Bereichen – beispielsweise, um: Images von Festplattenpartitionen zu erstellen und anzuwenden; Windows-Images zu mounten und zu modifizieren; Windows-Images mit einem einzelnen .wim-File erstellen; Daten-Images zu erstellen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

DISM-Befehle im Überblick​ Die wichtigsten DISM-Befehle im Überblick.
Foto: Claudio Divizia – shutterstock.com

Das Befehlszeilentool DISM (Deployment Image Servicing and Management) ist seit Vista Bestandteil von Windows. Damals wurde es als Methode eingeführt, um Windows-Images (auf Basis des .wim-Dateiformats) zu erstellen und zu managen. Es funktioniert auch mit dem verschlüsselten und komprimierten .esd-Dateiformat, das mit Windows 8.1 eingeführt wurde. Das “Servicing” im Akronym DISM ist dabei weit gefasst und deckt eine breite Funktionspalette ab.

Dieser Artikel beschäftigt sich mit den folgenden, alltäglichen DISM-Tasks:

Windows-Updates aus dem Microsoft Update Catalog oder anderen Package-File-Quellen installieren;

Windows 10- und -11-Images reparieren;

Windows-Komponentenspeicher aufräumen;

Windows-Images, -Installer und ISO-Dateien erfassen.

Hinweis: Um DISM für diese Tasks einzusetzen, müssen Sie die Windows-Eingabeaufforderung oder eine Powershell-Sitzung mit Administratorrechten starten.

dism / add-package

Wenn Windows Updates nicht richtig funktionieren oder großangelegte, respektive Remote-Deployments anstehen, kann es nützlich sein, Updates mit DISM zu einem Windows-Image hinzuzufügen – diese Methode wird manchmal auch als “Slipstreaming” bezeichnet.

Um mit DISM Windows-Updates zu installieren, benötigen Sie folgende Syntax:

dism /Add-Package

Das erlaubt Ihnen, Updates im .cab- oder .msu-Format zu einem spezifischen Windows Image hinzuzufügen. Wie das im Detail funktioniert, lesen Sie hier.

dism /online /cleanup-image /restorehealth & mehr

Windows-Image mit DISM reparieren

DISM kann auch verwendet werden, um Windows-Images zu scannen, zu überprüfen und wiederherzustellen. Das funktioniert mithilfe folgender DISM-Befehle:

dism /online /cleanup-image /checkhealth,

dism /online /cleanup-image /scanhealth und

dism /online /cleanup-image /restorehealth.

Eine Schritt-für-Schritt-Anleitung, um Windows-Images mit DISM zu reparieren, finden Sie hier.

Windows-Komponentenspeichers mit DISM aufräumen

Im Ordner WinSxS sind die Dateien des Windows-Komponentenspeichers abgelegt. Sie unterstützen Windows-Updates und -Anpassungen. Mit jedem Windows-Update wird ein Eintrag zum Komponentenspeicher hinzugefügt. Dabei werden neue Komponenten neben älteren gespeichert, die sie möglicherweise überflüssig gemacht haben – ein gewisses Maß an Chaos ist also unvermeidbar. Um das zu beseitigen, bietet DISM zweierlei Möglichkeiten.

Die erste besteht darin, frühere Versionen von Update-Komponenten zu identifizieren und diese aus dem Component Store zu löschen. Das funktioniert mit folgenden Befehlen:

dism /online /cleanup-image /analyzecomponentstore

dism /online /cleanup-image /startcomponentcleanup

Auf diese Weise lassen sich typischerweise zwischen 2GB und 4GB Speicherplatz freischaufeln. Um diesen Wert noch einmal um 10 bis 20 Prozent zu steigern, haben Admins und Poweruser darüber hinaus auch die Option, alle überholten Versionen jeder Komponente im Komponentenspeicher zu entfernen:

dism /online /cleanup-image /startcomponentcleanup /resetbase

Dabei sollten Sie sich allerdings möglicher Komplikation dieser “Tiefenreinigung” bewusst sein: Nachdem Sie diesen DISM-Befehl ausführen, können vorhandene Update-Pakete nicht mehr deinstalliert werden. Bei Standalone-PCs gibt es eigentlich keinen Grund, letztgenannte Option zu fahren. Sie macht am meisten Sinn, wenn kuratierte Images bereitgestellt werden sollen.

Bei Microsoft finden Sie zusätzliche Informationen zu WinSxS-Ordner und Windows-Komponentenspeicher.

dism /get-wiminfo

Wenn Sie mit mehreren Windows-Versionen arbeiten, kann es schon einmal vorkommen, dass beim Blick auf Installer oder Betriebssystem-Images Fragezeichen auftauchen. Und obwohl DISM nicht mit laufenden Images funktioniert, kann es Ihnen einige Informationen über eventuell vorhandene .wim- und .esd-Dateien liefern. Das funktioniert mit folgender Befehlssyntax:

dism /get-wiminfo /wimfile “target”

Eine gültige Pfadangabe (“target”) vorausgesetzt, gibt dieser Befehl Auskunft über alle verschiedenen Elemente, die dort indexiert sind.

Mit Hilfe der /get-wiminfo-Funktion von DISM können Sie etwa im Fall eines Installers feststellen, für welche Windows-Version dieser bestimmt ist und welche Editionen (Home, Pro etc.) er enthält.

DISM – Ressourcen

Die vorgestellten Befehle sind nur die gängigsten Anwendungsbeispiele von DISM. Bei Microsoft finden Sie Tutorials zu weiteren Bereichen – beispielsweise, um:

Images von Festplattenpartitionen zu erstellen und anzuwenden;

Windows-Images zu mounten und zu modifizieren;

Windows-Images mit einem einzelnen .wim-File erstellen;

Daten-Images zu erstellen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

DISM-Befehle im Überblick​ Weiterlesen »

Gemini Code Assist im Test​

Allgemein

Gemini Code Assist im Test: Wie gut performt Googles KI-Code-Assistent in der Praxis?IDG Da sowohl Microsoft als auch Amazon KI-Codierungsassistenten anbieten, war es eigentlich nur eine Frage der Zeit, bis auch Google ein entsprechendes Angebot auf den Markt bringen würde. Dieses steht inzwischen mit Gemini Code Assist zur Verfügung – für Einzelpersonen sogar kostenlos (Public Preview).   In diesem Test lesen Sie: was Gemini Code Assist kann, wie viel es Unternehmen kostet, wie es um Integrationen und Sprach-Support steht, wie das Google-Tool in der Praxis performt, und ob es im Vergleich mit der Konkurrenz bestehen kann.   Gemini Code Assist – Funktionen Ganz grundsätzlich kann Gemini Code Assist: Code vervollständigen, Code debuggen, Code dokumentieren, Code erklären, Code aus Kommentaren erstellen, und Unit-Tests generieren.  Dabei unterstützt Googles KI-Codierungsassistent Quellverweise und spuckt entsprechende Warnhinweise aus, wenn eine Quelle (zu) ausführlich „zitiert“ wird. Das Tool kann außerdem auch auf eine anwendbare Quellcode-Lizenz verweisen, falls bekannt. Laut Google werden die Daten, die Gemini Code Assist verarbeitet nicht ohne Erlaubnis verwendet, um KI-Modelle zu trainieren. Die Large Language Models (LLMs), die bei Gemini Code Assist zum Einsatz kommen, werden auf Grundlage von öffentlich verfügbarem Code, Google-Cloud-spezifischem Content und anderen relevanten, technischen Informationen trainiert – zusätzlich zu den Datensätzen, die für die Gemini-Foundation-Modelle zum Einsatz kommen.   Innerhalb einer IDE sammelt Gemini Code Assist Kontextinformationen aus der Datei, die gerade aktiv verwendet wird, aber auch aus anderen geöffneten, relevanten (lokalen) Dateien im Projekt. Die Enterprise-Edition von Gemini Code Assist (dazu später mehr) enthält außerdem eine Code-Customization-Funktion, die es Organisationen ermöglicht, ihre eigenen Codebasen als Grundlage für Code-Vorschläge zu nutzen. Gemini Code Assist – Versionen & Preise Gemini Code Assist steht in drei unterschiedlichen Versionen, respektive Preisplänen zur Verfügung:   Gemini Code Assist ist für Einzelpersonen kostenlos (bis zu 180.000 Code-Vervollständigungen pro Monat). Die Standard-Edition von Gemini Code Assist kostet 19 Dollar pro Benutzer und Monat (bei jährlicher Vorauszahlung). Die Enterprise-Edition von Gemini Code Assist kostet 45 Dollar pro Benutzer und Monat.   Einen ausführlichen und übersichtlichen Funktionsvergleich der Standard- und Enterprise-Version finden Sie hier. Gemini Code Assist – Integrationen & Sprachen Gemini Code Assist steht als Plugin für Visual Studio Code und JetBrains IDEs zum Download zur Verfügung. Darüber hinaus ist Gemini Code Assist standardmäßig in Googles Cloud Shell Editor, Cloud Workstations und Cloud Code verfügbar – ebenso wie über Firebase, Google-Datenbanken und Colab Enterprise. Gemini Code Assist Enterprise ist zusätzlich auch in BigQuery, Apigee und Google Application Integration verfügbar. Für Programmiersprachen bietet Gemini Code Assist umfänglichen Support. Googles KI-Codierungsassistent wurde für 22 gängige Programmier-, Skript- und Abfragesprachen verifiziert: Bash, C, C++, C#, Dart, Go, GoogleSQL, Java, JavaScript, Kotlin, Lua, MatLab, PHP, Python, R, Ruby, Rust, Scala, SQL, Swift, TypeScript und YAML. Die Gemini Code Assist Tools ermöglichen es Entwicklern außerdem, ihre IDE für allgemeine programmierbezogene Aufgaben (etwa dem Verweis auf Code in gemeinschaftlich genutzten Repositories) nicht verlassen zu müssen. Bisher stehen Tools zur Verfügung für den Zugriff auf: Atlassian (Rovo), GitHub, GitLab, Google Docs und Sentry. Darüber hinaus sind diverse, weitere Integrationen geplant. Darunter zum Beispiel für: Observability-Systeme (Dynatrace, Harness und New Relic), Security-Lösungen (SonarQube, Snyk und Black Duck), sowie Datenbanken (Aiven, DataStax, Elastic, MongoDB, Neo4j, Redis und SingleStore). Programmieren mit Gemini Code Assist Wir haben Gemini Code Assist in Visual Studio Code getestet – und es für einige Tasks in C++– und Python-Programmen genutzt. Unsere Prompt-Tests haben wir auf Englisch beschränkt – Gemini Code Assist ist jedoch in der Lage, Anweisungen in knapp 30 unterschiedlichen Sprachen zu verarbeiten, darunter auch Deutsch. C++ IDG Im obenstehenden Screenshot sehen Sie links oben einen Chat mit Gemini Code Assist, in dem das Tool erklärt, wie der C++-Code oben rechts zu kompilieren und zu verlinken ist. Besagten Code haben wir zuvor mit Hilfe eines anderen Modells generiert. Unten rechts sehen Sie den generierten und ausgeführten Code. Der berechnete Wert von Pi ist bis auf 20 Dezimalstellen korrekt, wie ein Abgleich mit der Encyclopedia Britannica ergeben hat. IDG Wir haben uns den Quellcode für die hochpräzise Gleitkomma-Routine angesehen, die verwendet wird, um Pi zu berechnen. Dabei hat das Tool die Brent-Salamin-Formel referenziert – also haben wir die entsprechende Stelle markiert und mit einem Rechtsklick an den Code Assist Chat gesendet (links oben). Der Output des Tools: Die Formel basiert auf dem arithmetischen, geometrischen Mittelwert (korrekt) und ist genauer als der Gauss-Legendre-Algorithmus (nicht korrekt; sie sind gleichwertig). IDG Anschließend haben wir Gemini Code Assist verwendet, um das C++-Programm dazu einzusetzen, Pi mit einer benutzerdefinierten Anzahl von Dezimalstellen zu berechnen – also compute_pi . Was folgte war ein mehrstufiger, interaktiver Prozess. Dieser beinhaltete: Kommentare zu schreiben, Code von Gemini generieren zu lassen, übriggebliebenen Code zu löschen, der das Programm beschädigt hätte, markierten, generierten Code mit einer unbekannten Lizenz zu akzeptieren, Gemini Code Assist darum zu bitten, mehrere Fehler mit undefinierten Variablen zu beheben – einfach aus purer Faulheit. Das Resultat war ein funktionierendes und effizientes Programm. Python IDG Der Python-Beispielcode für die Sefaria-API stellte den nächsten Test für Gemini Code Assist dar. Weil uns der Code nicht gefallen hat, haben wir einen Kommentar verfasst und Googles KI-Tool für Entwickler gebeten, diesen zu implementieren. Das mussten wir anschließend noch einmal mit einem präziseren Kommentar wiederholen – dann konnte auch das Ergebnis des KI-Tools überzeugen wie im grünen Block im obigen Screenshot zu sehen. IDG Nachdem wir den überarbeiteten Code von Gemini Code Assist  akzeptiert hatten, blieb ein funktionierendes Ergebnis zunächst aus. Auf der Grundlage der API-Dokumentation haben wir versucht, das zu beheben, was zu einer Exception geführt hat, wie Sie im obenstehenden Screenshot sehen können. IDG Nachdem wir Gemini Code Assist schließlich baten, diesen Fehler zu beheben, war die Lösung ziemlich offensichtlich. IDG Sobald der neue Code funktionierte, haben wir Gemini Code Assist noch angewiesen, die gesamte Datei zu erklären. Die wesentlichen Erkenntnisse dieses Praxistests: Gemini Code Assist reagiert im Chat etwas langsamer als einige der älteren OpenAI-Modelle, die bei GitHub Copilot zum Einsatz kommen. Das liegt daran, dass Code Assist Chat auf ein komplexes Modell zugreift, bei dem Genauigkeit Vorrang vor Geschwindigkeit hat. Im Bearbeitungsfenster wird hingegen ein reaktionsschnelleres Modell genutzt (basiert derzeit auf Gemini 2 Flash). Der Chat von Gemini Code Assist scheint generell nicht so oft aus dem Ruder zu laufen wie bei einigen Konkurrenten – obwohl er seine Chain-of-Thought nicht offenlegt. Zumindest gibt Gemini Code Assist aber im Chatfenster an, welchen Kontext es verwendet hat. Letzterer lässt sich auch bei der Abfrage spezifizieren. Gemini Code Assist im Vergleich mit der Konkurrenz Gemini Code Assist konkurriert unter anderem mit: GitHub Copilot, Amazon Q Developer, Tabnine, Zencoder, Cursor, Zed, JetBrains AI Assistant und Solver. Wenn Ihr Unternehmen mit Google (Cloud) arbeitet, macht es Sinn, Gemini Code Assist der Konkurrenz von Microsoft und Amazon vorzuziehen. Allerdings sollten Sie sich darüber bewusst sein, dass Googles KI-Coding-Assistent auch einige Features vermissen lässt – beispielsweise, wenn es darum geht, Code für mehrere Dateien und ganze Repositories zu generieren. Oder mit Blick auf KI-Agenten für langwierige Programmier-Tasks. Ob man diese Features unbedingt braucht, ist auch eine Geschmacksfrage: Einige erfahrene Entwickler ziehen es vor, KI nur für kleine, leicht zu überprüfende Tasks einzusetzen. Der Grund ist einfach: Eine große Änderung zu entwirren, die Fehler verursacht hat, kann deutlich mehr Arbeitsaufwand nach sich ziehen, als dieselbe Anpassung einfach manuell vorzunehmen. Die (Haupt-)Konkurrenten von Gemini Code Assist bieten allerdings einige der genannten Funktionen: GitHub Copilot Workspace und Solver bieten beispielsweise Repository-weite Codierung. GitHub Copilot Edits kann Änderungen an mehreren Dateien vornehmen. Amazon Q Developer verfügt über einen Agenten für Code-Transformation. Es ist deshalb damit zu rechnen, dass auch Gemini Code Assist künftig um diese oder ähnliche Funktionalitäten erweitert wird. Gemini Code Assist – Testfazit Insgesamt leistet Gemini Code Assist als Programmierassistent grundsätzlich gute Arbeit. Wenn Sie mit den genannten Abstrichen leben können, lohnt es sich dem Entwickler-Tool von Google eine Chance zu geben.   Wie bei allen Tools in dieser Kategorie gilt jedoch: Entwickler, die solche Werkzeuge einsetzen, sollten wissen, was Sie tun – und Ihren Code stets überprüfen, testen und debuggen. Schließlich ist kein Large Language Model zu 100 Prozent zuverlässig und vertrauenswürdig. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Gemini Code Assist im Test​ Gemini Code Assist im Test: Wie gut performt Googles KI-Code-Assistent in der Praxis?IDG

Da sowohl Microsoft als auch Amazon KI-Codierungsassistenten anbieten, war es eigentlich nur eine Frage der Zeit, bis auch Google ein entsprechendes Angebot auf den Markt bringen würde. Dieses steht inzwischen mit Gemini Code Assist zur Verfügung – für Einzelpersonen sogar kostenlos (Public Preview).  

In diesem Test lesen Sie:

was Gemini Code Assist kann,

wie viel es Unternehmen kostet,

wie es um Integrationen und Sprach-Support steht,

wie das Google-Tool in der Praxis performt, und

ob es im Vergleich mit der Konkurrenz bestehen kann.  

Gemini Code Assist – Funktionen

Ganz grundsätzlich kann Gemini Code Assist:

Code vervollständigen,

Code debuggen,

Code dokumentieren,

Code erklären,

Code aus Kommentaren erstellen, und

Unit-Tests generieren. 

Dabei unterstützt Googles KI-Codierungsassistent Quellverweise und spuckt entsprechende Warnhinweise aus, wenn eine Quelle (zu) ausführlich „zitiert“ wird. Das Tool kann außerdem auch auf eine anwendbare Quellcode-Lizenz verweisen, falls bekannt. Laut Google werden die Daten, die Gemini Code Assist verarbeitet nicht ohne Erlaubnis verwendet, um KI-Modelle zu trainieren.

Die Large Language Models (LLMs), die bei Gemini Code Assist zum Einsatz kommen, werden auf Grundlage von öffentlich verfügbarem Code, Google-Cloud-spezifischem Content und anderen relevanten, technischen Informationen trainiert – zusätzlich zu den Datensätzen, die für die Gemini-Foundation-Modelle zum Einsatz kommen.  

Innerhalb einer IDE sammelt Gemini Code Assist Kontextinformationen aus der Datei, die gerade aktiv verwendet wird, aber auch aus anderen geöffneten, relevanten (lokalen) Dateien im Projekt. Die Enterprise-Edition von Gemini Code Assist (dazu später mehr) enthält außerdem eine Code-Customization-Funktion, die es Organisationen ermöglicht, ihre eigenen Codebasen als Grundlage für Code-Vorschläge zu nutzen.

Gemini Code Assist – Versionen & Preise

Gemini Code Assist steht in drei unterschiedlichen Versionen, respektive Preisplänen zur Verfügung:  

Gemini Code Assist ist für Einzelpersonen kostenlos (bis zu 180.000 Code-Vervollständigungen pro Monat).

Die Standard-Edition von Gemini Code Assist kostet 19 Dollar pro Benutzer und Monat (bei jährlicher Vorauszahlung).

Die Enterprise-Edition von Gemini Code Assist kostet 45 Dollar pro Benutzer und Monat.  

Einen ausführlichen und übersichtlichen Funktionsvergleich der Standard- und Enterprise-Version finden Sie hier.

Gemini Code Assist – Integrationen & Sprachen

Gemini Code Assist steht als Plugin für Visual Studio Code und JetBrains IDEs zum Download zur Verfügung. Darüber hinaus ist Gemini Code Assist standardmäßig in Googles Cloud Shell Editor, Cloud Workstations und Cloud Code verfügbar – ebenso wie über Firebase, Google-Datenbanken und Colab Enterprise. Gemini Code Assist Enterprise ist zusätzlich auch in BigQuery, Apigee und Google Application Integration verfügbar.

Für Programmiersprachen bietet Gemini Code Assist umfänglichen Support. Googles KI-Codierungsassistent wurde für 22 gängige Programmier-, Skript- und Abfragesprachen verifiziert:

Bash,

C,

C++,

C#,

Dart,

Go,

GoogleSQL,

Java,

JavaScript,

Kotlin,

Lua,

MatLab,

PHP,

Python,

R,

Ruby,

Rust,

Scala,

SQL,

Swift,

TypeScript und

YAML.

Die Gemini Code Assist Tools ermöglichen es Entwicklern außerdem, ihre IDE für allgemeine programmierbezogene Aufgaben (etwa dem Verweis auf Code in gemeinschaftlich genutzten Repositories) nicht verlassen zu müssen. Bisher stehen Tools zur Verfügung für den Zugriff auf:

Atlassian (Rovo),

GitHub,

GitLab,

Google Docs und

Sentry.

Darüber hinaus sind diverse, weitere Integrationen geplant. Darunter zum Beispiel für:

Observability-Systeme (Dynatrace, Harness und New Relic),

Security-Lösungen (SonarQube, Snyk und Black Duck), sowie

Datenbanken (Aiven, DataStax, Elastic, MongoDB, Neo4j, Redis und SingleStore).

Programmieren mit Gemini Code Assist

Wir haben Gemini Code Assist in Visual Studio Code getestet – und es für einige Tasks in C++– und Python-Programmen genutzt. Unsere Prompt-Tests haben wir auf Englisch beschränkt – Gemini Code Assist ist jedoch in der Lage, Anweisungen in knapp 30 unterschiedlichen Sprachen zu verarbeiten, darunter auch Deutsch.

C++

IDG

Im obenstehenden Screenshot sehen Sie links oben einen Chat mit Gemini Code Assist, in dem das Tool erklärt, wie der C++-Code oben rechts zu kompilieren und zu verlinken ist. Besagten Code haben wir zuvor mit Hilfe eines anderen Modells generiert. Unten rechts sehen Sie den generierten und ausgeführten Code. Der berechnete Wert von Pi ist bis auf 20 Dezimalstellen korrekt, wie ein Abgleich mit der Encyclopedia Britannica ergeben hat.

IDG

Wir haben uns den Quellcode für die hochpräzise Gleitkomma-Routine angesehen, die verwendet wird, um Pi zu berechnen. Dabei hat das Tool die Brent-Salamin-Formel referenziert – also haben wir die entsprechende Stelle markiert und mit einem Rechtsklick an den Code Assist Chat gesendet (links oben). Der Output des Tools: Die Formel basiert auf dem arithmetischen, geometrischen Mittelwert (korrekt) und ist genauer als der Gauss-Legendre-Algorithmus (nicht korrekt; sie sind gleichwertig).

IDG

Anschließend haben wir Gemini Code Assist verwendet, um das C++-Programm dazu einzusetzen, Pi mit einer benutzerdefinierten Anzahl von Dezimalstellen zu berechnen – also compute_pi .

Was folgte war ein mehrstufiger, interaktiver Prozess. Dieser beinhaltete:

Kommentare zu schreiben,

Code von Gemini generieren zu lassen,

übriggebliebenen Code zu löschen, der das Programm beschädigt hätte,

markierten, generierten Code mit einer unbekannten Lizenz zu akzeptieren,

Gemini Code Assist darum zu bitten, mehrere Fehler mit undefinierten Variablen zu beheben – einfach aus purer Faulheit.

Das Resultat war ein funktionierendes und effizientes Programm.

Python

IDG

Der Python-Beispielcode für die Sefaria-API stellte den nächsten Test für Gemini Code Assist dar. Weil uns der Code nicht gefallen hat, haben wir einen Kommentar verfasst und Googles KI-Tool für Entwickler gebeten, diesen zu implementieren. Das mussten wir anschließend noch einmal mit einem präziseren Kommentar wiederholen – dann konnte auch das Ergebnis des KI-Tools überzeugen wie im grünen Block im obigen Screenshot zu sehen.

IDG

Nachdem wir den überarbeiteten Code von Gemini Code Assist  akzeptiert hatten, blieb ein funktionierendes Ergebnis zunächst aus. Auf der Grundlage der API-Dokumentation haben wir versucht, das zu beheben, was zu einer Exception geführt hat, wie Sie im obenstehenden Screenshot sehen können.

IDG

Nachdem wir Gemini Code Assist schließlich baten, diesen Fehler zu beheben, war die Lösung ziemlich offensichtlich.

IDG

Sobald der neue Code funktionierte, haben wir Gemini Code Assist noch angewiesen, die gesamte Datei zu erklären.

Die wesentlichen Erkenntnisse dieses Praxistests:

Gemini Code Assist reagiert im Chat etwas langsamer als einige der älteren OpenAI-Modelle, die bei GitHub Copilot zum Einsatz kommen. Das liegt daran, dass Code Assist Chat auf ein komplexes Modell zugreift, bei dem Genauigkeit Vorrang vor Geschwindigkeit hat. Im Bearbeitungsfenster wird hingegen ein reaktionsschnelleres Modell genutzt (basiert derzeit auf Gemini 2 Flash).

Der Chat von Gemini Code Assist scheint generell nicht so oft aus dem Ruder zu laufen wie bei einigen Konkurrenten – obwohl er seine Chain-of-Thought nicht offenlegt. Zumindest gibt Gemini Code Assist aber im Chatfenster an, welchen Kontext es verwendet hat. Letzterer lässt sich auch bei der Abfrage spezifizieren.

Gemini Code Assist im Vergleich mit der Konkurrenz

Gemini Code Assist konkurriert unter anderem mit:

GitHub Copilot,

Amazon Q Developer,

Tabnine,

Zencoder,

Cursor,

Zed,

JetBrains AI Assistant und

Solver.

Wenn Ihr Unternehmen mit Google (Cloud) arbeitet, macht es Sinn, Gemini Code Assist der Konkurrenz von Microsoft und Amazon vorzuziehen. Allerdings sollten Sie sich darüber bewusst sein, dass Googles KI-Coding-Assistent auch einige Features vermissen lässt – beispielsweise, wenn es darum geht, Code für mehrere Dateien und ganze Repositories zu generieren. Oder mit Blick auf KI-Agenten für langwierige Programmier-Tasks.

Ob man diese Features unbedingt braucht, ist auch eine Geschmacksfrage: Einige erfahrene Entwickler ziehen es vor, KI nur für kleine, leicht zu überprüfende Tasks einzusetzen. Der Grund ist einfach: Eine große Änderung zu entwirren, die Fehler verursacht hat, kann deutlich mehr Arbeitsaufwand nach sich ziehen, als dieselbe Anpassung einfach manuell vorzunehmen.

Die (Haupt-)Konkurrenten von Gemini Code Assist bieten allerdings einige der genannten Funktionen:

GitHub Copilot Workspace und Solver bieten beispielsweise Repository-weite Codierung.

GitHub Copilot Edits kann Änderungen an mehreren Dateien vornehmen.

Amazon Q Developer verfügt über einen Agenten für Code-Transformation.

Es ist deshalb damit zu rechnen, dass auch Gemini Code Assist künftig um diese oder ähnliche Funktionalitäten erweitert wird.

Gemini Code Assist – Testfazit

Insgesamt leistet Gemini Code Assist als Programmierassistent grundsätzlich gute Arbeit. Wenn Sie mit den genannten Abstrichen leben können, lohnt es sich dem Entwickler-Tool von Google eine Chance zu geben.  

Wie bei allen Tools in dieser Kategorie gilt jedoch: Entwickler, die solche Werkzeuge einsetzen, sollten wissen, was Sie tun – und Ihren Code stets überprüfen, testen und debuggen. Schließlich ist kein Large Language Model zu 100 Prozent zuverlässig und vertrauenswürdig. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Gemini Code Assist im Test​ Weiterlesen »

Apple Vision Pro betritt den Shopfloor​

Allgemein

Der Bereich Fertigung ist eigentlich prädestiniert für Datenbrillen. Dennoch hat es bei der Apple Vision Pro etwas gedauert. Dassault Systemes Der französische Spezialist für Konstruktions- und PLM-Software Dassault Systèmes hat auf dem 3D Experience Forum in Houston seine neue visionOS-App 3D Live angekündigt. Mit der App können auf Dassaults 3DEXPERIENCE-Plattform erstellte digitale Zwillinge auf Apples Datenbrille räumlich dargestellt werden. Diese einzigartige Art zu modellieren, zu simulieren, zu fertigen und zu schulen biete einen Mehrwert für alle Industriezweige und Aufgabenbereiche, heißt es bei Dassault.   Virtuelle Zwillinge, Fertigung, Design und Industrie 4.0  Wie das Unternehmen bekannt gab, hat es eng mit Apple kooperiert, um die Vision Pro in seine 3D-Experience-Plattform zu integrieren. In Kombination mit Dassaults eigener generativer KI (GenAI) und seiner 3D UNIV+RSES würden „beispiellose Möglichkeiten freigesetzt“.  Die Lösung ermöglicht Spatial Computing in wichtigen Produkt-, Fertigungs- und Konstruktionsszenarien – also genau das, worum es bei visionOS geht. Dabei können die Digital Twins nicht nur über die Vision Pro im virtuellen 3D-Raum erkundet werden. Teams sind dank der fortschrittlichen Kameras, Sensoren und Tracking-Funktionen von Vision Pro auch in der Lage, bei entsprechenden Projekten zusammenzuarbeiten. Auf diese Weise können sie beispielsweise eine virtuelle Darstellung der Maschine erstellen und die integrierte KI verwenden, um das Konstrukt virtuellen Tests zu unterziehen, Probleme im Design zu identifizieren oder Verbesserungen zu finden.   Alternativ kann der digitale Zwilling bei der Beurteilung von Geräten für die Wartung zeigen, wie die Dinge funktionieren sollen, und dabei helfen, anhaltende Mängel zu erkennen. Dasselbe gilt für jede Form des Produktdesigns und sollte die Entwicklung und Markteinführung neuer Produkte erheblich einfacher und kostengünstiger gestalten. Insbesondere, da Teams bei diesen Entwürfen in Echtzeit oder asynchron von überall auf der Welt aus zusammenarbeiten können, indem sie Vision Pro und die Lösungen von Dassault Systèmes verwenden.  Dem Anbieter zufolge steht die neue 3DLive-App für Apple Vision Pro ab Sommer für Enterprise-Kunden bereit. Bereits jetzt verfügbar ist mit HomeByMeReality eine andere visionOS-App von Dassault. Diese ermöglicht es Nutzern, verschiedene Inneneinrichtungen zu visualisieren. Sie können die App zu Hause, in einem Ausstellungsraum oder in einem Möbelgeschäft verwenden. Außerdem ist es damit möglich, mithilfe der Vision Pro virtuelle Rundgänge durch Immobilien zu machen.  

Apple Vision Pro betritt den Shopfloor​ Der Bereich Fertigung ist eigentlich prädestiniert für Datenbrillen. Dennoch hat es bei der Apple Vision Pro etwas gedauert. Dassault Systemes

Der französische Spezialist für Konstruktions- und PLM-Software Dassault Systèmes hat auf dem 3D Experience Forum in Houston seine neue visionOS-App 3D Live angekündigt. Mit der App können auf Dassaults 3DEXPERIENCE-Plattform erstellte digitale Zwillinge auf Apples Datenbrille räumlich dargestellt werden. Diese einzigartige Art zu modellieren, zu simulieren, zu fertigen und zu schulen biete einen Mehrwert für alle Industriezweige und Aufgabenbereiche, heißt es bei Dassault.  

Virtuelle Zwillinge, Fertigung, Design und Industrie 4.0 

Wie das Unternehmen bekannt gab, hat es eng mit Apple kooperiert, um die Vision Pro in seine 3D-Experience-Plattform zu integrieren. In Kombination mit Dassaults eigener generativer KI (GenAI) und seiner 3D UNIV+RSES würden „beispiellose Möglichkeiten freigesetzt“. 

Die Lösung ermöglicht Spatial Computing in wichtigen Produkt-, Fertigungs- und Konstruktionsszenarien – also genau das, worum es bei visionOS geht. Dabei können die Digital Twins nicht nur über die Vision Pro im virtuellen 3D-Raum erkundet werden. Teams sind dank der fortschrittlichen Kameras, Sensoren und Tracking-Funktionen von Vision Pro auch in der Lage, bei entsprechenden Projekten zusammenzuarbeiten. Auf diese Weise können sie beispielsweise eine virtuelle Darstellung der Maschine erstellen und die integrierte KI verwenden, um das Konstrukt virtuellen Tests zu unterziehen, Probleme im Design zu identifizieren oder Verbesserungen zu finden.  

Alternativ kann der digitale Zwilling bei der Beurteilung von Geräten für die Wartung zeigen, wie die Dinge funktionieren sollen, und dabei helfen, anhaltende Mängel zu erkennen. Dasselbe gilt für jede Form des Produktdesigns und sollte die Entwicklung und Markteinführung neuer Produkte erheblich einfacher und kostengünstiger gestalten. Insbesondere, da Teams bei diesen Entwürfen in Echtzeit oder asynchron von überall auf der Welt aus zusammenarbeiten können, indem sie Vision Pro und die Lösungen von Dassault Systèmes verwenden. 

Dem Anbieter zufolge steht die neue 3DLive-App für Apple Vision Pro ab Sommer für Enterprise-Kunden bereit. Bereits jetzt verfügbar ist mit HomeByMeReality eine andere visionOS-App von Dassault. Diese ermöglicht es Nutzern, verschiedene Inneneinrichtungen zu visualisieren. Sie können die App zu Hause, in einem Ausstellungsraum oder in einem Möbelgeschäft verwenden. Außerdem ist es damit möglich, mithilfe der Vision Pro virtuelle Rundgänge durch Immobilien zu machen. 

Apple Vision Pro betritt den Shopfloor​ Weiterlesen »

IBM will DataStax übernehmen​

Allgemein

IBMs Watsonx braucht neuen Schwung – die Übernahme von DataStax soll dabei helfen.IBM IBM hat bekanntgegeben, den Datenbank-Spezialisten DataStax übernehmen zu wollen. Mit der Akquisition will der US-amerikanische IT-Pionier seinen KI-Ambitionen rund um das Watsonx-Portfolio neuen Schwung verleihen.   DataStax wurde 2010 gegründet und hat seinen Hauptsitz in Santa Clara, Kalifornien. Das Startup war mit einer NoSQL-Datenbank auf Open-Source-Basis von Apache Cassandra gestartet und hat seine Produktpalette seit Anfang 2023 stark mit KI-Funktionalitäten ausgebaut. Weitere Informationen zu IBMs KI-Strategie mit Watsonx: watsonx: IBM kündigt KI-Offensive an KI aus dem Baukasten: IBM stellt GenAI-Grundmodelle vor watsonx zielt aufs Enterprise: Wie sich IBM gegen ChatGPT und Bard behaupten will IBM watsonx.governance: KI transparent steuern und kontrollieren IBM will die Akquisition vorbehaltlich aller erforderlichen Zustimmungen und Genehmigungen bis zum zweiten Quartal 2025 abschließen. Finanzielle Details zum Deal wurden nicht bekanntgegeben. DataStax hatte im Juni 2022 eine weitere Kapitalspritze in Höhe von 115 Millionen Dollar erhalten und wurde infolgedessen insgesamt mit rund 1,6 Milliarden Dollar bewertet. Ein IPO, über das seit 2020 immer wieder spekuliert wurde, fand jedoch nie statt. CEO und Chairman Chet Kapoor ließ durchblicken, dass DataStax einen Gang aufs Börsenparkett nicht überstürzen werde.  IBM und DataStax kooperieren bereits seit 2020. Zu den gemeinsamen Kunden gehören unter anderen T-Mobile und Audi. Der IT-Konzern nennt neben den eigenen Datenbank-Produkten rund um DB2, Informix und Netezza auch Cloudera, Enterprise DB, MongoDB und SingleStore als Partner-Database-Services. Daten-Tuning für IBMs Watsonx Die Technologie von DataStax wird IBMs Watsonx-Produktportfolio erweitern und den Einsatz generativer KI beschleunigen, sodass Unternehmen aus riesigen Mengen unstrukturierter Daten Mehrwert schöpfen können, beschreiben die IBM-Verantwortlichen ihre Zielsetzung mit der Übernahme. Das Portfolio von DataStax besteht im Wesentlichen aus den auf Apache Cassandra basierenden Datenbanken DataStax Enterprise (DSE) und Astra DB, einem auf Vektorfunktionen ausgerichteten Database as a Service (DbaaS).  AstraDB soll IBM zufolge die vorhandenen Vektorfunktionen von watsonx.data , IBMs hybridem Data Lakehouse für KI und Analytik, erweitern. DataStax vereine an dieser Stelle einen ausgereiften Datenspeicher mit Vektor- und GraphRAG-Funktionen, hieß es von Seiten IBMs. Dies sei eine entscheidende Kombination zur Nutzung unstrukturierter Daten für generative KI.  Darüber hinaus soll Langflow von DataStax IBMs watsonx.ai ergänzen. Dabei handelt es sich Herstellerangaben zufolge um einen Low-Code-, Open-Source-App-Builder für Retrieval-Augemented-Generation- (RAG-) und Multi-Agent-KI-Anwendungen. Langflow basiere auf Python und sei modell-, API- und datenbankunabhängig, hieß es. DataStax-CEO: “Ohne Daten, keine KI” „Unternehmen können das volle Potenzial generativer KI nicht ohne die richtige Infrastruktur ausschöpfen“, erklärte Dinesh Nirmal , Senior Vice President, IBM Software. Es brauche Open-Source-Tools und -Technologien, die Entwicklern mehr Möglichkeiten bieten, unstrukturierte Daten nutzbar machen und eine solide Grundlage für KI-Anwendungen bieten. Nirmal betonte die Kompetenz von DataStax. Es gehe vor allem darum, generative KI für Unternehmen zu vereinfachen und zu skalieren. Datenbank-How-to für App-Entwickler    „Unternehmen wollen KI schnell in die Produktion bringen, haben aber immer noch Probleme, den Wert ihrer Daten zu erschließen, um KI-Anwendungen und -Agenten zu betreiben“, ergänzte DataStax-Chef Kapoor. „Wir sagen schon lange, dass es ohne Daten keine KI gibt.“  IBM kündigte an, die Open-Source-Communitys Apache Cassandra, Langflow, Apache Pulsar und OpenSearch, an denen DataStax teilnimmt, weiterhin unterstützen zu wollen. Man werde mit diesen Initiativen auch in Zukunft interagieren und Innovationen vorantreiben, hieß es. IBMs verwies an dieser Stelle auch auf das eigene langjährige Engagement für Open-Source-KI, das beispielsweise die Open-Source-Grundmodelle IBM Granite und Instruct Lab umfasse.  

IBM will DataStax übernehmen​ IBMs Watsonx braucht neuen Schwung – die Übernahme von DataStax soll dabei helfen.IBM

IBM hat bekanntgegeben, den Datenbank-Spezialisten DataStax übernehmen zu wollen. Mit der Akquisition will der US-amerikanische IT-Pionier seinen KI-Ambitionen rund um das Watsonx-Portfolio neuen Schwung verleihen.  

DataStax wurde 2010 gegründet und hat seinen Hauptsitz in Santa Clara, Kalifornien. Das Startup war mit einer NoSQL-Datenbank auf Open-Source-Basis von Apache Cassandra gestartet und hat seine Produktpalette seit Anfang 2023 stark mit KI-Funktionalitäten ausgebaut.

Weitere Informationen zu IBMs KI-Strategie mit Watsonx:

watsonx: IBM kündigt KI-Offensive an

KI aus dem Baukasten: IBM stellt GenAI-Grundmodelle vor

watsonx zielt aufs Enterprise: Wie sich IBM gegen ChatGPT und Bard behaupten will

IBM watsonx.governance: KI transparent steuern und kontrollieren

IBM will die Akquisition vorbehaltlich aller erforderlichen Zustimmungen und Genehmigungen bis zum zweiten Quartal 2025 abschließen. Finanzielle Details zum Deal wurden nicht bekanntgegeben. DataStax hatte im Juni 2022 eine weitere Kapitalspritze in Höhe von 115 Millionen Dollar erhalten und wurde infolgedessen insgesamt mit rund 1,6 Milliarden Dollar bewertet. Ein IPO, über das seit 2020 immer wieder spekuliert wurde, fand jedoch nie statt. CEO und Chairman Chet Kapoor ließ durchblicken, dass DataStax einen Gang aufs Börsenparkett nicht überstürzen werde. 

IBM und DataStax kooperieren bereits seit 2020. Zu den gemeinsamen Kunden gehören unter anderen T-Mobile und Audi. Der IT-Konzern nennt neben den eigenen Datenbank-Produkten rund um DB2, Informix und Netezza auch Cloudera, Enterprise DB, MongoDB und SingleStore als Partner-Database-Services.

Daten-Tuning für IBMs Watsonx

Die Technologie von DataStax wird IBMs Watsonx-Produktportfolio erweitern und den Einsatz generativer KI beschleunigen, sodass Unternehmen aus riesigen Mengen unstrukturierter Daten Mehrwert schöpfen können, beschreiben die IBM-Verantwortlichen ihre Zielsetzung mit der Übernahme. Das Portfolio von DataStax besteht im Wesentlichen aus den auf Apache Cassandra basierenden Datenbanken DataStax Enterprise (DSE) und Astra DB, einem auf Vektorfunktionen ausgerichteten Database as a Service (DbaaS). 

AstraDB soll IBM zufolge die vorhandenen Vektorfunktionen von watsonx.data , IBMs hybridem Data Lakehouse für KI und Analytik, erweitern. DataStax vereine an dieser Stelle einen ausgereiften Datenspeicher mit Vektor- und GraphRAG-Funktionen, hieß es von Seiten IBMs. Dies sei eine entscheidende Kombination zur Nutzung unstrukturierter Daten für generative KI. 

Darüber hinaus soll Langflow von DataStax IBMs watsonx.ai ergänzen. Dabei handelt es sich Herstellerangaben zufolge um einen Low-Code-, Open-Source-App-Builder für Retrieval-Augemented-Generation- (RAG-) und Multi-Agent-KI-Anwendungen. Langflow basiere auf Python und sei modell-, API- und datenbankunabhängig, hieß es.

DataStax-CEO: “Ohne Daten, keine KI”

„Unternehmen können das volle Potenzial generativer KI nicht ohne die richtige Infrastruktur ausschöpfen“, erklärte Dinesh Nirmal , Senior Vice President, IBM Software. Es brauche Open-Source-Tools und -Technologien, die Entwicklern mehr Möglichkeiten bieten, unstrukturierte Daten nutzbar machen und eine solide Grundlage für KI-Anwendungen bieten. Nirmal betonte die Kompetenz von DataStax. Es gehe vor allem darum, generative KI für Unternehmen zu vereinfachen und zu skalieren.

Datenbank-How-to für App-Entwickler   

„Unternehmen wollen KI schnell in die Produktion bringen, haben aber immer noch Probleme, den Wert ihrer Daten zu erschließen, um KI-Anwendungen und -Agenten zu betreiben“, ergänzte DataStax-Chef Kapoor. „Wir sagen schon lange, dass es ohne Daten keine KI gibt.“ 

IBM kündigte an, die Open-Source-Communitys Apache Cassandra, Langflow, Apache Pulsar und OpenSearch, an denen DataStax teilnimmt, weiterhin unterstützen zu wollen. Man werde mit diesen Initiativen auch in Zukunft interagieren und Innovationen vorantreiben, hieß es. IBMs verwies an dieser Stelle auch auf das eigene langjährige Engagement für Open-Source-KI, das beispielsweise die Open-Source-Grundmodelle IBM Granite und Instruct Lab umfasse. 

IBM will DataStax übernehmen​ Weiterlesen »

7 Schritte zum erfolgreichen Performance Management​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?quality=50&strip=all 6151w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Viele Unternehmen tun sich schwer, ein leistungsstarkes Performance Management einzuführen und nur ein Viertel glaubt, dass ihr Performance Management effektiv ist.  Sutthiphong Chandaeng – Shutterstock 2433120923 Engagement fördern, Wachstum generieren und den Geschäftserfolg sichern – für all das braucht es Mitarbeitende und Teams, die eine hohe Leistungsbereitschaft und überdurchschnittliche Performance einbringen. Deshalb setzt sich in Unternehmen zunehmend die Erkenntnis durch, dass der Aufbau einer motivierten, produktiven und engagierten Belegschaft einen kontinuierlichen, ganzheitlichen Ansatz erfordert. Eine gute Performance ist gerade in Zeiten des Fachkräftemangels ohne eine kontinuierliche Weiterentwicklung der bestehenden Mitarbeitenden kaum zu realisieren.  Die Entwicklung in den Unternehmen der DACH-Region legt jedoch einen deutlichen Abwärtstrend offen, wie Mitarbeitende ihre Arbeitgeber in Bezug auf die eigenen Weiterentwicklungsmöglichkeiten wahrnehmen. Aktuelle Benchmarks wie etwa von Culture Amp, die Daten von knapp 500 Unternehmen in Deutschland, Österreich und der Schweiz umfassen, zeigen: Nur 63 Prozent der Befragten geben an, dass ihr Unternehmen einen wichtigen Beitrag zu ihrer beruflichen Weiterentwicklung leistet – das ist gegenüber Juli 2024 ein Rückgang um drei Prozent. Gleichzeitig ist die Wahrnehmung der Weiterentwicklung der Faktor, der das Engagement der Mitarbeitenden für ihr Unternehmen am stärksten beeinflusst.   Performance Management ist der Prozess, mit dem Betriebe sicherstellen, dass die Leistung eines Mitarbeitenden mit deren Zielen übereinstimmt. Viele Menschen verbinden den Begriff Leistungsmanagement in erster Linie mit jährlichen Beurteilungen. Tatsächlich aber besteht Leistungsmanagement aus vielen kontinuierlichen Maßnahmen, die die Performance messen und das Engagement fördern sollen. In der Praxis umfasst Performance Management vier Schritte:   1. Planung: Abstimmung der Leistungserwartung, Festlegung von Zielen und Definition der Kriterien für die Erfolgsmessung.   2. Monitoring: Überprüfung der Fortschritte, das Teilen von Feedback und die Beseitigung möglicher Hindernisse.  3. Überprüfung und Weiterentwicklung: formelle Beurteilungen der Performance und Weiterentwicklung von Mitarbeitenden, um sinnvolle Maßnahmen zu ermitteln.  4. Bewertung und Belohnung: formelle Leistungsbewertung, Belohnung für sehr gute Leistungen oder Erarbeitung von Verbesserungsmaßnahmen, um die Weiterentwicklung der Mitarbeitenden zu unterstützen.  Diese Abfolge wird zyklisch wiederholt, was die kontinuierliche Weiterentwicklung der Beschäftigten sicherstellt. Zudem können Manager die Teamleistung im Einklang mit den sich ändernden Unternehmenszielen besser steuern und optimieren.  Performance Management – so profitieren Unternehmen Unternehmen, die Performance Management implementieren, profitieren langfristig beispielsweise in folgenden Bereichen:   – Verbessertes Mitarbeitenden-Engagement: Mitarbeitende, die eine klare Vorstellung von den Erwartungen des Arbeitgebers haben und wissen, was sie leisten müssen, arbeiten motivierter, konzentrierter und produktiver.  – Sinkende Fluktuation: Mitarbeitende, die sehen, wie ihre Arbeit zum Unternehmenserfolg beiträgt und sich in ihrer Entwicklung unterstützt fühlen, kündigen weniger.  – Entwicklung von Spitzentalenten: Eine gezielte Mitarbeiterentwicklung kann dazu beitragen, dass die Belegschaft engagiert bleibt. Performance Management hilft dabei, Stärken zu erkennen, die Entwicklung der Fähigkeiten besser zu steuern und den Karriereaufstieg zu planen.  – Optimierte Personalplanung: Das Leistungsmanagement ermöglicht wichtige Einblicke in die Qualifikationslücken der Belegschaft. Dies erleichtert die Planung bei Neubesetzungen sowie die gezielte Entwicklung von Weiterbildungsprogrammen.   – Verbesserte Unternehmensleistung: Strategische Ziele werden mit einer optimierten, organisatorischen Ausrichtung, einem höheren Engagement und einer gesteigerten Produktivität der Mitarbeitenden zielgenauer erreicht.  – Steigerung der Agilität im Unternehmen: Kontinuierliches Feedback unterstützt Mitarbeitende dabei, ihr Verhalten schneller anzupassen, Probleme zeitnah zu lösen und Ziele mit den sich ändernden Geschäftsprioritäten in Einklang zu bringen.  Obwohl vieles dafürspricht, tun sich Unternehmen oft schwer, ein leistungsstarkes Performance Management einzuführen. Nur ein Viertel der Unternehmen glaubt, dass ihr Performance Management effektiv ist.     Strategisch Schritte im Performance Management Klare und partizipative Zielsetzung  Leistungsstarke Teams brauchen für ihren Erfolg klare, messbare und motivierende Ziele (SMART-Ziele). Damit wird nicht nur die Produktivität des Einzelnen und des Teams gefördert, sondern auch sichergestellt, dass die Bemühungen der Mitarbeitenden mit den allgemeinen Unternehmenszielen übereinstimmen.   Gleichzeitig ist es entscheidend, die Mitarbeitenden von Anfang an einzubinden. Dies fördert nicht nur die Eigenverantwortung und das Engagement, sondern sorgt auch dafür, dass alle an einem Strang ziehen und die Unternehmensziele gemeinsam erreichen.  Kontinuierliches, konstruktives Feedback und 360-Grad Bewertung  Regelmäßige Check-ins und Einzelgespräche zwischen Managern und Mitarbeitenden fördern die laufende Kommunikation. Dies ist effektiver als jährliche Beurteilungen.  Um fairere Beurteilungen zu erhalten, sollten Manager neben ihrem eigenen Feedback auch die Selbsteinschätzungen der Mitarbeitenden sowie Feedback von Kollegen und sogar Kunden einbeziehen. Dies fördert das Vertrauen, das Engagement und die Leistungsbereitschaft der Mitarbeitenden.  Weiterbildung von Managern   Auch wenn Performance Management eine Aufgabe der Personalabteilung ist – effektives Performance Management steht und fällt mit dem Verhalten der Manager. Deshalb ist deren kontinuierliche Weiterbildung unerlässlich: Mit Tipps, Best Practices und einem klaren Handlungsrahmen wird sichergestellt, dass sie über die notwendigen Fähigkeiten verfügen, um ihre Teams effektiv zu führen und zu fördern.  Weiterentwicklung hat Priorität  Performance und Weiterentwicklung gehen Hand in Hand. Ein effektives Performance Management umfasst nicht nur die Bewertung der erbrachten Leistung, sondern auch die Frage nach der Weiterentwicklung und Leistungssteigerung.  Mit einem vielseitigen Programm gelingt es Mitarbeitenden sich so weiterzuentwickeln, wie es ihren Bedürfnissen am besten entspricht. Dazu gehört die Ausarbeitung individueller Entwicklungspläne und das Aufzeigen klarer, transparenter Karrieremöglichkeiten, die definieren, welche Fähigkeiten für den Aufstieg in die Idealrolle benötigt werden.   In einem nächsten Schritt werden dazu passende Weiterbildungsprogramme entwickelt, die Mitarbeitenden helfen, sich für genau diese Karrierechancen zu qualifizieren. Des Weiteren sind interne Mentorenprogramme sinnvoll, damit Mitarbeitende voneinander lernen können und vorhandenes Wissen besser genutzt wird.   Datengestützte Entscheidungen   Daten sind der Schlüssel für wirkungsvolle Entscheidungen, die das Wachstum fördern und die Leistung der Mitarbeitenden verbessern. Kennzahlen geben Aufschluss über Leistung, Engagement, Zielerreichung und die Entwicklung der Mitarbeitenden. Trends und grundlegende Probleme lassen sich so frühzeitig erkennen und Maßnahmen entsprechend anpassen, um die Leistung der Teams sowie des Einzelnen zu verbessern.  Wertschätzung und Belohnung   Dies sind wichtige Elemente einer Performance Strategie, da sie dazu beitragen, die Mitarbeitenden zu motivieren, gewünschte Verhaltensweisen zu verstärken, das Engagement zu fördern und letztlich die Leistung zu steigern. Auch konkrete Belohnungen wie Boni, Prämien oder zusätzliche Urlaubstage sowie eine unternehmensweite Anerkennung der Leistung steigern die Motivation erheblich und fördern eine positive Arbeitskultur.  Regelmäßige Nachjustierung   Einmal implementiert, ist der Status des Performance Managements regelmäßig zu überprüfen. Bei Bedarf werden die Maßnahmen dann neu ausgerichtet und angepasst. Effektives Performance Management lebt von der ständigen Verfeinerung der einzelnen Schritte und den Rückmeldungen der Manager und Mitarbeitenden.   Das Feedback der Belegschaft ernst nehmen Fragen zum Performance Management lassen sich in umfassenderen Mitarbeiterbefragungen, gezielten Pulsbefragungen und Bewertungen integrieren, welche die Effektivität von Managern messen. Daraus ergibt sich wertvolles und verwertbares Feedback, das Arbeitgeber dann in konkrete Maßnahmen umsetzen können. Verbesserungsvorschläge von Managern und Mitarbeitenden sollten ernsthaft geprüft werden. Unternehmen, die auf das Feedback der Belegschaft reagieren, zeigen, dass sie sich für kontinuierliche Verbesserungen einsetzen. Damit fördern sie das Vertrauen und das Engagement der Teammitglieder.  

7 Schritte zum erfolgreichen Performance Management​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?quality=50&strip=all 6151w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/PM-shutterstock_2433120923.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Viele Unternehmen tun sich schwer, ein leistungsstarkes Performance Management einzuführen und nur ein Viertel glaubt, dass ihr Performance Management effektiv ist.  Sutthiphong Chandaeng – Shutterstock 2433120923

Engagement fördern, Wachstum generieren und den Geschäftserfolg sichern – für all das braucht es Mitarbeitende und Teams, die eine hohe Leistungsbereitschaft und überdurchschnittliche Performance einbringen. Deshalb setzt sich in Unternehmen zunehmend die Erkenntnis durch, dass der Aufbau einer motivierten, produktiven und engagierten Belegschaft einen kontinuierlichen, ganzheitlichen Ansatz erfordert. Eine gute Performance ist gerade in Zeiten des Fachkräftemangels ohne eine kontinuierliche Weiterentwicklung der bestehenden Mitarbeitenden kaum zu realisieren. 

Die Entwicklung in den Unternehmen der DACH-Region legt jedoch einen deutlichen Abwärtstrend offen, wie Mitarbeitende ihre Arbeitgeber in Bezug auf die eigenen Weiterentwicklungsmöglichkeiten wahrnehmen. Aktuelle Benchmarks wie etwa von Culture Amp, die Daten von knapp 500 Unternehmen in Deutschland, Österreich und der Schweiz umfassen, zeigen: Nur 63 Prozent der Befragten geben an, dass ihr Unternehmen einen wichtigen Beitrag zu ihrer beruflichen Weiterentwicklung leistet – das ist gegenüber Juli 2024 ein Rückgang um drei Prozent. Gleichzeitig ist die Wahrnehmung der Weiterentwicklung der Faktor, der das Engagement der Mitarbeitenden für ihr Unternehmen am stärksten beeinflusst.  

Performance Management ist der Prozess, mit dem Betriebe sicherstellen, dass die Leistung eines Mitarbeitenden mit deren Zielen übereinstimmt. Viele Menschen verbinden den Begriff Leistungsmanagement in erster Linie mit jährlichen Beurteilungen. Tatsächlich aber besteht Leistungsmanagement aus vielen kontinuierlichen Maßnahmen, die die Performance messen und das Engagement fördern sollen. In der Praxis umfasst Performance Management vier Schritte:  

1. Planung: Abstimmung der Leistungserwartung, Festlegung von Zielen und Definition der Kriterien für die Erfolgsmessung.  

2. Monitoring: Überprüfung der Fortschritte, das Teilen von Feedback und die Beseitigung möglicher Hindernisse. 

3. Überprüfung und Weiterentwicklung: formelle Beurteilungen der Performance und Weiterentwicklung von Mitarbeitenden, um sinnvolle Maßnahmen zu ermitteln. 

4. Bewertung und Belohnung: formelle Leistungsbewertung, Belohnung für sehr gute Leistungen oder Erarbeitung von Verbesserungsmaßnahmen, um die Weiterentwicklung der Mitarbeitenden zu unterstützen. 

Diese Abfolge wird zyklisch wiederholt, was die kontinuierliche Weiterentwicklung der Beschäftigten sicherstellt. Zudem können Manager die Teamleistung im Einklang mit den sich ändernden Unternehmenszielen besser steuern und optimieren. 

Performance Management – so profitieren Unternehmen

Unternehmen, die Performance Management implementieren, profitieren langfristig beispielsweise in folgenden Bereichen:  

– Verbessertes Mitarbeitenden-Engagement: Mitarbeitende, die eine klare Vorstellung von den Erwartungen des Arbeitgebers haben und wissen, was sie leisten müssen, arbeiten motivierter, konzentrierter und produktiver. 

– Sinkende Fluktuation: Mitarbeitende, die sehen, wie ihre Arbeit zum Unternehmenserfolg beiträgt und sich in ihrer Entwicklung unterstützt fühlen, kündigen weniger. 

– Entwicklung von Spitzentalenten: Eine gezielte Mitarbeiterentwicklung kann dazu beitragen, dass die Belegschaft engagiert bleibt. Performance Management hilft dabei, Stärken zu erkennen, die Entwicklung der Fähigkeiten besser zu steuern und den Karriereaufstieg zu planen. 

– Optimierte Personalplanung: Das Leistungsmanagement ermöglicht wichtige Einblicke in die Qualifikationslücken der Belegschaft. Dies erleichtert die Planung bei Neubesetzungen sowie die gezielte Entwicklung von Weiterbildungsprogrammen.  

– Verbesserte Unternehmensleistung: Strategische Ziele werden mit einer optimierten, organisatorischen Ausrichtung, einem höheren Engagement und einer gesteigerten Produktivität der Mitarbeitenden zielgenauer erreicht. 

– Steigerung der Agilität im Unternehmen: Kontinuierliches Feedback unterstützt Mitarbeitende dabei, ihr Verhalten schneller anzupassen, Probleme zeitnah zu lösen und Ziele mit den sich ändernden Geschäftsprioritäten in Einklang zu bringen. 

Obwohl vieles dafürspricht, tun sich Unternehmen oft schwer, ein leistungsstarkes Performance Management einzuführen. Nur ein Viertel der Unternehmen glaubt, dass ihr Performance Management effektiv ist.  

 

Strategisch Schritte im Performance Management

Klare und partizipative Zielsetzung 

Leistungsstarke Teams brauchen für ihren Erfolg klare, messbare und motivierende Ziele (SMART-Ziele). Damit wird nicht nur die Produktivität des Einzelnen und des Teams gefördert, sondern auch sichergestellt, dass die Bemühungen der Mitarbeitenden mit den allgemeinen Unternehmenszielen übereinstimmen.  

Gleichzeitig ist es entscheidend, die Mitarbeitenden von Anfang an einzubinden. Dies fördert nicht nur die Eigenverantwortung und das Engagement, sondern sorgt auch dafür, dass alle an einem Strang ziehen und die Unternehmensziele gemeinsam erreichen. 

Kontinuierliches, konstruktives Feedback und 360-Grad Bewertung 

Regelmäßige Check-ins und Einzelgespräche zwischen Managern und Mitarbeitenden fördern die laufende Kommunikation. Dies ist effektiver als jährliche Beurteilungen. 

Um fairere Beurteilungen zu erhalten, sollten Manager neben ihrem eigenen Feedback auch die Selbsteinschätzungen der Mitarbeitenden sowie Feedback von Kollegen und sogar Kunden einbeziehen. Dies fördert das Vertrauen, das Engagement und die Leistungsbereitschaft der Mitarbeitenden. 

Weiterbildung von Managern  

Auch wenn Performance Management eine Aufgabe der Personalabteilung ist – effektives Performance Management steht und fällt mit dem Verhalten der Manager. Deshalb ist deren kontinuierliche Weiterbildung unerlässlich: Mit Tipps, Best Practices und einem klaren Handlungsrahmen wird sichergestellt, dass sie über die notwendigen Fähigkeiten verfügen, um ihre Teams effektiv zu führen und zu fördern. 

Weiterentwicklung hat Priorität 

Performance und Weiterentwicklung gehen Hand in Hand. Ein effektives Performance Management umfasst nicht nur die Bewertung der erbrachten Leistung, sondern auch die Frage nach der Weiterentwicklung und Leistungssteigerung. 

Mit einem vielseitigen Programm gelingt es Mitarbeitenden sich so weiterzuentwickeln, wie es ihren Bedürfnissen am besten entspricht. Dazu gehört die Ausarbeitung individueller Entwicklungspläne und das Aufzeigen klarer, transparenter Karrieremöglichkeiten, die definieren, welche Fähigkeiten für den Aufstieg in die Idealrolle benötigt werden.  

In einem nächsten Schritt werden dazu passende Weiterbildungsprogramme entwickelt, die Mitarbeitenden helfen, sich für genau diese Karrierechancen zu qualifizieren. Des Weiteren sind interne Mentorenprogramme sinnvoll, damit Mitarbeitende voneinander lernen können und vorhandenes Wissen besser genutzt wird.  

Datengestützte Entscheidungen  

Daten sind der Schlüssel für wirkungsvolle Entscheidungen, die das Wachstum fördern und die Leistung der Mitarbeitenden verbessern. Kennzahlen geben Aufschluss über Leistung, Engagement, Zielerreichung und die Entwicklung der Mitarbeitenden. Trends und grundlegende Probleme lassen sich so frühzeitig erkennen und Maßnahmen entsprechend anpassen, um die Leistung der Teams sowie des Einzelnen zu verbessern. 

Wertschätzung und Belohnung  

Dies sind wichtige Elemente einer Performance Strategie, da sie dazu beitragen, die Mitarbeitenden zu motivieren, gewünschte Verhaltensweisen zu verstärken, das Engagement zu fördern und letztlich die Leistung zu steigern. Auch konkrete Belohnungen wie Boni, Prämien oder zusätzliche Urlaubstage sowie eine unternehmensweite Anerkennung der Leistung steigern die Motivation erheblich und fördern eine positive Arbeitskultur. 

Regelmäßige Nachjustierung  

Einmal implementiert, ist der Status des Performance Managements regelmäßig zu überprüfen. Bei Bedarf werden die Maßnahmen dann neu ausgerichtet und angepasst. Effektives Performance Management lebt von der ständigen Verfeinerung der einzelnen Schritte und den Rückmeldungen der Manager und Mitarbeitenden.  

Das Feedback der Belegschaft ernst nehmen

Fragen zum Performance Management lassen sich in umfassenderen Mitarbeiterbefragungen, gezielten Pulsbefragungen und Bewertungen integrieren, welche die Effektivität von Managern messen. Daraus ergibt sich wertvolles und verwertbares Feedback, das Arbeitgeber dann in konkrete Maßnahmen umsetzen können. Verbesserungsvorschläge von Managern und Mitarbeitenden sollten ernsthaft geprüft werden. Unternehmen, die auf das Feedback der Belegschaft reagieren, zeigen, dass sie sich für kontinuierliche Verbesserungen einsetzen. Damit fördern sie das Vertrauen und das Engagement der Teammitglieder. 

7 Schritte zum erfolgreichen Performance Management​ Weiterlesen »

Workaholic: So bekommen Arbeitssüchtige ihr Leben wieder in den Griff​

Allgemein

Arbeit ist etwas Positives – viel arbeiten ist in unseren Zivilisationsgraden ebenfalls und größtenteils positiv besetzt. Gleichwohl gibt es Menschen, die dabei ein eigentliches Suchtverhalten zeigen und in der damit verbundenen Schlaufe gefangen sind. Diese Menschen sehen in der Arbeit ihr ganzes Selbstwertgefühl, sind dadurch nicht mehr in der Lage, sich von ihr abzugrenzen. Sie arbeiten zwanghaft und leben einem möglichst ausgeprägten Perfektionismus nach.Arbeitssucht kennt keine Grenze mehr zwischen Job und Entspannung. Der Mensch ist getrieben von Erfolgszwang – bis zur Erschöpfung. Foto: Stokkete – shutterstock.comSo brechen allmählich soziale Kontakte ab und der Zwang, sich über die Arbeit zu definieren, steigt weiter. Die Spirale ist in Gang und wie bei jeder Sucht muss für die Befriedigung die Dosis ständig erhöht werden. Das kann schlussendlich in Krankheit münden. Ganz grob wird festgehalten, dass permanente Wochenarbeitszeiten über 50 Stunden darauf hinweisen, dass eine Gefahr von Workaholismus besteht. Ursachen für ArbeitssuchtDie Ursache für Arbeitssucht ist oft ein positiver Kern. Denn davon betroffen sind vor allem engagierte Führungskräfte und Selbstständige. Sie legen sich derart ins Zeug und erleben eine hohe Befriedigung. Sofern das vorübergehende Phasen sind und die Betroffenen auch einen entsprechenden Ausgleich finden, ist das nicht nur normal, sondern hat viele positive Seiten.Die tiefere Ursache für Arbeitssucht liegt dann vor, wenn dieses hohe Engagement eng mit dem persönlichen Wertesystem des Selbstwertgefühls verknüpft ist. Meist sind Menschen betroffen, die ihren eigenen Wert an die Arbeitsleistung koppeln. Daraus entsteht der Perfektionismus, der als eigentliche Ursache für die Arbeitssucht gilt. Aus dem Zwang, alles perfekt zu machen, um als Mensch sich selbst und vermeintlich anderen gegenüber wertvoll zu erscheinen, geht die Fähigkeit in der Arbeit verloren, Wesentliches vom Unwesentlichen zu trennen. Es ist nicht mehr möglich, alles in der ‚normalen’ Zeit zu erledigen. In der Folge sind Sonderschichten in der Nacht dann dafür da, das auszugleichen.An diesen Symptomen erkennen Sie die Arbeitssucht• Sie denken immer mehr auch ausserhalb der Arbeitszeit an Ihre Arbeit. • Sie überlegen sich, wo Sie noch mehr Zeit für Ihre Arbeit ‚beschaffen’ oder ‚herholen’ können und opfern dafür die Zeit für Freizeit, Hobby und soziale Kontakte.• Sie entwickeln einen hohen Grad an Perfektionismus und verlieren die Fähigkeit, Prioritäten zu setzen. Alles in der Arbeit ist wichtig.• Sie spüren, dass Sie im Grunde zu viel arbeiten und machen eine saubere Planung. Sie stellen aber fest, dass Sie tatsächlich immer mehr Zeit mit Arbeiten verbringen, als Sie sich selber vorgenommen haben.• Sie sind Perfektionist und haben das Gefühl für Prioritäten verloren. Aus Zeitgründen schieben Sie übergeordnete Aufgaben vor sich her.• Sie vergessen Termine und können sich das nicht erklären.• Sie ärgern sich darüber, dass Sie Schuldgefühle oder erste Anzeichen von Depression erfahren.• Sie entwickeln körperliche Entzugssymptome, wenn Sie sich nicht der Arbeit widmen können (WLAN-freie Zonen, Krankheit, Urlaub mit der Familie usw.).Erkennen Sie, dass Sie gefährdet sindSeien Sie ganz ehrlich mit sich selbst, wenn sich erste Symptome regelmässig zeigen. Es ist ein Unterschied, ob Sie in einem Projekt für vier Wochen fast rund um die Uhr arbeiten, oder ob Sie über einen Zeitraum von mehreren Monaten und/oder Jahren die entsprechenden Symptome mehr oder weniger ständig wahrnehmen.Beginnen Sie mit einer verbindlichen Arbeitsplanung für sich selbst• Weihen Sie Freunde und Familie ein und erlauben Sie ihnen, Sie explizit darauf anzusprechen, wenn Sie zu viel arbeiten.• Seien Sie sehr rigide mit Freizeitterminen. Das heißt: Nehmen Sie den Fußballabend mit Ihren Freunden und die Geburtstagsfeier Ihres 5-Jährigen genau so pflichtbewusst wahr, wie Ihre Geschäftstermine.• Schalten Sie mobile Geräte am Abend aus und schaffen Sie sich Zeitinseln, an denen Sie nicht arbeiten können. Arbeit an sich selbst • Lernen Sie, Vertrauen zu anderen zu haben. Das schafft die Möglichkeit, Aufgaben zu delegieren.• Das Wichtigste: Lernen Sie, Ihr Selbstwertgefühl nicht ausschließlich von der Arbeit abhängig zu machen. Sofern Sie glauben, dass viele Punkte in diesem Artikel auch auf Ihr Leben zutreffen, sollten Sie vor allem auch die Unterstützung eines Arztes oder Psychologen in Anspruch nehmen.9 Tipps gegen StressTreiben Sie Sport … Foto: lzf – shutterstock.com… und ziehen Sie Yoga und weitere Meditationsübungen in Betracht. Diese Übungen sind die besten Mittel gegen Stress und tragen dazu bei, Stressgefühle abzubauen. Ganz abgesehen vom gesundheitlichen Nutzen dienen die Trainings auch dazu, den Stress besser zu managen.Lernen Sie gut zu atmen Foto: Andresr – shutterstock.comObwohl wir natürlich seit unserer Geburt atmen, wissen die meisten von uns nicht, wie man richtig atmet. Viele atmen in einer oberflächlichen Art und Weise – besonders in stressbetonten oder unruhigen Zeiten. Tiefes Atmen durch den Bauch kann zur inneren Ruhe beitragen. Und es hilft, in unbequemen und angespannten Situationen einen kühlen Kopf zu bewahren.Bringen Sie ihre Mitarbeiter an einen Tisch, um über jetzige schwere Zeiten zu sprechen Foto: Rawpixel.com – shutterstock.comWer sich die Zeit nimmt um darüber zu sprechen, wie die vielen Veränderungen und Schwierigkeiten am Arbeitsplatz die einzelnen Mitarbeiter bewegen, kann die Arbeitsmoral heben. Es ist ein Fehler zu glauben, Menschen seien nicht verängstigt und besorgt und der Arbeitsplatz sei davon nicht betroffen.Fordern Sie zu positiven, lösungs-orientierten Antworten auf Foto: wavebreakmedia – shutterstock.comDie Zeiten sind angespannt und schwierige Veränderungen in Organisationen sind die Regel. Daher sind Ehrlichkeit, Glaubwürdigkeit und Offenheit so wichtig. Heute ist es mehr als je zuvor entscheidend, eine positive Einstellung in der Belegschaft auszulösen. Stellen Sie Fragen, die zu Lösungen ermuntern wie “Was läuft heute gut, was sind unsere Stärken, wie möchten wir, dass dieses Unternehmen aussieht?”Seien Sie mit den Gedanken und mit dem Herzen bei der Sache. Foto: GaudiLab – shutterstock.comLeute arbeiten intensiver für das, woran sie glauben und was sie zur Schaffung beigetragen haben. Das ist ein entscheidender Punkt, der während einer tiefgreifenden Umgestaltung am Arbeitsplatz geprüft werden muss. Was das mögliche Ausmaß des Arbeitsplatz-Wandels betrifft, sollten Mitarbeiter frühzeitig in die Entwicklung einbezogen werden.Lernen Sie Ihre eigenen Gefühle zu erkennen Foto: g-stockstudio – shutterstock.comBücher, Gruppen, Familie und enge Freunde sowie Trainer können wichtige Quellen sein, um sich den eigenen Gefühlen bewusster zu werden. Auch kann man dadurch leichter lernen, mit diesen Gefühlen umzugehen, um sich über sein Verhalten im Klaren zu werden. Besonders sollte man darauf achten, wie man andere Menschen anspricht.Geben Sie als Führungskraft ein gutes Beispiel Foto: Uber Images – shutterstock.comWas man tut oder lässt, hat direkten Einfluss darauf, was Mitarbeiter glauben, was akzeptabel ist. Seien Sie ein überzeugendes Beispiel dafür, dass ein ausgeglichenes Verhältnis zwischen Beruf und Privatleben von Bedeutung ist. Essen Sie mit anderen zu Mittag und motivieren Sie Kollegen dazu mitzukommen. Auch Spaß und Lachen am Arbeitsplatz sind erwünscht, da dies Stress reduzierende Faktoren sind.Nehmen Sie sich Zeit für gute Nachrichten Foto: Jack Frog – shutterstock.comWer sich immer nur auf das Negative konzentriert, tut weder seiner Gesundheit noch seiner Denkweise einen Gefallen. Und seien wir ehrlich: Der Anteil an positiven und erbaulichen Geschichten in den Nachrichten fällt eindeutig spärlich aus. Es ist extrem wichtig, sich so gut wie möglich von jeglichem Trübsal abzukapseln und wieder mit Leuten Kontakt aufnehmen bzw. Dinge zu tun, die Spaß machen.Halten Sie sich von überflüssigen Dingen frei Foto: d13 – shutterstock.comKonzentrieren Sie sich auf den Kern Ihrer Arbeit. Jetzt ist Zeit, mit den Mitarbeitern Prioritäten zu setzen und sich darüber Gedanken zu machen, welche Projekte einen perfekten Lösungsansatz erfordern. Nicht jedes Projekt kann an oberster Stelle stehen. Gerade in wirtschaftlich angespannten Zeiten sind Brainstorming-Sitzungen wichtiger denn je. 

Workaholic: So bekommen Arbeitssüchtige ihr Leben wieder in den Griff​ Arbeit ist etwas Positives – viel arbeiten ist in unseren Zivilisationsgraden ebenfalls und größtenteils positiv besetzt. Gleichwohl gibt es Menschen, die dabei ein eigentliches Suchtverhalten zeigen und in der damit verbundenen Schlaufe gefangen sind. Diese Menschen sehen in der Arbeit ihr ganzes Selbstwertgefühl, sind dadurch nicht mehr in der Lage, sich von ihr abzugrenzen. Sie arbeiten zwanghaft und leben einem möglichst ausgeprägten Perfektionismus nach.Arbeitssucht kennt keine Grenze mehr zwischen Job und Entspannung. Der Mensch ist getrieben von Erfolgszwang – bis zur Erschöpfung.
Foto: Stokkete – shutterstock.comSo brechen allmählich soziale Kontakte ab und der Zwang, sich über die Arbeit zu definieren, steigt weiter. Die Spirale ist in Gang und wie bei jeder Sucht muss für die Befriedigung die Dosis ständig erhöht werden. Das kann schlussendlich in Krankheit münden. Ganz grob wird festgehalten, dass permanente Wochenarbeitszeiten über 50 Stunden darauf hinweisen, dass eine Gefahr von Workaholismus besteht. Ursachen für ArbeitssuchtDie Ursache für Arbeitssucht ist oft ein positiver Kern. Denn davon betroffen sind vor allem engagierte Führungskräfte und Selbstständige. Sie legen sich derart ins Zeug und erleben eine hohe Befriedigung. Sofern das vorübergehende Phasen sind und die Betroffenen auch einen entsprechenden Ausgleich finden, ist das nicht nur normal, sondern hat viele positive Seiten.Die tiefere Ursache für Arbeitssucht liegt dann vor, wenn dieses hohe Engagement eng mit dem persönlichen Wertesystem des Selbstwertgefühls verknüpft ist. Meist sind Menschen betroffen, die ihren eigenen Wert an die Arbeitsleistung koppeln. Daraus entsteht der Perfektionismus, der als eigentliche Ursache für die Arbeitssucht gilt. Aus dem Zwang, alles perfekt zu machen, um als Mensch sich selbst und vermeintlich anderen gegenüber wertvoll zu erscheinen, geht die Fähigkeit in der Arbeit verloren, Wesentliches vom Unwesentlichen zu trennen. Es ist nicht mehr möglich, alles in der ‚normalen’ Zeit zu erledigen. In der Folge sind Sonderschichten in der Nacht dann dafür da, das auszugleichen.An diesen Symptomen erkennen Sie die Arbeitssucht• Sie denken immer mehr auch ausserhalb der Arbeitszeit an Ihre Arbeit. • Sie überlegen sich, wo Sie noch mehr Zeit für Ihre Arbeit ‚beschaffen’ oder ‚herholen’ können und opfern dafür die Zeit für Freizeit, Hobby und soziale Kontakte.• Sie entwickeln einen hohen Grad an Perfektionismus und verlieren die Fähigkeit, Prioritäten zu setzen. Alles in der Arbeit ist wichtig.• Sie spüren, dass Sie im Grunde zu viel arbeiten und machen eine saubere Planung. Sie stellen aber fest, dass Sie tatsächlich immer mehr Zeit mit Arbeiten verbringen, als Sie sich selber vorgenommen haben.• Sie sind Perfektionist und haben das Gefühl für Prioritäten verloren. Aus Zeitgründen schieben Sie übergeordnete Aufgaben vor sich her.• Sie vergessen Termine und können sich das nicht erklären.• Sie ärgern sich darüber, dass Sie Schuldgefühle oder erste Anzeichen von Depression erfahren.• Sie entwickeln körperliche Entzugssymptome, wenn Sie sich nicht der Arbeit widmen können (WLAN-freie Zonen, Krankheit, Urlaub mit der Familie usw.).Erkennen Sie, dass Sie gefährdet sindSeien Sie ganz ehrlich mit sich selbst, wenn sich erste Symptome regelmässig zeigen. Es ist ein Unterschied, ob Sie in einem Projekt für vier Wochen fast rund um die Uhr arbeiten, oder ob Sie über einen Zeitraum von mehreren Monaten und/oder Jahren die entsprechenden Symptome mehr oder weniger ständig wahrnehmen.Beginnen Sie mit einer verbindlichen Arbeitsplanung für sich selbst• Weihen Sie Freunde und Familie ein und erlauben Sie ihnen, Sie explizit darauf anzusprechen, wenn Sie zu viel arbeiten.• Seien Sie sehr rigide mit Freizeitterminen. Das heißt: Nehmen Sie den Fußballabend mit Ihren Freunden und die Geburtstagsfeier Ihres 5-Jährigen genau so pflichtbewusst wahr, wie Ihre Geschäftstermine.• Schalten Sie mobile Geräte am Abend aus und schaffen Sie sich Zeitinseln, an denen Sie nicht arbeiten können. Arbeit an sich selbst • Lernen Sie, Vertrauen zu anderen zu haben. Das schafft die Möglichkeit, Aufgaben zu delegieren.• Das Wichtigste: Lernen Sie, Ihr Selbstwertgefühl nicht ausschließlich von der Arbeit abhängig zu machen. Sofern Sie glauben, dass viele Punkte in diesem Artikel auch auf Ihr Leben zutreffen, sollten Sie vor allem auch die Unterstützung eines Arztes oder Psychologen in Anspruch nehmen.9 Tipps gegen StressTreiben Sie Sport …
Foto: lzf – shutterstock.com… und ziehen Sie Yoga und weitere Meditationsübungen in Betracht. Diese Übungen sind die besten Mittel gegen Stress und tragen dazu bei, Stressgefühle abzubauen. Ganz abgesehen vom gesundheitlichen Nutzen dienen die Trainings auch dazu, den Stress besser zu managen.Lernen Sie gut zu atmen
Foto: Andresr – shutterstock.comObwohl wir natürlich seit unserer Geburt atmen, wissen die meisten von uns nicht, wie man richtig atmet. Viele atmen in einer oberflächlichen Art und Weise – besonders in stressbetonten oder unruhigen Zeiten. Tiefes Atmen durch den Bauch kann zur inneren Ruhe beitragen. Und es hilft, in unbequemen und angespannten Situationen einen kühlen Kopf zu bewahren.Bringen Sie ihre Mitarbeiter an einen Tisch, um über jetzige schwere Zeiten zu sprechen
Foto: Rawpixel.com – shutterstock.comWer sich die Zeit nimmt um darüber zu sprechen, wie die vielen Veränderungen und Schwierigkeiten am Arbeitsplatz die einzelnen Mitarbeiter bewegen, kann die Arbeitsmoral heben. Es ist ein Fehler zu glauben, Menschen seien nicht verängstigt und besorgt und der Arbeitsplatz sei davon nicht betroffen.Fordern Sie zu positiven, lösungs-orientierten Antworten auf
Foto: wavebreakmedia – shutterstock.comDie Zeiten sind angespannt und schwierige Veränderungen in Organisationen sind die Regel. Daher sind Ehrlichkeit, Glaubwürdigkeit und Offenheit so wichtig. Heute ist es mehr als je zuvor entscheidend, eine positive Einstellung in der Belegschaft auszulösen. Stellen Sie Fragen, die zu Lösungen ermuntern wie “Was läuft heute gut, was sind unsere Stärken, wie möchten wir, dass dieses Unternehmen aussieht?”Seien Sie mit den Gedanken und mit dem Herzen bei der Sache.
Foto: GaudiLab – shutterstock.comLeute arbeiten intensiver für das, woran sie glauben und was sie zur Schaffung beigetragen haben. Das ist ein entscheidender Punkt, der während einer tiefgreifenden Umgestaltung am Arbeitsplatz geprüft werden muss. Was das mögliche Ausmaß des Arbeitsplatz-Wandels betrifft, sollten Mitarbeiter frühzeitig in die Entwicklung einbezogen werden.Lernen Sie Ihre eigenen Gefühle zu erkennen
Foto: g-stockstudio – shutterstock.comBücher, Gruppen, Familie und enge Freunde sowie Trainer können wichtige Quellen sein, um sich den eigenen Gefühlen bewusster zu werden. Auch kann man dadurch leichter lernen, mit diesen Gefühlen umzugehen, um sich über sein Verhalten im Klaren zu werden. Besonders sollte man darauf achten, wie man andere Menschen anspricht.Geben Sie als Führungskraft ein gutes Beispiel
Foto: Uber Images – shutterstock.comWas man tut oder lässt, hat direkten Einfluss darauf, was Mitarbeiter glauben, was akzeptabel ist. Seien Sie ein überzeugendes Beispiel dafür, dass ein ausgeglichenes Verhältnis zwischen Beruf und Privatleben von Bedeutung ist. Essen Sie mit anderen zu Mittag und motivieren Sie Kollegen dazu mitzukommen. Auch Spaß und Lachen am Arbeitsplatz sind erwünscht, da dies Stress reduzierende Faktoren sind.Nehmen Sie sich Zeit für gute Nachrichten
Foto: Jack Frog – shutterstock.comWer sich immer nur auf das Negative konzentriert, tut weder seiner Gesundheit noch seiner Denkweise einen Gefallen. Und seien wir ehrlich: Der Anteil an positiven und erbaulichen Geschichten in den Nachrichten fällt eindeutig spärlich aus. Es ist extrem wichtig, sich so gut wie möglich von jeglichem Trübsal abzukapseln und wieder mit Leuten Kontakt aufnehmen bzw. Dinge zu tun, die Spaß machen.Halten Sie sich von überflüssigen Dingen frei
Foto: d13 – shutterstock.comKonzentrieren Sie sich auf den Kern Ihrer Arbeit. Jetzt ist Zeit, mit den Mitarbeitern Prioritäten zu setzen und sich darüber Gedanken zu machen, welche Projekte einen perfekten Lösungsansatz erfordern. Nicht jedes Projekt kann an oberster Stelle stehen. Gerade in wirtschaftlich angespannten Zeiten sind Brainstorming-Sitzungen wichtiger denn je.

Workaholic: So bekommen Arbeitssüchtige ihr Leben wieder in den Griff​ Weiterlesen »

Pandas-Tutorial: So geht Datenanalyse mit Python​

Allgemein

Mit Pandas (und Python) zeigen Sie Excel-Enthusiasten, was Sache ist. Foto: Cik Bak – shutterstock.com Geht es darum, mit Daten in Tabellenform zu arbeiten, greifen die meisten Menschen zur Tabellenkalkulation. Das ist per se keine schlechte Wahl: Microsoft Excel und ähnliche Programme sind vertraut und bieten zahlreiche Funktionen, um Daten in Tabellenform zu bearbeiten. Schwierig wird es dann, wenn Sie mehr Kontrolle, Präzision und Leistung brauchen, als Excel und Co. bieten. In diesem Fall könnte die Open-Source-Bibliothek Pandas für Python genau das Richtige für Sie sein: Sie stattet die Programmiersprache mit neuen Datentypen aus, um Informationen möglichst schnell aus tabellarischen Quellen zu laden und diese (unter anderem) in großem Umfang zu verändern, auszurichten und zusammenzuführen. Die Kombination aus Python und Pandas bietet diverse Funktionen, die mit einer Tabellenkalkulation nicht zur Verfügung stehen. Sie können damit Ihre Daten-Tasks automatisieren und die Ergebnisse reproduzierbar machen. Anstatt klobige und limitierte Makros zu erstellen, können Sie mit Pandas Daten analysieren, segmentieren und transformieren. Die ausdrucksstarke Natur von Python und das umfassende Ökosystem sorgen dabei dafür, dass Sie noch bessere Ergebnisse erzielen, als mit Pandas alleine. Pandas-Datensatz erstellen Pandas ist ein Drittanbieterprojekt und somit nicht Teil der Python-Standardbibliothek. Sie müssen es also in Ihrer Laufzeitumgebung mit dem Befehl pip install pandas installieren. Sobald das geschehen ist, folgt der Import in Python mit: import pandas Pandas führt zwei neue Datentypen ein: Series und DataFrame. Der DataFrame repräsentiert Ihr gesamtes Tabellenblatt beziehungsweise Ihre Daten, während Series eine einzelne Spalte des DataFrame repräsentiert. Sie können sich den Pandas DataFrame auch als ein Wörterbuch oder eine Sammlung von Series-Objekten vorstellen. Normalerweise arbeiten Sie mit Pandas, indem Sie Daten in einem anderen Format importieren. Ein gängiges tabellarisches Datenformat ist .csv – eine Textdatei mit Werten, die durch Kommas getrennt sind. Für unser Tutorial verwenden wir einen Auszug aus dem Gapminder-Datenset, der von Jennifer Bryan an der University of British Columbia erstellt wurde. Um mit Pandas loszulegen, gilt es zunächst, die Bibliothek zu importieren. Um Tipparbeit zu sparen, ist es dabei üblich, Pandas mit dem Alias pd zu versehen: import pandas as pd Um mit den Beispieldaten im .csv-Format arbeiten zu können, laden wir diese mit der Funktion pd.read_csv als DataFrame: df = pd.read_csv(“./gapminder/inst/extdata/gapminder.tsv”, sep=’t’) Mit dem sep-Parameter können wir dabei angeben, dass diese spezielle Datei tabulator- und nicht kommagetrennt ist. Sobald die Daten geladen sind, können Sie deren Formatierung überprüfen, um sicherzustellen, dass sie korrekt eingeladen wurden. Das funktioniert, indem Sie die Methode .head() für den DataFrame verwenden: print(df.head()) country continent year lifeExp pop gdpPercap 0 Afghanistan Asia 1952 28.801 8425333 779.445314 1 Afghanistan Asia 1957 30.332 9240934 820.853030 2 Afghanistan Asia 1962 31.997 10267083 853.100710 3 Afghanistan Asia 1967 34.020 11537966 836.197138 4 Afghanistan Asia 1972 36.088 13079460 739.981106 DataFrame-Objekte weisen das Attribut shape auf. Das gibt Auskunft über die Anzahl der Zeilen (Rows) und Spalten (Columns) im DataFrame: print(df.shape) (1704, 6) # rows, cols Um die Namen der Spalten selbst aufzulisten, verwenden Sie .columns: print(df.columns) Index([‘country’, ‘continent’, ‘year’, ‘lifeExp’, ‘pop’, ‘gdpPercap’], dtype=’object’) DataFrames in Pandas funktionieren ähnlich wie die in anderen Sprachen, beispielsweise Julia und R. Jede Spalte – oder Series – muss vom gleichen Typ sein, während Zeilen gemischte Typen enthalten können. In unserem Beispiel ist die country-Spalte immer ein String und die year-Spalte immer eine ganze Zahl. Das können wir überprüfen, indem wir .dtypes verwenden, um den Datentyp jeder Spalte aufzulisten: print(df.dtypes) country object continent object year int64 lifeExp float64 pop int64 gdpPercap float64 dtype: object Für eine noch genauere Aufschlüsselung der Typen innerhalb Ihres DataFrame können Sie .info() nutzen: df.info() # information is written to console, so no print required RangeIndex: 1704 entries, 0 to 1703 Data columns (total 6 columns): # Column Non-Null Count Dtype — —— ————– —– 0 country 1704 non-null object 1 continent 1704 non-null object 2 year 1704 non-null int64 3 lifeExp 1704 non-null float64 4 pop 1704 non-null int64 5 gdpPercap 1704 non-null float64 dtypes: float64(2), int64(2), object(2) memory usage: 80.0+ KB Jeder Pandas-Datentyp wird auf einem nativen Python-Pendant abgebildet: object wird wie ein Python str-Type behandelt. int64 wird wie ein int in Python behandelt. Zu beachten ist dabei, dass nicht alle Python-ints in int64-Typen konvertiert werden können. Alles, was größer als (2 ** 63)-1 ist, wird nicht konvertiert. float64 wird wie ein Python-float gehandhabt (nativ 64-Bit). datetime64 wird wie ein datetime.datetime Python-Objekt behandelt. Pandas versucht dabei nicht automatisch, Werte, die wie Datumswerte aussehen, in solche zu konvertieren. Das müssen Sie explizit für spezifische Spalten festlegen. Spalten und Zeilen in Pandas Nachdem Sie nun einen einfachen Datensatz laden können, möchten Sie auch dessen Inhalte inspizieren. Sie könnten dazu auf den print-Befehl setzen – allerdings sind die meisten DataFrames dafür zu groß. Ein besserer Ansatz besteht darin, nur eine Teilmenge der Daten zu betrachten – ähnlich wie wir es bereits mit df.head() gemacht haben, aber mit mehr Kontrollmöglichkeiten. Indem Sie Pythons bestehende Syntax nutzen, um Slices zu erstellen und zu indizieren, können Sie mit Pandas auch DataFrame-Auszüge erstellen. Spalten extrahieren Um einzelne Spalten in einem Pandas-DataFrame zu untersuchen, können Sie diese anhand ihrer Namen, Positionen oder Bereiche extrahieren. Wenn Sie beispielweise eine spezifische Spalte aus Ihrem Datensatz benötigen, können Sie sie mit Hilfe eckiger Klammern nach ihrem Namen abfragen: # extract the column “country” into its own dataframe country_df = df[“country”] # show the first five rows print(country_df.head()) | 0 Afghanistan | 1 Afghanistan | 2 Afghanistan | 3 Afghanistan | 4 Afghanistan Name: country, dtype: object # show the last five rows print(country_df.tail()) | 1699 Zimbabwe | 1700 Zimbabwe | 1701 Zimbabwe | 1702 Zimbabwe | 1703 Zimbabwe | Name: country, dtype: object Falls Sie mehrere Spalten extrahieren wollen, übergeben Sie eine Liste der betreffenden Spaltennamen: # Looking at country, continent, and year subset = df[[‘country’, ‘continent’, ‘year’]] print(subset.head()) country continent year | 0 Afghanistan Asia 1952 | 1 Afghanistan Asia 1957 | 2 Afghanistan Asia 1962 | 3 Afghanistan Asia 1967 | 4 Afghanistan Asia 1972 print(subset.tail()) country continent year | 1699 Zimbabwe Africa 1987 | 1700 Zimbabwe Africa 1992 | 1701 Zimbabwe Africa 1997 | 1702 Zimbabwe Africa 2002 | 1703 Zimbabwe Africa 2007 Zeilen extrahieren Wenn Sie Zeilen (Rows) aus einem DataFrame extrahieren möchten, stehen Ihnen dazu bei Pandas zwei Methoden zur Verfügung: .iloc[] ist die einfachste Methode. Sie extrahiert Zeilen basierend auf ihrer Position, beginnend bei 0. Um die erste Zeile im obigen Beispiel eines DataFrames einzuladen, würden Sie folglich df.iloc[0] verwenden. Wenn Sie einen Bereich einer Zeile abrufen möchten, können Sie .iloc[] in Kombination mit der Slicing-Syntax von Python verwenden. Für die ersten zehn Zeilen würden Sie beispielsweise df.iloc[0:10] verwenden. Wenn Sie spezifische Zeilen extrahieren möchten, können Sie auch eine Liste der Zeilen-IDs verwenden, etwa df.iloc[[0,1,2,5,7,10,12]]. Beachten Sie dabei die doppelten Klammern – sie bedeuten, dass Sie eine Liste als erstes Argument angeben. Die andere Möglichkeit, Zeilen zu extrahieren, ist .loc[]. Dies extrahiert eine Teilmenge auf der Grundlage der Beschriftungen der Zeilen. Standardmäßig werden die Zeilen mit einem aufsteigenden ganzzahligen Wert (beginnend mit 0) gelabelt. Die Daten können aber auch manuell beschriftet werden, indem Sie die .index-Property des DataFrame festlegen. Wenn wir zum Beispiel den obigen DataFrame neu indizieren wollten, so dass jede Zeile einen Index mit Vielfachen von 100 aufweist, könnten wir dazu df.index = range(0, len(df)*100, 100) verwenden. Wenn wir anschließend df.loc[100] verwenden, würden wir die zweite Zeile erhalten. Spalten extrahieren Für den Fall dass Sie nur eine bestimmte Untergruppe von Spalten zusammen mit Ihren Zeilen-Slices abrufen möchten, übergeben Sie eine entsprechende Liste von Spalten als zweites Argument: df.loc[[rows], [columns]] Wenn wir etwa aus dem obigen Beispiel-Datensatz ausschließlich die Spalten “Country” und “Year” für alle Zeilen abrufen wollen, gehen wir wie folgt vor: df.loc[:, [“country”,”year”]] Der : bedeutet “alle Zeilen” (das ist Pythons Slicing-Syntax). Die Liste der Spalten folgt nach dem Komma. Sie können auch Spalten nach Position angeben, indem Sie .iloc verwenden: df.iloc[:, [0,2]] Das funktioniert auch, wenn Sie nur die ersten drei Spalten brauchen: df.iloc[:, 0:3] All diese Ansätze lassen sich miteinander kombinieren, insofern Sie loc für Labels und Spaltennamen und iloc für numerische Indizes verwenden. Im Folgenden weisen wir Pandas an, die ersten 100 Zeilen anhand ihrer numerischen Bezeichnungen zu extrahieren und das anschließend für die ersten drei Spalten (anhand ihrer Indizes) zu wiederholen: df.loc[0:100].iloc[:, 0:3] Um Verwirrung zu vermeiden, empfiehlt es sich, bei der Unterteilung von Daten die tatsächlichen Spaltennamen zu verwenden. Dadurch ist der Code leichter zu lesen – und Sie müssen nicht auf den Datensatz zurückgreifen, um herauszufinden, welche Spalte welchem Index entspricht. Außerdem bewahrt Sie das vor Fehlern, wenn die Spalten neu geordnet werden. Berechnungen mit Pandas Tabellenkalkulationen und Bibliotheken, die mit Zahlen arbeiten, verfügen über Methoden, um Statistiken über Daten zu erstellen. Betrachten wir an dieser Stelle noch einmal die Gapminder-Daten: print(df.head(n=10)) | country continent year lifeExp pop gdpPercap | 0 Afghanistan Asia 1952 28.801 8425333 779.445314 | 1 Afghanistan Asia 1957 30.332 9240934 820.853030 | 2 Afghanistan Asia 1962 31.997 10267083 853.100710 | 3 Afghanistan Asia 1967 34.020 11537966 836.197138 | 4 Afghanistan Asia 1972 36.088 13079460 739.981106 | 5 Afghanistan Asia 1977 38.438 14880372 786.113360 | 6 Afghanistan Asia 1982 39.854 12881816 978.011439 | 7 Afghanistan Asia 1987 40.822 13867957 852.395945 | 8 Afghanistan Asia 1992 41.674 16317921 649.341395 | 9 Afghanistan Asia 1997 41.763 22227415 635.341351 Zu diesem Datensatz könnten wir beispielsweise folgende Fragen stellen: Wie hoch ist die durchschnittliche Lebenserwartung für jedes Jahr im Datensatz? Wie gehen wir vor, wenn wir Durchschnittswerte zu Jahren und Kontinenten berechnen möchten? Wie können wir zählen, wie viele Länder im Datensatz zu den jeweiligen Kontinenten gehören? Um diese mit Pandas beantworten zu können, braucht es eine “grouped” oder “aggregated” Berechnung. Dabei können wir die Daten entlang bestimmter Linien aufteilen, eine Berechnung auf jedes aufgeteilte Segment anwenden und dann die Ergebnisse in einem neuen DataFrame zusammenführen. Gruppierte Mittelwerte zählen Die erste Methode, die wir dafür verwenden, ist Pandas’ df.groupby()-Operation. Dazu geben wir eine Spalte an, nach der wir die Daten aufteilen wollen: df.groupby(“year”) Auf diese Weise können wir alle Zeilen mit demselben Jahres-Wert als ein vom DataFrame getrenntes Objekt behandeln. Unter diesen Voraussetzungen können wir die Spalte “Lebenserwartung” (lifeExp) verwenden und ihren Mittelwert für jedes enthaltene Jahr berechnen: print(df.groupby(‘year’)[‘lifeExp’].mean()) year 1952 49.057620 1957 51.507401 1962 53.609249 1967 55.678290 1972 57.647386 1977 59.570157 1982 61.533197 1987 63.212613 1992 64.160338 1997 65.014676 2002 65.694923 2007 67.007423 Daraus ergibt sich die durchschnittliche Lebenserwartung für alle Bevölkerungsgruppen, aufgeschlüsselt nach Jahren. Eine ähnliche Berechnung könnten wir für die Bevölkerung (pop) und das BIP pro Jahr (gdpPercap) nutzen: print(df.groupby(‘year’)[‘pop’].mean()) print(df.groupby(‘year’)[‘gdpPercap’].mean()) Wenn wir unsere Daten allerdings nach mehr als einer Spalte gruppieren wollen, übergeben wir Spalten in Listen: print(df.groupby([‘year’, ‘continent’]) [[‘lifeExp’, ‘gdpPercap’]].mean()) lifeExp gdpPercap year continent 1952 Africa 39.135500 1252.572466 Americas 53.279840 4079.062552 Asia 46.314394 5195.484004 Europe 64.408500 5661.057435 Oceania 69.255000 10298.085650 1957 Africa 41.266346 1385.236062 Americas 55.960280 4616.043733 Asia 49.318544 5787.732940 Europe 66.703067 6963.012816 Oceania 70.295000 11598.522455 1962 Africa 43.319442 1598.078825 Americas 58.398760 4901.541870 Asia 51.563223 5729.369625 Europe 68.539233 8365.486814 Oceania 71.085000 12696.452430 Diese .groupby()-Operation gruppiert unsere Daten zunächst nach Jahr und anschließend nach Kontinent. Dann werden Mittelwerte aus den Spalten Lebenserwartung und BIP gebildet. Auf diese Weise können Sie Ihre Daten gruppieren und festlegen, wie sie dargestellt und in welcher Reihenfolge sie berechnet werden sollen. Wenn Sie die Ergebnisse in einem einzigen, inkrementell indizierten Rahmen “glätten” möchten, können Sie die .reset_index()-Methode auf die Ergebnisse anwenden: gb = df.groupby([‘year’, ‘continent’]) [[‘lifeExp’, ‘gdpPercap’]].mean() flat = gb.reset_index() print(flat.head()) | year continent lifeExp gdpPercap | 0 1952 Africa 39.135500 1252.572466 | 1 1952 Americas 53.279840 4079.062552 | 2 1952 Asia 46.314394 5195.484004 | 3 1952 Europe 64.408500 5661.057435 | 4 1952 Oceana 69.255000 10298.085650 Gruppierte Häufigkeiten zählen Ein weiterer häufiger Use Case für Daten sind Häufigkeitsberechnungen. Um eindeutige Werte in einer Reihe – und ihre Häufigkeit zu ermitteln – lassen sich die Methoden nunique und value_counts verwenden. So lässt sich zum Beispiel herausfinden, wie viele Länder zu den jeweiligen Kontinenten (siehe Eingangsfragen) gehören: print(df.groupby(‘continent’)[‘country’].nunique()) continent Africa 52 Americas 25 Asia 33 Europe 30 Oceana 2 Visualisierungsgrundlagen mit Pandas und Matplotlib Geht es darum, Daten zu visualisieren, kommt in den meisten Fällen eine weitere Bibliothek zum Einsatz – beispielsweise Matplotlib. Diese Library können Sie auch verwenden, um Datenvisualisierungen direkt aus Pandas heraus zu erstellen. Um die einfache Matplotlib-Erweiterung für Pandas zu verwenden, stellen Sie zunächst sicher, dass Sie Matplotlib installiert haben: pip install matplotlib Werfen wir nun noch einmal einen Blick auf die Beispieldaten – und hier auf die durchschnittliche, jährliche Lebenserwartung der Weltbevölkerung: global_yearly_life_expectancy = df.groupby(‘year’)[‘lifeExp’].mean() print(global_yearly_life_expectancy) | year | 1952 49.057620 | 1957 51.507401 | 1962 53.609249 | 1967 55.678290 | 1972 57.647386 | 1977 59.570157 | 1982 61.533197 | 1987 63.212613 | 1992 64.160338 | 1997 65.014676 | 2002 65.694923 | 2007 67.007423 | Name: lifeExp, dtype: float64 So erstellen Sie aus diesem Datensatz eine einfache Visualisierung: import matplotlib.pyplot as plt global_yearly_life_expectancy = df.groupby(‘year’)[‘lifeExp’].mean() c = global_yearly_life_expectancy.plot().get_figure() plt.savefig(“output.png”) Das zugehörige Diagramm wird in einer Datei im aktuellen Arbeitsverzeichnis als output.png gespeichert. Die Achsen und andere Labels im Diagramm lassen sich manuell setzen. Diese Methode eignet sich auch gut für schnelle Exporte. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Pandas-Tutorial: So geht Datenanalyse mit Python​ Mit Pandas (und Python) zeigen Sie Excel-Enthusiasten, was Sache ist.
Foto: Cik Bak – shutterstock.com

Geht es darum, mit Daten in Tabellenform zu arbeiten, greifen die meisten Menschen zur Tabellenkalkulation. Das ist per se keine schlechte Wahl: Microsoft Excel und ähnliche Programme sind vertraut und bieten zahlreiche Funktionen, um Daten in Tabellenform zu bearbeiten. Schwierig wird es dann, wenn Sie mehr Kontrolle, Präzision und Leistung brauchen, als Excel und Co. bieten.

In diesem Fall könnte die Open-Source-Bibliothek Pandas für Python genau das Richtige für Sie sein: Sie stattet die Programmiersprache mit neuen Datentypen aus, um Informationen möglichst schnell aus tabellarischen Quellen zu laden und diese (unter anderem) in großem Umfang zu verändern, auszurichten und zusammenzuführen. Die Kombination aus Python und Pandas bietet diverse Funktionen, die mit einer Tabellenkalkulation nicht zur Verfügung stehen.

Sie können damit Ihre Daten-Tasks automatisieren und die Ergebnisse reproduzierbar machen. Anstatt klobige und limitierte Makros zu erstellen, können Sie mit Pandas Daten analysieren, segmentieren und transformieren. Die ausdrucksstarke Natur von Python und das umfassende Ökosystem sorgen dabei dafür, dass Sie noch bessere Ergebnisse erzielen, als mit Pandas alleine.

Pandas-Datensatz erstellen

Pandas ist ein Drittanbieterprojekt und somit nicht Teil der Python-Standardbibliothek. Sie müssen es also in Ihrer Laufzeitumgebung mit dem Befehl pip install pandas installieren. Sobald das geschehen ist, folgt der Import in Python mit:

import pandas

Pandas führt zwei neue Datentypen ein:

Series und

DataFrame.

Der DataFrame repräsentiert Ihr gesamtes Tabellenblatt beziehungsweise Ihre Daten, während Series eine einzelne Spalte des DataFrame repräsentiert. Sie können sich den Pandas DataFrame auch als ein Wörterbuch oder eine Sammlung von Series-Objekten vorstellen.

Normalerweise arbeiten Sie mit Pandas, indem Sie Daten in einem anderen Format importieren. Ein gängiges tabellarisches Datenformat ist .csv – eine Textdatei mit Werten, die durch Kommas getrennt sind. Für unser Tutorial verwenden wir einen Auszug aus dem Gapminder-Datenset, der von Jennifer Bryan an der University of British Columbia erstellt wurde.

Um mit Pandas loszulegen, gilt es zunächst, die Bibliothek zu importieren. Um Tipparbeit zu sparen, ist es dabei üblich, Pandas mit dem Alias pd zu versehen:

import pandas as pd

Um mit den Beispieldaten im .csv-Format arbeiten zu können, laden wir diese mit der Funktion pd.read_csv als DataFrame:

df = pd.read_csv(“./gapminder/inst/extdata/gapminder.tsv”, sep=’t’)

Mit dem sep-Parameter können wir dabei angeben, dass diese spezielle Datei tabulator- und nicht kommagetrennt ist. Sobald die Daten geladen sind, können Sie deren Formatierung überprüfen, um sicherzustellen, dass sie korrekt eingeladen wurden. Das funktioniert, indem Sie die Methode .head() für den DataFrame verwenden:

print(df.head())

country continent year lifeExp pop gdpPercap

0 Afghanistan Asia 1952 28.801 8425333 779.445314

1 Afghanistan Asia 1957 30.332 9240934 820.853030

2 Afghanistan Asia 1962 31.997 10267083 853.100710

3 Afghanistan Asia 1967 34.020 11537966 836.197138

4 Afghanistan Asia 1972 36.088 13079460 739.981106

DataFrame-Objekte weisen das Attribut shape auf. Das gibt Auskunft über die Anzahl der Zeilen (Rows) und Spalten (Columns) im DataFrame:

print(df.shape)

(1704, 6) # rows, cols

Um die Namen der Spalten selbst aufzulisten, verwenden Sie .columns:

print(df.columns)

Index([‘country’, ‘continent’, ‘year’, ‘lifeExp’,

‘pop’, ‘gdpPercap’], dtype=’object’)

DataFrames in Pandas funktionieren ähnlich wie die in anderen Sprachen, beispielsweise Julia und R. Jede Spalte – oder Series – muss vom gleichen Typ sein, während Zeilen gemischte Typen enthalten können. In unserem Beispiel ist die country-Spalte immer ein String und die year-Spalte immer eine ganze Zahl. Das können wir überprüfen, indem wir .dtypes verwenden, um den Datentyp jeder Spalte aufzulisten:

print(df.dtypes)

country object

continent object

year int64

lifeExp float64

pop int64

gdpPercap float64

dtype: object

Für eine noch genauere Aufschlüsselung der Typen innerhalb Ihres DataFrame können Sie .info() nutzen:

df.info() # information is written to console, so no print required

RangeIndex: 1704 entries, 0 to 1703

Data columns (total 6 columns):

# Column Non-Null Count Dtype

— —— ————– —–

0 country 1704 non-null object

1 continent 1704 non-null object

2 year 1704 non-null int64

3 lifeExp 1704 non-null float64

4 pop 1704 non-null int64

5 gdpPercap 1704 non-null float64

dtypes: float64(2), int64(2), object(2)

memory usage: 80.0+ KB

Jeder Pandas-Datentyp wird auf einem nativen Python-Pendant abgebildet:

object wird wie ein Python str-Type behandelt.

int64 wird wie ein int in Python behandelt. Zu beachten ist dabei, dass nicht alle Python-ints in int64-Typen konvertiert werden können. Alles, was größer als (2 ** 63)-1 ist, wird nicht konvertiert.

float64 wird wie ein Python-float gehandhabt (nativ 64-Bit).

datetime64 wird wie ein datetime.datetime Python-Objekt behandelt. Pandas versucht dabei nicht automatisch, Werte, die wie Datumswerte aussehen, in solche zu konvertieren. Das müssen Sie explizit für spezifische Spalten festlegen.

Spalten und Zeilen in Pandas

Nachdem Sie nun einen einfachen Datensatz laden können, möchten Sie auch dessen Inhalte inspizieren. Sie könnten dazu auf den print-Befehl setzen – allerdings sind die meisten DataFrames dafür zu groß. Ein besserer Ansatz besteht darin, nur eine Teilmenge der Daten zu betrachten – ähnlich wie wir es bereits mit df.head() gemacht haben, aber mit mehr Kontrollmöglichkeiten. Indem Sie Pythons bestehende Syntax nutzen, um Slices zu erstellen und zu indizieren, können Sie mit Pandas auch DataFrame-Auszüge erstellen.

Spalten extrahieren

Um einzelne Spalten in einem Pandas-DataFrame zu untersuchen, können Sie diese anhand ihrer Namen, Positionen oder Bereiche extrahieren. Wenn Sie beispielweise eine spezifische Spalte aus Ihrem Datensatz benötigen, können Sie sie mit Hilfe eckiger Klammern nach ihrem Namen abfragen:

# extract the column “country” into its own dataframe

country_df = df[“country”]

# show the first five rows

print(country_df.head())

| 0 Afghanistan

| 1 Afghanistan

| 2 Afghanistan

| 3 Afghanistan

| 4 Afghanistan

Name: country, dtype: object

# show the last five rows

print(country_df.tail())

| 1699 Zimbabwe

| 1700 Zimbabwe

| 1701 Zimbabwe

| 1702 Zimbabwe

| 1703 Zimbabwe

| Name: country, dtype: object

Falls Sie mehrere Spalten extrahieren wollen, übergeben Sie eine Liste der betreffenden Spaltennamen:

# Looking at country, continent, and year

subset = df[[‘country’, ‘continent’, ‘year’]]

print(subset.head())

country continent year

| 0 Afghanistan Asia 1952

| 1 Afghanistan Asia 1957

| 2 Afghanistan Asia 1962

| 3 Afghanistan Asia 1967

| 4 Afghanistan Asia 1972

print(subset.tail())

country continent year

| 1699 Zimbabwe Africa 1987

| 1700 Zimbabwe Africa 1992

| 1701 Zimbabwe Africa 1997

| 1702 Zimbabwe Africa 2002

| 1703 Zimbabwe Africa 2007

Zeilen extrahieren

Wenn Sie Zeilen (Rows) aus einem DataFrame extrahieren möchten, stehen Ihnen dazu bei Pandas zwei Methoden zur Verfügung:

.iloc[] ist die einfachste Methode. Sie extrahiert Zeilen basierend auf ihrer Position, beginnend bei 0. Um die erste Zeile im obigen Beispiel eines DataFrames einzuladen, würden Sie folglich df.iloc[0] verwenden. Wenn Sie einen Bereich einer Zeile abrufen möchten, können Sie .iloc[] in Kombination mit der Slicing-Syntax von Python verwenden. Für die ersten zehn Zeilen würden Sie beispielsweise df.iloc[0:10] verwenden. Wenn Sie spezifische Zeilen extrahieren möchten, können Sie auch eine Liste der Zeilen-IDs verwenden, etwa df.iloc[[0,1,2,5,7,10,12]]. Beachten Sie dabei die doppelten Klammern – sie bedeuten, dass Sie eine Liste als erstes Argument angeben.

Die andere Möglichkeit, Zeilen zu extrahieren, ist .loc[]. Dies extrahiert eine Teilmenge auf der Grundlage der Beschriftungen der Zeilen. Standardmäßig werden die Zeilen mit einem aufsteigenden ganzzahligen Wert (beginnend mit 0) gelabelt. Die Daten können aber auch manuell beschriftet werden, indem Sie die .index-Property des DataFrame festlegen. Wenn wir zum Beispiel den obigen DataFrame neu indizieren wollten, so dass jede Zeile einen Index mit Vielfachen von 100 aufweist, könnten wir dazu df.index = range(0, len(df)*100, 100) verwenden. Wenn wir anschließend df.loc[100] verwenden, würden wir die zweite Zeile erhalten.

Spalten extrahieren

Für den Fall dass Sie nur eine bestimmte Untergruppe von Spalten zusammen mit Ihren Zeilen-Slices abrufen möchten, übergeben Sie eine entsprechende Liste von Spalten als zweites Argument:

df.loc[[rows], [columns]]

Wenn wir etwa aus dem obigen Beispiel-Datensatz ausschließlich die Spalten “Country” und “Year” für alle Zeilen abrufen wollen, gehen wir wie folgt vor:

df.loc[:, [“country”,”year”]]

Der : bedeutet “alle Zeilen” (das ist Pythons Slicing-Syntax). Die Liste der Spalten folgt nach dem Komma. Sie können auch Spalten nach Position angeben, indem Sie .iloc verwenden:

df.iloc[:, [0,2]]

Das funktioniert auch, wenn Sie nur die ersten drei Spalten brauchen:

df.iloc[:, 0:3]

All diese Ansätze lassen sich miteinander kombinieren, insofern Sie loc für Labels und Spaltennamen und iloc für numerische Indizes verwenden. Im Folgenden weisen wir Pandas an, die ersten 100 Zeilen anhand ihrer numerischen Bezeichnungen zu extrahieren und das anschließend für die ersten drei Spalten (anhand ihrer Indizes) zu wiederholen:

df.loc[0:100].iloc[:, 0:3]

Um Verwirrung zu vermeiden, empfiehlt es sich, bei der Unterteilung von Daten die tatsächlichen Spaltennamen zu verwenden. Dadurch ist der Code leichter zu lesen – und Sie müssen nicht auf den Datensatz zurückgreifen, um herauszufinden, welche Spalte welchem Index entspricht. Außerdem bewahrt Sie das vor Fehlern, wenn die Spalten neu geordnet werden.

Berechnungen mit Pandas

Tabellenkalkulationen und Bibliotheken, die mit Zahlen arbeiten, verfügen über Methoden, um Statistiken über Daten zu erstellen. Betrachten wir an dieser Stelle noch einmal die Gapminder-Daten:

print(df.head(n=10))

| country continent year lifeExp pop gdpPercap

| 0 Afghanistan Asia 1952 28.801 8425333 779.445314

| 1 Afghanistan Asia 1957 30.332 9240934 820.853030

| 2 Afghanistan Asia 1962 31.997 10267083 853.100710

| 3 Afghanistan Asia 1967 34.020 11537966 836.197138

| 4 Afghanistan Asia 1972 36.088 13079460 739.981106

| 5 Afghanistan Asia 1977 38.438 14880372 786.113360

| 6 Afghanistan Asia 1982 39.854 12881816 978.011439

| 7 Afghanistan Asia 1987 40.822 13867957 852.395945

| 8 Afghanistan Asia 1992 41.674 16317921 649.341395

| 9 Afghanistan Asia 1997 41.763 22227415 635.341351

Zu diesem Datensatz könnten wir beispielsweise folgende Fragen stellen:

Wie hoch ist die durchschnittliche Lebenserwartung für jedes Jahr im Datensatz?

Wie gehen wir vor, wenn wir Durchschnittswerte zu Jahren und Kontinenten berechnen möchten?

Wie können wir zählen, wie viele Länder im Datensatz zu den jeweiligen Kontinenten gehören?

Um diese mit Pandas beantworten zu können, braucht es eine “grouped” oder “aggregated” Berechnung. Dabei können wir die Daten entlang bestimmter Linien aufteilen, eine Berechnung auf jedes aufgeteilte Segment anwenden und dann die Ergebnisse in einem neuen DataFrame zusammenführen.

Gruppierte Mittelwerte zählen

Die erste Methode, die wir dafür verwenden, ist Pandas’ df.groupby()-Operation. Dazu geben wir eine Spalte an, nach der wir die Daten aufteilen wollen:

df.groupby(“year”)

Auf diese Weise können wir alle Zeilen mit demselben Jahres-Wert als ein vom DataFrame getrenntes Objekt behandeln. Unter diesen Voraussetzungen können wir die Spalte “Lebenserwartung” (lifeExp) verwenden und ihren Mittelwert für jedes enthaltene Jahr berechnen:

print(df.groupby(‘year’)[‘lifeExp’].mean())

year

1952 49.057620

1957 51.507401

1962 53.609249

1967 55.678290

1972 57.647386

1977 59.570157

1982 61.533197

1987 63.212613

1992 64.160338

1997 65.014676

2002 65.694923

2007 67.007423

Daraus ergibt sich die durchschnittliche Lebenserwartung für alle Bevölkerungsgruppen, aufgeschlüsselt nach Jahren. Eine ähnliche Berechnung könnten wir für die Bevölkerung (pop) und das BIP pro Jahr (gdpPercap) nutzen:

print(df.groupby(‘year’)[‘pop’].mean())

print(df.groupby(‘year’)[‘gdpPercap’].mean())

Wenn wir unsere Daten allerdings nach mehr als einer Spalte gruppieren wollen, übergeben wir Spalten in Listen:

print(df.groupby([‘year’, ‘continent’])

[[‘lifeExp’, ‘gdpPercap’]].mean())

lifeExp gdpPercap

year continent

1952 Africa 39.135500 1252.572466

Americas 53.279840 4079.062552

Asia 46.314394 5195.484004

Europe 64.408500 5661.057435

Oceania 69.255000 10298.085650

1957 Africa 41.266346 1385.236062

Americas 55.960280 4616.043733

Asia 49.318544 5787.732940

Europe 66.703067 6963.012816

Oceania 70.295000 11598.522455

1962 Africa 43.319442 1598.078825

Americas 58.398760 4901.541870

Asia 51.563223 5729.369625

Europe 68.539233 8365.486814

Oceania 71.085000 12696.452430

Diese .groupby()-Operation gruppiert unsere Daten zunächst nach Jahr und anschließend nach Kontinent. Dann werden Mittelwerte aus den Spalten Lebenserwartung und BIP gebildet. Auf diese Weise können Sie Ihre Daten gruppieren und festlegen, wie sie dargestellt und in welcher Reihenfolge sie berechnet werden sollen.

Wenn Sie die Ergebnisse in einem einzigen, inkrementell indizierten Rahmen “glätten” möchten, können Sie die .reset_index()-Methode auf die Ergebnisse anwenden:

gb = df.groupby([‘year’, ‘continent’])

[[‘lifeExp’, ‘gdpPercap’]].mean()

flat = gb.reset_index()

print(flat.head())

| year continent lifeExp gdpPercap

| 0 1952 Africa 39.135500 1252.572466

| 1 1952 Americas 53.279840 4079.062552

| 2 1952 Asia 46.314394 5195.484004

| 3 1952 Europe 64.408500 5661.057435

| 4 1952 Oceana 69.255000 10298.085650

Gruppierte Häufigkeiten zählen

Ein weiterer häufiger Use Case für Daten sind Häufigkeitsberechnungen. Um eindeutige Werte in einer Reihe – und ihre Häufigkeit zu ermitteln – lassen sich die Methoden nunique und value_counts verwenden. So lässt sich zum Beispiel herausfinden, wie viele Länder zu den jeweiligen Kontinenten (siehe Eingangsfragen) gehören:

print(df.groupby(‘continent’)[‘country’].nunique())

continent

Africa 52

Americas 25

Asia 33

Europe 30

Oceana 2

Visualisierungsgrundlagen mit Pandas und Matplotlib

Geht es darum, Daten zu visualisieren, kommt in den meisten Fällen eine weitere Bibliothek zum Einsatz – beispielsweise Matplotlib. Diese Library können Sie auch verwenden, um Datenvisualisierungen direkt aus Pandas heraus zu erstellen. Um die einfache Matplotlib-Erweiterung für Pandas zu verwenden, stellen Sie zunächst sicher, dass Sie Matplotlib installiert haben:

pip install matplotlib

Werfen wir nun noch einmal einen Blick auf die Beispieldaten – und hier auf die durchschnittliche, jährliche Lebenserwartung der Weltbevölkerung:

global_yearly_life_expectancy = df.groupby(‘year’)[‘lifeExp’].mean()

print(global_yearly_life_expectancy)

| year

| 1952 49.057620

| 1957 51.507401

| 1962 53.609249

| 1967 55.678290

| 1972 57.647386

| 1977 59.570157

| 1982 61.533197

| 1987 63.212613

| 1992 64.160338

| 1997 65.014676

| 2002 65.694923

| 2007 67.007423

| Name: lifeExp, dtype: float64

So erstellen Sie aus diesem Datensatz eine einfache Visualisierung:

import matplotlib.pyplot as plt

global_yearly_life_expectancy = df.groupby(‘year’)[‘lifeExp’].mean()

c = global_yearly_life_expectancy.plot().get_figure()

plt.savefig(“output.png”)

Das zugehörige Diagramm wird in einer Datei im aktuellen Arbeitsverzeichnis als output.png gespeichert. Die Achsen und andere Labels im Diagramm lassen sich manuell setzen. Diese Methode eignet sich auch gut für schnelle Exporte. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Pandas-Tutorial: So geht Datenanalyse mit Python​ Weiterlesen »

KI übernimmt die Qualitätskontrolle bei der Schaeffler Group​

Allgemein

KI könnte die Zukunft der Qualitätskontrolle werden, insbesondere wenn es um Präzision in der Fertigung geht. Dabei sollen manuelle Prozess von KI-gestützter Effizienz profitieren.Ground Picture / Shutterstock Künstliche Intelligenz (KI) breitet sich immer weiter aus und macht sich auch in alteingesessenen Betrieben bemerkbar. Firmen, die zum Beispiel Grundmaschinen einsetzen, um Stahlkugellager zu schleifen, gehen seit etwa 1900 immer noch nach demselben Muster vor. Die Hersteller automatisieren die Geräte, sowie alles, was mit ihnen zusammenhängt, jedoch immer weiter. Heute wird der Prozess von einem Förderband angetrieben und läuft größtenteils ohne menschliches Zutun ab. Die Zukunft der Qualitätskontrolle mit KI Läuft die Herstellung selbst automatisch, kommt der Mensch ins Spiel, um herauszufinden, wann etwas schief läuft. Nun könnte selbst das bald der KI überlassen werden. So auch bei den Metallkugeln, die der Maschinenbauer Schaeffler in einem Werk in Homburg, fertigt. Die vielseitigen Bauteile kommen in Kugellagern zum Einsatz, etwa in Drehbänken oder Automotoren. Das Unternehmen stellt sie aus Stahldraht her, der geschnitten und zu groben Kugeln gepresst wird. Diese Rohlinge werden anschließend gehärtet und in drei Schritten bis auf ein Zehntel Mikrometer genau kugelförmig geschliffen. Von Daten zu Erkenntnissen Die Fehlererkennung in der Produktion, insbesondere bei solchen Größen, ist oft komplex, da Ursachen nicht sofort ersichtlich sind. Das Unternehmen muss deshalb verschiedene Anlagendaten vergleichen, um Probleme zu identifizieren. Künftig könnten Maschinen diese Aufgabe übernehmen: Schaeffler nutzt bereits den Factory Operations Agent von Microsoft. Das ist ein KI-gestütztes Tool, das Defekte und Ineffizienzen analysiert. Damit ähnelt es generativer KI wie ChatGPT, ist aber speziell für Fabriken entwickelt worden. Schaeffler benötigte eine skalierbare Lösung für über 100 Werke, um Produktionsanalysen zu beschleunigen sowie die Effizienz und die Qualität zu optimieren. In Zusammenarbeit mit dem IT-Dienstleister Avanade wurden Manufacturing Data Solutions in Microsoft Fabric und der Factory Operations Agent in Azure AI pilotiert. Die Lösung harmonisiert Fabrikdaten und ermöglicht Mitarbeitenden, durch natürliche Spracheingaben Erkenntnisse zu gewinnen. Die Stärke liegt dabei in der Verbindung zwischen der OT-Datenplattform und KI-gestützter Analyse, so die beiden Beteiligten. Überbrückung der IT/OT-Lücke in der Fertigung Der eingesetzte Factory Operations Agent ist keine agentenbasierte KI, sondern ein datenbasiertes Tool, um Nutzerfragen zu beantworten. Mit Microsofts Copilot-Studio kann er grundlegende Befehle ausführen, trifft jedoch keine eigenen Entscheidungen. Besonders in der Fertigung hilft das Tool, Daten aus verschiedenen Systemen zu vergleichen und so die IT/OT-Lücke zu überbrücken. Dadurch kann es Fehleranalysen in Fabriken dialogorientiert unterstützen. Der Factory Operations Agent soll noch dieses Jahr in die öffentliche Vorschau gehen und für Azure-KI-Nutzer verfügbar sein. Doch es gibt viele konkurrierende Systeme, da die Fertigung für Tech-Unternehmen ein lukrativer Markt ist. Google hat kürzlich seine Manufacturing Data Engine aktualisiert und sowohl Microsoft als auch Google bieten Plattformen für Entwickler an. Experten warnen jedoch, dass der KI-Einsatz in der Industrie Sicherheitsrisiken mit sich bringt, insbesondere wenn Nutzer Fehlfunktionen nicht rechtzeitig erkennen. Fragen verstehen und in Daten übersetzen Laut Microsoft ist der Factory Operations Agent in der Lage, Fragen zu verstehen und sie präzise und genau in standardisierte Datenmodelle zu übersetzen. Für Schaeffler bedeutet der Wechsel zu KI-gesteuerten Erkenntnissen, dass die Belegschaft mithilfe des Agenten leicht auf Kennzahlen wie Ausschussraten, Ausbeute (der Anteil der brauchbaren oder akzeptablen Komponenten) und Energieverbrauch zugreifen können. Zuvor verbrachten Ingenieure Stunden damit, die genauen  Gründe für Ausfallzeiten zu ermitteln. Jetzt können sie den Agenten einfach fragen, was das Problem verursacht hat und erhalten sofort eine detaillierte Antwort, so das Unternehmen. 

KI übernimmt die Qualitätskontrolle bei der Schaeffler Group​ KI könnte die Zukunft der Qualitätskontrolle werden, insbesondere wenn es um Präzision in der Fertigung geht. Dabei sollen manuelle Prozess von KI-gestützter Effizienz profitieren.Ground Picture / Shutterstock

Künstliche Intelligenz (KI) breitet sich immer weiter aus und macht sich auch in alteingesessenen Betrieben bemerkbar. Firmen, die zum Beispiel Grundmaschinen einsetzen, um Stahlkugellager zu schleifen, gehen seit etwa 1900 immer noch nach demselben Muster vor. Die Hersteller automatisieren die Geräte, sowie alles, was mit ihnen zusammenhängt, jedoch immer weiter. Heute wird der Prozess von einem Förderband angetrieben und läuft größtenteils ohne menschliches Zutun ab.

Die Zukunft der Qualitätskontrolle mit KI

Läuft die Herstellung selbst automatisch, kommt der Mensch ins Spiel, um herauszufinden, wann etwas schief läuft. Nun könnte selbst das bald der KI überlassen werden.

So auch bei den Metallkugeln, die der Maschinenbauer Schaeffler in einem Werk in Homburg, fertigt. Die vielseitigen Bauteile kommen in Kugellagern zum Einsatz, etwa in Drehbänken oder Automotoren.

Das Unternehmen stellt sie aus Stahldraht her, der geschnitten und zu groben Kugeln gepresst wird. Diese Rohlinge werden anschließend gehärtet und in drei Schritten bis auf ein Zehntel Mikrometer genau kugelförmig geschliffen.

Von Daten zu Erkenntnissen

Die Fehlererkennung in der Produktion, insbesondere bei solchen Größen, ist oft komplex, da Ursachen nicht sofort ersichtlich sind. Das Unternehmen muss deshalb verschiedene Anlagendaten vergleichen, um Probleme zu identifizieren.

Künftig könnten Maschinen diese Aufgabe übernehmen: Schaeffler nutzt bereits den Factory Operations Agent von Microsoft. Das ist ein KI-gestütztes Tool, das Defekte und Ineffizienzen analysiert. Damit ähnelt es generativer KI wie ChatGPT, ist aber speziell für Fabriken entwickelt worden.

Schaeffler benötigte eine skalierbare Lösung für über 100 Werke, um Produktionsanalysen zu beschleunigen sowie die Effizienz und die Qualität zu optimieren. In Zusammenarbeit mit dem IT-Dienstleister Avanade wurden Manufacturing Data Solutions in Microsoft Fabric und der Factory Operations Agent in Azure AI pilotiert.

Die Lösung harmonisiert Fabrikdaten und ermöglicht Mitarbeitenden, durch natürliche Spracheingaben Erkenntnisse zu gewinnen. Die Stärke liegt dabei in der Verbindung zwischen der OT-Datenplattform und KI-gestützter Analyse, so die beiden Beteiligten.

Überbrückung der IT/OT-Lücke in der Fertigung

Der eingesetzte Factory Operations Agent ist keine agentenbasierte KI, sondern ein datenbasiertes Tool, um Nutzerfragen zu beantworten. Mit Microsofts Copilot-Studio kann er grundlegende Befehle ausführen, trifft jedoch keine eigenen Entscheidungen.

Besonders in der Fertigung hilft das Tool, Daten aus verschiedenen Systemen zu vergleichen und so die IT/OT-Lücke zu überbrücken. Dadurch kann es Fehleranalysen in Fabriken dialogorientiert unterstützen.

Der Factory Operations Agent soll noch dieses Jahr in die öffentliche Vorschau gehen und für Azure-KI-Nutzer verfügbar sein. Doch es gibt viele konkurrierende Systeme, da die Fertigung für Tech-Unternehmen ein lukrativer Markt ist. Google hat kürzlich seine Manufacturing Data Engine aktualisiert und sowohl Microsoft als auch Google bieten Plattformen für Entwickler an. Experten warnen jedoch, dass der KI-Einsatz in der Industrie Sicherheitsrisiken mit sich bringt, insbesondere wenn Nutzer Fehlfunktionen nicht rechtzeitig erkennen.

Fragen verstehen und in Daten übersetzen

Laut Microsoft ist der Factory Operations Agent in der Lage, Fragen zu verstehen und sie präzise und genau in standardisierte Datenmodelle zu übersetzen.

Für Schaeffler bedeutet der Wechsel zu KI-gesteuerten Erkenntnissen, dass die Belegschaft mithilfe des Agenten leicht auf Kennzahlen wie

Ausschussraten,

Ausbeute (der Anteil der brauchbaren oder akzeptablen Komponenten) und

Energieverbrauch

zugreifen können. Zuvor verbrachten Ingenieure Stunden damit, die genauen  Gründe für Ausfallzeiten zu ermitteln. Jetzt können sie den Agenten einfach fragen, was das Problem verursacht hat und erhalten sofort eine detaillierte Antwort, so das Unternehmen.

KI übernimmt die Qualitätskontrolle bei der Schaeffler Group​ Weiterlesen »

Delos Cloud: Das kostet die digitale Souveränität​

Allgemein

15 Prozent über den Microsoft Listenpreisen liegen die Kosten für die souveränen Microsoft-Dienste aus der Delos Cloud. tete_escape/Shutterstock.com Seit der erratisch reagierende US-Präsident Donald Trump im Amt ist, geht in Deutschland die Angst um, dass er womöglich auf die Idee kommen könnte, bei einigen Cloud-Diensten den Stecker zu ziehen oder andere Fisimatenten zu machen. Dementsprechend lauter werden die Wünsche, entsprechende Services in heimischen oder europäischen Rechenzentren zu hosten – Stichwort souveräne Cloud. An entsprechenden Angeboten arbeiten etwa die Schwarz Gruppe mit der STACKIT Cloud oder SAP mit der Delos Cloud. Wenige Monate vor der technischen Verfügbarkeit der souveränen Cloud hat das Unternehmen aus Walldorf seine künftige Preisgestaltung veröffentlicht. 15 Prozent teurer als bei Microsoft Danach sollen deutsche, öffentliche Auftraggeber für die souveränen Microsoft-Dienste 15 Prozent über dem jeweils aktuell gültigen Listenpreis von Microsoft in Deutschland bezahlen. Parallel dazu plant Delos Cloud, beispielhafte Volumenrabatt-Modelle und entsprechende Musterkonditionen zu verhandeln. Von diesen könnten künftig alle öffentlichen Auftraggeber, die für Delos Cloud-Produkte und -Leistungen bezugsberechtigt sind, profitieren. Diese Preisgestaltung gilt laut Unternehmensangaben für alle Infrastruktur- und Plattformdienste aus dem Hause Microsoft, die Delos Cloud als deutsche Betreiberin an die öffentliche Hand in Deutschland vollständig souverän ausbringt. Darunter fallen sogenannte Azure Foundational Services und Azure Mainstream Services, sowie die Kollaborations-Tools und Produktivitätslösungen von Microsoft Office 365. Noch 2025 verfügbar Ab 2025 will Delos Cloud der deutschen Verwaltung eine vollständig souveräne Cloud-Plattform zur Verfügung stellen. Diese werde alle regulatorischen Anforderungen in den Bereichen IT-Sicherheit, Datenschutz und Geheimschutz erfüllen. Dazu arbeitet Delos Cloud nach eigenen Angaben seit 2020 eng mit der öffentlichen Hand im Rahmen des vom IT-Rat der Bundesregierung beauftragten MSSC-Projekts unter Führung der Bundesministerien der Finanzen (BMF) und des Innern und für Heimat (BMI) zusammen. Die Plattform werde unter anderem die sogenannten Cloud Platform Requirements des Bundesamts für Sicherheit in der Informationstechnik (BSI) vollumfänglich erfüllen und soll mit einem BSI-Testat zertifiziert werden, hieß es. Azure als technische Basis Damit will Delos Cloud öffentlichen Auftraggebern eine geprüfte Cloud-Plattform offerieren, die die Verarbeitung von Verschlusssachen („VS-NfD“) ermöglicht. Ferner sei eine vollständige Datensouveränität für sensible Verwaltungsdaten durch eine Verarbeitung in Rechenzentren und Betriebsstätten ausschließlich in Deutschland gewährleistet. Die Plattform selbst und die Betreibergesellschaft Delos Cloud GmbH unterliegen der deutschen Gerichtsbarkeit. Damit bestehe auch keine Herausgabeverpflichtung von Daten an Drittstaaten. Technisch basiert die Delos Cloud auf der Hyperscaler-Technologie von Azure. Dabei betont man, dass Microsoft ausschließlich als Technologielieferant zur Entwicklung und Entstehung der souveränen Cloud beitrage. Als Eigentümerin der Infrastruktur übernehme die Delos Cloud GmbH sowohl den Plattform-Betrieb als auch die Lizenzierung ihrer Produkte. Offen für Dritte Darüber hinaus sollen auf der Plattform auch die Dienste des Mutterkonzerns SAP verfügbar sein. Ebenso könnten Drittanbieter können ihre Lösungen über die Delos-Cloud-Infrastruktur anbieten. Voraussetzung: Die Applikationen erfüllen die Anforderungen des BSI. Im Blick hat man hier insbesondere auch Open-Source-Software und Eigenentwicklungen. 

Delos Cloud: Das kostet die digitale Souveränität​ 15 Prozent über den Microsoft Listenpreisen liegen die Kosten für die souveränen Microsoft-Dienste aus der Delos Cloud.
tete_escape/Shutterstock.com

Seit der erratisch reagierende US-Präsident Donald Trump im Amt ist, geht in Deutschland die Angst um, dass er womöglich auf die Idee kommen könnte, bei einigen Cloud-Diensten den Stecker zu ziehen oder andere Fisimatenten zu machen. Dementsprechend lauter werden die Wünsche, entsprechende Services in heimischen oder europäischen Rechenzentren zu hosten – Stichwort souveräne Cloud.

An entsprechenden Angeboten arbeiten etwa die Schwarz Gruppe mit der STACKIT Cloud oder SAP mit der Delos Cloud. Wenige Monate vor der technischen Verfügbarkeit der souveränen Cloud hat das Unternehmen aus Walldorf seine künftige Preisgestaltung veröffentlicht.

15 Prozent teurer als bei Microsoft

Danach sollen deutsche, öffentliche Auftraggeber für die souveränen Microsoft-Dienste 15 Prozent über dem jeweils aktuell gültigen Listenpreis von Microsoft in Deutschland bezahlen. Parallel dazu plant Delos Cloud, beispielhafte Volumenrabatt-Modelle und entsprechende Musterkonditionen zu verhandeln. Von diesen könnten künftig alle öffentlichen Auftraggeber, die für Delos Cloud-Produkte und -Leistungen bezugsberechtigt sind, profitieren.

Diese Preisgestaltung gilt laut Unternehmensangaben für alle Infrastruktur- und Plattformdienste aus dem Hause Microsoft, die Delos Cloud als deutsche Betreiberin an die öffentliche Hand in Deutschland vollständig souverän ausbringt. Darunter fallen sogenannte Azure Foundational Services und Azure Mainstream Services, sowie die Kollaborations-Tools und Produktivitätslösungen von Microsoft Office 365.

Noch 2025 verfügbar

Ab 2025 will Delos Cloud der deutschen Verwaltung eine vollständig souveräne Cloud-Plattform zur Verfügung stellen. Diese werde alle regulatorischen Anforderungen in den Bereichen IT-Sicherheit, Datenschutz und Geheimschutz erfüllen.

Dazu arbeitet Delos Cloud nach eigenen Angaben seit 2020 eng mit der öffentlichen Hand im Rahmen des vom IT-Rat der Bundesregierung beauftragten MSSC-Projekts unter Führung der Bundesministerien der Finanzen (BMF) und des Innern und für Heimat (BMI) zusammen. Die Plattform werde unter anderem die sogenannten Cloud Platform Requirements des Bundesamts für Sicherheit in der Informationstechnik (BSI) vollumfänglich erfüllen und soll mit einem BSI-Testat zertifiziert werden, hieß es.

Azure als technische Basis

Damit will Delos Cloud öffentlichen Auftraggebern eine geprüfte Cloud-Plattform offerieren, die die Verarbeitung von Verschlusssachen („VS-NfD“) ermöglicht. Ferner sei eine vollständige Datensouveränität für sensible Verwaltungsdaten durch eine Verarbeitung in Rechenzentren und Betriebsstätten ausschließlich in Deutschland gewährleistet. Die Plattform selbst und die Betreibergesellschaft Delos Cloud GmbH unterliegen der deutschen Gerichtsbarkeit. Damit bestehe auch keine Herausgabeverpflichtung von Daten an Drittstaaten.

Technisch basiert die Delos Cloud auf der Hyperscaler-Technologie von Azure. Dabei betont man, dass Microsoft ausschließlich als Technologielieferant zur Entwicklung und Entstehung der souveränen Cloud beitrage. Als Eigentümerin der Infrastruktur übernehme die Delos Cloud GmbH sowohl den Plattform-Betrieb als auch die Lizenzierung ihrer Produkte.

Offen für Dritte

Darüber hinaus sollen auf der Plattform auch die Dienste des Mutterkonzerns SAP verfügbar sein. Ebenso könnten Drittanbieter können ihre Lösungen über die Delos-Cloud-Infrastruktur anbieten. Voraussetzung: Die Applikationen erfüllen die Anforderungen des BSI. Im Blick hat man hier insbesondere auch Open-Source-Software und Eigenentwicklungen.

Delos Cloud: Das kostet die digitale Souveränität​ Weiterlesen »

IT-Jobmarkt gerät in Schieflage​

Allgemein

width=”4300″ height=”2418″ sizes=”(max-width: 4300px) 100vw, 4300px”>Viele Tech-Unternehmen dünnen ihre Belegschaften aus. Einen neuen Job zu finden, ist in einem zunehmend angespannteren Arbeitsmarkt aber gar nicht so einfach.Sergey Nivens – shutterstock.com Viele Unternehmen in Deutschland planen Stellen abzubauen und wollen mit weniger Personal auskommen. Das ifo Beschäftigungsbarometer ist im Februar 2025 auf 93,0 Punkte gesunken, nach 93,4 Punkten im Januar. „Die Lage am Arbeitsmarkt bleibt angespannt – auch wegen des Strukturwandels in der Wirtschaft“, erklärt Klaus Wohlrabe, Leiter der ifo Umfragen.  Neben einer schwierigen Situation in der Industrie und im Handel wollen auch die Dienstleister ihre Personalplanung für die nächsten Monate etwas restriktiver ausrichten, heißt es beim ifo-Institut. Insbesondere die IT-Dienstleister seien auf die Bremse getreten, beobachten die Wirtschaftsforscher. Mehr Arbeitslose in Deutschland Insgesamt ist die Zahl der Arbeitslosen in Deutschland im Januar 2025 deutlich gestiegen, gegenüber dem Vormonat um 186.000 auf 2.993.000 – der höchste Stand seit fast zehn Jahren. Die Arbeitslosenquote stieg um 0,4 Prozentpunkte auf 6,4 Prozent. „Zum Jahresbeginn haben Arbeitslosigkeit und Unterbeschäftigung, wie in diesem Monat üblich, deutlich zugenommen“, sagte die Vorstandsvorsitzende der Bundesagentur für Arbeit (BA), Andrea Nahles. „Das Beschäftigungswachstum setzt sich tendenziell zwar fort, verliert aber mehr und mehr an Kraft.“  Die angespannte Situation auf dem Arbeitsmarkt scheint sich mittlerweile auch auf den IT-Bereich durchzuschlagen. Zwar betont man auf Seiten des Branchenverbands Bitkom, dass die Digitalwirtschaft hierzulande weiter wachse und sich auch der Stellenzuwachs fortsetzen werde. Allerdings flacht sich die Wachstumskurve ab. Für 2025 rechnet die Lobbyvereinigung mit 1,371 Millionen Arbeitsplätzen in der deutschen IT-Industrie – ein Plus von 1,5 Prozent im Vergleich zum Vorjahr. Das Marktvolumen soll um 4,6 Prozent von 222,6 auf 232,8 Milliarden Euro zulegen.  IT hält Digitalbranche auf Wachstumskurs An anderer Stelle sieht man die Entwicklungen deutlich kritischer. „Die Lage auf dem deutschen IT-Arbeitsmarkt spitzt sich weiter zu“, heißt es bei der Tech Recruiter GmbH, einer IT-Personalberatung für Tech & Digital aus Hamburg. Im Januar 2025 seien in der Berufshauptgruppe 43 „Informatik- und andere IKT-Berufe“ 49.338 Personen arbeitslos und 77.444 arbeitsuchend gemeldet. In Summe seien somit zum Jahresanfang 126.782 ITler bei der Agentur für Arbeit registriert gewesen. Weniger IT-Fachkräfte gesucht In den zurückliegenden zehn Monaten sei die Anzahl der arbeitslosen und arbeitssuchenden IT-Fachkräfte in Deutschland um 18,5 Prozent gestiegen, berichtet Tech Recruiter. Es seien fast 20.000 Personen im IT-Bereich mehr bei der Agentur für Arbeit als arbeitslos oder arbeitssuchend registriert. Auch die Nachfrage nach IT-Fachkräften sei weiterhin rückläufig: Bei der Agentur für Arbeit wurden im Januar 13.515 neue IT Jobs registriert, fast ein Viertel weniger als im Januar 2024. In absoluten Zahlen entspreche dies einem Minus von 4.468 offenen IT Jobs.  Die Turbulenzen im IT-Jobmarkt sind kein deutsches Phänomen. Auch in den USA steigt die Zahl der Arbeitslosen im IT-Sektor. Im Januar lag die Arbeitslosenquote in diesem Bereich laut Zahlen des Arbeitsministeriums bei 5,7 Prozent. Im Dezember 2024 waren es noch 3,9 Prozent. Insgesamt lag die Arbeitslosenquote in den Vereinigten Staaten zum Jahresanfang bei vier Prozent.  KI sorgt für weniger Personalbedarf Experten und Marktbeobachter sprechen von strukturellen Veränderungen im Techsektor, gerade im Zusammenhang mit dem Einsatz von KI-Technologien. Immer mehr Unternehmen sehen offenbar Möglichkeiten, Routineaufgaben an KI-Bots oder -Agenten auszulagern und somit ihre Belegschaften auszudünnen.  Große Techunternehmen ersetzen Mitarbeitende durch KI Nach Angaben der Management-Beratung Janco Associates Inc. gibt es in den USA etwa 152.000 arbeitslose IT-Fachkräfte. Der IT-Arbeitsmarkt sei in den zurückliegenden 24 Monaten um über 171.000 Stellen geschrumpft. Insgesamt sei eine Abflachung des langfristigen Wachstumsmusters im IT-Arbeitsmarkt zu beobachten.  

IT-Jobmarkt gerät in Schieflage​ width=”4300″ height=”2418″ sizes=”(max-width: 4300px) 100vw, 4300px”>Viele Tech-Unternehmen dünnen ihre Belegschaften aus. Einen neuen Job zu finden, ist in einem zunehmend angespannteren Arbeitsmarkt aber gar nicht so einfach.Sergey Nivens – shutterstock.com

Viele Unternehmen in Deutschland planen Stellen abzubauen und wollen mit weniger Personal auskommen. Das ifo Beschäftigungsbarometer ist im Februar 2025 auf 93,0 Punkte gesunken, nach 93,4 Punkten im Januar. „Die Lage am Arbeitsmarkt bleibt angespannt – auch wegen des Strukturwandels in der Wirtschaft“, erklärt Klaus Wohlrabe, Leiter der ifo Umfragen. 

Neben einer schwierigen Situation in der Industrie und im Handel wollen auch die Dienstleister ihre Personalplanung für die nächsten Monate etwas restriktiver ausrichten, heißt es beim ifo-Institut. Insbesondere die IT-Dienstleister seien auf die Bremse getreten, beobachten die Wirtschaftsforscher.

Mehr Arbeitslose in Deutschland

Insgesamt ist die Zahl der Arbeitslosen in Deutschland im Januar 2025 deutlich gestiegen, gegenüber dem Vormonat um 186.000 auf 2.993.000 – der höchste Stand seit fast zehn Jahren. Die Arbeitslosenquote stieg um 0,4 Prozentpunkte auf 6,4 Prozent. „Zum Jahresbeginn haben Arbeitslosigkeit und Unterbeschäftigung, wie in diesem Monat üblich, deutlich zugenommen“, sagte die Vorstandsvorsitzende der Bundesagentur für Arbeit (BA), Andrea Nahles. „Das Beschäftigungswachstum setzt sich tendenziell zwar fort, verliert aber mehr und mehr an Kraft.“ 

Die angespannte Situation auf dem Arbeitsmarkt scheint sich mittlerweile auch auf den IT-Bereich durchzuschlagen. Zwar betont man auf Seiten des Branchenverbands Bitkom, dass die Digitalwirtschaft hierzulande weiter wachse und sich auch der Stellenzuwachs fortsetzen werde. Allerdings flacht sich die Wachstumskurve ab. Für 2025 rechnet die Lobbyvereinigung mit 1,371 Millionen Arbeitsplätzen in der deutschen IT-Industrie – ein Plus von 1,5 Prozent im Vergleich zum Vorjahr. Das Marktvolumen soll um 4,6 Prozent von 222,6 auf 232,8 Milliarden Euro zulegen. 

IT hält Digitalbranche auf Wachstumskurs

An anderer Stelle sieht man die Entwicklungen deutlich kritischer. „Die Lage auf dem deutschen IT-Arbeitsmarkt spitzt sich weiter zu“, heißt es bei der Tech Recruiter GmbH, einer IT-Personalberatung für Tech & Digital aus Hamburg. Im Januar 2025 seien in der Berufshauptgruppe 43 „Informatik- und andere IKT-Berufe“ 49.338 Personen arbeitslos und 77.444 arbeitsuchend gemeldet. In Summe seien somit zum Jahresanfang 126.782 ITler bei der Agentur für Arbeit registriert gewesen.

Weniger IT-Fachkräfte gesucht

In den zurückliegenden zehn Monaten sei die Anzahl der arbeitslosen und arbeitssuchenden IT-Fachkräfte in Deutschland um 18,5 Prozent gestiegen, berichtet Tech Recruiter. Es seien fast 20.000 Personen im IT-Bereich mehr bei der Agentur für Arbeit als arbeitslos oder arbeitssuchend registriert. Auch die Nachfrage nach IT-Fachkräften sei weiterhin rückläufig: Bei der Agentur für Arbeit wurden im Januar 13.515 neue IT Jobs registriert, fast ein Viertel weniger als im Januar 2024. In absoluten Zahlen entspreche dies einem Minus von 4.468 offenen IT Jobs. 

Die Turbulenzen im IT-Jobmarkt sind kein deutsches Phänomen. Auch in den USA steigt die Zahl der Arbeitslosen im IT-Sektor. Im Januar lag die Arbeitslosenquote in diesem Bereich laut Zahlen des Arbeitsministeriums bei 5,7 Prozent. Im Dezember 2024 waren es noch 3,9 Prozent. Insgesamt lag die Arbeitslosenquote in den Vereinigten Staaten zum Jahresanfang bei vier Prozent. 

KI sorgt für weniger Personalbedarf

Experten und Marktbeobachter sprechen von strukturellen Veränderungen im Techsektor, gerade im Zusammenhang mit dem Einsatz von KI-Technologien. Immer mehr Unternehmen sehen offenbar Möglichkeiten, Routineaufgaben an KI-Bots oder -Agenten auszulagern und somit ihre Belegschaften auszudünnen. 

Große Techunternehmen ersetzen Mitarbeitende durch KI

Nach Angaben der Management-Beratung Janco Associates Inc. gibt es in den USA etwa 152.000 arbeitslose IT-Fachkräfte. Der IT-Arbeitsmarkt sei in den zurückliegenden 24 Monaten um über 171.000 Stellen geschrumpft. Insgesamt sei eine Abflachung des langfristigen Wachstumsmusters im IT-Arbeitsmarkt zu beobachten. 

IT-Jobmarkt gerät in Schieflage​ Weiterlesen »

Atlassian richtet Trello neu aus​

Allgemein

Atlassian Zu den neuen Funktionen von Trello gehören ein Posteingang, ein Terminplaner und eine Mischung aus Add-ons und generativen KI-Tools (GenAI). Die Features sollen Anwendern zum Beispiel dabei helfen,   E-Mails zusammenzufassen,   Meetings zu organisieren und die Flut von Pop-ups, die in der Software erscheinen, schnell zu sortieren.  „In der Vergangenheit hat sich Trello in Richtung Projektmanagement für größere und komplexere Vorhaben entwickelt“, erklärt Gaurav Kataria, Leiter der Produktentwicklung für Trello bei Atlassian. Er fügt hinzu: „Jetzt verlagern wir den Schwerpunkt auf das individuelle Aufgabenmanagement.“   Kataria zufolge konzentriere sich Trello mit dem Update auf Einfachheit, Benutzerfreundlichkeit und darauf, einzelner Nutzer dabei zu unterstützen, produktiver zu arbeiten. Das Unternehmen hob zwei spezifische Funktionen hervor, die sich derzeit in der Betaphase befinden: Inbox und Planner.   Der KI-gestützte Posteingang dient beispielsweise dazu, wichtige Aufgabenpunkte zu sammeln und zusammenzufassen sowie zum Organisieren von To-do-Listen, die aus einer Vielzahl von Kollaborations- und Produktivitätsanwendungen stammen.   Mit dem Kalender lassen sich Termine und Aufgaben koordinieren.  Die neuen Funktionen bauen dabei auf den bestehenden auf, also etwa Aufgabenlisten und Karten, die Nutzern helfen, Projekte zu organisieren und umzusetzen.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die neuen Inbox- und Planner-Tools von Trello nutzen generative KI, um Benutzern dabei zu helfen, besser organisiert und produktiver zu sein.Trello Paradigmenwechsel nach 14 Jahren  Es handle sich dabei um eine große Verschiebung für Trello, so Kataria, da das aktuelle Feature Set „in den letzten 14 Jahren ziemlich gleichgeblieben ist“.  Natürlich spielt auch KI bei dem Update eine wichtige Rolle. Ein integriertes Large Language Model (LLM) analysiert eingehende Nachrichten und kann wichtige Aufgabenpunkte und Termine zusammenfassen, die dann als Aufgabenliste im Posteingang organisiert werden. Benutzer können diese Zusammenfassungen im Posteingang lesen und dann die Planungsfunktion verwenden, um Besprechungen im Kalender zu organisieren.  Mit dieser Funktion will Trello vermeiden, dass Büromitarbeiter von der Flut an eingehenden E-Mails, Slack-Nachrichten, Microsoft-Teams-Mitteilungen und Benachrichtigungen von Anwendungen wie Salesforce und Workday überwältigt werden.  „Der häufigste Anwendungsfall ist, einfach alles in eine einzige To-do-Liste umzuleiten und von der KI zusammenfassen lassen. Das ist mit Abstand der Killer-Anwendungsfall“, so der Atlassian-Manager.  Um eine Nachricht an den Trello-Posteingang weiterzuleiten, gibt es  verschiedene Möglichkeiten:  Unterwegs oder mobil: Aufgaben lassen sich per Sprachbefehl mit Siri (iOS) oder durch manuelle Eingabe direkt in der App (Android und iOS) hinzufügen.  Über Slack: Nachrichten wandern per App-Shortcut, mit der „Später speichern“-Funktion oder per Emoji-Reaktion direkt in den Posteingang.  Per E-Mail: E-Mails können an inbox@app.trello.com weitergeleitet und automatisch in To-dos umgewandelt werden.  Aus Jira-Listen: Jira-Tickets lassen sich mühelos in Trello-Boards integrieren. Dabei können Nutzer die Auswahl gezielt eingrenzen – mithilfe von Keywords, Filtern oder JQL-Abfragen.  „Viele Teams sind für das Projektmanagement von Trello zu Jira gewechselt, nutzen aber Trello für die individuelle Produktivität. Hier gibt es eine klare Trennung zwischen Trello und Jira. Gleichzeitig lassen sie sich aber […] gut integrieren“, erklärt Kataria.  Die neuen Funktionen werden in sechs Wochen für zahlende Nutzer allgemein verfügbar sein. Freemium-Nutzer bleiben dabei außen vor.  

Atlassian richtet Trello neu aus​ Atlassian

Zu den neuen Funktionen von Trello gehören ein Posteingang, ein Terminplaner und eine Mischung aus Add-ons und generativen KI-Tools (GenAI). Die Features sollen Anwendern zum Beispiel dabei helfen,  

E-Mails zusammenzufassen,  

Meetings zu organisieren und

die Flut von Pop-ups, die in der Software erscheinen, schnell zu sortieren. 

„In der Vergangenheit hat sich Trello in Richtung Projektmanagement für größere und komplexere Vorhaben entwickelt“, erklärt Gaurav Kataria, Leiter der Produktentwicklung für Trello bei Atlassian. Er fügt hinzu: „Jetzt verlagern wir den Schwerpunkt auf das individuelle Aufgabenmanagement.“  

Kataria zufolge konzentriere sich Trello mit dem Update auf Einfachheit, Benutzerfreundlichkeit und darauf, einzelner Nutzer dabei zu unterstützen, produktiver zu arbeiten. Das Unternehmen hob zwei spezifische Funktionen hervor, die sich derzeit in der Betaphase befinden: Inbox und Planner.  

Der KI-gestützte Posteingang dient beispielsweise dazu, wichtige Aufgabenpunkte zu sammeln und zusammenzufassen sowie zum Organisieren von To-do-Listen, die aus einer Vielzahl von Kollaborations- und Produktivitätsanwendungen stammen.  

Mit dem Kalender lassen sich Termine und Aufgaben koordinieren. 

Die neuen Funktionen bauen dabei auf den bestehenden auf, also etwa Aufgabenlisten und Karten, die Nutzern helfen, Projekte zu organisieren und umzusetzen. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Trello-with-Inbox-and-Planner.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die neuen Inbox- und Planner-Tools von Trello nutzen generative KI, um Benutzern dabei zu helfen, besser organisiert und produktiver zu sein.Trello

Paradigmenwechsel nach 14 Jahren 

Es handle sich dabei um eine große Verschiebung für Trello, so Kataria, da das aktuelle Feature Set „in den letzten 14 Jahren ziemlich gleichgeblieben ist“. 

Natürlich spielt auch KI bei dem Update eine wichtige Rolle. Ein integriertes Large Language Model (LLM) analysiert eingehende Nachrichten und kann wichtige Aufgabenpunkte und Termine zusammenfassen, die dann als Aufgabenliste im Posteingang organisiert werden. Benutzer können diese Zusammenfassungen im Posteingang lesen und dann die Planungsfunktion verwenden, um Besprechungen im Kalender zu organisieren. 

Mit dieser Funktion will Trello vermeiden, dass Büromitarbeiter von der Flut an eingehenden E-Mails, Slack-Nachrichten, Microsoft-Teams-Mitteilungen und Benachrichtigungen von Anwendungen wie Salesforce und Workday überwältigt werden. 

„Der häufigste Anwendungsfall ist, einfach alles in eine einzige To-do-Liste umzuleiten und von der KI zusammenfassen lassen. Das ist mit Abstand der Killer-Anwendungsfall“, so der Atlassian-Manager. 

Um eine Nachricht an den Trello-Posteingang weiterzuleiten, gibt es  verschiedene Möglichkeiten: 

Unterwegs oder mobil: Aufgaben lassen sich per Sprachbefehl mit Siri (iOS) oder durch manuelle Eingabe direkt in der App (Android und iOS) hinzufügen. 

Über Slack: Nachrichten wandern per App-Shortcut, mit der „Später speichern“-Funktion oder per Emoji-Reaktion direkt in den Posteingang. 

Per E-Mail: E-Mails können an inbox@app.trello.com weitergeleitet und automatisch in To-dos umgewandelt werden. 

Aus Jira-Listen: Jira-Tickets lassen sich mühelos in Trello-Boards integrieren. Dabei können Nutzer die Auswahl gezielt eingrenzen – mithilfe von Keywords, Filtern oder JQL-Abfragen. 

„Viele Teams sind für das Projektmanagement von Trello zu Jira gewechselt, nutzen aber Trello für die individuelle Produktivität. Hier gibt es eine klare Trennung zwischen Trello und Jira. Gleichzeitig lassen sie sich aber gut integrieren“, erklärt Kataria. 

Die neuen Funktionen werden in sechs Wochen für zahlende Nutzer allgemein verfügbar sein. Freemium-Nutzer bleiben dabei außen vor. 

Atlassian richtet Trello neu aus​ Weiterlesen »

Ist der Run auf Rechenzentren schon wieder vorbei?​

Allgemein

Microsoft investiert weiterhin stark in eigene Infrastruktur, sieht aber offenbar weniger Bedarf, zusätzliche Ressourcen anzumieten. shutterstock – Gorodenkoff Endet der Hype um Rechenzentren schon dieses Jahr? Darauf deutet zumindest ein aktueller Bericht der Investmentbank TD Cowen hin: Microsoft soll Verträge über Anlagen mit einer Leistung von mehreren hundert Megawatt gekündigt haben. Dies könnte darauf bedeuten, dass das Unternehmen die künftige KI-Nachfrage vorsichtiger einschätzt und deshalb weniger Ressourcen benötigt. Mögliches Überangebot im Rechenzentrumsmarkt In dem Bericht vom 21. Februar 2025 weisen die Analysten darauf hin, dass Microsoft unter anderem die Umwandlung von Statements Of Qualifications (SOQs) in Mietverträge reduziert hat. Es ist unklar, ob es sich um eine Verzögerung oder einen vollständigen Stopp der Anfragen handelt. Zudem würden internationale Ausgaben vermehrt zurück in die USA verlagert, was auf ein mögliches Überangebot hindeutet. Eigene Rechenzentren statt Mieten Microsoft will zudem an seinem Plan festhalten, mehr als 80 Milliarden Dollar in die Infrastruktur zu investieren, davon 40 Milliarden in den USA, beteuerten zuletzt die Verantwortlichen des weltgrößten Softwareherstellers. Experten vermuten jedoch, dass das Unternehmen seine Strategie anpasst, indem es weniger Rechenzentren mietet und mehr Anlagen selbst baut. Es ist auch möglich, dass KI-Workloads die bereits bestehenden Verzögerungen bei der Vermietung und Engpässe bei der Energieversorgung verschärfen.2024 dachte Microsoft deshalb öffentlich über den Kauf von Kernkraftwerken nach, um seinen Energiebedarf zu decken. Streit unter Analysten Experten des Analystenhauses Gartner sehen den Bericht allerdings kritisch und weisen darauf hin, dass vieles noch Spekulation sei. Microsoft selbst habe sich noch nicht abschließend zu seinen Investitionsplänen geäußert. Zudem hätten die Redmonder bereits Berichte über ihre mögliche Rechenzentrumsstrategie entschieden dementiert. Die Analysten weisen zudem darauf hin, dass das Unternehmen, wie andere Hyperscaler auch, seine Prognosen für Angebot und Nachfrage ausbalancieren müsse. Gartner prophezeit allerdings, dass Hyperscaler weiterhin Milliarden von Dollar in Data Center investieren werden. Der Ausbau von Rechenzentren für KI und Cloud werde daher wahrscheinlich weitergehen. Im Moment sieht es so aus, als würden sie genau das tun. Treibende Kräfte seien insbesondere das Stargate-Projekt sowie die Kooperation von OpenAI mit Oracle und Softbank. Gleichzeitig gebe es Anzeichen dafür, dass Microsoft seine Investitionen auch auf andere Standorte verlagern werde. Andere Projekte, andere Prioritäten TD Cowen berichtet, dass die Nachfrage nach Hyperscale-Rechenzentren von Drittanbietern wie Meta, Oracle/Softbank und Google gestiegen sei. Gleichzeitig sei aber auch die Nachfrage von Amazon stabil geblieben. Der Rückzug von Microsoft könnte daher auch mit einer Verlagerung von OpenAI-Workloads zu Oracle/Softbank zusammenhängen. 

Ist der Run auf Rechenzentren schon wieder vorbei?​ Microsoft investiert weiterhin stark in eigene Infrastruktur, sieht aber offenbar weniger Bedarf, zusätzliche Ressourcen anzumieten.
shutterstock – Gorodenkoff

Endet der Hype um Rechenzentren schon dieses Jahr? Darauf deutet zumindest ein aktueller Bericht der Investmentbank TD Cowen hin: Microsoft soll Verträge über Anlagen mit einer Leistung von mehreren hundert Megawatt gekündigt haben. Dies könnte darauf bedeuten, dass das Unternehmen die künftige KI-Nachfrage vorsichtiger einschätzt und deshalb weniger Ressourcen benötigt.

Mögliches Überangebot im Rechenzentrumsmarkt

In dem Bericht vom 21. Februar 2025 weisen die Analysten darauf hin, dass Microsoft unter anderem die Umwandlung von Statements Of Qualifications (SOQs) in Mietverträge reduziert hat. Es ist unklar, ob es sich um eine Verzögerung oder einen vollständigen Stopp der Anfragen handelt. Zudem würden internationale Ausgaben vermehrt zurück in die USA verlagert, was auf ein mögliches Überangebot hindeutet.

Eigene Rechenzentren statt Mieten

Microsoft will zudem an seinem Plan festhalten, mehr als 80 Milliarden Dollar in die Infrastruktur zu investieren, davon 40 Milliarden in den USA, beteuerten zuletzt die Verantwortlichen des weltgrößten Softwareherstellers. Experten vermuten jedoch, dass das Unternehmen seine Strategie anpasst, indem es weniger Rechenzentren mietet und mehr Anlagen selbst baut. Es ist auch möglich, dass KI-Workloads die bereits bestehenden Verzögerungen bei der Vermietung und Engpässe bei der Energieversorgung verschärfen.2024 dachte Microsoft deshalb öffentlich über den Kauf von Kernkraftwerken nach, um seinen Energiebedarf zu decken.

Streit unter Analysten

Experten des Analystenhauses Gartner sehen den Bericht allerdings kritisch und weisen darauf hin, dass vieles noch Spekulation sei. Microsoft selbst habe sich noch nicht abschließend zu seinen Investitionsplänen geäußert. Zudem hätten die Redmonder bereits Berichte über ihre mögliche Rechenzentrumsstrategie entschieden dementiert.

Die Analysten weisen zudem darauf hin, dass das Unternehmen, wie andere Hyperscaler auch, seine Prognosen für Angebot und Nachfrage ausbalancieren müsse. Gartner prophezeit allerdings, dass Hyperscaler weiterhin Milliarden von Dollar in Data Center investieren werden. Der Ausbau von Rechenzentren für KI und Cloud werde daher wahrscheinlich weitergehen.

Im Moment sieht es so aus, als würden sie genau das tun. Treibende Kräfte seien insbesondere das Stargate-Projekt sowie die Kooperation von OpenAI mit Oracle und Softbank. Gleichzeitig gebe es Anzeichen dafür, dass Microsoft seine Investitionen auch auf andere Standorte verlagern werde.

Andere Projekte, andere Prioritäten

TD Cowen berichtet, dass die Nachfrage nach Hyperscale-Rechenzentren von Drittanbietern wie Meta, Oracle/Softbank und Google gestiegen sei. Gleichzeitig sei aber auch die Nachfrage von Amazon stabil geblieben. Der Rückzug von Microsoft könnte daher auch mit einer Verlagerung von OpenAI-Workloads zu Oracle/Softbank zusammenhängen.

Ist der Run auf Rechenzentren schon wieder vorbei?​ Weiterlesen »

Microsoft PowerToys: Ein Leitfaden​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?quality=50&strip=all 2173w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dieser Artikel vermittelt alles, was Sie zum Thema PowerToys wissen müssen.Screenshot | Foundry Die erste Version von Microsofts PowerToys erschien in den 1990er Jahren für Windows 95. Zunächst umfasste die Utility-Sammlung 15 verschiedene Tools, bevor sie ab Windows Vista auf Eis gelegt wurde. Auch Windows 7 und 8 mussten ohne PowerToys auskommen. Erst Mitte 2019 belebte Microsoft seine kostenlosen Hilfsprogramme wieder – als Open-Source-Projekt auf GitHub. Wie schon bei ihrem ersten „Run“ unterstützen die PowerToys-Tools Windows-Benutzer bei allen möglichen, alltäglichen Tasks (dazu gleich mehr). Allerdings bietet die Tool-Sammlung in ihrer aktuellen Ausformung weit mehr als früher – und ganz allgemein mehr, als viele Microsoft-Anwender wissen. In diesem Leitfaden lesen Sie: wie Sie PowerToys installieren, wie Sie die Utilities unter Windows nutzen, sowie welche Tools aktuell verfügbar sind und was diese können. Microsoft PowerToys installieren Während die PowerToys in den 1990er Jahren noch einzeln heruntergeladen und installiert werden mussten, gibt es heute eine übergreifende PowerToys-App, mit der die User auf sämtliche verfügbaren Tools zugreifen können. Diese können Sie über zweierlei Wege beziehen: Entweder Sie laden die PowerToys-App über GitHub herunter, oder Sie nutzen dafür den offiziellen Microsoft Store. Letztgenannte Option hat den Vorteil, dass sie automatisch aktualisiert wird. Alternativ können Sie außerdem den in Windows integrierten Packet Manager WinGet nutzen, um PowerToys über die Befehlszeile zu installieren (und manuell zu aktualisieren). Dazu öffnen Sie eine Windows-Terminal-Sitzung (entweder über PowerShell oder die Eingabeaufforderung) und nutzen folgenden Befehl:   Winget install PowerToys Um PowerToys im Anschluss – automatisch oder direkt – zu aktualisieren, nutzen Sie diese Kommandos: Winget upgrade –all –include-unknown #updates all incl PowerToys Winget upgrade PowerToys #only updates PowerToys Einen umfassende(re)n Guide, um PowerToys zu installieren, finden Sie bei Microsoft (Learn). PowerToys unter Windows nutzen Sobald Sie PowerToys auf Ihrem Rechner installiert haben, öffnen Sie die App besonders bequem, indem Sie sie über das Windows-Suchfeld suchen. Standardmäßig ist PowerToys unter Windows zudem ein Startelement, wird also nach dem Hochfahren automatisch gestartet. Das ergibt auch Sinn, denn so wird die Utility-Sammlung Teil der Windows Runtime – die enthaltenen Tools stehen jederzeit zur Verfügung. Um auf Einstellungen, einzelne Tools und Informationen zuzugreifen, klicken Sie auf das bunte PowerToys-Symbol in Ihrer Windows-Taskleiste (rechts unten). Diese Aktion ruft ein Schnellzugriffsmenü auf, das über die Symbolleiste ganz unten auch ermöglicht, die Dokumentation einzusehen, Fehlerberichte zu verfassen und die Einstellungen aufzurufen: Screenshot | Foundry Ein Klick auf das Zahnrad öffnet das Settings-Dashboard von PowerToys: Das PowerToys-Dashboard bietet unter anderem praktische Schieberegler für sämtliche Utilities.Screenshot | Foundry Das Dashboard ist hilfreich, um den Status der einzelnen Tools im Blick zu behalten. Zudem bietet es die Möglichkeit, die Werkzeuge in fünf verschiedenen Kategorien zu betrachten: System enthält verschiedene Steuerelemente, um das Erscheinungsbild von Windows und den Inhalt von Desktop- oder Anwendungsfenstern zu modifizieren. Fenster & Layouts beinhaltet Tools, um mit Fenstern auf dem  Windows-Desktop zu interagieren und diese anzuordnen.   Eingabe/Ausgabe umfasst Werkzeuge, um Maus und Tastatur zu managen. Dateiverwaltung hält eine Fülle von Add-Ins (in der Regel Kontextmenüs) und Dateisteuerungselementen für den Windows-Datei-Explorer bereit. Erweitert richtet sich mit einem bunten Tool-Mix – unter anderem für die Kommandozeile, die Registry und zu Networking-Zwecken – an versierte Windows-Poweruser. Ansonsten verdient auch der Menüpunkt Allgemein (unter Dashboard im Seitenmenü links) Beachtung. Hier erhalten Sie Zugriff auf allgemeine Informationen und Einstellungen, etwa Infos zur Version sowie Sicherungs- und Wiederherstellungsoptionen. PowerToys-Tools im Überblick Die Liste der in PowerToys enthaltenen Werkzeuge wächst beständig. Aktuell (Stand: Februar 2025) stehen insgesamt 26 Utilities unter dem PowerToys-„Banner“ zur Verfügung. Im Folgenden eine Übersicht inklusive einer kurzen Beschreibung – und den wichtigsten Tastenkombinationen. Erweitertes Einfügen (Advanced Paste) Diese Utility öffnen Sie mit der Tastenkombination Windows + Shift + V. Sie ermöglicht es, das Format von Clipboard-Inhalten zu verändern. Sie können das Werkzeug mit allen möglichen kopierten Inhalten füttern – zum Beispiel im Plaintext-, Markdown-, oder JSON-Format. Für Erweitertes Einfügen stehen auch KI-basierte Funktionen zur Verfügung – allerdings erfordert das einen funktionierenden OpenAI-Key. Zudem dürfen sich PowerToys-Nutzer in naher Zukunft auch auf folgendes Advanced-Paste-Feature freuen: when you got a idea and the team goes “hold my beer”. github.com/microsoft/Po… in pr now: github.com/microsoft/Po…[image or embed]— Clint Rutkas (@clintrutkas.bsky.social) 31. Januar 2025 um 05:47 Always On Top Soll ein App-Fenster permanent auf dem Desktop sichtbar sein und bleiben, sind Sie bei diesem Hilfsprogramm richtig. Um es zu aktivieren, nutzen Sie die Tastenkombination Windows + Strg + T. Das angepinnte Fenster wird anschließend (standardmäßig) mit einem blauen Rahmen versehen – zudem ertönt per Default ein Signalton. Bei Bedarf können Sie bestimmte Anwendungen auch von dieser Funktion ausschließen. Awake Mit diesem Hilfsprogramm verhindern Sie, dass Ihr PC in den Ruhezustand wechselt – unabhängig von seinen Energie- und Schlafmodus-Einstellungen. Das ist vor allem dann nützlich, wenn langlaufende Tasks nicht unterbrochen werden sollen. Farbwähler (Color Picker) Dieses kleine Widget ermöglicht Ihnen, Farbcodes aus dem sichtbaren Displaybereich zu „ziehen“ (zum Beispiel für das HEX-, RGB-, HSL-, oder CMYK-Farbmodell). Um es aufzurufen, nutzen Sie die Tastenkombination Windows + Shift + C. Anschließend bewegen Sie den Cursor an die gewünschte Stelle und kopieren den vorliegenden Farbcode mit einem Klick in die Zwischenablage. Diesen können Sie nun zum Beispiel in Grafikprogramme kopieren. Befehl nicht gefunden (Command Not Found) Dieses PowerShell-Modul fängt den Fehlercode für einen nicht erkannten Befehl ab, sucht nach plausibel erscheinenden WinGet-Paketen und bietet an, diese zu installieren. Nach der Fehlermeldung (in rot) übernimmt die PowerToys-Utility und schlägt mögliche vim-Installationen vor.Ed Tittel / Foundry Zuschneiden und Sperren (Crop and Lock) Mit diesem Hilfsprogramm können Sie Anwendungsfenster auf Ihrem Desktop verändern: Windows + Strg + Shift + T erstellt eine Miniaturansicht von Applikationen. Windows + Strg + Shift + R ermöglicht es, Anwendungsfenster individuell zuzuschneiden. Letztere Option kann laut Microsoft allerdings unter Umständen zu Problemen mit einigen Anwendungen führen. Umgebungsvariablen Diese PowerToys-Utility gewährt Zugriff auf eine Standalone-Anwendung, die Ihnen erlaubt, diverse Umgebungsvariablen von Windows: einzusehen, zu erstellen, zu editieren oder zu entfernen. Diese steuern das Verhalten von Windows und ermöglichen dem Betriebssystem, Systemressourcen zu identifizieren und zu nutzen. FancyZones Ein bisschen wie die Windows Snap-Funktion – nur auf Steroiden –, ist FancyZones. Der Fenster-Manager ermöglicht Ihnen über die Tastenkombination Windows + Shift + Ö, Fenster-Layouts für diverse Nutzungs- und Multitasking-Szenarien zu erstellen. File Locksmith Mit diesem Tool überprüfen Sie, ob eine Datei oder ein Ordner (und seine Unterverzeichnisse) gerade verwendet werden – und, falls ja, welche Prozesse dabei involviert sind. Dieses PowerToys-Element steht über das Windows-Kontextmenü zur Verfügung. Um es zu nutzen, reicht ein Rechtsklick auf eine Datei oder einen Ordner – anschließend wählen Sie die Option „Unlock with File Locksmith“. Datei-Explorer-Add-Ons Dieses Tool erweitert den Datei-Explorer von Windows und ermöglicht es (unter anderem), Markdown-, PDF-, SVG- und Quellcode-Dateien in einem Preview-Fenster und in Thumbnails anzuzeigen. Hostsdatei-Editor (Hosts File Editor) In typischen TCP/IP-Netzwerkumgebungen werden Domänennamen und IP-Adressen in einer lokalen Datei namens Hosts vordefiniert, um den IP-Host-/Adressauflösungsprozess zu beschleunigen. Diese Datei überprüft Windows, bevor es den Domain Name Service nutzt, um Domainnamen in IP-Adressen umzuwandeln. Dieses PowerToys-Hilfsprogramm ermöglicht Ihnen, über eine Standalone-App besagte Hosts-Datei anzuzeigen und zu bearbeiten. Dabei sollten Sie unbedingt wissen, was Sie tun. Wenn Sie sich in das Thema Hosts-File einlesen möchten, empfiehlt sich dieser ausführliche Blogpost. Bildgrößenänderung (Image Resizer) Wenn Sie die Größe von einzelnen oder mehreren Bilddateien schnell und einfach verändern wollen, hilft diese PowerToys-Utility. Sie steht ebenfalls über das Kontextmenü des Datei-Explorers zur Verfügung: Nach einem Rechtsklick wählen Sie „Ändern der Größe mit Bildgrößenänderung“. Tastatur-Manager Wenn Sie einzelne Tasten Ihres Keyboards oder auch Tastenkombinationen neu zuweisen oder verändern wollen, hilft dieses Tool. Mausdienstprogramme Dieses Tool-Bundle widmet sich ganz Ihrer Maus. Es ermöglicht zum Beispiel: über einen Doppelklick der Strg-Taste den Mauszeiger zu „suchen“, beziehungsweise zu finden. mit Windows + Shift + H Links- und Rechtsklicks farblich zu visualisieren. Mouse Without Borders Einfach ausgedrückt, können Sie mit diesem PowerToys-Hilfsprogramm eine Maus, Tastatur und Zwischenablage für mehrere Rechner im selben Netzwerk nutzen. Im Gegensatz zu den meisten anderen PowerToys-Tools, muss Mouse Without Borders daher auch initial eingerichtet und konfiguriert werden. Dazu werden die betreffenden Geräte per Security Key miteinander verbunden. Anschließend stehen diverse Layouts und Steuerelemente zur Verfügung. New+ Dateien und Ordner aus einer personalisierten Sammlung von Vorlagen zu erstellen, funktioniert mit diesem Tool. So könnten Sie beispielsweise: eine Datei für einen Geschäftsbrief mit Platzhalter für Adressblock, Datum und Empfänger erstellen, oder eine andere mit Layouts und Spaltenüberschriften für Rechnungs-Spreadsheets. In den Einstellungen der Utility können Sie außerdem den standardmäßigen Speicherort für Templates ändern, sowie Erweiterungen von Dateinamen und Startzeichen ausblenden. Vorschau (Peek) Eine zusätzliche Erweiterung für den Datei-Explorer von Windows bietet dieses Hilfsprogramm. Um es zu nutzen, markieren Sie eine Datei im Explorer und nutzen anschließend die Tastenkombination Strg + Leertaste, um ein Vorschaufenster aufzurufen. PowerRename Wenn Sie eine Vielzahl von Dateien umbenennen möchten, lohnt sich dieses PowerToys-Tool. Um es einzusetzen, klicken Sie mit der rechten Maustaste auf eine oder mehrere Files und wählen im Kontextmenü die Option „Mit PowerRename umbenennen“ aus. Sollten Sie dabei mit der Regular-Expression-Syntax arbeiten wollen und diesbezüglich Nachholbedarf haben, hilft dieses Tutorial von Microsoft. PowerToys Run Ähnlich wie der Run-Befehl in Windows funktioniert das Schnellstartprogramm PowerToys Run, das Sie mit der Tastenkombination Alt + Leertaste aufrufen. Mit diesem Tool können Sie enorm schnell alles Mögliche suchen, finden und starten. Schnelle Akzentuierung (Quick Accent) Um Buchstaben mit bestimmten Akzenten auszustatten, Brüche oder diakritische Zeichen zu schreiben, stehen Windows-Nutzern diverse Tastenkombinationen zur Verfügung. Schneller geht es allerdings mit diesem PowerToys-Hilfsprogramm, das Sie über das Einstellungsmenü aktivieren. Anschließend halten Sie einfach einen Buchstaben oder eine Zahl gedrückt – und erhalten diverse Einfügeoptionen per Overlay. Registrierungsvorschau (Registry Preview) Um unter Windows mit Registry-Dateien zu arbeiten, empfiehlt sich dieses Hilfsprogramm, das Sie über das Einstellungsmenü starten. Alternativ können Sie auch einfach die Shift-Taste gedrückt halten, während Sie im Datei-Explorer eine .reg-Datei anwählen – und im folgenden Popup-Menü „Vorschau“ wählen. Für Windows-Nutzer, die gelegentlich (oder regelmäßig) direkt mit der Registry arbeiten, stellt diese Utility eine angenehme, schlanke Alternative zu RegEdit.exe dar. Bildschirmlineal (Screen Ruler) Wenn Sie einen simplen Weg suchen, um Pixel auf einem Windows-Bildschirm abzumessen, sind Sie bei diesem Tool gut aufgehoben. Es bietet verschiedene horizontale und vertikale Messfunktionen und auch Steuerelemente für Farbe, Farbkanten und Randerkennung. Das Bildschirmlineal rufen Sie mit der Tastenkombination Windows + Strg + Shift + M auf. Tastenkombinationsübersicht (Shortcut Guide) Kämpfen Sie auch regelmäßig mit Erinnerungslücken, wenn es um die richtige Tastenkombination zur richtigen Zeit geht? Das gehört mit dieser Utility der Vergangenheit an. Mit Hilfe der Tastenkombination Windows + Shift + ‘ blenden Sie ein kontextsensitives Menü (je nachdem welche App gerade geöffnet ist) ein, das einen Überblick über sämtliche verfügbaren Shortcuts zeigt. Textextraktor Um Text aus Bildern und Videos zu kopieren, empfiehlt Microsoft eigentlich sein Snipping Tool. Wahrscheinlich ist der Textextraktor deshalb auch standardmäßig deaktiviert. Das ändern Sie in den PowerToys-Einstellungen. Sobald das geschehen ist, rufen Sie das Hilfsprogramm mit der Tastenkombination Windows + Shift + T auf. Anschließend analysiert das Tool via OCR den entsprechend definierten Bildschirmbereich und kopiert den gefundenen Text in die Zwischenablage. Arbeitsbereiche (Workspaces) Mit diesem PowerToys-Tool können Sie Anwendungen gruppieren – inklusive Positionssteuerung und individueller Konfiguration. Diese Utility starten Sie mit dem Shortcut Windows + Strg + Ö. Anschließend können Sie Arbeitsbereiche mit vordefinierten Templates oder eigenen Layouts erstellen. Dieses Tool eignet sich insbesondere für Arbeitsszenarien, die spezifische Anwendungen, respektive ein Set, erfordern. ZoomIt Dieses praktische Tool ermöglicht Ihnen, Bildschirminhalte aller Art zu zoomen, zu kommentieren und aufzuzeichnen. Aktivieren können Sie dieses Hilfsprogramm über das Einstellungsmenü. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft PowerToys: Ein Leitfaden​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?quality=50&strip=all 2173w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/00_PowerToys_Heroscreen_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dieser Artikel vermittelt alles, was Sie zum Thema PowerToys wissen müssen.Screenshot | Foundry

Die erste Version von Microsofts PowerToys erschien in den 1990er Jahren für Windows 95. Zunächst umfasste die Utility-Sammlung 15 verschiedene Tools, bevor sie ab Windows Vista auf Eis gelegt wurde. Auch Windows 7 und 8 mussten ohne PowerToys auskommen. Erst Mitte 2019 belebte Microsoft seine kostenlosen Hilfsprogramme wieder – als Open-Source-Projekt auf GitHub.

Wie schon bei ihrem ersten „Run“ unterstützen die PowerToys-Tools Windows-Benutzer bei allen möglichen, alltäglichen Tasks (dazu gleich mehr). Allerdings bietet die Tool-Sammlung in ihrer aktuellen Ausformung weit mehr als früher – und ganz allgemein mehr, als viele Microsoft-Anwender wissen.

In diesem Leitfaden lesen Sie:

wie Sie PowerToys installieren,

wie Sie die Utilities unter Windows nutzen, sowie

welche Tools aktuell verfügbar sind und was diese können.

Microsoft PowerToys installieren

Während die PowerToys in den 1990er Jahren noch einzeln heruntergeladen und installiert werden mussten, gibt es heute eine übergreifende PowerToys-App, mit der die User auf sämtliche verfügbaren Tools zugreifen können. Diese können Sie über zweierlei Wege beziehen:

Entweder Sie laden die PowerToys-App über GitHub herunter, oder

Sie nutzen dafür den offiziellen Microsoft Store.

Letztgenannte Option hat den Vorteil, dass sie automatisch aktualisiert wird.

Alternativ können Sie außerdem den in Windows integrierten Packet Manager WinGet nutzen, um PowerToys über die Befehlszeile zu installieren (und manuell zu aktualisieren). Dazu öffnen Sie eine Windows-Terminal-Sitzung (entweder über PowerShell oder die Eingabeaufforderung) und nutzen folgenden Befehl:  

Winget install PowerToys

Um PowerToys im Anschluss – automatisch oder direkt – zu aktualisieren, nutzen Sie diese Kommandos:

Winget upgrade –all –include-unknown #updates all incl PowerToys

Winget upgrade PowerToys #only updates PowerToys

Einen umfassende(re)n Guide, um PowerToys zu installieren, finden Sie bei Microsoft (Learn).

PowerToys unter Windows nutzen

Sobald Sie PowerToys auf Ihrem Rechner installiert haben, öffnen Sie die App besonders bequem, indem Sie sie über das Windows-Suchfeld suchen. Standardmäßig ist PowerToys unter Windows zudem ein Startelement, wird also nach dem Hochfahren automatisch gestartet. Das ergibt auch Sinn, denn so wird die Utility-Sammlung Teil der Windows Runtime – die enthaltenen Tools stehen jederzeit zur Verfügung.

Um auf Einstellungen, einzelne Tools und Informationen zuzugreifen, klicken Sie auf das bunte PowerToys-Symbol in Ihrer Windows-Taskleiste (rechts unten). Diese Aktion ruft ein Schnellzugriffsmenü auf, das über die Symbolleiste ganz unten auch ermöglicht, die Dokumentation einzusehen, Fehlerberichte zu verfassen und die Einstellungen aufzurufen:

Screenshot | Foundry

Ein Klick auf das Zahnrad öffnet das Settings-Dashboard von PowerToys:

Das PowerToys-Dashboard bietet unter anderem praktische Schieberegler für sämtliche Utilities.Screenshot | Foundry

Das Dashboard ist hilfreich, um den Status der einzelnen Tools im Blick zu behalten. Zudem bietet es die Möglichkeit, die Werkzeuge in fünf verschiedenen Kategorien zu betrachten:

System enthält verschiedene Steuerelemente, um das Erscheinungsbild von Windows und den Inhalt von Desktop- oder Anwendungsfenstern zu modifizieren.

Fenster & Layouts beinhaltet Tools, um mit Fenstern auf dem  Windows-Desktop zu interagieren und diese anzuordnen.  

Eingabe/Ausgabe umfasst Werkzeuge, um Maus und Tastatur zu managen.

Dateiverwaltung hält eine Fülle von Add-Ins (in der Regel Kontextmenüs) und Dateisteuerungselementen für den Windows-Datei-Explorer bereit.

Erweitert richtet sich mit einem bunten Tool-Mix – unter anderem für die Kommandozeile, die Registry und zu Networking-Zwecken – an versierte Windows-Poweruser.

Ansonsten verdient auch der Menüpunkt Allgemein (unter Dashboard im Seitenmenü links) Beachtung. Hier erhalten Sie Zugriff auf allgemeine Informationen und Einstellungen, etwa Infos zur Version sowie Sicherungs- und Wiederherstellungsoptionen.

PowerToys-Tools im Überblick

Die Liste der in PowerToys enthaltenen Werkzeuge wächst beständig. Aktuell (Stand: Februar 2025) stehen insgesamt 26 Utilities unter dem PowerToys-„Banner“ zur Verfügung. Im Folgenden eine Übersicht inklusive einer kurzen Beschreibung – und den wichtigsten Tastenkombinationen.

Erweitertes Einfügen (Advanced Paste)

Diese Utility öffnen Sie mit der Tastenkombination Windows + Shift + V. Sie ermöglicht es, das Format von Clipboard-Inhalten zu verändern. Sie können das Werkzeug mit allen möglichen kopierten Inhalten füttern – zum Beispiel im Plaintext-, Markdown-, oder JSON-Format. Für Erweitertes Einfügen stehen auch KI-basierte Funktionen zur Verfügung – allerdings erfordert das einen funktionierenden OpenAI-Key.

Zudem dürfen sich PowerToys-Nutzer in naher Zukunft auch auf folgendes Advanced-Paste-Feature freuen:

when you got a idea and the team goes “hold my beer”. github.com/microsoft/Po…

in pr now: github.com/microsoft/Po…[image or embed]— Clint Rutkas (@clintrutkas.bsky.social) 31. Januar 2025 um 05:47

Always On Top

Soll ein App-Fenster permanent auf dem Desktop sichtbar sein und bleiben, sind Sie bei diesem Hilfsprogramm richtig. Um es zu aktivieren, nutzen Sie die Tastenkombination Windows + Strg + T. Das angepinnte Fenster wird anschließend (standardmäßig) mit einem blauen Rahmen versehen – zudem ertönt per Default ein Signalton. Bei Bedarf können Sie bestimmte Anwendungen auch von dieser Funktion ausschließen.

Awake

Mit diesem Hilfsprogramm verhindern Sie, dass Ihr PC in den Ruhezustand wechselt – unabhängig von seinen Energie- und Schlafmodus-Einstellungen. Das ist vor allem dann nützlich, wenn langlaufende Tasks nicht unterbrochen werden sollen.

Farbwähler (Color Picker)

Dieses kleine Widget ermöglicht Ihnen, Farbcodes aus dem sichtbaren Displaybereich zu „ziehen“ (zum Beispiel für das HEX-, RGB-, HSL-, oder CMYK-Farbmodell). Um es aufzurufen, nutzen Sie die Tastenkombination Windows + Shift + C. Anschließend bewegen Sie den Cursor an die gewünschte Stelle und kopieren den vorliegenden Farbcode mit einem Klick in die Zwischenablage. Diesen können Sie nun zum Beispiel in Grafikprogramme kopieren.

Befehl nicht gefunden (Command Not Found)

Dieses PowerShell-Modul fängt den Fehlercode für einen nicht erkannten Befehl ab, sucht nach plausibel erscheinenden WinGet-Paketen und bietet an, diese zu installieren.

Nach der Fehlermeldung (in rot) übernimmt die PowerToys-Utility und schlägt mögliche vim-Installationen vor.Ed Tittel / Foundry

Zuschneiden und Sperren (Crop and Lock)

Mit diesem Hilfsprogramm können Sie Anwendungsfenster auf Ihrem Desktop verändern:

Windows + Strg + Shift + T erstellt eine Miniaturansicht von Applikationen.

Windows + Strg + Shift + R ermöglicht es, Anwendungsfenster individuell zuzuschneiden.

Letztere Option kann laut Microsoft allerdings unter Umständen zu Problemen mit einigen Anwendungen führen.

Umgebungsvariablen

Diese PowerToys-Utility gewährt Zugriff auf eine Standalone-Anwendung, die Ihnen erlaubt, diverse Umgebungsvariablen von Windows:

einzusehen,

zu erstellen,

zu editieren oder

zu entfernen.

Diese steuern das Verhalten von Windows und ermöglichen dem Betriebssystem, Systemressourcen zu identifizieren und zu nutzen.

FancyZones

Ein bisschen wie die Windows Snap-Funktion – nur auf Steroiden –, ist FancyZones. Der Fenster-Manager ermöglicht Ihnen über die Tastenkombination Windows + Shift + Ö, Fenster-Layouts für diverse Nutzungs- und Multitasking-Szenarien zu erstellen.

File Locksmith

Mit diesem Tool überprüfen Sie, ob eine Datei oder ein Ordner (und seine Unterverzeichnisse) gerade verwendet werden – und, falls ja, welche Prozesse dabei involviert sind. Dieses PowerToys-Element steht über das Windows-Kontextmenü zur Verfügung. Um es zu nutzen, reicht ein Rechtsklick auf eine Datei oder einen Ordner – anschließend wählen Sie die Option „Unlock with File Locksmith“.

Datei-Explorer-Add-Ons

Dieses Tool erweitert den Datei-Explorer von Windows und ermöglicht es (unter anderem), Markdown-, PDF-, SVG- und Quellcode-Dateien in einem Preview-Fenster und in Thumbnails anzuzeigen.

Hostsdatei-Editor (Hosts File Editor)

In typischen TCP/IP-Netzwerkumgebungen werden Domänennamen und IP-Adressen in einer lokalen Datei namens Hosts vordefiniert, um den IP-Host-/Adressauflösungsprozess zu beschleunigen. Diese Datei überprüft Windows, bevor es den Domain Name Service nutzt, um Domainnamen in IP-Adressen umzuwandeln.

Dieses PowerToys-Hilfsprogramm ermöglicht Ihnen, über eine Standalone-App besagte Hosts-Datei anzuzeigen und zu bearbeiten. Dabei sollten Sie unbedingt wissen, was Sie tun. Wenn Sie sich in das Thema Hosts-File einlesen möchten, empfiehlt sich dieser ausführliche Blogpost.

Bildgrößenänderung (Image Resizer)

Wenn Sie die Größe von einzelnen oder mehreren Bilddateien schnell und einfach verändern wollen, hilft diese PowerToys-Utility. Sie steht ebenfalls über das Kontextmenü des Datei-Explorers zur Verfügung: Nach einem Rechtsklick wählen Sie „Ändern der Größe mit Bildgrößenänderung“.

Tastatur-Manager

Wenn Sie einzelne Tasten Ihres Keyboards oder auch Tastenkombinationen neu zuweisen oder verändern wollen, hilft dieses Tool.

Mausdienstprogramme

Dieses Tool-Bundle widmet sich ganz Ihrer Maus. Es ermöglicht zum Beispiel:

über einen Doppelklick der Strg-Taste den Mauszeiger zu „suchen“, beziehungsweise zu finden.

mit Windows + Shift + H Links- und Rechtsklicks farblich zu visualisieren.

Mouse Without Borders

Einfach ausgedrückt, können Sie mit diesem PowerToys-Hilfsprogramm eine Maus, Tastatur und Zwischenablage für mehrere Rechner im selben Netzwerk nutzen. Im Gegensatz zu den meisten anderen PowerToys-Tools, muss Mouse Without Borders daher auch initial eingerichtet und konfiguriert werden. Dazu werden die betreffenden Geräte per Security Key miteinander verbunden. Anschließend stehen diverse Layouts und Steuerelemente zur Verfügung.

New+

Dateien und Ordner aus einer personalisierten Sammlung von Vorlagen zu erstellen, funktioniert mit diesem Tool. So könnten Sie beispielsweise:

eine Datei für einen Geschäftsbrief mit Platzhalter für Adressblock, Datum und Empfänger erstellen, oder

eine andere mit Layouts und Spaltenüberschriften für Rechnungs-Spreadsheets.

In den Einstellungen der Utility können Sie außerdem den standardmäßigen Speicherort für Templates ändern, sowie Erweiterungen von Dateinamen und Startzeichen ausblenden.

Vorschau (Peek)

Eine zusätzliche Erweiterung für den Datei-Explorer von Windows bietet dieses Hilfsprogramm. Um es zu nutzen, markieren Sie eine Datei im Explorer und nutzen anschließend die Tastenkombination Strg + Leertaste, um ein Vorschaufenster aufzurufen.

PowerRename

Wenn Sie eine Vielzahl von Dateien umbenennen möchten, lohnt sich dieses PowerToys-Tool. Um es einzusetzen, klicken Sie mit der rechten Maustaste auf eine oder mehrere Files und wählen im Kontextmenü die Option „Mit PowerRename umbenennen“ aus. Sollten Sie dabei mit der Regular-Expression-Syntax arbeiten wollen und diesbezüglich Nachholbedarf haben, hilft dieses Tutorial von Microsoft.

PowerToys Run

Ähnlich wie der Run-Befehl in Windows funktioniert das Schnellstartprogramm PowerToys Run, das Sie mit der Tastenkombination Alt + Leertaste aufrufen. Mit diesem Tool können Sie enorm schnell alles Mögliche suchen, finden und starten.

Schnelle Akzentuierung (Quick Accent)

Um Buchstaben mit bestimmten Akzenten auszustatten, Brüche oder diakritische Zeichen zu schreiben, stehen Windows-Nutzern diverse Tastenkombinationen zur Verfügung. Schneller geht es allerdings mit diesem PowerToys-Hilfsprogramm, das Sie über das Einstellungsmenü aktivieren. Anschließend halten Sie einfach einen Buchstaben oder eine Zahl gedrückt – und erhalten diverse Einfügeoptionen per Overlay.

Registrierungsvorschau (Registry Preview)

Um unter Windows mit Registry-Dateien zu arbeiten, empfiehlt sich dieses Hilfsprogramm, das Sie über das Einstellungsmenü starten. Alternativ können Sie auch einfach die Shift-Taste gedrückt halten, während Sie im Datei-Explorer eine .reg-Datei anwählen – und im folgenden Popup-Menü „Vorschau“ wählen. Für Windows-Nutzer, die gelegentlich (oder regelmäßig) direkt mit der Registry arbeiten, stellt diese Utility eine angenehme, schlanke Alternative zu RegEdit.exe dar.

Bildschirmlineal (Screen Ruler)

Wenn Sie einen simplen Weg suchen, um Pixel auf einem Windows-Bildschirm abzumessen, sind Sie bei diesem Tool gut aufgehoben. Es bietet verschiedene horizontale und vertikale Messfunktionen und auch Steuerelemente für Farbe, Farbkanten und Randerkennung. Das Bildschirmlineal rufen Sie mit der Tastenkombination Windows + Strg + Shift + M auf.

Tastenkombinationsübersicht (Shortcut Guide)

Kämpfen Sie auch regelmäßig mit Erinnerungslücken, wenn es um die richtige Tastenkombination zur richtigen Zeit geht? Das gehört mit dieser Utility der Vergangenheit an. Mit Hilfe der Tastenkombination Windows + Shift + ‘ blenden Sie ein kontextsensitives Menü (je nachdem welche App gerade geöffnet ist) ein, das einen Überblick über sämtliche verfügbaren Shortcuts zeigt.

Textextraktor

Um Text aus Bildern und Videos zu kopieren, empfiehlt Microsoft eigentlich sein Snipping Tool. Wahrscheinlich ist der Textextraktor deshalb auch standardmäßig deaktiviert. Das ändern Sie in den PowerToys-Einstellungen. Sobald das geschehen ist, rufen Sie das Hilfsprogramm mit der Tastenkombination Windows + Shift + T auf. Anschließend analysiert das Tool via OCR den entsprechend definierten Bildschirmbereich und kopiert den gefundenen Text in die Zwischenablage.

Arbeitsbereiche (Workspaces)

Mit diesem PowerToys-Tool können Sie Anwendungen gruppieren – inklusive Positionssteuerung und individueller Konfiguration. Diese Utility starten Sie mit dem Shortcut Windows + Strg + Ö. Anschließend können Sie Arbeitsbereiche mit vordefinierten Templates oder eigenen Layouts erstellen. Dieses Tool eignet sich insbesondere für Arbeitsszenarien, die spezifische Anwendungen, respektive ein Set, erfordern.

ZoomIt

Dieses praktische Tool ermöglicht Ihnen, Bildschirminhalte aller Art zu zoomen, zu kommentieren und aufzuzeichnen. Aktivieren können Sie dieses Hilfsprogramm über das Einstellungsmenü.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft PowerToys: Ein Leitfaden​ Weiterlesen »

9 Tipps für bessere Build Pipelines​

Allgemein

Wird Ihre Build Pipeline aktuellen Anforderungen noch gerecht – oder ist es Zeit für neue Impulse? Gorodenkoff | shutterstock.com Zu Mainframe-Zeiten gab es keine Notwendigkeit, eine Build Pipeline aufzubauen. Damals haben wir ein bisschen an den Frontpanels der Großrechner herumgespielt und der Code ist gelaufen – oder auch nicht. Softwareentwicklung war zu dieser Zeit noch eine ziemlich „straighte“, eher unkomplizierte Angelegenheit. Heute kann jede einzelne Codezeile diverse Maßnahmen durchlaufen. Der Build-Prozess ist inzwischen so aufwändig und komplex, dass selbst mittelgroße Teams meist nicht umhinkommen, einen oder mehrere Engineers in Vollzeit dafür abzustellen, diesen zu managen. Der Build-Prozess ist im Laufe der Jahre gehörig gewachsen, um den unterschiedlichsten Problemen zu begegnen: Ist der Code zu langsam, hilft ein Optimierungsprozess. Kommt es zu Programmabstürzen, unterstützen Unit Tests. Um zu überprüfen, ob die Unit Tests richtig laufen, sind Meta-Tests nötig. Und so weiter.     All diese Maßnahmen zahlen sich zweifellos aus. Dennoch lohnt es sich, von Zeit zu Zeit innezuhalten und sich mit dem Zustand Ihrer Build Pipeline zu befassen. Zum Beispiel, um zu überprüfen: ob es neue Entwicklungen und Innovationen in diesem Bereich gibt oder ob Ihre Build-Prozesse noch zeitgemäß sind. In diesem Artikel geben wir Ihnen neun Tipps an die Hand, die Sie dabei unterstützen. 1. 1JPM nutzen In der Vergangenheit verließen sich Java-Entwickler auf populäre Build Tools wie Ant, Maven oder Gradle, um Abhängigkeiten zu Standard-Bibliotheken zu behandeln und diverse Tests auszuführen. Das gewährleistete auch einen praktischen, zentralisierten Mechanismus, um alle Schritte des Prozesses zu organisieren. Dazu mussten diese lediglich in XML (für Ant und Maven) oder Groovy/Kotlin (für Gradle) formuliert werden.   Mit dem Open-Source-Tool 1JPM hat das ein Ende: Es ermöglicht Ihnen, Build-Anweisungen direkt in Java zu schreiben. Dabei stellt 1JPM im Wesentlichen einen Wrapper für Maven dar. Sie können also auf dessen Infrastruktur zurückgreifen. 1JPM verwandelt Ihre Java-Build-Datei in das entsprechende Maven-Pendant – das klassische pom.xml. 2. Notebooks verwenden Geht es darum, Code für Data-Science-Zwecke auszuliefern, sind Notebook-Formate eine beliebte Option. In einigen Umgebungen kommen sie auch als Ersatz für traditionelle Builds zum Einsatz. Das Notebook-Format kombiniert normalen Text mit Codeblöcken und Datenzugriff und ermöglicht den Rezipienten, den Textinhalt aufzunehmen und anschließend auf den Code zu klicken, um ihn auszuführen. Das bündelt alle Informationen und Data-Analytics-Schritte in einer Entität.   Inzwischen existieren mehrere, verschiedene hochwertige Notebook-Formate, die diverse Programmiersprachen unterstützen. Dabei ist das ursprüngliche Format – das IPython Notebook (.ipynb) – weiterhin eines der gängigsten, hat jedoch weitere Formate inspiriert. Zum Beispiel: R Markdown (.rmd), das auf der Sprache R basiert, Quarto (.qmd), das R und Python kombiniert oder Myst Markdown (.md), das R- und Python-Code in reguläre Markdown-Dateien überführt. Darüber hinaus existieren auch noch „Metaformate“ wie JupyterLab (.jlpb) und Observable Notebook (.ipynb). Diese fassen mehrere Notebooks in Websites zusammen, um Daten und Informationen zu sammeln. Die Popularität der Notebook-Formate hat dazu geführt, dass Jupyter Notebooks für weitere Sprachen angepasst wurden – in Form eines separaten Kernels, der die Kompilier- und Ausführungsarbeit übernimmt. Das bieten zum Beispiel die im Umfeld der Datenwissenschaft populären Sprachen: MATLAB, Julia, Java, Scala, Scheme und Octave. 3. Auf Low-Code setzen Die Buzzwords Low-Code und No Code adressieren im Regelfall eher Nicht-Programmierer, die entwickeln wollen. Allerdings haben einige Plattformen in diesem Bereich auch Anklang unter Devs gefunden. Schließlich lassen sich damit auch weite Teile der Build Pipeline automatisieren – die Dev-Spezialisten können sich hingegen auf ihre Kernaufgaben fokussieren. REI3 ist nur ein Beispiel für eine solche Low-Code-Lösung, mit der sich Webapplikationen mit nur wenigen Code-Zeilen erstellen lassen. Die Open-Source-Lösung wird mit MIT-Lizenz vertrieben und kann wahlweise lokal oder in der Cloud installiert werden. Für Funktionen, die in Code-Form hinzugefügt werden müssen, bietet das Tool auch einen integrierten Editor – ähnlich wie eine IDE. Es übernimmt den kompletten Build- und Distributionsprozess für Applikationen. 4. Java als Skriptsprache einsetzen Vor etlichen Dekaden war Java eine kompilierte Sprache für große Projekte, JavaScript sein kleiner Cousin für den Webbrowser. Im Laufe der Jahre haben viele, smarte Devs den kleinen Cousin zu einem riesigen Ökosystem weiterentwickelt, das große Entwicklungsprojekte mit Just-in-Time-Kompilierung unterstützt. Java hat sich hingegen parallel in die entgegengesetzte Richtung entwickelt, hin zur Imitation einer Skriptsprache. Inzwischen ist es allerdings möglich, ein Java-Programm in eine einzelne Datei zu schreiben – mit X.java. In diesem Fall übernimmt die Java-Infrastruktur alle Kompilierungs- und Build-Aufgaben. Entwickler, die an kleineren Projekten arbeiten, müssen sich so erst gar nicht mit der Build-Konfiguration herumschlagen. 5. Build-Kosten ermitteln Developer fokussieren sich meist auf Metriken wie die Ausführungszeit oder den RAM-Verbrauch. Bei erfolgreichen Projekten sind sie oft damit beschäftigt, zusätzliche Anpassungs- und Konfigurationsebenen hinzuzufügen, um den Code wartbar zu gestalten. Deshalb sind viele Entwickler nicht vorbereitet auf Fragen wie:   Wie viel wird es kosten, diesen Code auszuführen? oder Wie viel Hardware wird dazu benötigt? Auch an dieser Stelle können Devops-Teams auf Tools zurückgreifen, um Kosten nicht nur zu veranschaulichen, sondern auch unter Kontrolle zu halten. Das bewerkstelligen diese, indem sie im Rahmen des gesamten Build-Prozesses jeweils entsprechende Kostenschätzungen bereitstellen. So können Dev-Teams etwa ermitteln, wie viel ein Pull Request einspart – oder kostet. Empfehlenswerte Lösungen in diesem Bereich sind zum Beispiel: Infracost und Finout. 6. Build Pipeline dokumentieren In den frühen Jahren der Softwareentwicklung war die Dokumentation etwas, an das eher nachträglich gedacht wurde – wenn die „wirkliche“ Arbeit erledigt war. Das hat sich in den letzten Jahren grundlegend geändert. Inzwischen ist das Thema Dokumentation – ähnlich wie die Kostenschätzung – Bestandteil des Build-Prozesses geworden. Einige Programmiersprachen bieten zu diesem Zweck spezifische Formate – etwa JavaDoc oder PyDoc. Diese definieren eine starre Struktur für Code-Kommentare, die sich automatisch in Dokumentationsseiten für Webseiten umwandeln lassen. Andere Sprachen gehen an dieser Stelle noch einen Schritt weiter. Manche Datenwissenschaftler, die mit R oder Python arbeiten, nutzen Tools, um ihre finale Präsentation und ihren Code gleichzeitig zu schreiben. Das funktioniert mit Packages wie: Sweave, Pweave oder knitr. Die Idee dahinter ist, die Datenanalyse-Software mit dem Datenanalyse-Text zu bündeln, sodass Tabellen, Grafiken und Abbildungen zur Laufzeit direkt aus den Rohdaten generiert werden. 7. Von domänenspezifischen Sprachen profitieren Die Entwickler domänenspezifischer Sprachen (Domain-specific Languages; DSLs) haben zwar nicht damit gerechnet, Build Pipelines zu vereinfachen, es aber dennoch geschafft. Denn DSLs erfordern im Regelfall deutlich weniger Bibliotheken, weil ein Großteil der Komplexität bestimmter Tasks durch die Definition der Sprache selbst absorbiert wird. In einigen Fällen sind auch Semi-Standard-Tests enthalten. In anderen Fällen ist die DSL Teil eines größeren Tool-Systems oder einer integrierten Entwicklungsumgebung, was den Build-Prozess zusätzlich simplifizieren kann. Einige gute Beispiele dafür sind: UnrealScript, das im Bereich der Games-Entwicklung eingesetzt wird, QuantLib, das für grundlegende Finanzanalysen angewendet wird, oder das Robot Operating System, mit dem entsprechende Applikationen optimiert werden können. 8. Bibliotheken lokal erstellen In der Vergangenheit waren Programmierer in der Regel froh darüber, wenn jemand anderes ihre Bibliotheken und andere Komponenten erstellte. Das Motto: Binärdatei downloaden – fertig. Das änderte sich, nachdem kriminelle Hacker Bibliotheken zunehmend für sich entdeckt, Malware eingeschleust und Hintertüren eingebaut haben. Seitdem setzen viele Entwickler(-Teams) auf einen zusätzlichen Schritt innerhalb ihres Build-Prozesses: Sie bauen Drittanbieter-Bibliotheken auf lokaler Ebene nach. Das schließt zwar nicht aus, dass der zugrundeliegende Code frei von Kompromittierungen ist, erhöht aber die Chance, dass diese entdeckt werden. 9. Generative AI integrieren Inzwischen dürfte sich herumgesprochen haben, dass Large Language Models (LLMs) immer besser darin werden, Code zu erstellen. Weniger offensichtlich ist hingegen bislang, wie Generative AI (GenAI) die Build Pipeline bereichern kann. Bislang experimentieren die Build Engineers dieser Welt noch mit LLMs. Zum Beispiel nutzen sie GenAI, um: Code für High-Level-Dokumentationen zusammenzufassen. über natürlichsprachliche Queries nachzuvollziehen, wo ein Bug zum ersten Mal aufgetreten ist. ihren Code zu refaktorieren. bessere und umfassendere Test-Cases zu erstellen. LLMs dürften mit fortschreitender Entwicklung noch deutlich mehr zum Build-Prozess beitragen. Bis es so weit ist, sind weiterhin menschliche Experten gefragt, um Build Pipelines instand zuhalten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Tipps für bessere Build Pipelines​ Wird Ihre Build Pipeline aktuellen Anforderungen noch gerecht – oder ist es Zeit für neue Impulse?
Gorodenkoff | shutterstock.com

Zu Mainframe-Zeiten gab es keine Notwendigkeit, eine Build Pipeline aufzubauen. Damals haben wir ein bisschen an den Frontpanels der Großrechner herumgespielt und der Code ist gelaufen – oder auch nicht. Softwareentwicklung war zu dieser Zeit noch eine ziemlich „straighte“, eher unkomplizierte Angelegenheit.

Heute kann jede einzelne Codezeile diverse Maßnahmen durchlaufen. Der Build-Prozess ist inzwischen so aufwändig und komplex, dass selbst mittelgroße Teams meist nicht umhinkommen, einen oder mehrere Engineers in Vollzeit dafür abzustellen, diesen zu managen. Der Build-Prozess ist im Laufe der Jahre gehörig gewachsen, um den unterschiedlichsten Problemen zu begegnen: Ist der Code zu langsam, hilft ein Optimierungsprozess. Kommt es zu Programmabstürzen, unterstützen Unit Tests. Um zu überprüfen, ob die Unit Tests richtig laufen, sind Meta-Tests nötig. Und so weiter.    

All diese Maßnahmen zahlen sich zweifellos aus. Dennoch lohnt es sich, von Zeit zu Zeit innezuhalten und sich mit dem Zustand Ihrer Build Pipeline zu befassen. Zum Beispiel, um zu überprüfen:

ob es neue Entwicklungen und Innovationen in diesem Bereich gibt oder

ob Ihre Build-Prozesse noch zeitgemäß sind.

In diesem Artikel geben wir Ihnen neun Tipps an die Hand, die Sie dabei unterstützen.

1. 1JPM nutzen

In der Vergangenheit verließen sich Java-Entwickler auf populäre Build Tools wie Ant, Maven oder Gradle, um Abhängigkeiten zu Standard-Bibliotheken zu behandeln und diverse Tests auszuführen. Das gewährleistete auch einen praktischen, zentralisierten Mechanismus, um alle Schritte des Prozesses zu organisieren. Dazu mussten diese lediglich in XML (für Ant und Maven) oder Groovy/Kotlin (für Gradle) formuliert werden.  

Mit dem Open-Source-Tool 1JPM hat das ein Ende: Es ermöglicht Ihnen, Build-Anweisungen direkt in Java zu schreiben. Dabei stellt 1JPM im Wesentlichen einen Wrapper für Maven dar. Sie können also auf dessen Infrastruktur zurückgreifen. 1JPM verwandelt Ihre Java-Build-Datei in das entsprechende Maven-Pendant – das klassische pom.xml.

2. Notebooks verwenden

Geht es darum, Code für Data-Science-Zwecke auszuliefern, sind Notebook-Formate eine beliebte Option. In einigen Umgebungen kommen sie auch als Ersatz für traditionelle Builds zum Einsatz. Das Notebook-Format kombiniert normalen Text mit Codeblöcken und Datenzugriff und ermöglicht den Rezipienten, den Textinhalt aufzunehmen und anschließend auf den Code zu klicken, um ihn auszuführen. Das bündelt alle Informationen und Data-Analytics-Schritte in einer Entität.  

Inzwischen existieren mehrere, verschiedene hochwertige Notebook-Formate, die diverse Programmiersprachen unterstützen. Dabei ist das ursprüngliche Format – das IPython Notebook (.ipynb) – weiterhin eines der gängigsten, hat jedoch weitere Formate inspiriert. Zum Beispiel:

R Markdown (.rmd), das auf der Sprache R basiert,

Quarto (.qmd), das R und Python kombiniert oder

Myst Markdown (.md), das R- und Python-Code in reguläre Markdown-Dateien überführt.

Darüber hinaus existieren auch noch „Metaformate“ wie JupyterLab (.jlpb) und Observable Notebook (.ipynb). Diese fassen mehrere Notebooks in Websites zusammen, um Daten und Informationen zu sammeln.

Die Popularität der Notebook-Formate hat dazu geführt, dass Jupyter Notebooks für weitere Sprachen angepasst wurden – in Form eines separaten Kernels, der die Kompilier- und Ausführungsarbeit übernimmt. Das bieten zum Beispiel die im Umfeld der Datenwissenschaft populären Sprachen:

MATLAB,

Julia,

Java,

Scala,

Scheme und

Octave.

3. Auf Low-Code setzen

Die Buzzwords Low-Code und No Code adressieren im Regelfall eher Nicht-Programmierer, die entwickeln wollen. Allerdings haben einige Plattformen in diesem Bereich auch Anklang unter Devs gefunden. Schließlich lassen sich damit auch weite Teile der Build Pipeline automatisieren – die Dev-Spezialisten können sich hingegen auf ihre Kernaufgaben fokussieren.

REI3 ist nur ein Beispiel für eine solche Low-Code-Lösung, mit der sich Webapplikationen mit nur wenigen Code-Zeilen erstellen lassen. Die Open-Source-Lösung wird mit MIT-Lizenz vertrieben und kann wahlweise lokal oder in der Cloud installiert werden. Für Funktionen, die in Code-Form hinzugefügt werden müssen, bietet das Tool auch einen integrierten Editor – ähnlich wie eine IDE. Es übernimmt den kompletten Build- und Distributionsprozess für Applikationen.

4. Java als Skriptsprache einsetzen

Vor etlichen Dekaden war Java eine kompilierte Sprache für große Projekte, JavaScript sein kleiner Cousin für den Webbrowser. Im Laufe der Jahre haben viele, smarte Devs den kleinen Cousin zu einem riesigen Ökosystem weiterentwickelt, das große Entwicklungsprojekte mit Just-in-Time-Kompilierung unterstützt. Java hat sich hingegen parallel in die entgegengesetzte Richtung entwickelt, hin zur Imitation einer Skriptsprache.

Inzwischen ist es allerdings möglich, ein Java-Programm in eine einzelne Datei zu schreiben – mit X.java. In diesem Fall übernimmt die Java-Infrastruktur alle Kompilierungs- und Build-Aufgaben. Entwickler, die an kleineren Projekten arbeiten, müssen sich so erst gar nicht mit der Build-Konfiguration herumschlagen.

5. Build-Kosten ermitteln

Developer fokussieren sich meist auf Metriken wie die Ausführungszeit oder den RAM-Verbrauch. Bei erfolgreichen Projekten sind sie oft damit beschäftigt, zusätzliche Anpassungs- und Konfigurationsebenen hinzuzufügen, um den Code wartbar zu gestalten. Deshalb sind viele Entwickler nicht vorbereitet auf Fragen wie:  

Wie viel wird es kosten, diesen Code auszuführen? oder

Wie viel Hardware wird dazu benötigt?

Auch an dieser Stelle können Devops-Teams auf Tools zurückgreifen, um Kosten nicht nur zu veranschaulichen, sondern auch unter Kontrolle zu halten. Das bewerkstelligen diese, indem sie im Rahmen des gesamten Build-Prozesses jeweils entsprechende Kostenschätzungen bereitstellen. So können Dev-Teams etwa ermitteln, wie viel ein Pull Request einspart – oder kostet. Empfehlenswerte Lösungen in diesem Bereich sind zum Beispiel:

Infracost und

Finout.

6. Build Pipeline dokumentieren

In den frühen Jahren der Softwareentwicklung war die Dokumentation etwas, an das eher nachträglich gedacht wurde – wenn die „wirkliche“ Arbeit erledigt war. Das hat sich in den letzten Jahren grundlegend geändert. Inzwischen ist das Thema Dokumentation – ähnlich wie die Kostenschätzung – Bestandteil des Build-Prozesses geworden.

Einige Programmiersprachen bieten zu diesem Zweck spezifische Formate – etwa JavaDoc oder PyDoc. Diese definieren eine starre Struktur für Code-Kommentare, die sich automatisch in Dokumentationsseiten für Webseiten umwandeln lassen.

Andere Sprachen gehen an dieser Stelle noch einen Schritt weiter. Manche Datenwissenschaftler, die mit R oder Python arbeiten, nutzen Tools, um ihre finale Präsentation und ihren Code gleichzeitig zu schreiben. Das funktioniert mit Packages wie:

Sweave,

Pweave oder

knitr.

Die Idee dahinter ist, die Datenanalyse-Software mit dem Datenanalyse-Text zu bündeln, sodass Tabellen, Grafiken und Abbildungen zur Laufzeit direkt aus den Rohdaten generiert werden.

7. Von domänenspezifischen Sprachen profitieren

Die Entwickler domänenspezifischer Sprachen (Domain-specific Languages; DSLs) haben zwar nicht damit gerechnet, Build Pipelines zu vereinfachen, es aber dennoch geschafft. Denn DSLs erfordern im Regelfall deutlich weniger Bibliotheken, weil ein Großteil der Komplexität bestimmter Tasks durch die Definition der Sprache selbst absorbiert wird. In einigen Fällen sind auch Semi-Standard-Tests enthalten.

In anderen Fällen ist die DSL Teil eines größeren Tool-Systems oder einer integrierten Entwicklungsumgebung, was den Build-Prozess zusätzlich simplifizieren kann. Einige gute Beispiele dafür sind:

UnrealScript, das im Bereich der Games-Entwicklung eingesetzt wird,

QuantLib, das für grundlegende Finanzanalysen angewendet wird, oder

das Robot Operating System, mit dem entsprechende Applikationen optimiert werden können.

8. Bibliotheken lokal erstellen

In der Vergangenheit waren Programmierer in der Regel froh darüber, wenn jemand anderes ihre Bibliotheken und andere Komponenten erstellte. Das Motto: Binärdatei downloaden – fertig.

Das änderte sich, nachdem kriminelle Hacker Bibliotheken zunehmend für sich entdeckt, Malware eingeschleust und Hintertüren eingebaut haben. Seitdem setzen viele Entwickler(-Teams) auf einen zusätzlichen Schritt innerhalb ihres Build-Prozesses: Sie bauen Drittanbieter-Bibliotheken auf lokaler Ebene nach. Das schließt zwar nicht aus, dass der zugrundeliegende Code frei von Kompromittierungen ist, erhöht aber die Chance, dass diese entdeckt werden.

9. Generative AI integrieren

Inzwischen dürfte sich herumgesprochen haben, dass Large Language Models (LLMs) immer besser darin werden, Code zu erstellen. Weniger offensichtlich ist hingegen bislang, wie Generative AI (GenAI) die Build Pipeline bereichern kann. Bislang experimentieren die Build Engineers dieser Welt noch mit LLMs. Zum Beispiel nutzen sie GenAI, um:

Code für High-Level-Dokumentationen zusammenzufassen.

über natürlichsprachliche Queries nachzuvollziehen, wo ein Bug zum ersten Mal aufgetreten ist.

ihren Code zu refaktorieren.

bessere und umfassendere Test-Cases zu erstellen.

LLMs dürften mit fortschreitender Entwicklung noch deutlich mehr zum Build-Prozess beitragen. Bis es so weit ist, sind weiterhin menschliche Experten gefragt, um Build Pipelines instand zuhalten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Tipps für bessere Build Pipelines​ Weiterlesen »

Nach oben scrollen
×